wissen.de Artikel

Supercomputer: Die Exascale-Ära hat begonnen

Immer schneller, immer leistungsstärker: In der Liga der Supercomputer wetteifern die besten Rechner der Welt um die ersten Plätze in der TOP500-Liste. Jetzt hat erstmals ein Supercomputer die Schwelle zum Exascale-Zeitalter überschritten: Der "Frontier"-Supercomputer am Oak Ridge National Laboratory in den USA hat 1,1 Trillionen Gleitkommaoperationen pro Sekunde erreicht – sein Tempo liegt damit erstmals im Exaflop-Bereich. Was aber bedeutet dies genau und wie wird dieser Wert ermittelt?
NPO / Forschungszentrum Jülich, 01.06.2022

 

"Frontier"-Supercomputer am Oak Ridge National Laboratory (ORNL)
Blick auf den "Frontier"-Supercomputer am Oak Ridge National Laboratory (ORNL) in den USA

Carlos Jones/ORNL, U.S. Dept. of Energy

In der Welt der Computer geht es darum, möglichst viele Rechenoperationen in möglichst kurzer Zeit zu absolvieren. Denn daran bemisst sich letztlich die Leistung eines Rechners. Durch immer leistungsstärkere Prozessoren, viele parallel arbeitende Rechnerkerne und spezielle Beschleuniger hat sich die Rechengeschwindigkeit der Computer bereits drastisch gesteigert.

Immer schneller und besser

Wenn es um offizielle Messung der Supercomputer-Leistung geht, wird ein Programm verwendet, das die Lösung eines sehr großen Gleichungssystems in sogenannter doppelter (64bit) Genauigkeit berechnet. Die TOP500-Liste zeigt, wer die schnellsten Supercomputer der Welt sind. 1997 schaffte einer dieser Rechenboliden erstmals eine Billion Gleitkommaoperationen pro Sekunde – ein Teraflop. 2008 wurde dann die nächste Schwelle von einer Billiarde Gleitkommaoperationen pro Sekunde geknackt – die Petaflop-Ära hatte begonnen.

Seither lief das weltweite Rennen um die nächste symbolträchtige Marke von einem Exaflop – eine Trillion Gleitkommaberechnungen pro Sekunde. „Die Dimension dieser Zahl wird deutlicher, wenn man sich vergegenwärtigt, dass das Universum etwa 10 hoch 18 Sekunden alt ist. Hätte ein Mensch seit dem Urknall jede Sekunde eine Rechnung ausgeführt, könnte ein Exascale-Rechner die gleiche Arbeit in einer einzigen Sekunde verrichten“, erklärt Christian Plessl vom Center for Parallel Computing (PC2) an der Universität Paderborn.

Er und sein Team haben erst vor Kurzem erstmals eine Rechensimulation im Exaflop-Tempo durchgeführt. Auf dem Supercomputer „Perlmutter“ am NERSC-Rechenzentrum in den USA ließen sie eine atomgenaue Simulation des Spike-Proteins des Coronavirus SARS-CoV-2 laufen. Anders als bei der offiziellen Benchmark für die TOP500 erfolgte dies mit 32/16bit-Präzision statt mit 64bit. Die gesamte Simulation der 83 Millionen Atome dauerte nur 42 Sekunden. Dabei wurden etwa 47 mal 10 hoch 18 Gleitkommaoperationen ausgeführt – das entspricht 1,1 Exaflop und war ein neuer Weltrekord.

 Supercomputer „Perlmutter“ am National Energy Research Scientific Computing Center, Berkeley
Mit einem speziellen Rechenverfahren und dem Supercomputer „Perlmutter“ am National Energy Research Scientific Computing Center in Berkeley gelang die erste Exaflop-Rechnung.

NERSC

Frontier: der erste Exascale-Rechner

Inzwischen ist es auch bei der offiziellen Benchmark soweit: Am 30. Mai 2022 wurde gemeldet, dass ein Supercomputer erstmals die Exaflop-Marke geknackt hat. Dies geht aus der aktuellen TOP500-Liste hervor, die auf der Supercomputing-Konferenz ISC in Hamburg veröffentlicht wurde. Demnach ist der Supercomputer "Frontier" des Oak Ridge National Laboratory (ORNL) in den USA der erste echte Exascale-Rechner weltweit. In der offiziellen Benchmark erreichte er 1,102 Trillionen Gleitkommaoperationen pro Sekunde – und damit 1,1 Exaflop.

Der gerade erst aufgebaute Superrechner hat 8,7 Millionen Rechenkerne und gilt mit 52,23 Gigaflop pro Watt als relativ energieeffizient. "Frontier läutete eine neue Ära des Exascale-Computings ein und hilft damit, die größten wissenschaftlichen Herausforderungen der Welt zu bewältigen", sagt ORNL-Direktor Thomas Zacharia.  "Diese Meilenstein ist erst ein Vorgeschmack der beispiellosen Fähigkeiten von Frontier als Werkzeug für die Wissenschaft."

Supercomputer "Frontier" in Zahlen
Der Supercomputer "Frontier" in Zahlen

Laddy Fields/ORNLA, .S. Dept. of Energy

Interview: Die Herausforderungen des Exascale-Computing

Auch am Forschungszentrum Jülich arbeitet man intensiv an neuen Technologien, die den Sprung zum Exascale-Rechnen ermöglichen. Im Interview erläutern Thomas Lippert und Estela Suarez vom Jülich Supercomputing Centre, welche Herausforderungen ein solches System mit sich bringt.

Der Bau eines Exascale-Rechners gilt als gigantische Herausforderung. Welche Schwierigkeiten gibt es da?

Thomas Lippert: Es gibt hunderte Schritte, die man auf verschiedenen Ebenen machen muss, um diesen einen großen Schritt in Richtung Exascale zu gehen. Viele Schwierigkeiten hängen damit zusammen, dass bestimmte Skalierungsgesetze wie Moore’s Law seit etwa 2005 nicht mehr so gelten wie die 20 Jahre zuvor. Die Performance der Prozessoren hat sich früher beispielsweise alle 10 Jahre um das Hundertfache verbessert. Bei Supercomputern hat man zudem noch andere Freiheitsgrade ausgenutzt und am Ende eine tausendfache Steigerung hinbekommen. Diese grundlegende Steigerung bei den Prozessoren tritt heute aus verschiedenen Gründen nicht mehr ein. Damit wird es sehr viel schwieriger, einen substanziellen Schritt im Supercomputing zu machen.

Ein Problem ist der Energieverbrauch und die Wärmeentwicklung: In einem Rack, also einem Schrank, steckt heute eine elektrische Leistung von 150 Kilowatt. Schon die Leistung eines einzelnen Racks ist also 10- bis 15-mal so hoch wie die einer normalen Heizungsanlage in einem Einfamilienhaus. Die Wärme muss man irgendwie abführen, sonst verdampft das System innerhalb von Minuten. Vor 10 Jahren waren die Superrechner noch luftgekühlt. Aber heutzutage nutzt man andere, effizientere Lösungen, nämlich Warmwasser. Die Technik verbraucht weniger Energie und ermöglicht es, die erzeugte Wärme für die Gebäudeheizung zu nutzen.

Im Hinblick auf Exascale stellen sich aber noch viele andere grundsätzliche Fragen: Wie beherrscht man so viele Prozessoren und Komponenten gleichzeitig? Und wie kriegt man das Ganze administriert? Auf 10.000 Maschinen können wir ein Softwareupdate nicht mehr händisch aufspielen. Es braucht eine orchestrierte Software, um ein System komplett zu administrieren.

Für welche Anwendungen wird ein Exascale-Rechner benötigt?

Lippert: Die wissenschaftlichen Fragestellungen sind äußerst vielfältig. Die Masse der Simulationsanwendungen ist heute immer ein Kompromiss zwischen der verfügbaren Rechenleistung und der Größe des Systems, das man simuliert. Klimasimulationen erreichen beispielsweise auf einem Petascale-Rechner eine Auflösung von 10 Kilometern. Was man aber will, ist eine Auflösung von einem Kilometer. Und dann sind da noch Hotspots, die man sehr fein auflösen muss, um bestimmte Phänomene mitzunehmen, die sehr kleinräumig oder kombiniert auftreten. Das geht nur, wenn die Rechenleistung der Maschine entsprechend höher ist.

Unsere Philosophie ist es, immer besser zu werden, immer größere und komplexerer Probleme zu simulieren, sodass am Ende ein immer realistischeres Bild der Welt entsteht. Der Exascale-Rechner ist hier der nächste Schritt, aber noch lange nicht das Ende. Man wird in voraussehbarer Zeit immer die maximale Systemleistung nutzen. Je höher diese ist, desto verlässlicher ist die Aussage. Das gilt speziell für Wetter- und Klimasimulationen und die Ökosystem-Forschung, aber auch für jedes andere komplexe System, beispielsweise für Molekulardynamik-Simulationen und die Wirkstoffforschung.

Estela Suarez: Neben der Genauigkeit ist es auch immer die Frage, welche Aspekte man berücksichtigen kann. In der Klimaforschung ist neben der Atmosphäre auch der Zustand der Ozeane und der Erdoberfläche von Bedeutung. Die alle rechnerisch miteinander zu verbinden, ist ungeheuer komplex. Ähnliches gilt in anderen Bereichen. Beispielsweise in den Neurowissenschaften möchte man das ganze Gehirn des Menschen simulieren. Um bestimmte Krankheiten verstehen zu können, möchte man aber gleichzeitig einzelne Nervenzellen betrachten, mitsamt den verschiedenen Funktionen, die sie erfüllen. Dafür benötigt man eine Rechenleistung, die höher ist als die, die wir heute haben.

Es wird immer schwieriger, substanzielle Fortschritte im Supercomputing zu erzielen, wie Sie anfangs erwähnt haben. Welche Ansätze gibt es, um die Rechenleistung weiterhin zu steigern?

Suarez: Man hat ja früher zunächst versucht, die Taktfrequenz der Prozessoren stetig zu erhöhen. Das hat irgendwann nicht mehr funktioniert, weil der Energieverbrauch zu hoch wurde. Daraufhin fing man an, mehr Rechenkerne pro Einheit zu verbauen. Diese stark zunehmende Parallelität kann man auch bei normalen Computern und mobilen Geräten beobachten. Danach versuchte man, neben CPUs auch andere Recheneinheiten zu nutzen, zum Beispiel Grafikkarten. Diese wurden ursprünglich für andere Zwecke entwickelt, etwa für die Spieleindustrie. Mittlerweile werden sie auch in Superrechnern eingesetzt, weil sie viel Rechenleistung anbieten und vergleichsweise wenig Energie verbrauchen.

Dieser Herangehensweise wird auch in Zukunft eine wichtige Rolle spielen. Das heißt, man schaut sich nach Technologien um, die ursprünglich nicht unbedingt für Superrechner gedacht waren, aber dort eingesetzt werden können. Als nächstes werden möglicherweise Quantencomputer und neuromorphe Chips, die eher dem menschlichen Gehirn nachempfunden sind, integriert, wenn sie auf dem notwendigen Entwicklungsstand sind. In Jülich verfolgen wir dafür den Ansatz einer modularen Supercomputer-Architektur. Diese macht es möglich, unterschiedliche Cluster mit jeweils unterschiedlichen Hardwareeigenschaften zu definieren und miteinander zu verbinden. Anwender können dann gleichzeitig auf all diese Clustermodule zugreifen, je nachdem, was ihr Code braucht.

Beim Thema Exascale geht es aber nicht nur um Hardware, mindestens genauso wichtig ist die Software. Die Systeme werden immer komplexer. Die Software muss mit der wachsenden Heterogenität umgehen können und die Systeme den End-Anwendern zugänglich machen. Es geht darum, die entsprechenden Softwarepakete weiterzuentwickeln, neue Schnittstellen bereitzustellen und Anwendungscodes auf zukünftige Exascale-Maschinen vorzubereiten. Daran arbeiten wir unter anderem im aktuell laufenden Projekt „DEEP-SEA“.

Mehr Artikel zu diesem Thema

Weitere Lexikon Artikel

Weitere Artikel aus dem Wahrig Fremdwörterlexikon

Weitere Artikel aus dem Bereich Gesundheit A-Z

Weitere Artikel aus dem Wahrig Herkunftswörterbuch

Weitere Artikel aus dem Vornamenlexikon