17 Petaflops in der Spitze: Superrechner sind etwas für Nerds. Doch wenn es in einer riesigen Anlage blinkt und surrt, denkt vielleicht auch ein Laie kurz an die nächste Stromrechnung. Energieeffizienz spielt auch beim Ausbau digitaler Infrastruktur eine wichtige Rolle.
Bläulich leuchtet es in den Gängen des neuen Superrechners Horeka am Karlsruher Institut für Technologie (KIT). Links und rechts ragen Wände voller Technik empor, Kabel greifen krakenartig um sich. Längst arbeiten Forscher schon auf dem System. Unter anderem hätten Astrophysiker vom Teilchenbeschleuniger Cern das System mit Berechnungen getestet, sagt Jennifer Buchmüller, Leiterin des Bereichs High Performance Computing (HPC) am Steinbuch Centre for Computing des KIT. Am Freitag nun wird Horeka offiziell eingeweiht.
Neuer Superrechner Horeka bewältigt 17 Petaflops
Wissenschaftlerinnen und Wissenschaftlern aus ganz Deutschland sollen den Superrechner nutzen. Er kann den Angaben nach rund 17 Billiarden Rechenoperationen in der Sekunde bewältigen, für Fachleute: 17 Petaflops. Das entspreche der Leistung von mehr als 150.000 Laptops. Damit zählt Horeka zu den 15 schnellsten Rechnern Europas. Er soll helfen, Fragen etwa aus den Erdsystem- und Materialwissenschaften, der Energie- und Mobilitätsforschung im Ingenieurwesen sowie der Teilchen- und Astroteilchenphysik zu beantworten.
Zudem wirbt das KIT mit einem grünen Thema. Auf der internationalen „Green500“-Liste der energieeffizientesten Supercomputer weltweit landet Horeka auf Platz 13. Noch besser bewertet aus Deutschland sind zwei Rechner aus dem Forschungszentrum Jülich in Nordrhein-Westfalen (Plätze 7 und 8) sowie auf Rang 12 ein Supercomputer der Max-Planck-Gesellschaft, der in Garching bei München steht.
Vier deutsche Superrechner unter den 15 „grünsten“
In Karlsruhe nutzt man die Heißwasser-Kühlung des Rechnergebäudes, um den Rechner ganzjährig mit minimalem Energieeinsatz zu kühlen, wie Buchmüller erklärt. „In den kälteren Jahreszeiten können auch die Büroräume mit der Abwärme beheizt werden“. Bis zu 90.000 Liter Kühlwasser fließen laut KIT pro Stunde durch die Rohre.
Heißwasserkühlung und Abwärmenutzung sind nach Einschätzung von Nick Kriegeskotte, Bereichsleiter Infrastruktur und Regulierung beim Branchenverband Bitkom, gerade im HPC-Bereich weiter verbreitet als anderswo. „Obwohl gerade für Forschungszwecke sicher auch mal ein vorübergehend höherer Energieverbrauch erlaubt sein sollte als in Standardanwendungen, sind insbesondere die HPC-Systeme oftmals sogar deutlich effizienter als die kommerziellen Systeme“, sagt er.
Zauberwort Virtualisierung
Ein weiterer Ansatz: Kapazitäten der Server besser auszunutzen mit Hilfe sogenannter Virtualisierung. „Dabei wird ein physischer Server in mehrere virtuelle Umgebungen unterteilt, in welchen unterschiedliche Aufgaben bearbeitet werden, die alle gemeinsam die Rechnerleistung des einen Servers nutzen“, erläutert Kriegeskotte. Auch Chirag Dekate von der Analysefirma Gartner nennt das Beispiel, „um extreme Leistung auf kleinstem Rechenbedarf zu liefern“.
Horeka besteht den Angaben nach aus zwei Komponenten: den auf Grafikprozessoren (GPUs) basierenden Rechenbeschleunigern und den Standardprozessoren (CPUs). Bei Rechenoperationen wie der Simulation von Neuronalen Netzen in der Künstlichen Intelligenz erreichten die Beschleunigerprozessoren eine extrem hohe Leistung – ein wichtiger Ansatz für die Wissenschaft. Für andere Operationen seien hingegen die Standardprozessoren deutlich besser geeignet.
Bei Hochleistungsrechnern kommt laut Kriegeskotte im Gegensatz zu kommerziellen Rechenzentren noch eine bessere Planbarkeit der Rechenleistungen hinzu, „so dass die Systeme optimal ausgenutzt werden können“. Hier wollen auch Buchmüller und ihr Team am KIT ansetzen. Forschende müssen ihr Vorhaben anmelden, kriegen ein Kontingent zugewiesen und kommen auf eine Warteliste.
Analyst: „nicht Nachhaltigkeit und Leistung gegeneinander ausspielen“
Zudem wollen die Horeka-Experten ressourcenschonende Programme vorantreiben. „Wie man optimiert programmiert, ist die hohe Kunst“, sagt Buchmüller. Dafür werden extra Kurse angeboten, bei Bedarf aber auch der einzelne Code unter die Lupe genommen und verbessert. „Kein Physiker muss Experte im Programmieren werden“, sagt die Fachfrau.
Das Thema Energieeffizienz ist also in der Welt der Superrechner längst angekommen. Der Energieverbrauch sei in den vergangenen Jahren schon enorm gesenkt worden, sagt Kriegeskotte. Zumal es allgemein Konsens sei, dass ein Ausbau der digitalen Infrastruktur unbedingt notwendig ist – unter anderem, um die Klimaziele erreichen zu können.
Auch Analyst Dekate warnt davor, bei Supercomputing Nachhaltigkeit und Leistung gegeneinander auszuspielen, „da es die Verfügbarkeit nicht existierender Alternativen impliziert“. Energieeffizienz und Stromverbrauch seien bei den Entwicklern von HPC-Architektur keine nachträglichen Überlegungen, sondern wichtige Designkriterien. Die Kosten dafür, nicht in das Lösen von Herausforderungen wie die Kohlenstoffbindung zu investierten oder kurzsichtige Verzögerungen einzuführen, „wären unermesslich schlimmer“.
[Marco Krefting]
Bildquelle:
- Internet-Daten-Sicherheit-Vernetzung: © Dreaming Andy/stock.adobe.com