Supercomputer: Betreiber wollen mehr Energieeffizienz
Wirtschaft und Forschung sind zunehmend auf den Einsatz von Hochleistungsrechnern (High Performance Computer, HPC) angewiesen, um wettbewerbsfähig und innovativ zu bleiben. Auf der International Supercomputing Conference 2012 in Hamburg wurde deutlich, dass die nächste HPC-Generation erst nach Überwindung einiger Hürden zu erreichen ist. Eine davon ist der Energieverbrauch.
Die zehn schnellsten Superrechner der Welt liefern alle eine Leistung von mehreren Petaflops, also Billiarden Fließkommaoperationen pro Sekunde. Der schnellste europäische Computer SuperMUC des Leibniz-Rechenzentrums (LRZ) in Garching bei München verbraucht jedoch für jedes seiner 2,9 Petaflops je 1 MW an Energie. Wenn man also die nächste Stufe von 1 Exaflop, das Tausendfache, erreichen möchte, so braucht man dafür theoretisch 1000 MW – das entspricht einem Großkraftwerk. Die „Exascale“-Generation, die von den Betreibern angestrebt wird, sollte also deutlich weniger Strom verbrauchen als die heutigen Petaflop-Rechner. Folglich erfreuen sich Technologien, die den PUE-Wert (Power Usage Effectiveness) steigern, zunehmender Beliebtheit.
Supercomputer SuperMUC kommt auf niedrigen PUE-Wert
Der SuperMUC des LRZ erreicht den sehr niedrigen PUE-Wert von 1,1. Das heißt, dass nur 10 % der Energie für den Nebenverbrauch wie Kühlung usw. aufgewendet werden. „Der durchschnittliche Wert liegt bei 2,0, gute Rechenzentren erreichen 1,5“, erläutert Klaus Gottschalk, HPC-Experte bei IBM. „Das war Teil unserer Ausschreibung und die wesentliche Voraussetzung, dass wir auf einen sehr niedrigen PUE-Wert kommen“, erklärt Arndt Bode, der Vorsitzende des Direktoriums des LRZ. „Wir haben von den Herstellern gefordert, dass wir eine direkte Flüssigkeitskühlung auf der Basis von warmer Flüssigkeit bekommen.“ Der Grund für dieses Vorgehen: „Wir sind davon ausgegangen, dass die Strompreise weiterhin so stark steigen werden, dass wir den Strom nicht mehr bezahlen können.“
Dass die Wahl auf IBMs Flüssigkühlung fiel, lag daran, dass Big Blue bereits Musterlösungen an der ETH Zürich und im Entwicklungslabor Rüschlikon vorweisen konnte. Im IBM-Labor Böblingen wurde daraus eine „maßgeschneiderte Lösung für den SuperMUC“ entwickelt. „Die 40 °C bis 45 °C warme Flüssigkeit fließt über die Chips und nimmt die Wärme mit“, so Bode. Eine Lösung mit Luftkühlung verbot sich von selbst, weil sie „sehr viel Strom für die Ventilatoren braucht, die die Luft über die heißen Chips blasen“. Mit der IBM-Lösung spare das LRZ 1,6 Mio. € im Jahr, so Gottschalk. Ein weiteres Feld des internationalen Konkurrenzkampfes im Supercomputing hat ebenfalls mit dem Energieverbrauch pro Leistung zu tun.
Während der SuperMUC 160 000 Intel-Xeon-Cores auf den rund 9600 verbundenen Rechnern nutzt, setzen zunehmend mehr Konkurrenten zur Beschleunigung auf Grafikprozessoren (GPUs).
Nivida: GPUs verbrauchen weniger Energie als Xeon-Chips
Führend in dieser Entwicklung ist der Chiphersteller Nvidia, der mit den GPUs der Kepler-Generation je vier Kerne anbietet, die Befehle parallelisiert abarbeiten können. Nvidia behauptet, seine GPUs würden wesentlich weniger Energie verbrauchen als die Xeon-Chips. Arndt Bode setzte aber gerade auf Intel: „Im LRZ sind traditionell im Jahr etwa 100 unterschiedliche Anwendungen im Einsatz. Deswegen brauchen wir ein System, auf das man Intel-x86-kompatible Anwendungen einfach portieren kann.“
Einer der Höhepunkte der ISC 2012 war Intels Enthüllung seines neuen Koprozessors Intel Xeon Phi (Codename „Knights Corner“). Der Chip kommt mit 8 GByte Speicher und 54, in der Finalversion 62 Rechenkernen auf den Markt. Er soll eine „bessere Energieeffizienz als GPU-Beschleuniger erlauben“, sagte Rajeeb Hazra von Intel. Der zum Jahresende erhältliche Koprozessor findet Eingang in die Rechner aller führenden Hersteller. Cray hat für 2013 ein neues Rechnersystem namens „Cascade“ angekündigt, das Intel Xeon und Xeon Phi nutzt.
“Energiehunger” der Supercomputer ist 2011 zurückgegangen
„Weltweit ist der Energiehunger der Supercomputer gegenüber 2011 zurückgegangen“, stellte Erich Strohmaier von der Uni Berkeley fest: „Alte, ineffiziente Systeme wurden durch effizientere Systeme ersetzt, besonders unter den Top 10 und Top 50.“
Der Rechenbedarf der Wirtschaft und Wissenschaft nimmt aber weiter zu. „Nun müssen endlich auch die kommerziellen Programme, die zum Teil schon 30 Jahre alt sind, auf effiziente Parallelverarbeitung getrimmt werden, um die gestiegene Zahl der Prozessor-Cores auszunutzen“, fordert IBM-Experte Gottschalk. Doch eine Neukompilierung reiche nicht aus, nur ein komplettes Neuschreiben erfülle die Anforderungen. Nicht nur die Hardware kann also einen Beitrag auf dem Weg zu Exascale leisten, sondern auch die Software.
Ein Beitrag von: