Supercomputer: Petaflop-Grenze soll dieses Jahr fallen

(c) AP (Thomas Kienzle)
  • Drucken

Rechenleistung ist mittlerweile mehr eine Frage des Geldes als der Technologie. Derzeit liegt der Leistungsrekord bei einem halben Petaflop.

Die derzeit schnellsten Computer der Welt rechnen noch mit Teraflops und damit mit Billionen Rechenoperationen pro Sekunde - zumindest laut der zweimal jährlich herausgegebenen "Top 500"-Liste. Die Zukunft verspricht das Rechnen mit Petaflops und damit im Billarden-Bereich.

"Der Betrieb eines Petaflops-Rechners ist heute weniger eine Frage der Technologie, sondern vielmehr eine Geldfrage", sagte der gebürtige Österreicher Michael Resch, Direktor des Höchstleistungsrechenzentrums in Stuttgart (HLRS). Er diskutiert mit knapp 60 Experten aus Forschung, Wissenschaft und Industrie bei der 20. "NEC User Group"-Konferenz von 6. bis 9. April in Wien über Supercomputer und Trends in der Branche.

Mit der Maßeinheit FLOPS (Floating Point Operations Per Second) wird die Anzahl der Rechenoperationen (Gleitkommaoperationen) eines Prozessors pro Sekunde und damit die Geschwindigkeit von Computersystemen angegeben. Ein Rechner mit einer Leistung von ein Petaflops entspreche derzeit der Leistung von 27.000 herkömmlichen, im Handel erhältlichen PCs und einer Leistungssteigerung um sechs Millionen in den vergangenen 30 Jahren, erklärte Resch.

Der erste Petaflop-Rechner existiert bereits

Zwar verkündete das japanische Forschungsinstitut Riken bereits im Jahr 2006, den ersten 1-Petaflop-Rechner zur Berechnung für Molekulardynamik hergestellt und damit die Billarden-Hürde genommen zu haben. Doch das System hatte einen Schönheitsfehler: Auf dem Rechner lief nicht das "Linpack"-Programm, das zur Leistungsmessung von Supercomputern und damit zur Erstellung der Bestenliste eingesetzt wird. Somit belegten die "Top 500" nur Plätze mit ihrer Leistung im Teraflops-Bereich.

Seit 2004 gilt der Blue Gene/L von IBM mit Standort im Atomforschungslabor Lawrence Livermore in Kalifornien offiziell als schnellster Computer der Welt. Seine Rechenleistung wurde im vergangenen Jahr von 280 auf 478 Teraflops ausgebaut. Die Entwickler am japanischen Forschungsinstitut "Riken" kündigten bereits den schnellsten Rechner bis 2011 an: Sie arbeiten derzeit an der Realisierung eines Supercomputers in Kooperation mit den Unternehmen NEC, Fujitsu Siemens und Hitachi, der einmal rund zehn Petaflops-Leistung erbringen soll. Das Projekt kostet laut Resch, Vorsitzender der "NEC User Group", etwa eine Milliarde Dollar (640 Mio. Euro).

Bereits für die nächste Ausgabe der "Top 500"-Liste könnte es erstmals ein Petaflops-System unter die Besten schafft. Das neue Ranking wird im Juni veröffentlicht (http://www.top500.org). Resch geht jedenfalls davon aus, dass noch heuer "offiziell" ein Petaflops-Rechner in Betrieb gehen wird.

Rechenleistung als Kostenfrage

Doch laut dem Computerwissenschafter ist es keine Frage der Technologie, ob die neue Generation der Super-Computer realisiert wird: Es stelle sich eher die Kostenfrage. Resch bringt einen Preisvergleich: Jüngst legte sich das HLRS für vier Mio. Euro einen Rechner mit 140 Teraflops-Leistung zu. "Wenn ich 50 Mio. Euro ausgebe, kriege ich heute einen Petaflops-Rechner." Zudem verbrauchen die Systeme "höllisch viel Strom", u.a. zur Kühlung. Weiters müssten dafür große Gebäude gebaut werden. Amerikanische Zentren gingen von einem Strombedarf bis zu zehn Megawatt aus (das entspricht dem Strombedarf von 20.000 Vier-Personen-Haushalten) und einem Platzbedarf bis zu 10.000 Quadratmetern.

Mehr Rechenleistung bedeutet nicht gleich mehr Spielraum für Anwendungen: "Man wird erst in zwei bis drei Jahren Anwendungen sehen, die Petaflops-Leistung bringen", so Resch. Zudem hinken die Modelle, mit denen Meteorologen und Klimaforscher etwa ihre Simulationen durchführen, der Rechnerentwicklung hinterher: "Die Modelle wurden zwar über die vergangenen Jahre vergrößert, aber nicht immer verbessert." Größere Leistung bringe daher nicht unbedingt bessere Simulationen.

Ein Supercomputer steht auch an der Zentralanstalt für Meteorologie und Geodynamik (ZAMG) in Wien. Der NEC SX-8R löste laut Georg Kaindl, Leiter der IT-Abteilung und Teilnehmer der Konferenz, einen Hochleistungsrechner im Februar 2007 ab. Die Rechenleistung ist im Vergleich zu den ganz Großen noch eher bescheiden - in die Liste der "Top 500" schafft man es damit nicht: Der Computer rechnet mit 500 Gigaflops bzw. 0,5 Teraflops und berechnet - als ein Schwerpunkt seiner Arbeit - viermal täglich Wettervorhersagen für Österreich - je zwei für 72 Stunden und 60 Stunden. (Ag.)

Lesen Sie mehr zu diesen Themen:


Dieser Browser wird nicht mehr unterstützt
Bitte wechseln Sie zu einem unterstützten Browser wie Chrome, Firefox, Safari oder Edge.