Supercomputer: Rechenpower für die Forschung
Im Zentrum des schwungvoll aufbereiteten Youtube-Videos des Lawrence Livermore National Laboratory steht der Sierra, der mit 95 PetaFLOPS derzeit auf Platz zwei der TOP-500-Liste rangiert. Doch auch abseits der prestigeträchtigen vordersten Ränge leisten Supercomputer unverzichtbare Beiträge zu Wissenschaft und Forschung. Die volle Kapazität eines Supercomputers wird ohnehin nur in Ausnahmefällen für ein einziges großes Projekt genutzt. So stehen an Universitäten und anderen Forschungseinrichtungen rund um den Globus unzählige der so genannten nationalen Mittelklassesysteme zur Verfügung. Diese »Nahversorger« ermöglichen es den Forschern, all jene Berechnungen auszuführen, die der PC am eigenen Schreibtisch nicht mehr in einem sinnvollen Zeitrahmen erledigen kann. Da die Entwicklung von Computerchips ein ausgesprochen aufwändiges Unterfangen ist, gibt es von Seiten der Chiphersteller in der Regel keine Spezialanfertigungen für Hochleistungsrechner. Somit besteht die zentrale Herausforderung beim Bau eines Supercomputers darin, möglichst viele handelsübliche Prozessoren und Speicherelemente geschickt zu einem großen System zu kombinieren. Der Summit etwa bestand bei seiner Inbetriebnahme im Sommer aus 4608 IBM-Serverrechnern mit insgesamt über 36 000 Prozessoren.
Während früher, als sich die Zahl der Prozessoren noch einigermaßen überschauen ließ, so genannte Shared-Memory-Systeme üblich waren, bei denen alle Prozessoren beziehungsweise Kerne auf einen gemeinsamen Hauptspeicher zugriffen, sind moderne Supercomputer meistens als Cluster konzipiert. Dabei hat jeder Prozessor Zugriff auf seinen lokalen Speicher, und um Zeit zu sparen, wird versucht, den Informationsaustausch zwischen den Speichern so gering wie möglich zu halten. Damit diese Methode reibungslos funktioniert, muss eine Berechnung allerdings in viele kleinere Teilbereiche aufgespalten werden, die möglichst unabhängig voneinander sind. Dadurch steigt der Aufwand für das Kompilieren der Programme. Als Alternative werden deshalb auch heute noch vereinzelt Shared-Memory-Supercomputer gebaut – also im Grunde riesige Versionen eines normalen PCs oder Laptops. Da sie teuer sind und nur selten gebraucht werden, gelten sie allerdings als aussterbende Art.
Neben der reinen Rechenleistung ist auch die Energieeffizienz ein entscheidender Faktor für die Qualität eines Supercomputers. Sie wird in der Green-500-Liste dokumentiert, und obwohl hier üblicherweise kleinere Systeme die Nase vorn haben und es für Sierra nur für Platz sechs reicht, findet sich Summit immerhin an dritter Stelle. Neben rein ökologischen Überlegungen kommt der Energieeffizienz dabei natürlich auch eine wirtschaftliche Bedeutung zu. So kann die Stromrechnung, die eine Universität für ein Mittelklassesystem berappen muss, durchaus eine Million Euro pro Jahr überschreiten. Wenn also modernere Systeme mit deutlich weniger Energieaufwand die gleiche Rechenleistung liefern, muss der Betrieb einer solchen Maschine schließlich eingestellt werden.
Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.