Herr Resch, die USA und China wetteifern um den schnellsten Computer der Welt. Aktuell hat China die Nase vorn, aber vor wenigen Wochen haben die USA angekündigt, einen Supercomputer zu entwickeln, der einen Exaflop an Rechenoperationen pro Sekunde schafft, also eine Trillion Kalkulationen. Reizt es Sie nicht, bei diesem Wettkampf mitzumischen?

Michael Resch: Nein, das reizt mich in der Tat kein bisschen. Wir haben völlig andere Voraussetzungen: China und die USA entwickeln mit ihren Supercomputern Atomwaffen, wir fördern die Wissenschaft und die deutsche Industrie. Wir stehen aktuell mit unseren 3,8 Petaflop gut da. Außerdem geht es mir nicht um einen kindischen Wettkampf, sondern darum, die passende Technik für unsere Anwendungen anzuschaffen.

Inwiefern ist das ein kindischer Wettkampf?

Die USA werden nur deshalb bald den schnellsten Supercomputer haben, weil sie ein Ausfuhrverbot für Intel-Chips nach China verhängt haben – angesichts dessen, dass China drohte sie zu überholen. Hier geht es lange nicht mehr um die Sache. Es geht nur darum, auf Platz eins der Liste zu stehen – koste es, was es wolle.

Spielt denn der praktische Nutzen überhaupt keine Rolle, beispielsweise der erhoffte Wissensvorsprung, wenn man den schnellsten Computer der Welt hat?

Praktisch nutzt das niemandem etwas. Schon der heute schnellste Rechner hat drei Millionen Kerne und ist damit kaum zu programmieren. Sie müssen diese drei Millionen Kerne ja irgendwie koordinieren. Der Exaflop-Rechner wird bis zu 100 Millionen Kerne haben: Dieses Problem ist ungelöst, wir brauchen dafür neue Programmiermodelle. Der Supercomputer in China wird schon jetzt kaum genutzt. Er bringt für praktische Anwendungen nur etwa drei Prozent seiner Leistung.

Michael Resch vor dem Supercomputter des HLRS
© Boris Lehner für HLRS
(Ausschnitt)
 Bild vergrößernMichael Resch vor dem Supercomputer des HLRS

Apropos "koste es, was es wolle": Ein Supercomputer, der es wie der Ihre in die Top 20 der schnellsten Computer der Welt schafft, kostet zigmillionen Euro. In einigen Jahren wird die gleiche Technik für einen Bruchteil des Preises zu haben sein. Wieso warten Sie nicht einfach und sparen eine Menge Geld?

Sehen Sie mein Smartphone (er zieht ein aktuelles Samsung Galaxy aus der Tasche): Lothar Späth, damaliger baden-württembergischer Ministerpräsident, hat ein solches Gerät 1986 für damals 50 bis 60 Millionen Mark gekauft: unseren ersten Supercomputer Cray-2. Heute bekommt man das für ein paar Euro. Aber hätte er 30 Jahre gewartet, würde es der deutschen Automobilindustrie heute so gehen wie der amerikanischen: schlecht.

Sie müssen alle paar Jahre investieren, damit Ihre Technologie auf dem Stand der Forschung bleibt. Ihr aktueller Rechner Hornet soll noch Ende dieses Jahres nach nur zwölf Monaten aufgerüstet werden. Insgesamt haben Sie 75 Millionen Euro in die aktuellsten drei Rechner gesteckt. Holt man das wirtschaftlich wirklich wieder rein?

Man versucht natürlich immer einen Kompromiss zu finden zwischen finanziellem Aufwand und wirtschaftlichem Ertrag. Aber natürlich lohnt sich das. Man schafft Supercomputer an, weil man Probleme lösen will. Außerdem kann man im wissenschaftlichen Bereich nicht immer nur den Blick auf die kurzfristige Rendite richten. Mit unseren Systemen wurden unter anderem die Basisforschungen für eine Verbesserung von Motoren durchgeführt. Die dadurch erreichten wirtschaftlichen Effekte gehen in den Milliardenbereich.

Welche Branchen profitieren am meisten vom Supercomputing?

Öl- und Gasfirmen leisten sich heute beispielsweise Supercomputer für seismische Modellierungen. Die Rechnung ist einfach: Was kostet eine Probebohrung im Vergleich zu einer guten Auswertung seismografischer Daten? Und es lohnt sich natürlich auch für die Automobilindustrie. Ein Crashtest kostet mehrere hunderttausend Euro. Und Sie müssen ja nicht nur einen machen, sondern tausende mit unterschiedlichen Aufprallwinkeln und so weiter.

Inwiefern verkürzen sich Innovationszyklen durch die Modellierung?

Das ist der zweite Faktor, von dem die hiesige Automobilindustrie profitiert: Vor 30 Jahren dauerte es etwa fünf Jahre von dem Zeitpunkt, an dem ein Trend erkannt wurde, bis zum fertigen Produkt. Heute sind das noch drei Jahre, weil Sie über Simulationen viele Prozesse abkürzen können.

Wie wichtig sind Sie für Porsche beziehungsweise wie wichtig ist Porsche für Sie?

Der Anteil von Porsche an der Rechenzeit ist immer nur gestiegen. Wenige Branchen haben einen so großen Bedarf. Als wir im vergangenen Jahr einen neuen Computer bekamen, haben wir ihn die ersten zwei Wochen jenen zur Verfügung gestellt, die die ganze Maschine brauchen: 7000 Prozessoren auf einmal. Porsche hat damals an einem Tag 1000 Crash-Versuche gerechnet. Inzwischen haben wir mehr als 14 000 Prozessoren.

Heute ist die Anlage nie ganz von einem Auftrag belegt?

Nein, wir werden sie selten wieder ganz frei bekommen, da immer mehrere Jobs mit verschiedener Dauer parallel laufen. Wir müssen zwei Tage lang warten, wenn wir alle beenden wollen. Das liegt auch daran, dass wir die Systeme höchstmöglich auslasten: 95 bis 98 Prozent schaffen wir im Durchschnitt. Das ist international ein Spitzenwert.

Eine niedrigere Auslastung wäre wahrscheinlich teuer, oder?

Es wäre schade drum! Und ja, auch teuer: Die Maschine kostet etwa 7000 Euro pro Stunde, wenn sie läuft.

Welcher Anteil davon ist Energie?

Etwa zehn Prozent davon sind Stromkosten, der Rest Abschreibung, Wartung und Kleinigkeiten wie Personal, Software, Versicherung.

Alle reden davon, dank Automatisierung teures Personal einsparen zu können. Und bei Ihnen ist das eine Kleinigkeit?

Klingt seltsam, ist aber in unserem Geschäft so: Personalkosten sind quasi nichts, weil die Leute so viel billiger sind als der Rechner.

Ein Zehntel der Kosten ist Strom: Ist das der limitierende Faktor immer schnellerer Supercomputer?

Der Energieverbrauch ist in der Tat ein großes Problem. Je schneller der Prozessor rechnet, umso mehr Strom benötigt er. Der aktuell schnellste Rechner in China verbraucht so viel Strom wie 50 000 Haushalte. Ein Exaflop-Rechner, wie ihn die USA planen, wird den Stromverbrauch von 500 000 Haushalten haben.

Gibt es eine Möglichkeit, sparsamere Computer zu bauen?

Nicht mit der heutigen Technik. Es gibt aber eine Reihe von Ansätzen, die zu geringerem Energieverbrauch führen könnten. Ob und wie man diese Ansätze dann in ein Produkt umsetzen kann, ist allerdings noch offen.

Der Supercomputer "Hazel Hen" des HLRS
© Boris Lehner für HLRS
(Ausschnitt)
 Bild vergrößernDer Supercomputer "Hazel Hen" des HLRS

Eine weitere große Frage bei Supercomputern ist die Sicherheit: Wie schnell bekommen Sie mit, wenn Ihr Rechner ausfällt?

Die ganze Maschine stürzt nicht ab. Aber bei 14 000 Prozessoren, 28 000 Speicherbausteinen und ein paar tausend Platten steigt die statistische Wahrscheinlichkeit, dass ein Teil ausfällt. Dann bekommt der Mitarbeiter, der gerade Bereitschaft hat, eine SMS auf sein Handy und schaut, was geschehen ist. Meistens lässt sich das schnell beheben.

Schreiben Sie eigentlich ein Backup, oder wie sichern Sie Ihre Daten?

Ein Backup würde zu lange dauern. Wir haben etwa zehn Petabyte an Daten, das entspricht 10 000 herkömmlichen PC-Platten. Ein Backup würde 16 Stunden brauchen, das ist zu lange. Aktuelle Daten können die verbliebenen Platten rekonstruieren, falls eine ausfällt. Ältere Daten speichern wir auf Magnetbändern.

Bei Ihnen rechnen auch viele Klimawissenschaftler – ein hochpolitisches Thema. Ist all jenen, die mit Klimamodellen argumentieren, eigentlich klar, dass ein Modell nicht die Wirklichkeit, sondern nur eine Annäherung ist?

Das ist eines unserer größten Probleme: Eine Simulation ist immer nur eine Annahme. Aber viele Laien – darunter auch manche Politiker – verstehen das nicht. Sie halten die Ergebnisse jeder Simulation für die absolute Wahrheit. Der Nimbus des Computers als unfehlbares Werkzeug spielt hier eine wesentliche Rolle. Die Politik stellt zudem andere Fragen. Nicht: Was kommt wahrscheinlich? Sondern: Was soll ich jetzt machen, damit es nicht kommt?

Darauf können Sie ehrlicherweise keine Antwort geben, oder? Gerade beim Klima gibt es viele, sich teils widersprechende Prognosen.

Das stimmt: Simulationen haben eine Reihe von Fehlern – und gerade beim Klima können wir nicht wissen, welchen Fehler wir machen. Man müsste die Simulationen mittels eines Experiments überprüfen. Aber es gibt kein einziges Experiment zum Klimawandel, weil uns die Grundlagen dafür fehlen. Wir haben beispielsweise keine Daten dazu, wie viel Holz vor 100 Jahren in Afrika verbrannt worden ist.

Wenn Sie nicht wissen, wie groß der Fehler ist: Ergeben Simulationen in diesem Bereich dann überhaupt einen Sinn?

Wissenschaftlich gesehen schon: Es geht nicht um die Lösung eines Problems, sondern darum, es zu verstehen. Simulation versucht, gerade in diesem Bereich Szenarien auszuloten und nicht konkrete Zahlen festzulegen. Klimaforscher machen sehr viele Simulationen und rechnen mit vielen Varianten, sie versuchen, den besten und den schlechtesten Fall einzugrenzen. Damit können wir aber nicht die Frage beantworten, ab wann Autos kein CO2 mehr ausstoßen dürfen – auch wenn das die Politiker gerne wüssten. Wer aber sagt, Simulationen sind korrekt, der liegt falsch. Unsere Berechnungen sind nie zu 100 Prozent korrekt, sondern liefern eine einigermaßen vernünftige Aussage. Darüber müsste die Öffentlichkeit besser aufgeklärt werden.