Direkt zum Inhalt

Supercomputer: Hackerangriff bremst Forschung aus

Hochleistungsrechner werden in der Forschung immer wichtiger. Umso ärgerlicher ist es, wenn die Systeme ausfallen – wie kürzlich nach einem Hackerangriff. Wie haben betroffene Wissenschaftler reagiert?
Supercomputer am Leibniz-Rechenzentrum (LRZ)Laden...

Was machen, wenn der Computer nicht läuft? Genau diese Frage mussten sich die vergangenen Wochen zahlreiche deutsche und internationale Forschungsgruppen stellen. Ab Mitte Mai wurden nämlich mehrere der leistungsfähigsten Supercomputer Deutschlands auf Grund eines IT-Sicherheitsvorfalls vorübergehend vom Netz genommen. Inzwischen laufen viele Systeme zwar wieder, einige mit Einschränkungen, doch der Vorfall traf die Wissenschaft ins Mark. Denn zahlreiche Forschungsgebiete sind längst auf Supercomputer angewiesen.

Von dem Vorfall betroffen waren unter anderem die Systeme des Leibniz-Rechenzentrums (LRZ) in Garching bei München, des Jülich Supercomputing Centre (JSC), des High Performance Computing Center (HLRS) in Stuttgart sowie weitere kleinere Hochleistungsrechenzentren in Deutschland und anderen europäischen Ländern. Hacker konnten sich Zugang zu den Systemen verschaffen, die teilweise auch untereinander vernetzt sind, und dort offenbar Schadsoftware einschleusen. Ein Diebstahl von Forschungsergebnissen fand nach jetzigem Ermittlungsstand nicht statt. Über die Täter und deren Motive ist noch nichts bekannt.

Um weiteren Schaden abzuwenden, mussten die Betreiber die Systeme vorübergehend komplett von der Außenwelt abschotten. Für die Wissenschaftler und Arbeitsgruppen, die zu dem Zeitpunkt die Hochleistungsrechner verwendeten, hatte das vor allem zwei unmittelbare Folgen: Entweder konnten sie noch ausstehende Berechnungen nicht wie geplant durchführen. Oder sie konnten teilweise nicht auf die bereits berechneten Ergebnisse zugreifen.

»Jeder Tag, an dem der Supercomputer nicht arbeiten kann, ist einer zu viel«
(Dieter Kranzlmüller, Leiter des Leibniz-Rechenzentrums in Garching)

»Jeder Tag, an dem der Supercomputer nicht arbeiten kann, ist einer zu viel«, sagt Dieter Kranzlmüller, Leiter des Leibniz-Rechenzentrums. »Je länger der Ausfall dauert, desto drängender werden die Fragen aus Nutzersicht: Wie komme ich an meine Daten, muss ich mich woanders um Rechenzeit und Speicherplatz bemühen?«, ergänzt Norbert Attig, stellvertretender Leiter des JSC in Jülich. Um ein System wie den SuperMUC-NG in München, JUWELS in Jülich und künftig auch Hawk in Stuttgart nutzen zu dürfen, muss man sich zunächst mit seinem Projekt um Rechenzeit bewerben. Die Bewerbung wird dann von Gutachtern in einem Peer-Review-Verfahren geprüft. Je nach Qualität des Forschungsvorhabens wird die Rechenzeit zugeteilt. Ein Ausfall verlängert also den ohnehin schon langen Warteprozess.

»Wir mussten den Schnitt glücklicherweise nicht ganz so rabiat machen«, sagt Kranzlmüller. In der Warteschlange seien Aufträge gewesen, die auch nach dem Angriff noch zu Ende berechnet werden konnten. Somit halte sich die Verzögerung des Zeitplans insgesamt in Grenzen. Trotz der eingeschränkten Ressourcen hoffen die Verantwortlichen in Jülich, durch optimierte Systeme in den kommenden Wochen genug Rechenzeit bereitstellen zu können, so dass sich vor allem diejenigen Projekte fertigstellen lassen, die sich schon in der Endphase befinden.

Auch Coronavirus-Forschung betroffen

Ärgerlich sind die Verzögerungen vor allem für dringende Forschungsprojekte – etwa über das neue Coronavirus. Derzeit nutzen mehrere solche Projekte Rechenzeit an den Hochleistungsrechenzentren in Garching, Jülich und Stuttgart, um Sars-CoV-2 zu erforschen. Schon allein auf Grund der gesellschaftlichen Relevanz sei es in diesem Fall wichtig, dass die Forschung ungestört stattfinden kann, sagt Kranzlmüller.

»Uns hat die Unterbrechung im Zeitplan zurückgeworfen und die Fertigstellung der gesamten Berechnungen verzögert«, erzählt Christopher Secker vom Max-Delbrück-Centrum für Molekulare Medizin in Berlin. Er leitet eine Arbeitsgruppe, die seit April mit Hilfe des JSC in Jülich berechnet, mit welcher Wahrscheinlichkeit Moleküle an einzelne Sars-CoV-2-Proteine binden können. Mit solchen Studien können Medikamentenkandidaten gefunden werden, die anschließend im Labor auf ihre Wirksamkeit getestet werden. »Je mehr Substanzen wir virtuell testen, desto besser sind in der Regel die Kandidaten und desto größer damit die Chance, dass sich unter diesen ein echter Sars-CoV-2-Wirkstoff befindet«, sagt Secker. Ein Ausfall um weitere Wochen oder gar Monate würde also die Chance auf viel versprechende Kandidaten verringern oder die Entwicklung eines solchen Wirkstoffes weiter verzögern. Während der notgedrungenen Auszeit konzentrierten sich Secker und sein Team nun darauf, die Zwischenergebnisse zu validieren und die Labortests vorzubereiten und zu optimieren.

Auch der Kernphysiker Ulf-Gerrit Meißner von der Universität Bonn und dem Forschungszentrum Jülich war von den Ausfällen betroffen. Er forscht unter anderem zur starken Wechselwirkung und zu nuklearen Gittersimulationen – komplexe Berechnungen, die ohne Höchstleistungsrechner nicht möglich sind. Die Zeit des Ausfalls verbrachten er und sein Team unter anderem damit, Abschlussarbeiten und Papiere fertigzustellen. Doch zumindest in einem Fall war selbst das nicht möglich: »Ein Doktorand in Jülich konnte für seine Doktorarbeit die finalen Bilder nicht erstellen, seine Arbeit verzögert sich jetzt um einige Wochen. Das ist schon ärgerlich«, sagt Meißner. Insgesamt sei der Ausfall für seien Gruppe aber nicht allzu tragisch gewesen.

Ein Wechsel zwischen Supercomputern ist schwierig

Problematisch werde es erst, so Meißner, wenn ein Supercomputer über einen längeren Zeitraum, also mehrere Wochen oder gar Monate, nicht verfügbar wäre. Dann nämlich müssten die Wissenschaftler überlegen, ob sie auf ein anderes System ausweichen. Und das ist leichter gesagt als getan: Die Codes sind häufig für ein bestimmtes System optimiert, und nicht jeder Hochleistungsrechner eignet sich gleichermaßen für jede Art von Forschung. Deshalb sprechen sich die großen deutschen Zentren untereinander ab und spezialisieren sich auf bestimmte Anwendungen. Ob man auf einen anderen Supercomputer ausweicht, ist demnach eine Kosten-Nutzen-Rechnung und hängt immer vom jeweiligen Projekt ab. »Wir sprechen hier nicht von ein paar Mega- oder Gigabyte, sondern teilweise über Tera- und Petabyte an Daten, die übertragen werden müssen«, sagt Norbert Attig vom JSC.

»Für unsere Forschung ist der Supercomputer JUWELS am JSC ein essenzielles Arbeitsmittel. Wir benutzen ihn für aufwändige Computersimulationen von teilchenbasierten Modellen weicher Materie wie etwa synthetischen Polymeren und biologischen Membranen«, berichtet Marcus Müller vom Institut für Theoretische Physik an der Universität Göttingen. Die Durchführung dieser Simulationen sei zwischen Mitte Mai und Anfang Juni nicht möglich gewesen und ließ sich auf Grund der einzigartigen Hardware in Jülich nur bedingt auf andere, nicht betroffene Rechenzentren oder lokale Rechner übertragen.

Mehr noch, wegen der unvorhergesehenen Ereignisse konnten die Forschenden nicht einmal auf ihre Daten zugreifen. »Im Fall einer geplanten Wartung oder eines Systemausbaus kann man die benötigten Daten vorab transferieren«, sagt Müller, »aber das war bei diesem plötzlichen Ausfall leider nicht möglich.« Deshalb sei die Analyse der bisher erzielten Simulationsergebnisse auf die lokal gespeicherten Daten beschränkt gewesen, die nur einem kleinen Bruchteil der Gesamtdaten entsprechen. »Es ist vielleicht vergleichbar mit einem Experimentator, der von einem auf den anderen Tag nicht mehr in sein Labor kann, in dem sowohl sein Experiment steht als auch der Computer mit einem Teil seiner Messdaten«, veranschaulicht Müller.

Andere Arbeitsgruppen hatten mehr Glück. Der Neuroinformatiker Gordon Pipa von der Universität Osnabrück konnte mit seiner aktuellen Forschung dazu, wie sich Covid-19 verbreitet, zumindest vorübergehend auf andere Computer ausweichen: »Die RWTH Aachen hat spontan und unkompliziert zu einer Lösung beigetragen, indem wir ihre Ressourcen nutzen konnten, während das System in Jülich nicht verfügbar war«, sagt Pipa. Das sei zwar mit personellem Mehraufwand einhergegangen, insgesamt verdeutliche die schnelle Zusammenarbeit jedoch, dass das wissenschaftliche Netzwerk sich seiner Verantwortung bewusst sei. »Wenn es notwendig ist, werden flexible und schnelle Lösungen gefunden«, sagt Pipa.

Balanceakt zwischen Sicherheit und Offenheit

Worin sich alle befragten Wissenschaftler einig sind: Supercomputer werden für ihre Arbeit immer wichtiger. Fallen sie aus, stockt die Forschung. Die Betreiber der Rechenzentren sind sich in diesem Kontext ihrer wichtigen Rolle bewusst. Allein auf den Computern in Jülich waren nach Angaben des stellvertretenden Leiters Norbert Attig rund 300 Projekte direkt betroffen. »Das war eine besondere Situation für uns, aus der wir jetzt entsprechende Schlüsse ziehen«, sagt er, etwa im Hinblick auf die IT-Sicherheit. Die war zwar auch vorher schon ein wichtiges Thema, schließlich sei das durch eine Firewall gesicherte System jeden Tag »Tausenden von Angriffen ausgesetzt«. Doch der Vorfall habe dazu geführt, das Thema noch einmal stärker zu behandeln und möglicherweise Beschränkungen einzuführen – auch wenn diese die Arbeit der Forschenden unter Umständen etwas unbequemer machen könnten.

Denn letztlich sei es immer ein Balanceakt, sagt Attig: Die Systeme sollen so sicher wie möglich sein, gleichzeitig sollen allerdings auch keine Nutzer ausgesperrt werden. Schließlich ist es wichtig, dass die Wissenschaftler jederzeit auf Zwischenergebnisse zugreifen oder Parameter verändern können, während sie einen Supercomputer verwenden. Und genau diese Tatsache machten sich die Angreifer zu Nutze. Möglicherweise werden die Systeme daher künftig etwas schwerer zugänglich. »Wir werden aber mit unseren Nutzern daran arbeiten, Lösungen zu finden, die sowohl unser Sicherheitsbedürfnis befriedigen als auch den Nutzern selbst noch genug Luft zum Atmen lassen«, sagt Attig.

Auch Dieter Kranzlmüller vom LRZ kündigt Änderungen an. In nächster Zeit sollen externe Zugriffe nur noch zwischen 8 und 18 Uhr möglich sein. »Das ist natürlich ärgerlich für den Forscher, der abends um 22 Uhr eine tolle Idee hat und Änderungen einspielen möchte. Aber so können unsere IT-Fachleute sofort reagieren, wenn es Auffälligkeiten gibt.« In den kommenden Wochen werde man sich zudem mit Kollegen aus den anderen Rechenzentren gemeinsam beraten und Strategien entwickeln, um die Systeme noch besser zu schützen. Im besten Fall gehen die deutschen Supercomputer-Zentren aus dem Vorfall nicht geschwächt heraus. Sondern stärker.

Lesermeinung

Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.

Partnervideos