Parabolantennenfeld des Square Kilometre Array in Südafrika
© SKA Organisation
(Ausschnitt)
 Bild vergrößernParabolantennenfeld des Square Kilometre Array in Südafrika

Manchmal schwirren einem auf der Supercomputertagung die Giga-, Tera- und Petaflops um die Ohren, und man kommt mit dem Zehnerpotenzenzählen nicht nach. Wie war das? Giga ist 109, Tera 1012, Peta 1015, und die Computerhersteller denken bereits intensiv über die Exaflops-Maschine nach. Wenn man den Fortschritt der letzten Jahre extrapoliert, müsste die in wenigen Jahren bereits fertig sein – und stolze 1018, eine Trillion, Multiplikationsaufgaben pro Sekunde lösen können. Da drängt sich schon die Frage auf: Wer will denn mit so viel Rechenarbeit etwas anfangen? Das sind immerhin reichlich 100 Millionen Ergebnisse pro Erdbewohner – pro Sekunde wohlgemerkt. Natürlich kann kein Mensch diese Datenmengen konsumieren. Es sind alles nur Zwischenergebnisse, die am Ende wieder mit einem unglaublichen Faktor eingedampft werden, damit überhaupt etwas Begreifliches oder gar Nützliches herauskommt.

Schwer vorstellbar – aber es kommt noch schlimmer. Es gibt ein Forschungsprojekt, für das selbst die in mehreren Jahren verfügbare Rechenleistung nicht ausreichen wird. Die Rede ist vom Square Kilometre Array (SKA), jenem Großvorhaben, aus dem Deutschland vor wenigen Wochen überraschend ausstieg und damit die beteiligten Wissenschaftler vor den Kopf stieß. Erik Vermij, ein Doktorand von der Technischen Universität Delft, hat gemeinsam mit seinen Kollegen Leandro Fiorin, Christoph Hagleitner und Koen Bertels ausgearbeitet, was es dafür zu rechnen gibt. Ihre Arbeit "Exascale Radio Astronomy: Can We Ride the Technology Wave?" wurde gerade auf der Internationalen Supercomputertagung mit dem "Gauss Award" ausgezeichnet.

Vermij und seine Koautoren konzentrieren sich auf das erste Teilprojekt SKA1 (für das zweite sind die Planungen noch nicht weit genug fortgeschritten) und von diesem auf den Teil "SKA1-low"; das sind 256 Felder von je 1024 Stabantennen, die in Afrika und Australien errichtet werden und bei Frequenzen von 50 bis 350 Megahertz in den Himmel horchen sollen – fern jeder menschlichen Ansiedlung, denn sonst würden die im selben Frequenzbereich aktiven Rundfunk- und Fernsehsender die zarten Signale aus dem Weltall hoffnungslos übertönen. Die große Zahl der Antennen ergibt ein entsprechend starkes Empfangssignal und ihr großer Abstand eine hohe Abbildungsgenauigkeit; aber dafür müssen die Signale von allen 262 144 Antennen geeignet zusammengeführt werden.

Zu viele Daten in kurzer Zeit

Abspeichern und später Weiterverarbeiten ist aussichtslos; die schiere Menge der anfallenden Daten würde jedes Speichermedium alsbald überfordern. Stabantennen horchen gewissermaßen nicht in eine Richtung, sondern rundum und kriegen deshalb, wie der Besucher einer lebhaften Party, zwar alles mit, aber wegen der Vielzahl der Quellen nichts so richtig. Aber mit einem Kunstgriff macht man aus einem Antennenfeld eine Richtantenne: Man summiert die Signale der einzelnen Antennen nicht einfach auf, sondern gibt ihnen eine von Antenne zu Antenne unterschiedliche Verzögerung. Ein Signal aus einer bestimmten Raumrichtung trifft an den "hinten" gelegenen Antennen um wenige Nanosekunden später ein als an den "vorderen"; indem die Verzögerung diesen Laufzeitunterschied ausgleicht, addieren sich die Signale aus der Vorzugsrichtung zu einem deutlicheren Signal, und alle anderen verschwinden, weil sie sich ausmitteln.

Für das Verzögern braucht man noch nicht einmal einen Zwischenspeicher. Als ersten Rechenschritt unterwirft man das (digitalisierte) Signal einer Fouriertransformation; dann läuft das Verzögern auf eine schlichte Multiplikation mit einer komplexen Zahl hinaus.

Diese Rechenoperationen müssen jedoch alle am Standort des Antennenfelds stattfinden, denn schon die Übertragung der Rohdaten an ein fernes Rechenzentrum wäre kaum machbar. Irgendwie muss man also in einer menschenleeren Gegend an ausreichende Mengen elektrischer Leistung kommen. Hinzu kommt ein anderes Problem. Eine komplexe Zahl besteht aus zwei reellen Zahlen, und eine Multiplikation zweier komplexer Zahlen entspricht vier Multiplikationen unter deren reellen Komponenten plus zwei Additionen – alles nicht wirklich schwer, aber die gängigen Computerchips sind auf diese spezielle Art der Arithmetik nicht besonders vorbereitet und daher relativ langsam. Geeignete, fest verdrahtete Hardware könnte also für diese speziellen Operationen einen Faktor 4 in der Rechenleistung beziehungsweise im Energieverbrauch herausholen.

Die so verarbeiteten Signale sind noch durch zahlreiche Störungen verunreinigt, und zwar vor allem durch Turbulenzen in der Ionosphäre. Daher müssen die halbfertigen Signale noch in einem aufwändigen Prozess mit den Rohsignalen abgeglichen und dadurch nachgebessert werden, bis der Rechner jedes einzelnen Antennenfelds seine Ergebnisse an die Zentrale schicken kann. Dort findet das Verzögern, Summieren und Bereinigen eine Ebene höher abermals statt, bis endlich ein brauchbares Radiobild eines Himmelsausschnitts zu Stande kommt. Vermij und seine Koautoren haben den Aufwand für all diese Rechenschritte zusammengerechnet. Das Ergebnis: Wenn SKA1-low wie geplant in zwei Jahren in Betrieb geht, sind die Hochleistungsrechner – gegenwärtige Trends fortgeschrieben – noch nicht so weit, dass sie die anfallenden Daten in Echtzeit verarbeiten könnten. Für diese spezielle Anwendung müssen sich die Hardwarehersteller wohl noch etwas einfallen lassen.