Direkt zum Inhalt

Die Kühlung eines Teraflop-Rechners

Die massiv parallelen, extrem kompakt gebauten Supercomputer der Zukunft werden beträchtliche Wärmemengen auf kleinem Raum freisetzen. Als besonders wirksam bei deren Abfuhr erweist sich ein dreistufiges System aus einem Elastomer, Aluminiumplatten und sogenannten Heat-Pipes.

Das Projekt eines Supercomputers, der eine Billion Rechenschritte pro Sekunde (ein Teraflops) ausführen kann, stellt nicht nur die Entwickler der Chips und die Autoren der Software vor gänzlich neue Aufgaben (vergleiche ,,Ein europäischer Teraflop-Rechner als realistische Option“, Spektrum der Wissenschaft, Juli 1991, Seite 33). Auch die Wärme, die beim Betrieb von vielen dicht gepackten Prozessoren entsteht, würde die bislang üblichen Gebläse bei weitem überfordern.

Der von der Aachener Firma Parsytec geplante Teraflop-Rechner GC wird aus sogenannten GigaCubes zusammengesetzt sein: Blöcken, die jeweils in nur neun Litern Gesamtvolumen 64 relativ eigenständige Prozessoren, sogenannte Transputer, ein Gigabyte lokale Speicherkapazität, Kommunikationshardware und redundante Bauteile zur Erhöhung der Ausfallsicherheit berherbergen (Bild 1). Wir erwarten je Gigacube eine Verlustwärmeleistung von durchschnittlich 750 Watt, die auf einen Spitzenwert von 1,35 Kilowatt ansteigen kann. Diese Wärme läßt sich schon deshalb nicht über strömende Luft abführen, weil deren Wärmekapazität (bei realistischen Strömungsgeschwindigkeiten) dafür zu gering ist; abgesehen davon wäre ein ausreichender Wärmeübergang von der Bauteiloberfläche an die Luft kaum zu bewerkstelligen.

Prinzipiell mögliche Wärmetransportmechanismen sind (in aufsteigender Reihenfolge ihrer Wirksamkeit für unser Problem) Strahlung, Konvektion, Leitung und der Transport über chemische oder physikalische Prozesse (zum Beispiel die Verdunstungswärme eines Kältemittels). Die letztgenannte Kühlart setzt der Mensch beim Schwitzen mit großem Erfolg ein; sie ist wegen der großen Verdampfungswärme von Wasser deutlich wirksamer als eine Flüssigkeitskühlung über Wärmetauscheroberflächen (etwa die Ohren des afrikanischen Elefanten).

Die erste Stufe unseres Systems arbeitet mit Wärmeleitung in Metallen. Wir verwenden Aluminium-Kühlplatten, die entsprechend der Oberflächengestalt der bestückten Platine formgefräst sind. Zur Erleichterung dieser Aufgabe wird die Bauteil-Landschaft beim Entwurf der Platinen möglichst eben gestaltet. Fertigungstoleranzen sowohl der Platten als auch der Bauelemente und der Lötung gleicht ein wärmeleitfähiges Elastomer auf Silikonbasis aus, das die Firma Chomerics in Hudson (US-Bundesstaat New Hampshire) eigens für unseren Anwendungszweck entwickelt hat.

Als nächste Stufe des Wärmetransports hatten wir zunächst eine Flüssigkeitskühlung vorgesehen. Sie wäre jedoch für relativ kleine Rechner (mit maximal 1024 Prozessoren) unverhältnismäßig kompliziert und entsprechend unwirtschaftlich; außerdem müßte das System unter erheblichem Montage- und Wartungsaufwand wasserdicht gemacht werden: Ein Leck würde die Prozessoren ruinieren.

Anstelle einer direkten Flüssigkeitskühlung habe ich darum Wärmerohre – im Technikerjargon meist englisch heat pipes genannt – zwischengeschaltet. Das sind mit einem Kältemittel gefüllte Hohlkörper, in denen eine spezielle Rillenstruktur oder ein Maschengitter eine starke Kapillarwirkung entfaltet. Wird dem Rohr an einem Ende Wärme zugeführt, so verdampft das flüssige Kältemittel (hier Wasser bei einem Druck von 25 Millibar, bei dem es leichter siedet als unter Atmosphärendruck) und strömt durch das Rohrinnere ab. Das andere Ende wird gekühlt, so daß der Dampf kondensiert; das Wasser fließt nun aufgrund der – durch die Schwerkraft unterstützten – Kapillarwirkung zurück zum heißen Ende.

Bei der von uns gewählten Realisierung sind 48 Heat-Pipes durch entsprechende Löcher in der Oberseite des Gestells montiert. Durch schlichtes Einschieben der GigaCubes werden so gleichzeitig und in der gleichen Ebene eine elektrische und eine thermische Verbindung hergestellt. Zur Wartung kann man Platinen und Kühlplatten nach vorne oben schwenken und von der Backplane mit den Heat-Pipes einfach abziehen.

Eine Heat-Pipe hat bei einem Durchmesser von 6,35 Millimetern eine Nennleistung von 72 Watt, mehr als das Tausendfache eines gleich großen Kupferstabs. Aus Sicherheitsgründen sind so viele von ihnen vorhanden, daß sie mehr als das Doppelte der erwarteten Spitzenwärmeleistung abführen könnten.

Am kalten Ende der Pipes kann die Wärme durch aufgepreßte Kupferlamellen, über die von acht Lüftern Umgebungsluft geblasen wird, abtransportiert werden. Das ist ausreichend und zweckmäßig für Parallelrechner wie jenen mit 1024 Prozessoren, der an der Universität Paderborn installiert ist. Größere Anlagen werden bei ansonsten unveränderter Hardware über einen wasserdurchflossenen Aluminiumblock gekühlt, der seinerseits an einen Kaltwassersatz (eine herkömmliche Kältemaschine nach dem Prinzip des Kühlschranks) angeschlossen ist. Damit wird die Verlustwärme nicht mehr an die Umgebungsluft im Rechnerraum abgegeben, sondern direkt nach außen abgeführt, so daß man Anlagen beliebiger Größe aufstellen kann.

Nebenher ergeben sich bei diesem Kühlsystem weitere Vorteile. Da keine Luft durch die Hardware geblasen wird, braucht das Gehäuse nicht perforiert zu sein. Dadurch vereinfacht sich die Abschirmung gegen Störstrahlung erheblich, und es kann kein Staub mehr eindringen. Die Durchlüftung der Lamellen auf den Heat-Pipes erfolgt ohne Strömungsumkehr oder -hindernisse und ist daher sehr wirksam.

Die beschriebene Lösung hat sich in der Praxis als außerordentlich robust erwiesen. Auch unter sehr ungünstigen Bedingungen wie während der Hitzeperiode im August letzten Jahres waren die heißesten Bauteile bei Luftkühlung um höchstens 20 Grad wärmer als die umgebende Luft. In großen Rechneraufbauten mit Wasserkühlung läßt sich eine maximale Bauteiltemperatur von 35 Grad Celsius garantieren. Dadurch wird die Ausfallrate extrem niedrig und der durchschnittliche ausfallfreie Zeitraum (mean time between failures, MTBF) entsprechend lang sein – eine Grundvoraussetzung für den stabilen Betrieb einer Anlage mit sehr vielen Prozessoren.

Das Kühlsystem trägt dazu bei, Fertigung und Montage der Komponenten des GigaCube recht simpel zu halten. An keiner Stelle im Produktionsprozeß müssen exotische oder sensible Technologien benutzt werden. Dadurch und durch die hohe Modularität läßt sich eine große Variation in der Anlagengröße erzielen. Das Erreichen der Teraflops-Leistungsmarke ist jetzt prinzipiell möglich: Es genügt, 256 GigaCubes zusammenzuschalten.


Aus: Spektrum der Wissenschaft 2 / 1993, Seite 30
© Spektrum der Wissenschaft Verlagsgesellschaft mbH

Schreiben Sie uns!

Beitrag schreiben

Wir freuen uns über Ihre Beiträge zu unseren Artikeln und wünschen Ihnen viel Spaß beim Gedankenaustausch auf unseren Seiten! Bitte beachten Sie dabei unsere Kommentarrichtlinien.

Tragen Sie bitte nur Relevantes zum Thema des jeweiligen Artikels vor, und wahren Sie einen respektvollen Umgangston. Die Redaktion behält sich vor, Zuschriften nicht zu veröffentlichen und Ihre Kommentare redaktionell zu bearbeiten. Die Zuschriften können daher leider nicht immer sofort veröffentlicht werden. Bitte geben Sie einen Namen an und Ihren Zuschriften stets eine aussagekräftige Überschrift, damit bei Onlinediskussionen andere Teilnehmende sich leichter auf Ihre Beiträge beziehen können. Ausgewählte Zuschriften können ohne separate Rücksprache auch in unseren gedruckten und digitalen Magazinen veröffentlicht werden. Vielen Dank!

Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.