Direkt zum Inhalt

Hypercomputer (Teil II): Linux-Cluster in der Automobilindustrie

Was als Wissenschaftler-Unternehmung mit stark spielerischer Komponente begann, ist inzwischen zum Arbeitspferd für die Industrie herangereift


Moderne Automobilentwicklung benötigt enorme Rechenleistung. Immer mehr Tests und Optimierungsschritte finden heute nicht mehr an realen Modellen, sondern im Computer statt. Neben traditionellen Bereichen wie dem Computer Aided Design (CAD) oder der Strukturanalyse betreiben die Ingenieure am Computer inzwischen auch die Simulation komplexer Prozesse wie der Einspritzvorgänge im Motor.

Wegen des hohen Rechenbedarfs gehörten deshalb lange Zeit Großrechner mit den Ausmaßen eines Kleiderschranks zur Standardausstattung. Die Schränke gibt es immer noch, aber in ihnen steckt nicht mehr nur hochgezüchtete Spezialhardware, sondern Dutzende vernetzter PCs – ein bisschen edler verarbeitet vielleicht als das Sonderangebot im Supermarkt, im Grunde aber doch Alltagsware. Spätestens seit einem halben Jahr sind diese Linux-Cluster vom Versuchsballon zum neuen Trend in der deutschen Automobilindustrie aufgestiegen.

Ein typischer solcher Linux-Cluster steht beispielsweise in einer der Entwicklungsabteilungen von Audi: Dieser Schrank enthält 16 einzelne Rechner, die "Knoten", mit 933 Megahertz schnellen Pentium-III-Prozessoren und je einem Gigabyte Hauptspeicher. Anders als im Durchschnitts-PC verrichten hier pro Computer jedoch nicht ein, sondern zwei Prozessoren ihre Arbeit.

Auch die Netzwerkverbindung von Linux-Clustern unterscheidet sich vom Fast Ethernet einer typischen Büroumgebung. Je nach Programm müssen pro Sekunde ein Gigabit und mehr an Berechnungsergebnissen von Knoten zu Knoten übertragen werden. Dadurch wird die Transportkapazität ("Bandbreite") des Netzwerks zum geschwindigkeitsbegrenzenden Faktor. In anderen Fällen kommt es nicht auf die Menge der zu übertragenden Informationen, sondern auf die Häufigkeit der Austauschakte an. Hier bestimmt vor allem die Latenz des Netzes – der Zeitverzug bis zur Übertragung des ersten Bits –, wie effizient ein Cluster das Problem verarbeitet. Eigens für diese Anforderungen sind Hochleistungsnetze wie Myrinet oder ein Scalable Coherent Interconnect (SCI) entwickelt worden und kommen zum Einsatz. Diese Spezialhardware arbeitet bis zu 10000-mal so schnell wie ein Standard-Ethernet.

Die Audi-Ingenieure testen mit ihrem Cluster die elektromagnetische Verträglichkeit neuer Konstruktionen. So verifizieren sie, dass ein klingelndes Mobiltelefon nicht versehentlich den Airbag auslöst, oder sie berechnen, wie der Kabelbaum im Fahrzeug verlegt werden muss, damit keine Störungen auftreten. Linux-Cluster in anderen Entwicklungsabteilungen simulieren beispielsweise Kollisionen (Bild rechts oben) oder die Bruchfestigkeit von Benzintanks.

Die virtuelle Entwicklung ist erheblich kostengünstiger als Tests an realen Objekten, da weniger Prototypen angefertigt werden müssen. Die Computersimulation gibt dem Ingenieur außerdem detaillier-tere Auskünfte zu physikalischen Fragen: Im echten Windkanal kann er nur an wenigen Stellen Messgeräte anbringen. Virtuell hingegen lässt sich die Detektordichte beliebig steigern. Einzige Beschränkung ist die verfügbare Rechenleistung.

Ein typischer Linux-Cluster ist nicht schneller als ein Supercomputer, aber deutlich billiger: weniger als ein Viertel des Preises bei gleicher Leistung. War die immense Rechengeschwindigkeit bislang nur für große Rechenzentren finanzierbar, können inzwischen auch einzelne Abteilungen einen Cluster ihr Eigen nennen. Neben dem Kosteneffekt ergibt sich da-raus auch eine höhere Verfügbarkeit von Rechenleistung für die Ingenieure vor Ort.

Die zunehmende Popularität der Linux-Cluster hat viele Ursachen. Vor allem die Computerspiele-Industrie hat die PC-Hersteller in den vergangenen Jahren zu permanenten Verbesserungen getrieben. Das Ergebnis war kostengünstige Massenware mit so hoher Leistung, dass sie inzwischen professionellen Ansprüchen genügt. Gleichzeitig hat die Entwicklergemeinde das Betriebssystem Linux deutlich stabilisieren können. Damit steht eine Berechnungsinfrastruktur mit hoher Zuverlässigkeit und geringem Wartungsaufwand zur Verfügung – beides unabdingbare Voraussetzungen für den professionellen Einsatz. Die nahe Verwandtschaft von Linux zu Unix, das die professionellen Anwender seit langem aus ihren Rechnernetzen kennen, erleichtert ihnen den Übergang auf die PC-Cluster und macht es überdies den Software-Herstellern einfach, etablierte Produkte auf Linux anzupassen. Inzwischen ernährt der Cluster-Boom sich nahezu selbst: Je mehr Automobilhersteller Linux-Cluster einsetzen, desto mehr Standardsoftware gibt es und umgekehrt.

Weit mehr als konventionelle Großrechner lassen sich Linux-Cluster individuell anpassen. Prozessorleistung, Speicherausbau und Netzwerktyp sind in weiten Grenzen variabel. Während an Universitäten gerne ausgiebig am Clusteraufbau gefeilt wird – nicht zufällig ist der Cluster-Urahn Beowulf an einem Forschungsinstitut entstanden –, tendieren Firmen zu Komplettlösungen etablierter Anbieter. Seit große Hardware-Hersteller wie etwa Fujitsu-Siemens und IBM Linux zur strategischen Plattform erkoren haben, ist das Betriebssystem für die Automobilbauer salonfähig geworden.

Bei so viel Auswahl gibt es erheblichen Beratungsbedarf. Planen und Einrichten ("Konfiguration") eines Clusters sind so aufwendig, dass sie derzeit den größten Hemmschuh für den Linux-Einsatz im professionellen Bereich darstellen. Hier finden Dienstleister wie science + computing ag ein Beschäftigungsfeld und ersparen es den Anwendern, sich das Know-how im eigenen Hause zuzulegen.

Allein im zweiten Halbjahr 2001 haben deutsche Entwicklungsabteilungen mindestens zwanzig neue Linux-Cluster mit zusammen über tausend Prozessoren in Dienst gestellt. DaimlerChrysler hatte Ende 1999 den Anfang gemacht mit einer ersten Installation aus 16 doppelten Pentium-III-Systemen zur Berechnung elektromagnetischer Verträglichkeitssimulationen. Die meisten Systeme rechnen inzwischen jedoch an Problemen der Kollisions-(Crash-)Analyse und Strömungsdynamik (Bild oben). Mit typischerweise mehr als hundert Knoten gehören die Crash-Cluster auch zu den umfangreichsten Systemen. In anderen Abteilungen sind meist nur 32 bis 64 Rechner zusammengeschaltet.

Linux-Cluster werden die herkömmlichen Spezialrechner nicht verdrängen, sondern vor allem ergänzen. So gibt es eine Reihe von Problemen, für die Spezialhardware deutlich besser geeignet ist: Berechnungen, bei denen die Kommunikations-Latenz eine kritische Größe ist, werden auf Rechnern, bei denen alle Prozessoren auf einen gemeinsamen Arbeitsspeicher (shared memory) zugreifen, oder sogar Einzelprozessoren schneller erledigt. So sind in bestimmten Crash-Simulationen Berechnungen mit sehr kurzen Zeitschritten gefordert. Wenn dann in jedem einzelnen Zeitschritt nicht viel zu berechnen ist, steht die Zeit, die für die Kommunikation benötigt wird, in keinem Verhältnis zur eigentlichen Rechendauer des Zeitschritts. Parallelisierung ist auch dann unzweckmäßig bis unmöglich, wenn die Einzelelemente ("finiten Elemente"), in die eine Struktur zu Berechnungszwecken aufgelöst wird, mit sehr vielen ihresgleichen eng verknüpft sind und deshalb eine Zustandsänderung in einem Element sich auf sehr viele andere auswirkt. Schließlich sind manche Lösungsalgorithmen bislang schlicht nicht für parallelisierte Berechnung programmiert worden.

Der Boom der Linux-Cluster wird dennoch anhalten. Die Vorstände der Automobilhersteller haben mittlerweile Gefallen gefunden an der Vision der komplett virtuellen Fahrzeugentwicklung. Das bedeutet, dass sich die Simulation in ganz neue Felder wie zum Beispiel die Motor-innenraumdurchströmung oder die Lärmentwicklung ausdehnen wird. Einzelne Simulationsverfahren werden gekoppelt, um immer verlässlichere Resultate zu liefern: So werden zum Beispiel die Simulationen von Strömungen und Temperaturverteilung kombiniert, um das Fahrzeuginnere optimal zu klimatisieren. Zudem werden die herkömmlichen Methoden durch neue Verfahren ergänzt, um die Realität genauer abzubilden. So untersucht die stochastische Simulation die Sicherheit und Stabilität des Fahrzeugs und berücksichtigt dabei auch kleine Schwankungen wie beispielsweise Fertigungstoleranzen von Bauteilen. Linux-Cluster machen die immense Rechenleistung, die für all diese Aufgaben nötig ist, überhaupt erst bezahlbar.

Aus: Spektrum der Wissenschaft 3 / 2002, Seite 94
© Spektrum der Wissenschaft Verlagsgesellschaft mbH
3 / 2002

Dieser Artikel ist enthalten in Spektrum der Wissenschaft 3 / 2002

Lesermeinung

Beitrag schreiben

Wir freuen uns über Ihre Beiträge zu unseren Artikeln und wünschen Ihnen viel Spaß beim Gedankenaustausch auf unseren Seiten! Bitte beachten Sie dabei unsere Kommentarrichtlinien.

Tragen Sie bitte nur Relevantes zum Thema des jeweiligen Artikels vor, und wahren Sie einen respektvollen Umgangston. Die Redaktion behält sich vor, Leserzuschriften nicht zu veröffentlichen und Ihre Kommentare redaktionell zu bearbeiten. Die Leserzuschriften können daher leider nicht immer sofort veröffentlicht werden. Bitte geben Sie einen Namen an und Ihren Zuschriften stets eine aussagekräftige Überschrift, damit bei Onlinediskussionen andere Teilnehmer sich leichter auf Ihre Beiträge beziehen können. Ausgewählte Lesermeinungen können ohne separate Rücksprache auch in unseren gedruckten und digitalen Magazinen veröffentlicht werden. Vielen Dank!