Direkt zum Inhalt

Grid Computing: Rechenleistung aus der Steckdose

Durch die Einbindung von Prozessoren, Speichersystemen und Software in eine weltumspannende Struktur wird die Leistung eines Computers für jedermann auf der Stelle und problemlos verfügbar.


Die ersten Menschen aßen nur selbst gefangene Nahrung und benutzten nur selbst hergestellte Werkzeuge. In der Zwischenzeit haben sich unsere Vorfahren alle Mühe gegeben, diese enge Kopplung von Produktion und Verbrauch zu überwinden, und die Ergebnisse sind sehr eindrucksvoll: Landwirtschaft, industrielle Massenfertigung, zentrale Erzeugung elektrischer Energie und Verteilung über ein weitverzweigtes Netz … Die arbeitsteilige Wirtschaft mitsamt ihren ungeheuren Effizienzgewinnen macht unsere moderne Welt aus. Dank ihr kann ich zum Beispiel in einem Café sitzen, einen Espresso trinken und diesen Artikel auf einem Laptop schreiben, ohne darüber nachzudenken, wo das Wasser, die Kaffeebohnen und der elektrische Strom, die ich verbrauche, eigentlich herkommen.

Wasserhahn und Steckdose sind griffige Beispiele für das, was der Informatiker "Virtualisierung" nennt. Von einer nützlichen Funktion bleibt nur eine Oberfläche (ein interface) sichtbar; was dahinter steckt, kann und will ich nicht sehen. Wenn ein Angestellter des Cafés den Wasserhahn aufdreht, darf er sich schadlos der Illusion hingeben, er würde ein Fass ohne Boden anstechen. Die Steckdose, an die ich meinen Laptop anschließe, ist für mich nichts weiter als eine "Stromquelle" – eine virtuelle natürlich; aber dank moderner Infrastruktur muss ich mir über die echten Quellen des Stroms keine Gedanken machen.

Nur bei den Computern selbst sind wir noch nicht wesentlich über die Steinzeit hinaus. Mein Laptop, ein Heimcomputer und selbst das Rechenzentrum eines Großbetriebs sind in sich geschlossene Systeme, die alle notwendigen Leistungen selbst erbringen. Das wäre so, als müssten jedes Haus und jede Firma ein eigenes Kraftwerk, eine eigene Bibliothek, eine eigene Druckerei und ein eigenes Wasserwerk betreiben. Welch eine Verschwendung.

Dieser unbefriedigende Stand der Dinge hat Informatiker dazu veranlasst, nach besseren Alternativen zu suchen. Die Datenleitungen werden immer schneller; warum liefert man dem Kunden nicht das, was er braucht – Rechenleistung, Speicherplatz, Daten und Software –, zu dem Zeitpunkt, zu dem er es anfordert? Das läuft da-rauf hinaus, "Rechner" dynamisch aus räumlich getrennten Teilen zusammenzusetzen, also das, was ein Rechner liefert, zu virtualisieren. Ein solches Rechennetz (computing grid) könnte so allgegenwärtig und so nützlich sein wie das Stromnetz (power grid).

Die ersten Nutznießer eines solchen Netzes wären vermutlich Internet-Anbieter von Dienstleistungen. Sie müssten für die stark schwankende Nachfrage ihrer Kunden nach Rechenleistung nicht selbst Kapazitäten vorhalten, sondern könnten sie je nach Bedarf auf dem Markt einkaufen. Sie könnten solche Leistungen nicht nur unter eigenem Namen anbieten, sondern auch als Makler zwischen Anbietern und Nachfragern auftreten.

Geschäfte im Grid

Stellen Sie sich einen Veranstalter von Abenteuerreisen vor, der – als Vorgeschmack auf das echte Erlebnis oder als eigenständige Leistung – virtuelle Tauchtouren anbieten möchte. Wenn ein Kunde mit einem Mausklick in die Gewässer der beliebten Taucherinsel Cozumel vor der mexikanischen Küste springt, muss die Firma zu dem vom Kunden genannten Ort Standbilder in einer Datenbank ausfindig machen, die Daten in eine dreidimensionale Darstellung überführen, mit zugehörigen kommerziellen Informationen überlagern und Bilder von dort installierten Videokameras mit einspielen. Kein Reiseunternehmen kann es sich leisten, diese Kapazitäten vorzuhalten. Über das Grid jedoch können sie durch Großfirmen bereitgestellt werden, die jeweils viele Kunden bedienen und dadurch auf ihre Kosten kommen.

Mein Hausarzt hat weder das Geld noch den Bedarf für einen Supercomputer samt umfangreicher Bilddatenbank in seiner Praxis. Aber wenn ihm mein Röntgenbild merkwürdig vorkommt, wäre es hilfreich, wenn er es von einem Server in, sagen wir, Boston mit den Röntgenaufnahmen von Millionen anderer Patienten vergleichen lassen könnte. Vielleicht entdeckt er durch diesen Auftrag, der über das Grid ausgeführt und abgerechnet wird, einen bösartigen Tumor, der ihm sonst entgangen wäre. Anderswo vergibt vielleicht ein Biochemiker an das Grid den Auftrag, in einer Simulation 10000 potenzielle Wirkstoffe durchzutesten, und hat seine Ergebnisse in einer Stunde statt in einem Jahr. Ein Bauingenieur erfährt auf dieselbe Weise in Minuten statt in Monaten, ob die von ihm entworfene Brücke einem Erdbeben standhalten würde.

Virtualisiertes Rechnen über ein weltumspannendes Netz (global virtualized grid computing) ist eine natürliche Fortentwicklung des Internets, das seinerseits ein virtualisiertes Kommunikationsmittel ist: Jeder Mensch oder Computer kann mit jedem anderen in Verbindung treten, und zwar unabhängig von Ort oder Übertragungsmedium. Kaum gab es das Internet, da schossen vollkommen neue Anwendungen wie Pilze aus dem Boden:
– E-Mail;
– das World Wide Web;
– dezentrale Anwendungen (P2P wie peer-to-peer-Systeme, siehe Spektrum der Wissenschaft 6/2002, S. 80);
– Systeme zum Tauschen von Dateien wie Napster und KaZaA sowie
– einfache Schemata für verteiltes Rechnen wie SETI@home (der Bildschirmschoner für die kollektive Suche nach außerirdischen Intelligenzen), FightAIDS@home und das Smallpox Research Grid.

Unsere Anstrengungen, Grid Computing zu entwickeln, zielen darauf ab, Rechenleistung und Information zu virtualisieren, sodass jeder Mensch oder Computer sie an jeden anderen liefern kann, und zwar – genauso wichtig – so, dass der Zugang zu diesem sehr buntgemischten Markt sicher und zuverlässig ist.

Mein eigenes Interesse an Grid Computing erwachte Anfang der 1990er Jahre, als ich im Nationallaboratorium des Energieministeriums in Argonne (Illinois) an Software für wissenschaftliches Rechnen arbeitete. Die ersten Hochgeschwindigkeits-Datennetze kamen auf, und uns wurde allmählich klar, dass sie die Möglichkeiten wissenschaftlichen Arbeitens in ungeahntem Maße erweitern würden. So könnten Laborinstrumente ihre Messwerte an entfernte Rechner übertragen und diese eine Datenanalyse in Echtzeit durchführen. Man könnte mühelos viele räumlich weit entfernte Datenbanken zugleich abfragen und dadurch neue, interessante Zusammenhänge finden.

"Globus", das Pioniersystem

Deshalb beschloss ich 1994, meine Forschung auf verteilte Systeme zu konzentrieren. Meine Partner waren Steven Tuecke von Argonne und Carl Kesselmann, damals Forscher am California Institute of Technology in Pasadena und heute Direktor des Zentrums für Grid-Technik am Institut für Informatik der Universität von Süd-Kalifornien in Los Angeles. Wir drei riefen ein Projekt ins Leben, das ein Softwaresystem für die globale wissenschaftliche Zusammenarbeit zum Ziel hatte, und nannten es – ohne falsche Bescheidenheit – "Globus".

Verteiltes Rechnen ist keineswegs eine neue Idee; viele Grundkonzepte der heutigen Grid-Systeme sind sogar älter als
das Internet. Die Schöpfer der ersten Mehrbenutzer-Betriebssysteme (time sharing systems), namentlich Fernando Corbató vom Massachusetts Institute of Technology, dachten bereits Anfang der sechziger Jahre weit über die damaligen technischen Möglichkeiten hinaus: Miteinander verbundene Computer würden "eine Forschergruppe zu kooperativer Suche nach der Lösung eines gemeinsamen Problems zusammenbringen". Banken und Fluggesellschaften betreiben seit Jahrzehnten hochentwickelte verteilte (Buchungs-)Systeme.

Wir hatten allerdings eher die Bedürfnisse von Wissenschaftlern im Sinn. Die Praxis der Forschung ist häufig ein nur mühsam gebändigtes Chaos. Überraschende, extreme Anforderungen an – zum Beispiel – Rechengerät sind nur durch sehr innovatives Denken zu befriedigen. Es ist kein Zufall, dass die Erfindung des World Wide Web durch Tim Berners-Lee im europäischen Kernforschungszentrum Cern in Genf stattfand.

In unserem Fall erkannten wir, dass Forschergruppen, die aus verschiedenen Institutionen zusammengewürfelt sind – wir nannten sie virtuelle Organisationen (VOs) –, einen kontrollierten und gut verwalteten Zugriff auf gemeinsame Ressourcen benötigen. Eine VO hat gewisse Parallelen zu einer Fußball-Nationalmannschaft, deren Mitglieder ja auch aus den verschiedensten Vereinen zusammengezogen werden. Aber sie hat ein schwierigeres Leben, denn ihre Mitglieder bleiben fest im jeweiligen "Heimatverein" verankert, was zahlreiche organisatorische und politische Problemen schafft. Sie tragen nicht die gleichen Trikots, sprechen nicht die gleiche Sprache, folgen nicht den gleichen Regeln oder spielen vielleicht nicht einmal das gleiche Spiel.

Kesselman, Tuecke und mir schwebte eine neue Klasse von integrierender Software vor, die diese gemeinsame Nutzung ermöglichen würde; und zwar wollten wir nicht die Systeme an den einzelnen Orten durch eigene ersetzen, sondern unsere VO-Struktur – kostengünstig – auf die bestehenden Systeme aufsetzen. Dazu musste unsere Software standardisierte Lösungen für eine Vielzahl von Aufgaben vorsehen, darunter vor allem
– die Identität eines Nutzers zu überprüfen,
– einen Auftrag zur Ausführung freizugeben,
– über verfügbare Ressourcen Buch zu führen und sie zugänglich zu machen,
– Datenströme zu lenken.

"I-WAY", das Gesellenstück

Die Bewährungsprobe für unsere Ideen kam früher als erwartet. Für die Dauer einer Industriekonferenz namens Supercomputing ’95 wollten Rick L. Stevens, Direktor der Mathematik- und Informatikabteilung in Argonne, und Thomas A. DeFanti, Direktor des Visualisierungslabors der Universität von Illinois in Chicago, elf lokale Hochleistungs-Computernetze zu einem Grid namens "I-WAY" zusammenkoppeln. Als sie Ende 1994 das noch aufzubauende Grid zur Nutzung ausschrieben, gingen mehr als sechzig Anträge von Wissenschaftlern ein.

Stevens und DeFanti überredeten mich und eine kleine Gruppe von Mitarbeitern bei Argonne, die Software zu entwickeln, welche die 17 an I-WAY teilnehmenden Standorte zu einem einzigen virtuellen System verknüpfte. Auf dieser Basis baute zum Beispiel eine Gruppe unter Leitung von Lori Freitag von Argonne ein Netzwerk auf, in dem Verbrennungsingenieure aus den ganzen USA gemeinsam industrielle Verbrennungsanlagen optimieren konnten.

I-WAY war ein großer Erfolg und zog weite Kreise. DARPA, die Forschungsförderungsagentur des Verteidungsministeriums, gab dem Projekt Globus Geld für weitere Forschungen. Im Jahre 1997 veröffentlichten wir die erste Version unseres Softwarepakets "Globus Toolkit" und demonstrierten sein Funktionieren an über achtzig Standorten in aller Welt. Zugleich förderte die National Science Foundation den Aufbau des National Technology Grid, das Wissenschaftlern an Universitäten den Zugang zu schnellen Rechnern verschaffen sollte; die Nasa gründete ein ähnliches Projekt namens Information Power Grid, und das Energieministerium förderte Projekte zur wissenschaftlichen Nutzung von Grids.

Ende der 1990er Jahre wuchsen und gediehen zahlreiche weitere Grids. So erkannten die Hochenergiephysiker, die den Teilchenbeschleuniger LHC (Large Hadron Collider) am Cern entwarfen, dass für die Analyse der zu erwartenden riesigen Datenmengen ein Grid-System unentbehrlich sein würde. Zu dessen Aufbau wurden mehrere Projekte ins Leben gerufen, namentlich das europäische DataGrid, aber auch das U.S. Grid Physics Network und das Particle Physics Data Grid in den Vereinigten Staaten. In ihrem Gefolge entstanden neue Infrastrukturen, Benutzergemeinschaften und Anwendungspropramme.

Ein Grid lebt davon, dass alle seine Komponenten nahtlos zusammenpassen, auch wenn sie, wie in der Wissenschaft üblich, über die ganze Welt verteilt sind. Für dieses Ziel war es zwar hilfreich, dass fast allen Entwicklungen von Grids der Globus Toolkit zugrunde liegt. Aber es war klar, dass Grid Computing kaum über den Kreis seiner ursprünglichen Benutzer hinauswachsen würde, wenn nicht alle Benutzer an der Festsetzung gemeinsamer Standards beteiligt wären. Deshalb beriefen 1998 mehrere von uns ein erstes Treffen ein, aus dem später das Global Grid Forum hervorging: eine internationale Standardisierungsorganisation der Benutzergemeinde.

Das Grid selbst ist Infrastruktur und als solche nicht besonders erregend. Wie beim Abwassersystem ist es am besten, wenn man von ihm nichts bemerkt, außer dass es funktioniert. Einige virtualisierte Projekte jedoch, die durch das Grid erst möglich wurden, sind in der Tat bemerkenswert.

Vom etablierten System ...

Seit im 16. Jahrhundert Galileo Galilei sein Fernrohr auf die Monde des Jupiter richtete, gehören lange, kalte Nächte in der Sternwarte zum Schicksal des Astronomen. Dank großer Fortschritte in Rechner- und Sensortechnik ist jedoch eine neue Generation von "Lehnstuhlastronomen" im Kommen. Statt nachts vor dem Teleskop zu frieren, sitzen sie tagsüber in wohlig geheizten Büros und weisen ihre Rechner an, nicht den Himmel selbst, sondern eine entsprechende Datensammlung nach auffälligen Objekten zu durchmustern. Das knappe Gut, um das sie kämpfen müssen, ist nicht mehr die Beobachtungszeit; es sind die Software, der Speicherplatz und die Rechenzeit, die zur Analyse der riesigen Datenmengen benötigt werden.

Eine dieser Datensammlungen ist der Sloan Digital Sky Survey. Das Projekt, das bislang größte seiner Art, zielt darauf ab, ein Viertel der Himmelskugel zu kartografieren, insbesondere Position und absolute Helligkeit von mehr als 100 Millionen Himmelsobjekten zu bestimmen; das erfordert einen immensen Rechenaufwand. Eine Gruppe von Forschern aus der Universität Chicago, dem Fermilab und der Universität von Wisconsin in Madison will mit Hilfe des Grids diese Arbeit beschleunigen. Indem wir Rechnerressourcen aus dem ganzen Land einspannen, soll eine Analyse, die bisher Wochen in Anspruch nahm, nicht länger dauern als eine Kaffeepause.

Diese Gruppe hat bereits einen Katalog von Galaxienhaufen angelegt – wertvolles Material für Kosmologen, die an Theorien zur Entstehung des Universums arbeiten. Als Nächstes steht eine Suche nach erdnahen Objekten an, ein Thema mit ungewöhnlich direktem Bezug zum Schicksal unseres Planeten. Immerhin könnte einer der so zu entdeckenden Asteroiden irgendwann auf der Erde einschlagen. Die Ergebnisse dieses Projektes gehen in ein noch ehrgeizigeres Unterfangen ein: viele solcher astronomischer Datenbanken zu einem globalen virtuellen Observatorium zu verbinden.

Auch die klinische Medizin profitiert von der Grid-Technik. Die neuen bildgebenden Verfahren liefern eine Fülle von Daten; dadurch ist es einfacher geworden, den Verlauf einer Krankheit bei einem einzelnen Patienten oder dasselbe Krankheitsbild in einer Vielzahl von Fällen zu verfolgen. Aber die riesige Flut von Bilddaten will auch bewältigt werden. Nach Einschätzung von Experten werden derzeit ungefähr ein Fünftel der erstmaligen Mammografien falsch diagnostiziert. Außerdem sind ältere Aufnahmen in zwanzig Prozent aller Fälle nicht aufzufinden. Diesen Missständen sollen digitale Bildarchive wie das National Digital Mammography Archive in den USA und eDiamond in Großbritannien abhelfen. Diese Grid-Systeme verschaffen darüber hinaus den Medizinern Zugang zu modernsten automatischen Diagnosesystemen und liefern den Epidemiologen Material, um die Auswirkungen von Umwelt und Lebensstil auf die Gesundheit zu erforschen.

... zum allgemeinen Standard

Das U.S. Biomedical Informatics Research Network sammelt Computertomografie-Daten aus verschiedenen Quellen, vor allem Aufnahmen des Gehirns. Vielleicht hilft dieses Grid uns zu verstehen, wie Strukturen im Gehirn späterer Alzheimerpatienten sich von denen gesunder Menschen unterscheiden.

Das U.S. Network for Earthquake Engineering Simulation (NEES) ist mit der Simulation von Erdbebenfolgen befasst. Ein Bauingenieur pflegt eine Struktur, die einem Erdbeben standhalten soll, in eigens dafür eingerichteten Anlagen zu testen, die Rütteltische und Zentrifugen enthalten. Ein Teil der Fördersumme von 82 Millionen Dollar wird in ein NEESgrid fließen, das bereits vorhandene und neu zu bauende Testeinrichtungen mit Datenarchiven, Rechnerressourcen und Nutzern im ganzen Land verbinden soll. Dann können Forscher Experimente aus der Ferne mitverfolgen. Für diesen Sommer ist eine Studie über große Brückenpfeiler geplant, die gleichzeitig auf Rütteltischen in Kalifornien und Illinois getestet werden.

Nicht nur die Wissenschaftler begeistern sich für die Möglichkeiten des Grid Computing. Seit 2000 arbeiten praktisch alle namhaften Computerhersteller an kommerziellen Anwendungen der Technik. Schlagwörter wie "Utility Computing", "e-business on demand", "planetary computing", "autonomic computing" und "enterprise grids" finden sich immer häufiger in Marketingunterlagen und Geschäftsplänen.

Das lebhafte Interesse erklärt sich ohne weiteres aus der endlosen, kostspieligen Mühsal des Computerbetriebs. Dieses Geschäft ist bis heute nicht weit über das Niveau der Handarbeit hinaus gekommen. Wir wissen alle, dass Benutzer viel zu viel Zeit damit verbringen, ihre privaten Systeme zu installieren, am Laufen zu halten, Fehler zu beheben und neue Komponenten einzubringen, die dann mit den alten nicht richtig zusammenarbeiten. Grid Computing verspricht, diese Probleme zu bewältigen, indem es Produktion und Verbrauch entkoppelt und damit allgemeine und spezielle Leistungen eines Computers zu handelbarer Ware macht.

Der Übergang wird alles andere als reibungslos vonstatten gehen. Aber ähnliche Übergänge haben wir in Gebieten wie der Fertigung oder der Stromerzeugung bereits hinter uns. Das Auto zum Beispiel war anfangs ein luxuriöses Spielzeug für Tüftler. Heute kann praktisch jeder Mensch in der entwickelten Welt eines benutzen, denn für Problemfälle steht ein riesiges globales Produktions- und Servicenetz bereit.

In einer vergleichbar organisierten Computerwirtschaft gäbe es Hersteller, Händler und Verbraucher. Erstere würden sich darauf konzentrieren, unter Nutzung der Vorteile der Massenfertigung immer bessere Geräte zu produzieren. Die Händler würden Angebot und Nachfrage zusammenbringen und neue Formen von wertschöpfenden Dienstleistungen finden. Die Verbraucher könnten sich einer reichhaltigen und rasch wachsenden Palette von Leistungen erfreuen, die von weit entfernten Netzbetreibern erbracht werden.

Bis diese Vision vom Rechnen übers Netz wahr wird, gibt es noch viel zu tun. Internet und World Wide Web ermöglichen es uns, von praktisch überall her Nachrichten zu versenden und auf Webseiten zuzugreifen; aber für eine gemeinschaftliche Nutzung von Ressourcen in großem Maßstab ist noch weit mehr Infrastruktur erforderlich. Wir sind in einer Situation, in der wir sprechen können, aber noch keine gemeinsame Sprache haben. Es ist noch zu vereinbaren, wie Dienstleistungen zu klassifizieren sind, wie die Partner einer Transaktion sich gegenseitig ihrer Identität vergewissern, wie Zugriffsrechte vergeben und überprüft werden und welche Aktivitäten zugelassen sind.

Die ersten Schritte zu einem solchen Regelwerk, der "Open Grid Services Architecture", wurden im vergangenen Jahr unternommen. Damit würde die Technik des World Wide Web, die in einem internationalen Gremium ausgehandelt und von der Industrie voll akzeptiert wurde, mit den Techniken des Grid zusammengeführt, bei denen die wissenschaftliche Gemeinschaft Pionierarbeit geleistet hat.

Versetzen wir uns ein paar Jahre in die Zukunft. Die Open Grid Services Architecture ist voll etabliert, und ein Kunde bestellt über das Internet eine virtuelle Tauchtour vor Cozumel bei unserem Reiseveransalter ScubaTours. Der vergewissert sich, dass der Kunde eine Breitbandverbindung hat, nimmt die Einzelheiten des Auftrags entgegen und reicht ihn an einen Dienstleister namens Computer Games Corp. weiter, der auf "virtual reality" spezialisiert ist. (Diese Firma beliefert auch die Veranstalter von Internet-Spielen, bei denen viele Spieler ihre virtuellen Stellvertreter in einer Kunstwelt agieren lassen können.) Die Rechner von Computer Games Corp. wiederum stellen die für den gewünschten "Durchflug" nötigen Daten und Programme zusammen, suchen im Grid nach dem günstigsten Lieferanten von Rechenzeit, laden dorthin die Software, und der virtuelle Tauchgang geht los – ein Strom von Daten für bunte Bilder, der in Abhängigkeit von den Steuerbefehlen des Kunden erzeugt wird. Computer Games Corp. ist also ein Zwischenhändler, der aus Waren von verschiedenen Herstellern ein Paket speziell für diesen Kunden schnürt.

Das Online-Geschäft der Zukunft

Von all diesen Verhandlungen zwischen ScubaTours, Computer Games Corp. und deren Lieferanten soll der Kunde nichts merken. Dieses reibungslose Funktionieren herzustellen ist alles andere als einfach. Die Programmierer bei Computer Games Corp. müssen schon spezialisierte Software geschrieben haben, die auf mehreren Rechnern zugleich läuft, und sie müssen wissen, wie man die benötigte Rechnerleistung und die Netzwerkkapazität abschätzt und ausfindig macht. Für Letzteres nehmen sie die Dienste eines vertrauenswürdigen "Maklers" in Anspruch. Wenn ihnen dieser Computer einen geeigneten Lieferanten genannt hat, sagen wir Computers Inc., nehmen sie direkt mit ihm in einer gemeinsamen Sprache Kontakt auf. Über ein sicheres Protokoll überzeugen beide Partner einander von ihrer Vertrauenswürdigkeit ("Ich bin kein Hacker", "Ich kann bezahlen", "Ich bin eine etablierte Firma") und handeln die Geschäftsbedingungen aus: Anzahl der Rechner, Leistungsfähigkeit, Preise und so weiter.

Nachdem Computer Games Corp. die Software auf die Rechner von Computers Inc. geladen und gestartet hat, erscheinen die ersten Korallen und bunten Fische auf dem Bildschirm des Kunden. Aber damit ist der Auftrag noch nicht erledigt. Vielleicht bewegt sich der Kunde in eine unerwartete Richtung, was den Rechnerbedarf erhöht, oder es fallen ein paar Rechner oder Netzwerke aus. Daraufhin muss Computer Games Corp. zusätzliche Rechner einbeziehen oder notfalls die Genauigkeit der Simulation reduzieren.

Alle diese Interaktionen unter Computern – sich ausweisen, Leistungen anbieten, nachfragen, buchen, in Anspruch nehmen, abrechnen und bezahlen – sollten in einer Sprache stattfinden, die möglichst allen potenziell Beteiligten gemeinsam ist. Software für viele dieser Aufgaben ist bereits im Globus Toolkit enthalten; allgemeinere Standards werden von den Arbeitsgruppen des Global Grid Forum verbreitet.

Wie in anderen Industriebereichen auch wird diese Standardisierung Wettbewerb und Innovationen im Bereich der Rechnerdienstleistungen in Gang setzen. So werden vielleicht Schreibtisch- oder Heimcomputer in hinreichender Menge als bedeutende Rechen- und Speicherressource nutzbar gemacht. Für den Sloan Digital Sky Survey hat ein System namens Condor Schreibtischcomputer gebündelt, die ungefähr die Hälfte der gesamten Rechenleistung beisteuerten. Inzwischen ist die dafür erforderliche Software das Geschäft von Firmen wie DataSynapse, Entropia, Platform und United Devices.

Wie sieht die Zukunft des Grid Computing aus? Wenn alle sich daran beteiligen, wird es ein großer Erfolg. Aber der erste, der in die Technik investiert, könnte auf seinen Kosten sitzenbleiben, wenn die anderen nicht mitziehen. Um dieses Hemmnis zu überwinden, muss der Einstieg möglichst einfach und preisgünstig sein. Insbesondere sind nicht nur die Bedingungen für die Teilnahme am Grid bis in die Einzelheiten offenzulegen, es muss auch einen allgemein verfügbaren Weg geben, sie zu erfüllen. Der Globus Toolkit stellt genau das bereit. Für den weiteren Fortschritt haben sowohl die akademische Welt als auch die Industrie und kommerzielle Dienstleister ihre Beiträge zu leisten. Etabliert ist das Grid erst, wenn die zugehörige Software in Standard-Betriebssysteme eingebaut und Gegenstand von Schulungsveranstaltungen für Anfänger ist.

Nachdem das Grid in den beschützenden Gehegen der wissenschaftlichen Welt oder firmeninterner Netze seine ersten Erfolge gezeigt hat, muss es sich nun in der rauen Geschäftswelt bewähren. Wird es noch funktionieren, wenn die Anzahl der Beteiligten um mehrere Zehnerpotenzen ansteigt? Wie kann es gegen den Ausfall einzelner Komponenten robust gemacht werden? Wie kann man den Benutzern die Vorteile jederzeit verfügbarer Rechenleistung nahebringen?

Ohne Zweifel werden die Ideen vom Welt-Computer, die David P. Anderson und John Kubiatowicz in dieser Zeitschrift (6/2002, S. 80) vorgestellt haben, in das Grid der Zukunft eingehen. In meinen Augen werden alle diese Konzepte auf etwas hinauslaufen, was der Benutzer nur diffus als Quelle von Rechenleistung wahrnimmt: Seine Daten kommen aus der Steckdose – um mehr muss er sich nicht kümmern.

Literaturhinweise


Tomorrow‘s computing today. Von Declan Butler in: Nature, Bd. 422, S. 799, 24. April 2003.

The Grid: A New Infrastructure for 21st Century Science. Von Ian Foster in: Physics Today, Bd. 55, Heft 2, S. 42, 2001.

The World-Wide Telescope. Von A. Szalay und J. Gray in: Science, Bd. 293, S. 2037, 2001.


Glossar


- Der Begriff Grid Computing bezeichnet die (über Hochgeschwindigkeits-Datennetze zu realisierende) Einbindung zahlreicher Computer in eine einheitliche Struktur, mit dem Ziel, deren hohe Leistung bei Bedarf sofort für jeden Nutzer – ob Mensch oder Computer – verfügbar zu machen, insbesondere für solche, die ansonsten keinen Zugang zu derartigen Leistungen hätten.
- "Think global – act local": Über gemeinsame Sprachen und Interaktionsprotokolle befriedigt ein Grid lokale Bedürfnisse mit über die ganze Welt verteilten Produktionsmitteln.
- Die hochintegrierten Netze, aus denen das Grid besteht, sind für den Nutzer transparent: Es scheint, als würden die aus der Ferne gelieferten Dienstleistungen von lokalen Rechnern erbracht.
- Die Grid-Technik ermöglicht enge wissenschaftliche und geschäftliche Zusammenarbeit von Mitgliedern virtueller Organisationen, wissenschaftliche Experimente aus der Ferne sowie verteiltes Hochleistungsrechnen und Datenanalyse.

Aus: Spektrum der Wissenschaft 7 / 2003, Seite 66
© Spektrum der Wissenschaft Verlagsgesellschaft mbH
7 / 2003

Dieser Artikel ist enthalten in Spektrum der Wissenschaft 7 / 2003

Lesermeinung

Beitrag schreiben

Wir freuen uns über Ihre Beiträge zu unseren Artikeln und wünschen Ihnen viel Spaß beim Gedankenaustausch auf unseren Seiten! Bitte beachten Sie dabei unsere Kommentarrichtlinien.

Tragen Sie bitte nur Relevantes zum Thema des jeweiligen Artikels vor, und wahren Sie einen respektvollen Umgangston. Die Redaktion behält sich vor, Leserzuschriften nicht zu veröffentlichen und Ihre Kommentare redaktionell zu bearbeiten. Die Leserzuschriften können daher leider nicht immer sofort veröffentlicht werden. Bitte geben Sie einen Namen an und Ihren Zuschriften stets eine aussagekräftige Überschrift, damit bei Onlinediskussionen andere Teilnehmer sich leichter auf Ihre Beiträge beziehen können. Ausgewählte Lesermeinungen können ohne separate Rücksprache auch in unseren gedruckten und digitalen Magazinen veröffentlicht werden. Vielen Dank!