Direkt zum Inhalt

Festplatten: Im Reich der Terabytes

Was Speicherplatz für digitale Daten angeht, ist das Zeitalter des Überflusses angebrochen - so mächtig, dass wir noch gar nicht wissen, was wir damit anfangen sollen.


Das kleine Metallkästchen in meiner Hand, übersät mit Aufklebern, Seriennummern, Barcodes und Versiegelungen, enthält alles, was ich in den vergangenen Jahren geschrieben habe: ein ganzes Buch, etliche Artikel, Programme, Briefe, E-Mails und Notizen bis hin zum letzten Einkaufszettel. Und trotzdem gibt es noch Platz genug für alles, was ich in den kommenden zehn Jahren zu schreiben hoffen kann. Für einen Autor ist es ziemlich ernüchternd festzustellen, dass sein komplettes Lebenswerk in eine Blechschachtel passt, in der allenfalls ein paar Dutzend Bleistifte unterzubringen wären.

Die Rede ist natürlich von einer Festplatte, und nicht gerade der jüngsten. Sie ist etwa zehn Jahre alt und hat eine Kapazität von 120 Megabyte, was ungefähr 120 Millionen Zeichen nicht formatierten Textes entspricht. Ihr Nachfolgemodell sieht ziemlich ähnlich aus, nur etwas kleiner und dünner, kann aber das Tausendfache speichern: 120 Gigabyte, also 1,2×1011 Zeichen. Das reicht nicht nur für alles, was ich je geschrieben habe, sondern für alles, was ich jemals lesen werde. Ein ganzer intellektueller Kosmos, die Worte eines Menschenlebens passen auf eine Handfläche.

In der öffentlichen Aufmerksamkeit führen Festplatten ein Mauerblümchendasein im Schatten der integrierten Schaltkreise. Alle Welt preist die Mikrochips und das enorme Wachstum ihrer Leistungsfähigkeit, das seit ihrer Erfindung anhält. Innerhalb von jeweils 18 Monaten hat sich die Anzahl der Schaltkreise auf dem jeweils neuesten Chip verdoppelt. Aber die Festplatten haben dieses Entwicklungstempo nicht nur erreicht, sondern mittlerweile überschritten: In den letzten fünf Jahren hat sich ihre Kapazität Jahr für Jahr verdoppelt. Diese Entwicklung hat selbst Technikoptimisten überrascht. Zu abwegig erschien die Idee, dass ein mechanisches Ding, das zusammengeschraubt werden muss und rattert, die geräuschlosen und ohne bewegliche Teile arbeitenden integrierten Schaltkreisen ausstechen könnte.

Der technische Fortschritt ist zweifellos imposant; aber was kann man damit anfangen? Der Zuwachs an Speicherkapazität wird sicherlich noch mindestens ein Jahrzehnt anhalten. Die kleinen grauen Blechzellen werden nicht nur Gigabytes, sondern Terabytes (1012 Bytes) und irgendwann Petabytes (1015 Bytes) in sich aufnehmen. Dann passt nicht nur die Lektüre eines Lebens in eine Handfläche, sondern eine ganze Universitätsbibliothek auf einen Fingernagel. Womit werden wir diese riesigen Biträume füllen, und wie werden wir einmal abgelegte Information wiederfinden? Diese Fragen und die noch zu findenden Antworten werden unser Leben erheblich beeinflussen.

Lackierte Platten

Die erste Festplatte wurde 1956 von IBM gebaut. Sie gehörte zu einer Maschine namens RAMAC (Random Access Method of Accounting and Control), steckte in einem Gehäuse von den Ausmaßen eines Gefrierschranks und wurde von einem Motor angetrieben, dessen Leistung für eine kleine Betonmischmaschine ausgereicht hätte (Bild auf der vorigen Seite). Ein Stapel von fünfzig Aluminiumscheiben, 60 Zentimeter breit und beidseits mit einem braunen Film aus Eisenoxid beschichtet, rotierte mit einer Geschwindigkeit von 1200 Umdrehungen pro Minute. Ein Paar pneumatisch betriebener Schreib-Lese-Köpfe ratterte am Rande des Stapels auf und ab, um eine bestimmte Scheibe zu erreichen, ähnlich wie bei einer Musikbox. Danach fuhren die Köpfe einwärts, um auf der ausgewählten Scheibe Informationen abzugreifen. Auf jeder Seite der Scheibe befanden sich 100 kreisförmige Spuren, die jeweils 500 Zeichen speichern konnten. Somit hatte das gesamte Gerät eine Speicherkapazität von etwa fünf Megabyte – ein paar Liedchen im MP3-Format hätten sie bis obenhin abgefüllt.

RAMAC wurde in einem kleinen Labor im kalifornischen San Jose entwickelt. Dessen damaliger Leiter Reynold B. Johnson hatte aus der Frühphase des Projekts einiges zu berichten. Für die magnetische Beschichtung der Platten wurde pulverförmiges Eisenoxid in Anstreicherfarbe eingerührt – im Wesentlichen dieselbe, mit der die Golden-Gate-Brücke gestrichen wurde. Um eine glatte, fehlerfreie Schicht herzustellen, wurde die Farbe durch Seidenstrümpfe gefiltert und aus einem Pappbecher auf die sich drehende Platte gegossen.

Es war damals die Zeit der Vakuumröhren, der Ferritkernspeicher und der Lochkarten. All dies ist mittlerweile durch völlig andere Technologien ersetzt worden; nur die Prinzipien des Speicherns auf Magnetplatten haben sich seit den 1950er Jahren erstaunlich wenig verändert. Gut, die Seidenstrümpfe und die Pappbecher sind beiseite gelegt worden, aber die allerneuesten Festplatten arbeiten wie die allerersten mit Schreib-Lese-Köpfen, die über die Oberfläche einer sich drehenden Scheibe huschen. David A. Thompson und John S. Best von IBM schreiben dazu: "Ein Ingenieur, der an der Entwicklung von RAMAC beteiligt war, würde die Konstruktion einer modernen Festplatte ohne weiteres verstehen."

Umso eindrucksvoller ist die quantitative Entwicklung. Ein aktueller Nachfolger des RAMAC ist der ebenfalls von IBM/Hitachi hergestellte Deskstar 120GXP. (IBM hat Ende 2002 sein gesamtes Speichermedien-Geschäft an Hitachi verkauft.) Diese Festplatte hat statt 50 nur drei Platten mit einem Durchmesser von knapp neun Zentimetern (dreieinhalb Zoll) – eher Bierdeckel als Tablett. Damit ist die Gesamt-Oberfläche der Scheiben um den Faktor 800 geschrumpft, während die Speicherkapazität auf das 24000fache angewachsen ist. Die Informationsdichte, das heißt die Anzahl der Bits pro Quadratzentimeter, hat sich also mit dem Faktor 19 Millionen vervielfacht.

Tief fliegende Köpfe

Ein Festplatte speichert Bits in Form eines Musters von magnetisierten Bereichen auf der Plattenoberfläche. Nahe liegend wäre, dass eine Eins der einen Magnetisierungsrichtung entspricht und eine Null der anderen. In der Praxis wird jedoch eine andere Kodierung verwendet: Eine Eins wird durch einen Übergang zwischen entgegengesetzten Magnetisierungszuständen dargestellt und eine Null durch die Abwesenheit eines solchen. Jede Stelle, an der ein solcher Übergang stattfindet oder auch nicht, wird als Bitzelle bezeichnet. Will man also die Speicherdichte einer Festplatte vergrößern, muss man die Bitzellen kleiner machen und enger zusammenpacken.

Für kleine Bitzellen braucht man kleine Schreib-Lese-Köpfe. (Mit einem dicken Stift kann man keine feinen Linien zeichnen.) Ebenso wichtig ist es, die Köpfe sehr dicht an die Oberfläche der Platte zu bringen, sodass das schreiben-de Magnetfeld nicht die Nachbarzellen trifft. Die Köpfe der RAMAC-Platte schwebten 25 Mikrometer über der Platte auf einem Polster aus komprimierter Luft, die aus Düsen in der glatten Oberfläche der Köpfe strömte. Die nächste Generation von Festplatten kam ohne Pressluft aus. Die Unterseite der Köpfe war so geformt, dass sie vom Luftstrom der rotierenden Scheibe Auftrieb erhielten. Alle modernen Köpfe arbeiten nach diesem aerodynamischen Prinzip. Und es sind echte Tiefflieger: Sie brausen in einer Höhe von 10 bis 15 Nanometern durch die Luft. Eine Bakterienzelle auf der Festplatte würde ungefähr so wirken wie ein Felsbrocken auf der Autobahn. Zum Vergleich: Die kleinsten Transistoren in den modernsten Mikrochips sind immerhin auch 20 Nanometer lang.

Für solche Tiefflüge wollen sowohl die Platte als auch die Köpfe mit besonderer Sorgfalt gefertigt werden. Offensichtlich muss die Oberfläche eben und glatt sein. Die Anstreicherfarbe hat ausgedient; seit einiger Zeit besteht die magnetisierbare Beschichtung aus Legierungen von Kobalt, Platin, Chrom und Bor, die galvanisch aufgebracht oder im Hochvakuum aufgedampft werden. Der Aluminiumträger wurde vor kurzem durch Glas ersetzt, das härter und leichter auf die geforderte Präzision polierbar ist. Die spiegelblanke Oberfläche wird geschützt durch eine Schicht aus diamantartigem Kohlenstoff und einen öligen Film, der im Durchschnitt dünner ist als der Durchmesser eines Moleküls.

Ein großer Teil des geschilderen Fortschritts ist letztlich Folge der Skalierung: Man macht alle Bestandteile immer kleiner und passt die zugehörigen technischen Merkmale wie Geschwindigkeiten und elektrische Spannungen entsprechend an. Allerdings gab es darüber hinaus einige entscheidende Entwicklungssprünge. Ursprünglich verwendete man einen einzigen Kopf sowohl zum Lesen als auch zum Schreiben. Es handelte sich um eine Induktionsspule, genauer einen langen Draht, der auf einen ringförmigen Kern mit kleinem Luftspalt gewickelt war. Beim Schreiben erzeugte ein elektrischer Strom ein magnetisches Feld in der Spule. Beim Lesen induzierte der Wechsel des magnetischen Feldes entlang der beschriebenen Spur einen Strom in der Spule. Heute werden zum Schreiben immer noch induktive Köpfe verwendet, während die separaten Leseköpfe nach einem völlig anderen Prinzip funktionieren.

Magnetwiderstand und Riesen-Magnetwiderstand

Bei einem induktiven Lesekopf wird die induzierte Stromstärke mit der Verkleinerung der Bitzellen immer geringer. In den späten 1980er Jahren stieß dadurch die weitere Vergrößerung der Speicherdichte an eine technische Grenze. Sie wurde durch die so genannten magnetoresistiven (MR-)Köpfe überwunden; diese enthalten ein Material, dessen elektrischer Widerstand sich durch den Einfluss eines Magnetfeldes verändert. IBM führte 1991 die erste Festplatte mit einem MR-Kopf ein und sechs Jahre später einen noch feineren Lesekopf, der auf einer quantenmechanischen Wechselwirkung zwischen dem Magnetfeld und dem Spin eines Elektrons beruht (GMR-Effekt, GMR für giant magnetoresistive; siehe Spektrum der Wissenschaft Dossier 4/2000 "Rechnerarchitekturen", S. 90).

Trägt man die Speicherdichte von Festplatten über der Zeit auf (Bild auf der nächsten Steite), so machen sich diese beiden Ereignisse als deutliche Knicke nach oben in der Kurve bemerkbar. Während der 1970er und 1980er Jahre konnte man eine Steigerungsrate von etwa 25 Prozent pro Jahr beobachten, was einer Verdopplung der Speicherkapazität etwa alle drei Jahre entspricht. Nach 1991 stieg die jährliche Steigerungsrate sprunghaft auf 60 Prozent an (entspricht einer Verdopplung alle 18 Monate) und nach 1997 sogar auf 100 Prozent (entspricht einer jährlichen Verdopplung). Wäre es bei der frühen Steigerungsrate von 25 Prozent geblieben, könnte eine heute handelsübliche Festplatte statt 100 Gigabyte lediglich 1 Gigabyte speichern.

Der Steigerung in der Datendichte entspricht ein ebenso dramatischer Verfall der Preise. Der Preis für ein Megabyte Speicherkapazität lag im RAMAC bei ungefähr zehntausend Dollar; er fiel bis Anfang der 1980er Jahre auf hundert Dollar und bis Mitte der 1990er auf einen Dollar. Danach ging es noch steiler bergab; heute bewegt sich der Preis für das Megabyte Festplattenplatz auf ein zehntel Cent zu (ein Dollar pro Gigabyte) und liegt damit weit unter dem Preis für das Papier, das man zum Aufschreiben eines Megabytes (einer Million Zeichen) benötigen würde.

Das exponentielle Wachstum der Speicherkapazität kann nicht ewig so weitergehen. Spätestens wenn die Bauteile nur noch aus wenigen Atomen bestehen, werden sich unüberwindliche Hindernisse auftun. Doch die Magnetplattentechnologie hat dieses Stadium noch nicht erreicht.

Das zurzeit bedeutendste Hindernis ist der "superparamagnetische Effekt". Dem liegt die Tatsache zu Grunde, dass ein Permanentmagnet nicht wirklich permanent ist; die ganz gewöhnliche Wärmebewegung der Atome kann einen magnetischen Nordpol in einen Südpol verwandeln. Für einen mit bloßem Auge sichtbaren Magneten ist so etwas so unwahrscheinlich, dass man es getrost vernachlässigen kann; doch wenn die Bitzellen so klein werden, dass die Energie ihres Magnetfeldes in die Größenordnung der thermischen Bewegung der Atome gerät, dann wird die gespeicherte Information rasch vom Zufall zerstört.

Das Gespenst des Superparamagnetismus droht schon seit Jahrzehnten -und wurde mehrfach erfolgreich vertrieben. Die nächstliegende Lösung ist ein Material mit einer höheren magnetischen Koerzivität. Diese magnetisch "harten" Materialien setzen jeder Änderung ihrer Polung einen höheren Widerstand entgegen, sodass sie auch der Wärmebewegung besser standhalten, erfordern allerdings aus demselben Grund auch leistungsfähigere und damit größere Schreibköpfe.

Die neuesten Festplatten arbeiten mit einem subtileren Effekt. Die Plattenoberfläche trägt zwei Schichten einer ferromagnetischen Legierung, die durch einen extrem dünnen Film (drei Atomlagen) aus dem Element Ruthenium voneinander getrennt sind. In jeder Bitzelle sind die Bereiche ober- und unterhalb der Rutheniumschicht entgegengesetzt magnetisiert und stabilisieren sich dadurch gegenseitig: eine "antiferromagnetische Kopplung". Heute marktübliche rutheniumbeschichtete Platten haben eine Speicherkapazität von 200 Gigabit pro Quadratzentimeter. Unter Laborbedingungen haben sowohl IBM und Fujitsu auch schon das Dreifache erreicht, was für eine 400-Gigabyte-Festplatte ausreichen würde. Mit weiteren technischen Verbesserungen würde die Terabyte-Platte in erreichbare Nähe rücken.

Für den Fall, dass die konventionelle Plattentechnologie endgültig ausgereizt ist, stehen exotischere Alternativen bereit. Immer wieder gern erwogen wird die Idee, die Bitzellen senkrecht zur Plattenoberfläche statt wie bisher entlang derselben anzuordnen, mit dem Ergebnis höherer Packungsdichte. Oder die Beschichtung ist nicht homogen, sondern die Bitzellen sind magnetisierbare Inseln in einem unmagnetischen Grundgefüge (patterned media). Oder dem magnetischen Schreibprozess wird durch Erhitzung oder Bestrahlung mit Licht nachgeholfen. Schließlich denkt man darüber nach, mit einem Kraftmikroskop (atomic force microscope) einzelne Atome an bestimmten Stellen abzulegen und damit Information zu speichern.

Es gibt keine Garantie dafür, dass irgendeine dieser Ideen zum Erfolg führt. Trotzdem ist exponentielles Wachstum der Speicherkapazität für ein weiteres Jahrzehnt wahrscheinlicher als ein plötzliches Ende der Entwicklung.

Extrapoliert man die steil ansteigende Kurve der vergangenen fünf Jahre, so kommt man für das Jahr 2012 auf das Tausendfache des heutigen Stands: 120-Terabyte- statt 120-Gigabyte-Platten. Fällt das jährliche Wachstum auf 60 Prozent zurück, muss man auf die Vertausendfachung der Kapazität 15 Jahre warten.

Der technische Fortschritt, der uns diese gigantischen Kapazitäten zu bescheren verspricht, ist also möglich. Aber wird er auch kommen?

Einige Nutzer haben schon entsprechenden Bedarf angemeldet. Mehrere Experimente in Physik, Astronomie, Klimaforschung und Geologie werden in den kommenden Jahren Petabytes an Daten hervorbringen, ebenso einige Großunternehmen. Aber die Produktion solcher Festplatten lohnt sich erst bei Stückzahlen von mehreren hundert Millionen – das heißt, wenn jeder eine haben will.

Nehmen wir an, ich mache eine Zeitreise in die Zukunft und bringe Ihnen eine 120-Terabyte-Platte mit. Was würden Sie auf ihr speichern? Zunächst alles, was auf Ihrer alten Platte ist, die gesamte Software und die zahlreichen Dokumente, die sich über Jahre angesammelt haben – eine komplette digitale Welt. Schön. Und was machen Sie mit den anderen 119,9 Terabytes?

Eine zynische Antwort wäre: Installieren Sie Microsoft Windows, Version 2012, dann gibt sich das mit dem freien Speicherplatz. Aber das glaube ich dann doch nicht. Das Aufblähen von Software hat zwar beeindruckende Ausmaße angenommen, aber selbst Microsoft kann mit den gegenwärtigen Steigerungsraten der Speicherkapazität nicht mithalten. Von Software wird eine Terabyte-Platte nicht voll – von Daten schon eher.

Alle Filme eines Lebens – auf einer Festplatte

Allerdings werden Ihre persönlichen Notizen oder Ihre Lektüre mit Sicherheit nicht ausreichen, um die Leere zu füllen. Ein Buch entspricht grob geschätzt einem Megabyte. Wenn Sie achtzig Jahre lang jeden Tag ein Buch lesen, besteht Ihre persönliche Bibliothek aus weniger als 30 Gigabyte, was immer noch über 119 Terabyte Speicherplatz frei lässt. Um einen nennenswerten Teil der Platte mit Text zu füllen, sollten Sie sich schon eine größere Sammlung zulegen, zum Beispiel die größte Bibliothek der USA, die Library of Congress. Sie umfasst etwa 24 Millionen Bände; damit wäre immerhin ein Fünftel der Platte belegt, vielleicht ein bisschen mehr, wenn man ein anspruchsvolleres Speicherformat verwendet.

Es gibt natürlich Daten, die sperriger sind als Text. Ein Bild sagt nicht nur mehr als tausend Worte, es braucht auch deutlich mehr Speicherplatz: 10 Megabyte sind nicht zu viel für ein hoch aufgelöstes Foto. Wie viele Bilder kann ein Mensch sich während seines Lebens anschauen? Ich kann darüber nur Vermutungen anstellen, aber hundert Schnappschüsse pro Tag sind sicher ausreichend für das Familienalbum. Das macht nach achtzig Jahren etwa 30 Terabyte.

Wie steht es mit Musik? Eine Minute im MP3-Format nimmt im Durchschnitt ungefähr ein Megabyte in Anspruch. Eine lebenslängliche Dauerberieselung – achtzig Jahre rund um die Uhr und ohne jede Wiederholung – wäre mit bescheidenen 42 Terabyte zu bewerkstelligen.

Das einzige Medium, das die 120-Terabyte-Platte wirklich überfordern könnte, ist Video. Im heute gängigen DVD-Format fließen etwa 2 Megabyte pro Stunde über die Datenleitung. Nach 60000 Stunden wäre also unsere Festplatte erschöpft; das sind sieben Jahre Nonstop-Kino ohne Pause für Cola, Popcorn, Schlafen oder andere schöne Dinge. Wenn Sie also in Ihrem Leben nichts weiter vorhaben als Videos zu schauen, müssen Sie leider doch auf die Petabyte-Platte warten.

Der ungewöhnlich große Datenbedarf der bewegten Bilder legt die Vermutung nahe, dass die Festplatte der Zukunft ihre Daten nicht vorrangig in den Computer, sondern in den Fernseher einspeisen wird. Was ist der Endzweck der eindrucksvollen technischen Errungenschaften wie MR-Köpfe und Ruthenium-Schichten? "Lindenstraße" abspielen, und die alten Folgen von "Raumschiff Enterprise"!

David Thompson, mittlerweile im Ruhestand, hat seine eigene Vorstellung von der Zukunft der Festplatten. Mit einer Mini-Kamera im Brillengestell könnten wir jeden Augenblick unseres Lebens dokumentieren und so ein sekundengenaues Tagebuch verfertigen. "Es wird keinen Grund mehr geben, jemals wieder etwas zu vergessen", sagt er. Der amerikanische Wissenschaftler Vannevar Bush (1890-1974) hatte vor fünfzig Jahren mit seinem Konzept der so genannten Memex eine ganz ähnliche Idee. Allerdings war das technische Medium damals der Mikrofilm.

Mich beschäftigen noch einige andere Fragen zum Leben in der Terabyte-Ära. Von den Videos mal abgesehen ist es völlig unklar, wie die Billionen von Bytes überhaupt auf die Festplatte kommen. Niemand ist bereit, das alles einzutippen oder auch nur von 180000 CDs zu kopieren. Mit einer modernen DSL-Verbindung, die andauernd mit Höchstgeschwindigkeit läuft, wären die 120 Terabyte in ungefähr sechs Jahren übertragen. Vielleicht haben wir in zehn Jahren alle eine viel schnellere Verbindung als DSL. Aber wozu brauchen wir dann noch die Festplatte? Wenn man jederzeit problemlos Daten aus dem Netz herunterladen kann, muss man es nicht auf Vorrat tun.

Information will frei bleiben

Die wirtschaftlichen Folgen sind auch verwirrend. Angenommen, es ist Ihnen gelungen, 120 Terabyte an Informationen zu finden, die Sie auf Ihrem Laptop speichern möchten. Wie wollen Sie das bezahlen? 120 Millionen Bücher, oder 40 Millionen Musikstücke, oder 30000 Filme, zu heutigen Preisen? In der Praxis ist es also nicht der Superparamagnetismus, der die Speicherkapazität von Festplatten beschränkt, sondern der Preis des Inhalts.

Es ist auch denkbar, dass die Kräfte des Marktes in die entgegengesetzte Richtung wirken. In einer Welt der schnellen Verbindungen und der Speicherkapazität im Überfluss ist es kaum möglich, den Datenfluss durch rechtliche oder technische Mittel zu beschränken; das haben die Musiktauschbörsen und die durch sie ausgelöste Diskussion gezeigt. Ein Preis für Information, der weit über den Kosten ihres physikalischen Trägers liegt, ist allenfalls vorübergehend stabil. Für eine Sängerin ist es zweifellos bitter, wenn der Wert ihrer künstlerischen Arbeit von so absolut unmusikalischen Dingen abhängt wie der Größe der Bitzellen auf einer polierten Glasplatte. Doch es ist bei weitem nicht das erste Mal, dass die Aufzeichnungs- oder Kommunikationstechnik auf die Ökonomie künstlerischer Berufe durchschlägt. Man denke nur an den Plattenspieler oder das Radio.

Eine andere quälende Frage ist, wie man ein persönliches Archiv von 120 Terabyte an Daten sinnvoll verwalten kann. Schon jetzt knirschen die Computer – und ihre Benutzer – unter der Aufgabe, über ein paar Gigabytes den Überblick zu behalten. Mit denselben Methoden eine Bibliothek wie die Library of Congress zu strukturieren wäre Wahnwitz. Vielleicht ist das die andere Seite der wirtschaftlichen Gleichung: Information ist frei zugänglich (oder meine ich wertlos?), während die so genannten Metadaten, also die Mittel, sie zu organisieren, unbezahlbar sind.

Dass es in Zukunft Speicherkapazität im Überfluss geben soll, will einem nicht in den Kopf. Der Spruch "Arbeit zieht sich stets so hin, dass sie die verfügbare Zeit ausfüllt" ist als Parkinsons Gesetz bekannt geworden. Eine einfache Folgerung lautet: Datenmengen wachsen, wie alles andere, so lange an, bis sie den verfügbaren Platz ausfüllen. Ich habe noch nie jemanden getroffen, der ein Problem damit hatte, seine Bücherregale zu füllen. Aber Bücherregale verdoppeln auch nicht jedes Jahr ihre Größe.

Der britische Nationalökonom Robert Malthus stellte im 19. Jahrhundert fest, dass einem geometrischen Bevölkerungswachtum ein arithmetisches Wachstum der Nahrungsmittelerzeugung entgegenstand, was auf lange Sicht unweigerlich eine Hungerkatastrophe zur Folge gehabt hätte. In der Informationstechnik haben wir eine Malthus’sche Katastrophe mit umgekehrtem Vorzeichen: Während die Früchte menschlicher Kreativität nur ein arithmetisches Wachstum aufweisen, steigern sich die Kapazitäten zu ihrer Speicherung und Verbreitung geometrisch. Die Fantasie der Menschen kann da nicht mithalten.

Zumindest meine Fantasie nicht.

Literaturhinweise


Die Geschichte der Festplatte. Von Siegfried ­Moersch in: PC-Direkt, Nr. 1/2000, S. 50.

Der Computer als Werkzeug und Maschine. Von Michael Friedewald. GNT, 1999.

The Future of Magnetic Data Storage Technology. Von D. A. Thompson und J. S. Best in: IBM Journal of Research and Development, Bd. 44, Heft 3, S. 311, 2000.

Magnetic Recording: The First 100 Years. Von Eric D. Daniel, C. Denis Mee und Mark H. Clark (Hg.). IEEE Press, 1999.

The Random-Access Memory Accounting Ma­chine: II. The Magnetic-Disk, Random-Access Memory. Von T. Noyes und W. E. Dickinson in: IBM Journal of Research and Development, Bd. 1, Heft 1, S. 72, 1957.

As We May Think. Von Vannevar Bush in: The Atlantic Monthly, Bd. 176, Heft 1, S. 101, 1949.

Aus: Spektrum der Wissenschaft 12 / 2003, Seite 1
© Spektrum der Wissenschaft Verlagsgesellschaft mbH
12 / 2003

Dieser Artikel ist enthalten in Spektrum der Wissenschaft 12 / 2003

Kennen Sie schon …

Datenspeicher - Von Pergament bis DNA

Spektrum Kompakt – Datenspeicher - Von Pergament bis DNA

Täglich produzieren wir etwa 2,5 Milliarden Megabytes an neuen Daten. Um diese Informationsflut zu stemmen, arbeiten Wissenschaftler an besseren Rechen- und Speichermethoden. Quanten, multiferroische Materialen oder sogar DNA könnten dabei in den nächsten Generationen von Computern Anwendung finden.

Lesermeinung

Beitrag schreiben

Wir freuen uns über Ihre Beiträge zu unseren Artikeln und wünschen Ihnen viel Spaß beim Gedankenaustausch auf unseren Seiten! Bitte beachten Sie dabei unsere Kommentarrichtlinien.

Tragen Sie bitte nur Relevantes zum Thema des jeweiligen Artikels vor, und wahren Sie einen respektvollen Umgangston. Die Redaktion behält sich vor, Leserzuschriften nicht zu veröffentlichen und Ihre Kommentare redaktionell zu bearbeiten. Die Leserzuschriften können daher leider nicht immer sofort veröffentlicht werden. Bitte geben Sie einen Namen an und Ihren Zuschriften stets eine aussagekräftige Überschrift, damit bei Onlinediskussionen andere Teilnehmer sich leichter auf Ihre Beiträge beziehen können. Ausgewählte Lesermeinungen können ohne separate Rücksprache auch in unseren gedruckten und digitalen Magazinen veröffentlicht werden. Vielen Dank!