Stuart Parkin blickt kritisch auf die Festplattenindustrie: "Der Fortschritt stagniert jetzt", stellt der Physiker fest. Seine Erwartungshaltung: Digitale Daten müssen immer weniger Platz einnehmen. Dieser Fortschritt muss rasant sein. Und bleiben.

Wie viel Platz brauchen Daten heute? Während dieser Text auf Papier mehrere DIN-A4-Seiten einnimmt, ist seine digitale Form deutlich schlanker. Als lange Folge magnetischer Nullen und Einsen ist die reine Textdatei rund 10 Kilobytes groß. Auf einer durchschnittlichen Computerfestplatte nimmt sie damit nur etwa 100 Quadratmikrometer ein. Um diese Dimensionen zu veranschaulichen, ist ein menschliches Haar noch zu dick. Die Größen einer Hautzelle oder eines Staubkörnchens können eher beschreiben, wie winzig diese Fläche ist.

Das ist wenig. Oder viel, je nachdem, ob man in die Vergangenheit oder in die Zukunft schaut. Im Jahr 1956 stellte IBM einen Klotz namens IBM 350 vor, den wir heute die erste Festplatte nennen. Das Ding war groß wie ein Kühlschrank und wog eine halbe Tonne. Die schon damals runden Platten zur Datenspeicherung hatten einen Durchmesser von gut 60 Zentimetern, im IBM 350 waren ganze 50 Stück davon übereinander verbaut. Dieser Text hätte damals knapp die Hälfte einer dieser Platten eingenommen. Man könnte sagen: Die allererste Festplatte bot keine wirkliche Platzersparnis im Vergleich zum bedruckten Papier.

"Der Fortschritt stagniert jetzt"

Was seither in der Datenspeicherung geschah, nennt man das mooresche Gesetz: Alle ein bis zwei Jahre verdoppelt sich demzufolge die Speicherdichte. Bisher kommt das hin: Die Datendichte ist innerhalb der letzten 50 Jahre um neun Größenordnungen gewachsen, also um den Faktor eine Milliarde.

"Aber aktuell," so Parkin, "haben wir nur noch eine Steigerung um 10 bis 15 Prozent pro Jahr." Parkin ist leitender Wissenschaftler für Magnetoelektronik am IBM-Forschungslabor in San Jose, Kalifornien. Er ist zudem beratender Professor an der Stanford University und seit April 2014 Direktor am Max-Planck-Institut für Mikrostrukturphysik in Halle sowie Professor an der Universität Halle-Wittenberg. Seither teilt er seine Zeit zwischen Kalifornien und Deutschland auf.

Geht auch kleiner als klein?

Die derzeitige Stagnation bei den Datenträgern liegt an der grundlegenden Natur der Speichermaterialien: Die Bits auf einer Festplatte sind magnetische Bereiche. Eine Magnetisierung in die eine Richtung wird vom Computer als eine Eins gelesen, in die andere Richtung als Null. Für den Magnetismus und seine Richtung sind wiederum die einzelnen Atome des Materials zuständig. Jedes Atom agiert hier als unendlich kleiner Magnet. Sehr viele von ihnen müssen sich gemeinsam und aneinander ausrichten. Zusammen bilden sie eine winzige magnetische Grundeinheit – eine magnetische Domäne.

Beliebig klein können die magnetischen Bits nicht werden: Unterhalb einer gewissen Größe fehlt die Stabilität des Gruppeneffekts, die Magnetisierung schwankt dann ständig und unkontrolliert. Die Information, die magnetische Erinnerung der Bits, ginge sofort verloren.

Ein bisschen was lässt sich aber noch rausholen: Mit magnetisch stabileren Materialien könnten Bits noch weiter schrumpfen. Das wirft allerdings das nächste Problem auf: Die derzeitigen Schreib- und Leseköpfe der Festplatten müssten dann mehr Energie aufwenden, um die Bits gezielt zu schreiben. Bei den Dimensionen, die heutige Systeme haben, gar nicht so einfach.

Der Festplattenhersteller Seagate will daher mit einem Laser nachhelfen: Der soll in Zukunft das jeweils zu beschreibende Bit aufheizen, damit der Schreibkopf leichtere Arbeit hat. "Heat-assisted magnetic recording", kurz HAMR, heißt das Verfahren, das die Daten nochmals um den Faktor 100 komprimieren kann. Die Seagate-Entwickler haben damit bereits eine Speicherdichte von einem Terabyte pro Quadrat-Inch bewerkstelligt, ganze 50 Terabyte pro Quadrat-Inch halten sie für möglich, erzählt Technischer Leiter Marc Re. Im Jahr 2018 will Seagate mit den HAMR-Festplatten in Massenproduktion gehen.

Eine Stufe weiter denken derweil Forschende am Schweizer Paul Scherrer Institut. Sie setzen ganz auf den Laser und erforschen, wie sich die Magnetisierungsrichtung einzelner Bits allein durch das rasche Aufheizen mit einem Lichtpuls ändern lässt. Auf den mechanischen Schreib-Lese-Kopf ließe sich dann komplett verzichten. Denn obwohl sich dieser rasend schnell bewegt, ist er für die Festplatten der Zukunft noch immer zu langsam. Außerdem droht der Head-Crash: Der Schreib-Lese-Kopf kann auf die Platte aufsetzen und damit die Daten zerstören.

"Bewegliche Teile sind einfach ein Problem," sagt Parkin. "Eine Störung wirkt sich hier katastrophal aus." Auch er will den Schreib-Lese-Kopf abschaffen, obwohl er in der Vergangenheit dazu beigetragen hat, ihn zu perfektionieren. Für rund drei der neun Größenordnungen in der bisherigen Datenverdichtung ist Parkin dadurch mitverantwortlich. Noch bevor die Entdecker des so genannten Riesenmagnetowiderstands den Nobelpreis bekamen, hatte Parkin eine Anwendung für diesen physikalischen Effekt gefunden: Er nutzte das Prinzip bereits 1997, um die Leseköpfe sprunghaft sensitiver zu machen; die magnetischen Bits konnten somit deutlich kleiner werden. Inzwischen steckt in den Leseköpfen jedoch schon die nächste Weiterentwicklung: Dank des quantenmechanischen Effekts der magnetischen Tunnelkontakte sind sie nochmals empfindlicher geworden.

Natürlich kommen schon heute elektronische Speichermedien als Alternative zur Festplatte in Frage, flash-basierte Solid-State-Platten, kurz SSD. Hier dienen Milliarden winziger Transistoren als Bits. Und darum ist der Preis pro Bit deutlich teurer als bei magnetischen Festplatten. Zudem sind solche elektronischen Bits nicht beliebig oft neu beschreibbar. Kurz: Die Ära der magnetischen Datenträger ist noch längst nicht zu Ende. Schon gar nicht für große Rechenzentren und die Bereitsteller von Cloud-Speichern.

Racetrack: Ohne Magnetismus schneller speichern

"Wir wollten eine ganz neue Festplatte entwickeln, bei der die Bits zum Sensor wandern und nicht umgekehrt", erzählt Parkin. Dies war die Überlegung, die ihn zum Racetrack-Speicher gebracht hat. Im Jahr 2005 hielt er den ersten Fachvortrag über das Racetrack-Konzept und reichte das erste Patent dazu ein. Mit den Racetrack-Speichern verfolgt Parkin die dritte Methode, wie sich magnetische Speicherbits manipulieren lassen: Statt Magnetismus – wie im Schreib-Lese-Kopf – oder einem Laserstrahl – wie es die Schweizer proben – lässt sich auch Elektrizität einsetzen.

Parkins Racetrack-Speicher sind nanometerdünne Drähte aus einem magnetischen Material. Darin sitzen die magnetischen Bits alle hintereinander – wie Perlen auf einer Kette. Der Sensor, der die Bits ausliest, liegt quer dazu und fest an einer Stelle. Bewegliche Teile gibt es keine: Die magnetische Strukturierung wird innerhalb des Nanodrahts vor- und zurückgeschoben. Die Bits wandern zum Sensor, ohne dass der Draht selbst sich bewegt.

"Tatsächlich bewegen sich die Domänenwände," erklärt Parkin. Die Angriffsfläche für die Bewegung sind diese Grenzen zwischen zwei Bits. Elektronen werden durch den Draht geschickt – ein elektrischer Strom fließt. Das Besondere: Es handelt sich um polarisierte Elektronen, deren eigener magnetischer Spin gezielt ausgerichtet ist. Da der Spin ein Drehimpuls ist und für das Gesamtsystem die Drehimpulserhaltung gilt, manipulieren diese Elektronen die Domänenwände, schieben sie vor und zurück. "Im Endeffekt sieht es dann so aus, als würden sich die magnetischen Bits vor- und zurückbewegen."

Bereits im Jahr 2011 haben Parkin und seine Kollegen einen funktionierenden Racetrack-Prototypen mit 256 Nanodrähten vorgestellt, deren Daten sich sowohl schreiben als auch lesen ließen. Zuletzt untersuchten Parkin und seine Kollegen Nanodrähte, in denen Kobalt-Nickel-Kobalt in einer sandwichartigen Struktur aufeinander aufgedampft waren. Insgesamt war das Sandwich gerade einmal zehn atomare Lagen hoch, der Draht also weniger als einen Nanometer dick. Den Forschenden gelang es, die magnetischen Domänen entlang dieses Drahtes extrem schnell zu bewegen – und so der Bezeichnung Racetrack Rechnung zu tragen.

"Bewegliche Teile sind einfach ein Problem!"

Was allen bisherigen Prototypen noch fehlt, jedoch in Parkins Vorstellung immer Teil der Idee war: Die Racetrack-Nanodrähte müssen nicht flach auf einem Untergrund liegen. Viele Millionen von ihnen könnten als steile Us in Reih und Glied stehen. Auf jedem wären mindestens hunderte magnetischer Bits abgelegt. Jeweils am Boden der Us wären Schreib- und Lesesensor auf dem Untergrund angebracht. Als ein Heer winziger Säulen sollen die Nanodrähte die dritte Dimension erobern. Denn nur in diese Richtung sieht Parkin noch eine echte Möglichkeit, die Speicherdichte erheblich zu steigern.

3D-Datenspeicher
© Spektrum der Wissenschaft
(Ausschnitt)
 Bild vergrößern3D-Datenspeicher
Mehr Platz dank U-Form: Ein "Racetrack"-Speicher, der Daten sowohl schreiben als auch lesen kann. Die aus Nanodrähten gebauten Einheiten liegen nicht flach, sondern stehen millionenfach U-förmig aufgerichtet. Auf jedem U sind hunderte magnetischer Bits abgelegt, am Boden Schreib- und Lesesensor angebracht. Die Information ist in dem Magnetmuster der Nanodrähte hinterlegt: Gegensätzlich positiv und negativ magnetisierte Bereiche (Domänen) folgen hier aufeinander. Die Domänen im Nanodraht werden mit einer Geschwindigkeit von 100 Meter pro Sekunde über die Schreib- und Lesesensoren verschoben.

"Racetrack-Speicher sind intrinsisch dreidimensional" – diese Feinheit ist Parkin wichtig. Denn auch Samsung hat einen Datenspeicher vorgestellt, den der Hersteller als dreidimensional bezeichnet. Sein Produkt D3 V-NAND nennt Samsung "die größte technologische Veränderung der Speicherindustrie der letzten 30 Jahre". Es ist ein Flash-Speicher, bei dem 32 Lagen übereinander gestapelt sind. Ganz ähnlich gibt es schon länger Festplatten, bei denen mehrere Platten übereinander in einem Gehäuse stecken. Auch ein Parkhaus bietet auf demselben Grundstück mehr Fläche als ein Parkplatz. Aber, und das meint Parkin: Die grundlegende Technik ist in diesen Fällen noch immer die gleiche. Bei den Racetrack-Us dagegen ginge die Datenanordnung selbst ins Vertikale.

Wann also werden Racetrack-Speicher beim Elektromarkt in den Regalen stehen? Parkin gibt zu, dass es noch eine Herausforderung wird, mit den fragilen Nanodraht-Us eine stabile Architektur zu erschaffen. Zudem sieht er ein nicht-technisches Problem auf Seiten der Hersteller: "Das ist Psychologie: Weil es eine komplett andere Technologie ist, ist es für viele schwierig, sich den Racetrack als nächsten Entwicklungsschritt vorzustellen." Dennoch schätzt Parkin, dass es in fünf bis sieben Jahren voll funktionierende Racetrack-Speicher geben könnte.

Marc Re von der Konkurrenz Seagate listet allerdings noch weitere Probleme auf: Der Racetrack sei zwar beeindruckend, aber noch immer in der Forschungsphase, betont Re. Abgesehen von der Schwierigkeit, die Nanodrähte letztendlich in die dritte Dimension aufzurichten, denkt Re auch an die Schreib- und Leseeinheiten am Boden. Jedes der Us wird je eines dieser Elemente benötigen, es braucht von ihnen also ebenfalls mehrere Millionen, die in Reih und Glied angeordnet sind. Sie müssen ähnlich klein sein wie die Nanodrähte. Und nicht zuletzt müssen all diese Schreib- und Leseeinheiten angesteuert werden: "Die zugehörigen Anschlüsse zu realisieren, wird komplex," meint Re.

Seine Zeitabschätzung sieht dementsprechend pessimistischer aus: "Falls das Konzept es zur Marktreife schaffen wird, dann erst in mehreren Jahrzehnten." Und in dieser Zeit könne noch manch andere Entwicklung dem Racetrack Konkurrenz machen – Re verweist beispielsweise auf erste Erfolge, Daten mit DNA zu speichern. Mit den Festplatten, die Seagate konkret für die nächsten Jahre entwickelt, sieht er den Racetrack erst einmal nicht im Wettstreit.