Direkt zum Inhalt
Informationstechnologie

Mehr als Moore

Das mooresche Gesetz stößt an seine Grenzen – doch das ist keineswegs das Ende der Entwicklung für die Computertechnik. Im Gegenteil: Jetzt wird es erst richtig interessant.
Eine Computerplatine in Großaufnahme

Seit Jahrzehnten herrscht eine Faustregel in der Welt der Computer: Die Anzahl der Transistoren pro Mikroprozessor verdoppelt sich etwa alle zwei Jahre. Dieses "mooresche Gesetz" bedeutet im Allgemeinen auch, dass die Leistungsfähigkeit der Chips entsprechend ansteigt. Die von dem Gesetz beschriebene exponentielle Verbesserung verwandelte die ersten plumpen Heimcomputer der 1970er Jahre in die ausgeklügelten PCs und Laptops der 1980er und 1990er, führte von dort zum Aufstieg des Hochgeschwindigkeitsinternets sowie zu den heute selbstverständlichen Smartphones, den ans Internet angebundenen Fahrzeugen, Kühlschränken und Thermostat-Ventilen.

Nichts davon geschah einfach so: Die Chiphersteller hielten sich vielmehr aus eigener Entscheidung an das mooresche Gesetz. Auf jeder Stufe schufen die Softwareentwickler neue Anwendungen, mit denen sie die Fähigkeiten der vorhandenen Chips ausreizten. Die Endverbraucher verlangten immer mehr von ihren Geräten. Und die Hersteller ließen sich nicht lange bitten, der Nachfrage mit neuen Chipgenerationen entgegenzukommen. Tatsächlich hat die Halbleiter-Industrie seit den 1990er Jahren alle zwei Jahre einen Fahrplan vorgelegt, um die Arbeit von Hunderten von Herstellern und Zulieferern so zu koordinieren, dass das mooresche Gesetz eingehalten werden konnte – eine Strategie, die mitunter als "more Moore" bezeichnet wird, "mehr von Moore". Es ist hauptsächlich diesen Planungen zu verdanken, dass die Computer bislang tatsächlich den exponentiellen Anforderungen des mooreschen Gesetzes entsprechen.

Doch das geht nicht mehr lange so weiter. Die Verdopplung beginnt bereits zu stocken, und zwar auf Grund der Wärme, die unvermeidlich entsteht, wenn mehr und mehr Stromkreise auf immer kleinere Flächen zusammengepresst werden. Und für die nächsten Jahre sind bereits einige noch grundlegendere Grenzen in Sicht. Die fortschrittlichsten Mikroprozessoren sind heute mit Strukturen ausgestattet, die etwa 14 Nanometer groß sind, kleiner als die meisten Viren. Anfang der 2020er Jahren, so Paolo Gargini, Vorsitzender der Planungsorganisation der Halbleiter-Industrie, "erreichen wir selbst mit den aggressivsten Anstrengungen die Grenze von zwei bis drei Nanometern. Die Strukturen sind dann nur noch zehn Atome breit. Ist das dann überhaupt noch ein Bauelement?" Möglicherweise nicht. Denn auf dieser Skala herrscht die Unschärferelation der Quantenmechanik über das Verhalten der Elektronen und macht Transistoren hoffnungslos unzuverlässig. Und trotz gewaltiger Forschungsanstrengungen gibt es bislang keinen Nachfolger für die heutige Siliziumtechnologie.

Der im März von der Halbleiter-Industrie vorgelegte Fahrplan für die weitere Forschung und Entwicklung basiert deshalb erstmals nicht auf dem mooreschen Gesetz. Stattdessen folgt er einer Strategie, die man mit "more than Moore", "mehr als Moore", umschreiben könnte. Es geht nicht länger darum, die Chips besser zu machen und die Anwendungen folgen zu lassen, sondern von den Anwendungen auszugehen – von Smartphones über Supercomputer bis zu Datenzentren für die Cloud – und daraus abzuleiten, welche Chips künftig notwendig sind. Dazu zählen dann neue Generationen von Sensoren, Schaltkreisen für das Energiemanagement und andere Siliziumbauelemente, die in der zunehmend mobilen Welt der Computertechnik benötigt werden.

Diese sich verändernde Landschaft könnte zu einer Aufspaltung der bisherigen gemeinsamen Anstrengungen der Industrie führen, das mooresche Gesetz einzuhalten. "Alle bemühen sich zu verstehen, was dieser neue Fahrplan wirklich bedeutet", sagt Daniel Reed, Computerwissenschaftler und Vizepräsident für Forschung der University of Iowa. Die US-Vereinigung der Halbleiterindustrie SIA, die alle großen Firmen in den USA repräsentiert, hat bereits ihren Rückzug aus den künftigen Planungen verkündet, sobald der aktuelle Fahrplan erscheint. Künftig will die SIA eine eigene Forschungs- und Entwicklungsagenda verfolgen.

Computerchip
Immer kleiner, immer schneller | Computer werden immer schneller und brauchen immer weniger Platz. Der Grund dafür ist die stetige Verdopplung der Transistoren auf einem Computerchip.

Einig sind sich die Experten darin, dass das nahe Ende des mooreschen Gesetzes keineswegs zugleich das Ende des Fortschritts ist. "Man kann es mit der Entwicklung der Flugzeuge vergleichen", sagt Reed. "Eine Boeing 787 ist nicht schneller als eine 707 aus den 1950er Jahren – aber es ist ein völlig anderes Flugzeug." Zu den in der 787 verwirklichten Innovationen zählen vollständig elektronische Kontrollen und ein Rumpf aus Kohlenstofffasern. Eine ähnliche Entwicklung sieht Reed für Computer voraus: "Es gibt weiterhin Innovationen – aber sie werden nuancierter und komplizierter sein als bisher."

Moore sagte Wunderdinge wie Heimcomputer und Handys voraus

Das Essay, das Gordon Moore 1965 berühmt machen sollte (PDF), beginnt mit einer Betrachtung darüber, was mit der damals neuen Technologie integrierter Schaltkreise alles möglich sein könnte. Moore, zu der Zeit Forschungsdirektor von Fairchild Semiconductors im kalifornischen San Jose, sagte solche Wunderdinge wie Heimcomputer, digitale Armbanduhren, selbstlenkende Fahrzeuge und "persönliche tragbare Kommunikationsgeräte" voraus – also Handys und Smartphones. Moores Hauptanliegen war es jedoch, einen Zeitplan für diese Zukunft aufzustellen. Als Maß für die Leistungsfähigkeit von Mikroprozessoren verwendete er den Transistor, den An-Aus-Schalter, der das Rechnen erst digital macht. Auf der Grundlage der Leistungen seines und anderer Unternehmen in den vorangegangenen Jahren schätzte er ab, dass sich die Zahl der Transistoren und anderer elektronischer Bauelemente pro Chip in jedem Jahr verdoppelt.

Der spätere Mitbegründer des Unternehmens Intel überschätzte also zunächst die Entwicklung. 1975 revidierte er seine Abschätzung auf eine realistischere Verdopplungszeit von zwei Jahren. Aber seine Visionen waren absolut zutreffend. Die von ihm vorausgesagte Zukunft begann sich in den 1970er und 1980er Jahren zu entfalten – mit mikroprozessorgesteuerten Produkten wie den programmierbaren Taschenrechnern von Hewlett-Packard, dem Apple-II-Computer und den PCs von IBM. Die Nachfrage nach solchen Produkten begann rasch zu explodieren, und die Hersteller fanden sich in einem regen Wettbewerb wieder, immer leistungsfähigere und dabei zugleich immer kleinere Chips anzubieten.

Diese Entwicklung kostete Geld. Um die Leistungsfähigkeit der Mikroprozessoren zu steigern, mussten ihre Bauelemente verkleinert werden, damit mehr und mehr davon auf einen Chip passten. Die Verkleinerung wiederum erforderte wesentliche Verbesserungen der Fotolithografie, der Basismethode, mit der die mikroskopischen Elemente in das Silizium geätzt werden. Dank des Booms war das alles kein Problem – ein sich selbst verstärkender Zyklus war in Gang gesetzt. Die Chips waren so vielseitig einsetzbar, dass die Hersteller nur wenige unterschiedliche Arten produzieren mussten – hauptsächlich Prozessoren und Speicher – und diese in großen Mengen verkaufen konnten. Damit erwirtschafteten die Unternehmen ausreichend Kapital, um ihre Produktionsstätten stetig zu erneuern, trotzdem die Preise zu senken und damit die Nachfrage weiter anzukurbeln.

Der erste Transistor, gebaut 1947 in den Bell Labs
Halbleitertechnik: Der erste Transistor |

1947 legten drei Mitarbeiter der Bell Telephone Laboratories in den USA den Grundstein für die Mikroelektronik. John Bardeen, William Bradford Shockley und Walter Houser Brattain platzierten zwei winzige Golddrahtspitzen auf einem Germaniumplättchen und schufen so den ersten funktionierenden Transistor. Die Bell-Labore, ursprünglich gegründet, um Telekommunikationstechniken weiterzuentwickeln, sind heute eine anerkannte Forschungseinrichtung und haben mehrere Nobelpreisträger hervorgebracht – darunter auch die drei genannten.

Transistoren dienen dazu, Ströme und Spannungen zu steuern und zu verstärken. Dazu nutzen sie die Eigenschaft so genannter halbleitender Materialien wie Germanium, den Strom nur unter bestimmten Umständen passieren zu lassen. Die Leitfähigkeit des Materials kann etwa durch Anlegen einer Steuerspannung oder eines Steuerstroms beeinflusst werden. Zudem kann man durch diese richtungsabhängige Leitfähigkeit festlegen, welchen Weg der Strom nimmt.

Bereits 1925 erwähnte der Physiker Julius Edgar Lilienfeld in einem Patent die Arbeitsweise von Transistoren. Dessen erste Umsetzung stellte schließlich die Vorrichtung mit den beiden Goldspitzen auf Germanium dar. Damit hatte man den Weg geebnet für den Eintritt ins Zeitalter der Elektronik: Transistoren sind heute die weitaus wichtigsten Bestandteile eines Computerchips.

Ein fader Beigeschmack bleibt indes: Die Lilienfeld-Patente wurden weder in ihren Veröffentlichungen noch in späteren Forschungsberichten jemals erwähnt, obwohl sie den Forschern der Bell Laboratories bekannt waren.

Schnell war jedoch klar, dass der vom Markt angetriebene Zyklus allein nicht ausreicht, um den unerbittlichen Rhythmus des mooreschen Gesetzes aufrechtzuerhalten. Die Herstellung der Chips ist höchst komplex, sie erfordert oft Hunderte von Schritten. Das bedeutet, dass jeder weitere Entwicklungsschritt es erforderlich machte, die nötigen Weiterentwicklungen und Verbesserungen zahlreicher Zulieferer und Hersteller aufeinander abzustimmen. "Wenn man 40 verschiedene Ausrüstungsteile benötigt und nur 39 davon fertig sind, kommt alles zum Stillstand", sagt Kenneth Flamm, der sich als Wirtschaftswissenschaftler an der University of Texas in Austin mit der Computerindustrie befasst.

Um für diese Abstimmung zu sorgen, entwickelte die Industrie ihren ersten Fahrplan. Die Idee dahinter ist, so Gargini, "dass jeder eine ungefähre Vorstellung davon hat, wohin die Entwicklung geht, und Alarm schlagen kann, wenn ein Hindernis auf dem Weg dahin erkennbar ist". Hunderte von Ingenieuren begannen 1991 unter Garginis Leitung für die Halbleiterindustrie in den USA einen ersten Fahrplan auszuarbeiten. Daraus ging 1998 die "International Roadmap for Semiconductors" hervor, der internationale Fahrplan für Halbleiter, an dem sich auch Industrieverbände aus Europa, Japan, Taiwan und Südkorea beteiligten. 2016 trägt der Fahrplan mit Blick auf die neue Zielsetzung die Bezeichnung "International Roadmap for Devices and Systems".

"Ursprünglich war es so: Immer wenn wir etwas noch kleiner machen konnten, hatte das automatisch positive Folgen"(Bill Bottoms)

"Der Fahrplan war ein unglaublich interessantes Experiment", sagt Flamm. "Soweit ich weiß, gibt es nichts Vergleichbares in anderen Industriebranchen." Die Planungen verwandelten das mooresche Gesetz von einer empirischen Beobachtung in eine sich selbst erfüllende Prophezeiung: Neue Chips folgten dem Gesetz, weil die Industrie Vorkehrungen für die Einhaltung des Gesetzes getroffen hatte. Und es funktionierte bestens, so Flamm – jedenfalls so lange, bis es nicht mehr funktionierte.

Hitzetod der zu kleinen Chips

Das erste Hindernis trat nicht unerwartet auf. Gargini und andere hatten bereits 1989 davor gewarnt. Trotzdem traf es die Branche hart: Die Bauteile wurden zu klein. "Ursprünglich war es so: Immer wenn wir etwas noch kleiner machen konnten, hatte das automatisch positive Folgen", sagt Bill Bottoms, Präsident von Third Millennium Test Solutions, ein Equipment-Hersteller in Santa Clara. "Die Chips wurden schneller und verbrauchten weniger Energie." Doch in den frühen 2000er Jahren, als die Strukturen kleiner als etwa 90 Nanometer wurden, blieben die positiven Folgen zusehends aus. Die sich immer schneller durch immer kleinere Schaltkreise bewegenden Elektronen heizten die Chips zu stark auf.

Das war ein grundlegendes Problem. Wärme ist schwer abzuführen. Und niemand kauft ein Smartphone, an dem man sich die Hand verbrennt. So griffen die Hersteller zur einzig verfügbaren Lösung, erläutert Gargini: Zum einen verzichteten sie auf eine weitere Erhöhung der Taktfrequenz, also des Tempos, mit dem die Mikroprozessoren ihre Befehle abarbeiten. Dadurch begrenzten sie die Geschwindigkeit der Elektronen und somit auch die von ihnen produzierte Wärme. Die maximale Taktfrequenz ist seit 2004 nicht mehr gestiegen.

Zum anderen gestalteten sie die Schaltkreise der Chips neu. Jeder Chip enthielt jetzt nicht mehr nur einen, sondern zwei, vier oder mehr Kerne. So konnte man trotz der stagnierenden Taktfrequenz weiterhin die Leistungskurve des mooreschen Gesetzes einhalten. Heutige Desktop-Computer und Smartphones enthalten zumeist Chips mit vier oder acht Kernen. "Vier Kerne mit einer Taktfrequenz von 250 Megahertz liefern die gleiche Leistung wie ein Kern mit einem Gigahertz", so Gargini. In der Praxis bedeutet die Verwendung von acht Prozessoren allerdings, dass ein Problem in acht Teile zerlegt werden muss – und das ist für viele Algorithmen schwierig oder gar unmöglich. "Der Teil, der sich nicht parallelisieren lässt, begrenzt die Verbesserung", stellt Gargini fest.

Fortschreitende Verkleinerung
Fortschreitende Verkleinerung

Trotzdem haben diese beiden Lösungsansätze, kombiniert mit kreativen Umgestaltungen, um Elektronenverluste und andere Effekte auszugleichen, den Chipherstellern die weitere Verkleinerung ihrer Schaltkreise und die weitere Einhaltung des mooreschen Gesetzes ermöglicht. Die Frage ist jedoch, was Anfang der 2020er Jahre geschieht, wenn eine weitere Verkleinerung mit Silizium nicht mehr möglich ist, weil Quanteneffekte beginnen, zu dominieren. Was kommt dann? "Wir kämpfen noch mit dem Problem", sagt An Chen, Ingenieur von GlobalFoundries im kalifornischen Santa Clara, einem internationalen Chipproduzenten. Chen ist Vorsitzender eines der Komitees, die an dem neuen Fahrplan der Halbleiter-Industrie arbeiten.

Dabei fehlt es nicht an Ideen. Eine Möglichkeit wäre ein Paradigmenwechsel – beispielsweise hin zu Quantencomputern, die für bestimmte Berechnungen eine exponentielle Steigerung der Rechengeschwindigkeit versprechen. Oder zu neuromorphen Systemen, deren Elemente sich an den Neuronen des Gehirns orientieren. Doch keine dieser alternativen Ideen hat es bislang geschafft, wirklich außerhalb der Entwicklungslabore Fuß zu fassen. Und viele Forscher sind der Ansicht, dass Quantencomputer zwar für Nischenanwendungen Vorteile bieten, nicht jedoch bei den alltäglichen Aufgaben, die bei Computeranwendungen dominieren. "Welchen Sinn hat ein Quanten-Abschluss für ein Konto?", fragt John Shalf, Leiter des Departments für Informatik am Lawrence Berkeley National Laboratory in Kalifornien.

Suche nach alternativen Materialien

Ein anderer Ansatz ist die Suche nach einem Ersatzmaterial für Silizium – einem Material also, das sich ähnlich wie Silizium als Basis elektronischer Bauelemente einsetzen lässt, aber weniger Wärme produziert. Kandidaten gibt es eine ganze Reihe, von zweidimensionalen Graphen-Verbindungen bis zu spintronischen Elementen. Spintronische Elemente arbeiten nicht mit sich bewegenden Elektronen, sondern mit umklappenden Elektronenspins. "Verlässt man erst einmal den Bereich der etablierten Technologie, so eröffnet sich ein weiter Raum für die Forschung", sagt Thomas Theis von der Semiconductor Research Corporation SRC in North Carolina, einem Konsortium zur Forschungsförderung.

Doch auch solche alternativen Materialien haben bislang nicht den Schritt vom Labor in die raue Wirklichkeit geschafft. Bleibt noch der architektonische Ansatz: Silizium als Material beibehalten, die Bauelemente aber ganz neu aufbauen. Eine beliebte Option ist der Übergang von zwei- auf dreidimensionale Strukturen. Statt flache Schaltkreise auf die Oberfläche eines Silizium-Wafers zu ätzen, stapelt man dünne Siliziumschichten mit Schaltkreisen übereinander. Auf diese Weise kann man zumindest theoretisch im gleichen Volumen eine größere Rechenleistung erhalten. In der Praxis funktioniert dieser Ansatz allerdings bislang nur bei Speicherchips. Denn bei ihnen gibt es kein Wärmeproblem – sie verbrauchen nicht permanent, sondern nur bei einem Speicherzugriff Energie. Ein Beispiel ist der Hybrid Memory Cube, ein Stapel von bis zu acht Speicherschichten, der von einem von Samsung und dem Speicherhersteller Micron Technology in Idaho gegründeten Industriekonsortium entwickelt wird.

Mikroprozessoren stellen eine weitaus größere Herausforderung dar: Stapelt man mehrere warme Schichten übereinander, so werden sie nur noch wärmer. Einen Ausweg bietet die Kombination von Speicher und Prozessor, denn mindestens 50 Prozent der insgesamt erzeugten Wärme stammt allein vom Austausch der Daten zwischen diesen bislang getrennten Bauelementen. Das ist jedoch gar nicht so einfach, denn die gegenwärtigen Mikroprozessoren und Speicherchips sind so unterschiedlich, dass sie sich nicht in ein und derselben Fertigungsanlage herstellen lassen. Eine komplette Neuentwicklung der Strukturen der Bauelemente ist also nötig.

Mehrere Forschungsgruppen hoffen, genau das zu schaffen. So haben Subhasish Mitra und seine Kollegen an der Stanford University in Kalifornien eine Hybrid-Architektur entwickelt, die Speichereinheiten und Transistoren aus Kohlenstoffnanoröhrchen gemeinsam übereinanderpackt. Die Kohlenstoffnanoröhrchen leiten außerdem den Strom von Schicht zu Schicht. Die Gruppe geht davon aus, dass diese Architektur nur ein Tausendstel der Energie eines Standardchips benötigt.

Mobile Computer als Problem für das mooresche Gesetz

Das zweite Hindernis auf dem Weg zur Einhaltung des mooreschen Gesetzes tauchte völlig überraschend, aber etwa zur gleichen Zeit wie das erste auf: Die Computer wurden mobil. Noch vor 25 Jahren definierten PCs und Laptops die Anforderungen an die Computertechnik. Supercomputer und große Datenverarbeitungszentren verwendeten im Wesentlichen die gleichen Mikroprozessoren, nur in sehr viel größeren Mengen. Heute dagegen bestimmen Smartphones und Tablets die Anforderungen – sowie zunehmend tragbare Anwendungen wie Smartwatches und eine rasant steigende Zahl von intelligenten Geräten, die überall im Einsatz sind, von Brücken bis hin zum menschlichen Körper. Und diese mobilen Geräte haben ganz andere Prioritäten als ihre eher unbeweglichen Gegenstücke.

Dem mooreschen Gesetz zu folgen, hat für die mobilen Geräte jedenfalls keine hohe Priorität – zumal mobile Anwendungen und Daten zu einem großen Teil in die Cloud gewandert sind, also in ein weltweites Netz von Server-Farmen. Diese Zentren dominieren jetzt den Markt für leistungsfähige Mikroprozessoren, die weiterhin dem mooreschen Gesetz gehorchen. "Was immer Google und Amazon beschließen zu kaufen, hat einen großen Einfluss darauf, was Intel entscheidet", sagt Reed.

Für mobile Geräte ist dagegen eine möglichst lange Laufzeit der Akkus von weit größerer Bedeutung. Der Chip in einem typischen Smartphone muss Signale für Sprachanrufe, WLAN, Bluetooth und GPS senden und empfangen, während er zugleich Berührungen, seine Orientierung im Raum, Beschleunigung und Magnetfelder, ja inzwischen sogar Fingerabdrücke registriert. Ein intelligentes Energiemanagement ist also notwendig, damit all diese Aufgaben den Akku nicht allzu schnell leeren.

"Das Ende des mooreschen Gesetzes ist kein technisches Problem, sondern ein ökonomisches"(Bill Bottoms)

Diese Spezialisierung unterbricht den sich bislang selbst verstärkenden Zyklus, der die Chipentwicklung auf Kurs des mooreschen Gesetzes hielt. "Der alte Markt war so organisiert, dass man nur wenige unterschiedliche Dinge herstellte, davon aber viel verkaufte", sagt Reed. "Der neue Markt erfordert die Herstellung vieler unterschiedlicher Dinge, von denen jeweils nur einige hunderttausend verkauft werden – deshalb müssen die Kosten für Entwicklung und Herstellung möglichst gering sein."

Beide Hindernisse stellen die Industrie weiterhin vor große Herausforderungen. Bislang getrennt produzierte Technologien harmonisch in einem Bauelement zu verbinden, gleicht oftmals einem Albtraum, sagt Bottoms, der ein Komitee zu dieser Thematik für den neuen Industrie-Fahrplan leitet. "Unterschiedliche Komponenten, unterschiedliche Materialien, Elektronik, Photonik und so weiter – alles zusammengebündelt. Das alles muss die Architektur für die neuen Geräte lösen."

Existierende Schaltkreise wie Lego verbauen

Die Entwicklung spezieller Schaltkreise ist heute zumeist immer noch Handarbeit – und damit langsam und teuer. Alberto Sangiovanni-Vincentelli und seine Kollegen an der University of California in Berkeley wollen das ändern. Statt jedes Mal bei null anzufangen, setzen sie auf die Wiederverwendung großer Teile bereits existierender Schaltkreise mit bekannter Funktionalität. "Es ist, als würde man mit Lego-Bausteinen arbeiten", sagt Sangiovanni-Vincentelli. Es sei zwar eine Herausforderung, die Bausteine miteinander arbeitsfähig zu verbinden, "aber mit den alten Entwicklungsmethoden wären die Kosten unerschwinglich". Für die Chiphersteller spielen die Kosten derzeit eine große Rolle. "Das Ende des mooreschen Gesetzes ist kein technisches Problem, sondern ein ökonomisches", stellt Bottoms fest. Einige Unternehmen wie Intel versuchen weiterhin, die Bauelemente so lange zu verkleinern, bis sie an die von Quanteneffekten gesetzte Grenze stoßen. "Aber je kleiner wir die Bauelemente machen, desto teurer werden sie."

"Ich würde wetten, dass uns das Geld ausgeht, bevor uns die Physik stoppt"(Daniel Reed)

Jede Halbierung der Größe erfordert bei den Herstellern eine neue Generation von Geräten für die Fotolithografie. Eine neue Fertigungsanlage kostet heutzutage typischerweise viele Milliarden Dollar – so viel Geld können nur wenige Unternehmen aufbringen. Und die Aufsplitterung des Marktes durch die mobilen Geräte macht es schwerer, dieses Geld wieder hereinzubekommen. "Sobald die zusätzlichen Kosten pro Transistor beim nächsten Schritt die bestehenden Kosten übersteigen, endet die Verkleinerung", ist sich Reed sicher. Viele Beobachter glauben, dass die Industrie bereits gefährlich nahe an diesem Punkt ist. "Ich würde wetten", so Reed weiter, "dass uns das Geld ausgeht, bevor uns die Physik stoppt."

Die steigenden Kosten haben im zurückliegenden Jahrzehnt bereits zu starken Veränderungen bei den Chipherstellern geführt. Die meisten Fertigungsanlagen auf der Welt gehören einer Hand voll multinationaler Unternehmen wie Intel, Samsung und der Taiwan Semiconductor Manufacturing Company in Hsinchu. Und diese Großunternehmen stehen in engen Beziehungen zu ihren Zulieferern. Sie koordinieren ihre Anstrengungen also ohnehin, daher hat der Fahrplan der Halbleiter-Industrie für sie keine allzu große Bedeutung mehr. "Die Unterstützung durch die Chipproduzenten hat definitiv abgenommen", sagt Chen.

Energieeffizienz, Konnektivität und Sicherheit als neue Herausforderungen

Ein gutes Beispiel bietet die SRC, die in den USA als Forschungsagentur der Halbleiter-Industrie agiert. Lange Zeit habe die SRC den Fahrplan-Prozess unterstützt, erklärt ihr Vizepräsident Steven Hillenius. "Doch vor drei Jahren zogen wir uns daraus zurück, weil unsere Mitgliedsunternehmen darin keinen Wert mehr sahen." SRC und SIA möchten stattdessen gemeinsam eine längerfristige, grundlegendere Forschungsagenda voranbringen – vielleicht über die im Juli 2015 vom US-Präsidenten ins Leben gerufene "National Strategic Computing Initiative".

Die im September 2015 in einem Bericht vorgestellte Agenda von SRC und SIA umreißt die künftigen Herausforderungen für die Forschung. Vorrang hat dabei die Energieeffizienz, insbesondere für die eingebetteten Sensoren des "Internets der Dinge", die ganz neue Methoden benötigen, um ohne Batterien oder Akkus auszukommen. Sie könnten ihre Energie beispielsweise aus der Wärme der Umgebung oder aus Vibrationen beziehen. Ebenfalls von hoher Priorität ist die Konnektivität: Milliarden von mobilen Geräten, die miteinander und mit der Cloud kommunizieren, erfordern eine große Bandbreite für die Datenübertragung. Die Forscher setzen dafür auf die Nutzung der bislang weitgehend ungenutzten Terahertz-Region tief im infraroten Bereich des Spektrums. Und schließlich ist Sicherheit bedeutsam – der Bericht fordert neue Forschungsansätze zur Abwehr von Cyber-Attacken und Datendiebstahl.

Mit diesen und anderen Schwerpunkten haben die Forscher in den kommenden Jahren viel zu tun. Zumindest einige Industrie-Insider, darunter Shekbar Borkar, der bei Intel die Forschungsabteilung für Mikroprozessoren leitet, sind optimistisch. Ja klar, sagt er, das mooresche Gesetz stößt an seine Grenzen, weil sich das exponentielle Wachstum der Anzahl der Transistoren nicht länger fortsetzen lässt. Aber aus Sicht der Endverbraucher "besagt das mooresche Gesetz schlicht, dass sich der Nutzen für den Käufer alle zwei Jahre verdoppelt". Und in dieser Form lässt sich das Gesetz so lange einhalten, wie die Industrie ihre Geräte mit immer neuen Eigenschaften ausstattet. Ideen dafür gibt es genug, so Borkar. "Unsere Aufgabe ist es, diese Ideen technisch umzusetzen."

13/2016

Dieser Artikel ist enthalten in Spektrum - Die Woche, 13/2016

Lesermeinung

3 Beiträge anzeigen

Wir freuen uns über Ihre Beiträge zu unseren Artikeln und wünschen Ihnen viel Spaß beim Gedankenaustausch auf unseren Seiten! Bitte beachten Sie dabei unsere Kommentarrichtlinien.

Tragen Sie bitte nur Relevantes zum Thema des jeweiligen Artikels vor, und wahren Sie einen respektvollen Umgangston. Die Redaktion behält sich vor, Leserzuschriften nicht zu veröffentlichen und Ihre Kommentare redaktionell zu bearbeiten. Die Leserzuschriften können daher leider nicht immer sofort veröffentlicht werden. Bitte geben Sie einen Namen an und Ihren Zuschriften stets eine aussagekräftige Überschrift, damit bei Onlinediskussionen andere Teilnehmer sich leichter auf Ihre Beiträge beziehen können. Vielen Dank!

SciViews