Neuromorphe Chips: Kann Deutschland auch KI-Hardware?

Gewaltige Maschinen dröhnen, in der trockenen Luft tränen die Augen, und unter den vielen Kleidungsschichten ist es unangenehm warm. Arbeitsalltag für zahlreiche Menschen in Dresden. Im Umkleideraum brauchen geübte Mitarbeiter nur wenige Minuten vom Straßenoutfit bis in die diversen Hüllen: Zuerst ein weißes Shirt und eine graue Jogginghose, dazu kommen weiße Schuhe wie für eine Bowlingbahn, Handschuhe, Mundschutz und eine Haube für die Haare. Ein dünner Ganzkörperanzug und schließlich eine zweite Schicht Handschuhe versiegeln alles. Erst in dieser Montur ist es erlaubt, den Reinraum der Firma Global Foundries zu betreten. In solchen Werken entscheidet sich, ob Europa bei der nächsten KI-Generation mitmischen wird.
Auf den mehr als 60 000 Quadratmetern stehen viele riesige Geräte. An der Decke flitzen an einem kilometerlangen Schienensystem kleine Wagen hin und her, meist bestückt mit einer wertvollen Fracht: Kassetten voll mit Mikrochips. Diese sind es, die vor Feuchtigkeit, Schmutz und selbst feinsten Partikeln geschützt werden müssen. Denn die Elektronik ist teilweise nur wenige Nanometer groß; ein Staubkorn kann alles vernichten. Das ist nicht nur ärgerlich, sondern auch richtig teuer. Teilweise dauert es mehrere Monate, bis ein sogenannter Wafer fertiggestellt ist, eine dünne Scheibe voller Mikrochips.
Mikrochips sind inzwischen Big Business. Kaum ein elektronisches Gerät kommt ohne sie aus. In Smartphones stecken rund 50 dieser Chips, in Verbrennerfahrzeugen mehr als 1000 – und selbst Waschmaschinen sind darauf angewiesen. »Alle sprechen von Mikroprozessoren«, erklärt ein Mitarbeiter von Global Foundries. »Das ist der eine Chip, den wir nicht in Deutschland fertigen können.«
Aber gerade dieser eine Chip beherrscht die globale Aufmerksamkeit. Denn wer den leistungsfähigsten hat, entscheidet darüber, wer die besten KI-Modelle entwickelt. Hier scheint Europa abgehängt. Beziehungsweise: Hier scheint eigentlich die ganze Welt bis auf die USA abgehängt. Denn die US-Firma Nvidia hat eine Art Monopol aufgebaut. Sie setzt nicht nur die hochwertigsten Computerchips zu begehrten Grafikkarten zusammen, sondern hat auch ein eigenes Software-Ökosystem aufgebaut, auf dem inzwischen ein Großteil moderner KI-Software aufbaut.
»Die Chance ist groß, dass solche Technologien Nvidia den Garaus machen«Dan Hutcheson, Analyst
Angesichts der Dominanz der US-Konzerne sucht Europa sein Glück bei Alternativen. Verschiedene Institute und Firmen arbeiten hier an neuartigen Chipdesigns, die völlig anders funktionieren als bisherige Technologien. Diese sollen besonders gut auf KI-Anwendungen zugeschnitten sein – und dabei deutlich weniger Strom verbrauchen. »Die Chance ist groß, dass solche Technologien Nvidia den Garaus machen«, sagte Dan Hutcheson, Analyst bei TechInsights, im Juni 2024 zu BBC. Diese neuartigen Chips werden auch in den Werken von Global Foundries gefertigt und inzwischen weltweit verkauft. Das US-Forschungszentrum Sandia National Labs nutzt Dresdner Hardware in seinem Supercomputer.
Hierzulande will sie hingegen kaum jemand haben. »Wir werden überall lieber genommen als in Europa«, sagt Christian Mayr von der TU Dresden, der an solchen neuartigen Formen von Computerchips arbeitet. »Und das, obwohl die Hardware hier entwickelt wurde. Das ist widersinnig.«
Das Wettrennen um die KI-Vorherrschaft
Chipherstellung ist längst nicht mehr nur ein technisches oder wirtschaftliches Thema, sondern prägt auch die politische Tagesordnung. Im Jahr 2022 verhängten die USA zum Beispiel ein Exportverbot für leistungsstarke »KI-Beschleuniger« nach China. Chinesische Unternehmen durften fortan besonders einige Nvidia-Grafikkarten, mit denen große Sprachmodelle trainiert werden, nicht mehr erwerben. Begründet wurden die Maßnahmen mit Sicherheitsbedenken. Umso überraschender war es, als die Trump-Regierung Teile der Exportbeschränkungen nach China im Jahr 2025 wieder aufhob.
Auch Europa kann sich nicht völlig in Sicherheit wähnen: Eine der letzten Handlungen der Biden-Administration bestand darin, den Export der ersehnten KI-Chips in manche EU-Länder zu beschränken. Inzwischen hat die neue US-Regierung auch diesen Schritt umgekehrt – doch das könnte sich jederzeit wieder ändern. Daher versucht die EU, unabhängiger zu werden.
Aktuell stammen nur rund zehn Prozent der weltweit produzierten Mikrochips aus Europa. Das soll nicht so bleiben. Der European Chips Act stellt 43 Milliarden Euro an Fördermitteln bereit und soll so den europäischen Marktanteil bis zum Jahr 2030 verdoppeln. Federführend dabei: Dresden und Umgebung. Die Region wird inzwischen auch als »Silicon Saxony« beworben.
Das schlägt sich im Dresdner Stadtbild nieder. In den nördlichen Stadtteilen sieht man vor allem: Kräne. Mehrere gigantische Bauprojekte finden sich hier nicht weit voneinander entfernt. Infineon erweitert seine Produktionsstätte. Der taiwanesische Halbleiterhersteller TSMC hat ein Joint Venture mit anderen Unternehmen gebildet, um hier ebenfalls eine Mikrochipfabrik zu errichten. Sie gesellen sich zu den Stätten von Global Foundries, X-Fab und Bosch.
Neben den Hardware-Giganten übersieht man leicht die Universitäten und Start-ups. Aber gerade sie könnten die europäische Zukunft entscheidend prägen. Denn dort entstehen neuartige Technologien, zum Beispiel Chips, die dem menschlichen Gehirn nachempfunden sind. Diese sollen nicht nur viel schneller KI-Algorithmen trainieren und ausführen, sondern dabei auch deutlich weniger Strom verbrauchen. Vieles davon ist zwar noch Zukunftsmusik, doch einige Umsetzungen überzeugen schon. Europa hat Grund zur Hoffnung.
Das Rennen ist noch nicht entschieden
Denn spätestens mit der Veröffentlichung des Sprachmodells R1 des chinesischen Unternehmens DeepSeek im Januar 2025 bröckelte die Überzeugung von Nvidias ewiger Vormachtstellung. Die chinesische Firma hatte trotz Exportbeschränkungen eine leistungsstarke KI-Software entwickelt. Der R1-Algorithmus ist so optimiert, dass auch ältere Hardware für das Sprachmodell ausreichte. Nvidias Aktienkurs stürzte ab – und in Europa stieg die Zuversicht. Plötzlich schien es denkbar, dass auch hiesige Firmen bei der Entwicklung großer KI-Modelle mitmischen.
»Der DeepSeek-Moment war schnell wieder vorbei, und alle waren wieder in Gedanken bei den riesigen Rechenzentren voll mit Grafikkarten«Christian Mayr, Hardwareentwickler
»Ich ging davon aus, dass die Leute jetzt grundlegend über die Algorithmen und die Hardware nachdenken würden«, sagt Christian Mayr. Statt an den bewährten Systemen festzuhalten, könne man an den Codes und den Plattformen feilen, um Sprachmodelle mit möglichst wenig Aufwand zu betreiben. »Aber der DeepSeek-Moment war schnell wieder vorbei und alle waren wieder in Gedanken bei den riesigen Rechenzentren voll mit Grafikkarten«, so Mayr.
Diese Rechenzentren verbrauchen Unmengen an Strom. Mit der zunehmenden Nutzung großer Sprachmodelle wie ChatGPT oder Claude steigt auch der Energieverbrauch der Betreiber in schwindelerregende Höhen. So tun sich einige Techfirmen wie Meta mit anderen Unternehmen zusammen, um ihren Strombedarf durch Kernenergie langfristig zu decken.
Im Vergleich dazu erscheint das menschliche Gehirn wie ein Wunder. Mit nur wenigen Watt an Leistung übertrumpft es Sprachmodelle bei vielen Aufgaben. Wie das unserem Organ im Detail gelingt, ist bis heute ein Rätsel.
Seit den 1980er- und 1990er-Jahren versuchen Fachleute deshalb, das menschliche Gehirn elektronisch nachzubauen. Dieses Forschungsfeld wird als »neuromorphes Rechnen« bezeichnet.
Ein elektronisches Abbild unseres Gehirns
Die Chip-Hardware ist seit ihren Anfängen in den 1960er-Jahren im Grunde gleich geblieben – zumindest, was den groben Aufbau betrifft. Bei dieser sogenannten Von-Neumann-Architektur gibt es zwei Hauptkomponenten: eine Rechen- und eine Speichereinheit. Bei komplizierten Berechnungen muss man die Daten immer wieder zwischen beiden hin- und herschieben, was viel Zeit und Energie erfordert. Diese Prozesse können bis zu 90 Prozent des Energieverbrauchs ausmachen.
Unser Gehirn ist dagegen völlig anders aufgebaut. Dessen Recheneinheiten, die Neurone, sind jeweils lokal miteinander verbunden – durch Synapsen, eine Art Speicherelement. Neuromorphe Ansätze versuchen, diese Konstruktion zu kopieren.
»Aber man kann unmöglich alles an einem Ort unterbringen, das geht einfach nicht«, erklärt Christian Mayr, der an das Hirn angelehnte Hardware entwickelt. »Das heißt, man muss die Verarbeitung irgendwie verteilen – und das geht nur asynchron.« Das steht in starkem Kontrast zu der Funktionsweise von Grafikkarten, in denen jeder Rechenschritt eng getaktet ist und alles parallel abläuft.
Bei vielen neuromorphen Chips ist zudem ein ereignisgesteuerter Ansatz üblich: Ähnlich wie bei biologischen Neuronen sollen die elektronischen Bauteile nur dann aktiv werden, wenn es einen Grund dafür gibt. »Ein oft zitiertes Beispiel aus der Neurowissenschaft ist das ›Luke-Skywalker-Neuron‹, das angeblich nur reagiert, wenn der Schauspieler Mark Hamill zu sehen ist.« Bei herkömmlicher Hardware ist dagegen jeder Teil des Systems ständig aktiv. Das erfordert sehr viel mehr Energie.
Eine Möglichkeit, die genannten Vorteile des Gehirns in Elektronik umzusetzen, bieten gepulste neuronale Netze – ein beliebter Ansatz im neuromorphen Computing. Unter anderem große Firmen wie IBM und Intel haben ihn verfolgt. In diesem Fall besteht die Hardware aus einem Geflecht aus Tausenden miteinander verbundenen Rechenkernen.
Auf den ersten Blick scheint das gut zu den großen KI-Modellen zu passen, die ebenfalls auf neuronalen Netzen fußen. Wie der Name schon nahelegt, ist auch die Software an biologischen Gehirnen angelehnt. Die Algorithmen wurden bereits in den 1940er-Jahren konzipiert, doch das Feld blühte erst ab 2012 richtig auf – unter anderem, weil erst dann genügend Computerleistung zur Verfügung stand. Denn neuronale Netze bedürfen vieler Ressourcen. Neben gigantischen Datenmengen verschlingen sie Unmengen an Rechenleistung.
Umso vielversprechender scheint daher ein neuromorpher Hardware-Ansatz, um Ressourcen zu sparen. Die Software eines neuronalen Netzes soll dabei eins zu eins auf die neuromorphe Hardware übertragen werden; jede Prozessoreinheit entspricht einem Software-Neuron. Das schränkt jedoch die Größe und Variabilität des KI-Programms stark ein, da dieses durch die Hardware fest vorgegeben ist. Und es gibt noch ein Problem: Man muss völlig neue Software schreiben – und zwar von Grund auf.
Nicht alle neuronalen Netze sind gleich
Gegenwärtige Algorithmen wurden an die bestehende Von-Neumann-Architektur angepasst. Gerade für besonders aufwendige Aufgaben, etwa generative KI, sind die Programme stark für die genutzte Hardware optimiert.
Große Sprachmodelle wie ChatGPT fußen zum Beispiel auf neuronalen Netzen und dem »Attention-Mechanismus«, der die großen Sprachmodelle überhaupt erst ins Leben gerufen hat. Dieser ermöglicht es, jedes Wort einer Ein- und Ausgabe mit jedem anderen in Beziehung zu setzen – auch über viele Absätze hinweg – und so kohärente Texte zu produzieren. Hierfür müssen die künstlichen Neurone über weite Distanzen miteinander kommunizieren. Das ist nicht mit neuromorpher Hardware vereinbar, bei der die Recheneinheiten nur lokal miteinander verbunden sind.
Zudem werden bei gegenwärtigen Sprachmodellen große Matrizen miteinander multipliziert, was zahlreiche Additionen und Multiplikationen erfordert. Für solche Operationen lassen sich die Stärken von Grafikkarten nutzen. Diese können zahlreiche einfache Berechnungen parallel ausführen. Die KI-Algorithmen sind dabei so designt, dass die Informationen in den dazugehörigen Matrizen möglichst dicht gepackt sind.
Die neuromorphe Architektur bietet hierbei kaum Vorteile. Das liegt unter anderem an der Funktionsweise von gepulsten neuronalen Netzen. Die Neurone werden nur dann aktiviert, wenn eine bestimmte Schwelle erreicht wird. Der Zustand eines solchen Neurons ist zeitabhängig; es müssen nicht ständig Berechnungen stattfinden. Die Software herkömmlicher Sprachmodelle ist aber darauf ausgelegt, dass sich die Werte der meisten Neurone in jedem Rechenschritt ändern. Daher verschwindet der energetische Gewinn durch die Hardware.
»Es ist möglich, Anwendungen auf neuromorpher Hardware zu entwickeln, aber das ist immer noch unangemessen schwierig«, sagte Steve Furber, Mitbegründer der Mikroprozessor-Architektur ARM, in einem 2025 erschienenen Interview mit »IEEE Spectrum«. »Es fehlen hoch entwickelte Software-Design-Tools nach dem Vorbild von TensorFlow und PyTorch, mit denen sich große Modelle auf einfache Weise erstellen lassen, ohne dass man jedes einzelne Neuron detailliert beschreiben muss.«
Diese Schwachstelle sieht auch Christian Mayr von der TU Dresden: »Die neuromorphe Community war bisher sehr hardwarelastig. Damit die Ansätze besser skalieren, muss man sich auch Gedanken über die Algorithmen machen und darüber, wie diese auch wirklich die Vorteile der Hardware nutzen können.«
In den vergangenen Jahren gab es aber auch erste Bemühungen, die Softwareentwicklung in diesem Bereich voranzutreiben. Forschungs- und Entwicklerteams haben Sprachmodelle ersonnen, die auf neuromorpher Hardware wie dem Loihi-2 Chip von Intel oder dem von mehreren Forschungsgruppen entworfenen SENECA-Chip laufen. Erste Versuche zeigten: So lässt sich einiges an Energie einsparen. Doch die speziell designten Sprachmodelle sind deutlich kleiner als die erfolgreichen Programme wie ChatGPT und Co.
Trotz jahrzehntelanger Forschung und zunehmenden Interesses von privaten Unternehmen hat die neuromorphe Technologie bisher noch keinen kommerziellen Durchbruch erzielt. In einem im Januar 2025 in »Nature« veröffentlichten Artikel argumentieren einige führende Fachleute des Gebiets, dass sich das bald ändern könnte. Neuromorphes Computing wandle sich immer mehr von akademischen Prototypen zu produktionsreifen Geräten, die reale Herausforderungen bewältigen können.
Ein Kompromiss als Erfolgsrezept?
»Es bringt nichts, ideologisch neuromorph zu sein«, sagt Christian Mayr, der das Dresdner Start-up SpiNNcloud gegründet hat. Es entwickelt den sogenannten SpiNNaker-Chip. Mayr und seine Mitarbeiter verfolgen dabei einen hybriden Ansatz, um die biologischen Prinzipien auf die Chip-Hardware anzupassen. »Unsere Hardware ist darauf ausgelegt, viele asynchrone Prozesse nebeneinander herlaufen zu lassen, egal wie diese asynchronen Prozesse aussehen. Das können gepulste neuronale Netze sein oder auch ganz normale Computerprogramme.« Wie andere neuromorphe Ansätze kann SpiNNaker abhängig vom Bedarf die Energie der einzelnen Bauteile nachregeln.
Streng genommen entspricht das keinem reinen neuromorphen Rechnen. Die Chips setzen sich zwar aus mehreren verbundenen Rechen- und Speicherelementen zusammen, die eine Art Netzwerk bilden. Aber sie bestehen aus herkömmlichen Rechenkernen und können jede Art von Programm ausführen und auch verschiedene Typen von Software-Neuronen simulieren.
»Theoretisch kann SpiNNaker auch ganz normale Sprachmodelle, wie sie jetzt existieren, ausführen«, erklärt Mayr. »Trotzdem versuchen wir, die KI-Algorithmen so umzubauen, dass sie die Vorteile der Hardware nutzen.« Im Dezember 2023 hat er mit seinem Team ein Sprachmodell auf den Chips laufen lassen. Das erforderte rund 18-mal weniger Energie als auf gewöhnlicher Hardware.
Die SpiNNaker-Chips ermöglichen es außerdem, einzelne künstliche Neurone eines Algorithmus zu steuern – und gegebenenfalls kurzzeitig herunterzuregeln, wenn sie nicht gebraucht werden. »Dadurch sind rund 1000-mal weniger Speicherzugriffe und Rechenoperationen nötig. Grafikkarten können das nicht«, sagt Mayr. Entsprechend viel Energie ließe sich einsparen.
»Alle setzten nur auf Nvidia. Aber das ändert sich gerade grundlegend«Christian Mayr, Hardwareentwickler
Seit 2025 betreibt die US-amerikanische Forschungseinrichtung Sandia National Laboratories einen Supercomputer mit SpiNNaker-Chips. Auch große Techfirmen wie OpenAI, Google DeepMind und Microsoft untersuchen inzwischen die Möglichkeiten neuromorpher Ansätze. »Eine ganze Weile lang haben Investoren immer wieder gesagt, es sei keine andere Hardware nötig«, resümiert Mayr. »Alle setzten nur auf Nvidia. Aber das ändert sich gerade grundlegend.«
Im Reinraum von Dresden flitzen die Chip-Wafer fast lautlos durch die Luft, abgeschirmt von der Außenwelt. Das ist ein passendes Bild für Europas KI-Hardware: Sie ist zukunftsweisend, aber isoliert. Noch ist Zeit, das zu ändern. Doch die nächste Generation der KI wird nicht warten, bis Europa sich entschieden hat.
Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.