Direkt zum Inhalt

Datenübertragung: Das Bandbreiten-Nadelöhr

Verzweifelt bemühen sich Forscher, das weltweite Netz der Datenverbindungen zu verbessern und auszubauen - sie wollen verhindern, dass die Informationsrevolution jäh gebremst wird.
Ein blaues Glasfaserkabelbündel schluckt Nullen und EinsenLaden...

Am 19. Juni gingen hunderttausende Fans der US-Fernsehserie "Game of Thrones" online, um eine sehnsüchtig erwartete neue Folge zu sehen – und verursachten so einen teilweisen Zusammenbruch des von dem Sender HBO angebotenen Streaming-Dienstes. Etwa 15 000 Kunden saßen eine Stunde lang wütend vor einem leeren Bildschirm.

Der TV-Sender entschuldigte sich für das Problem und versprach, dass ein solcher Zusammenbruch sich nicht wiederholen werde. Dabei illustriert die Episode beispielhaft ein zunehmend drängendes Problem: Der globale Internetverkehr steigt nach Schätzungen um 22 Prozent pro Jahr – und die Nachfrage nach Bandbreite übersteigt dadurch rasant alle Bemühungen der Provider, das Angebot zu verbessern.

Obwohl es seit den 1990er Jahren erhebliche Fortschritte gegeben hat – die ersten Nutzer des damals entstehenden World Wide Web gingen noch mit analogen Telefonmodems online und ertrugen ein "world wide wait" –, ist das heutige Internet immer noch ein globaler Flickenteppich, aufgesetzt auf einem 100 Jahre alten Telefonsystem. Die Kupferleitungen, die ursprünglich die Grundlage des Systems bildeten, sind inzwischen durch Glasfaserleitungen ersetzt, die Billionen von Bits pro Sekunde zwischen großen Datenzentren transportieren. Aber auf lokaler Ebene sinkt das Niveau der Dienste erheblich – und der Endverbraucher erlebt das elektronische Äquivalent einer holprigen Fahrt auf Feldwegen.

Die daraus resultierenden digitalen Verkehrsstaus drohen die Revolution der Informationstechnologie abzuwürgen. Schon jetzt stoßen Nutzer an Grenzen: etwa wenn Störungen Telefongespräche über das Mobilfunknetz bei hohem Gesprächsaufkommen beeinträchtigen, Datenübertragungen in überfüllten Kongresszentren nur noch im Schneckentempo ablaufen und Videostreams bei hohen Zuschauerzahlen ins Stocken geraten. Den Internetanbietern ist schmerzlich bewusst, dass das derzeitige Netz alles andere als bereit ist für die viel gepriesene Zukunft der mobilen High-Definition-Videos, selbstfahrenden Autos, Fernchirurgie, Telepräsenz und interaktiven Spiele in einer dreidimensionalen virtuellen Realität.

Deshalb geben sie Milliarden aus, um die Verkehrsstaus zu beseitigen und das Internet in aller Eile zu erneuern. Das wird als ebenso wichtig für die digitale Revolution angesehen wie der Ausbau der Rechenleistung. Google hat sich mit fünf asiatischen Telekommunikationsunternehmen zusammengetan, um ein 11 600 Kilometer langes, 300 Millionen US-Dollar teures Glasfaserkabel vom US-Bundesstaat Oregon nach Japan und Taiwan zu verlegen, das im Juni 2016 den Betrieb aufnahm. Microsoft und Facebook verlegen ein weiteres Kabel über den Atlantik, das 2017 in Betrieb gehen soll. "Die Unternehmen tätigen derart großvolumige Investitionen, um ihre Geschäfte zu stützen", sagt Erik Kreifeldt, Experte für Unterseekabel vom Telekommunikations-Marktforschungsunternehmen TeleGeography in Washington: Sie können sich schlicht keine Engpässe im Internet leisten.

Neue Kabel zu verlegen, ist dabei nur ein Weg, den Forscher und Ingenieure zur Problemlösung einschlagen – daneben sollen etwa auch die Geschwindigkeit des Mobilfunknetzes und die Leistungsfähigkeit der Server erhöht werden, die die Datenströme weltweit weiterreichen.

Die fünfte Generation

Zumindest ein Schritt zur Erweiterung des Netzes lässt sich relativ einfach umsetzen. In vielen Regionen Europas und Nordamerikas gibt es "dunkle" Glasfaserleitungen: ganze Leitungsnetze, die von überoptimistischen Investoren während der Internetblase vergraben, nach dem Platzen der Blase im Jahr 2000 aber niemals genutzt wurden. Jetzt können die Provider einen Teil der steigenden Nachfrage auffangen, indem sie diese bislang ungenutzten Leitungen in Betrieb nehmen.

Doch Leitungsnetze nützen nichts in Bezug auf die Heerschar von Smartphones, Fitnesstrackern, VR-Headsets und anderen technischen Spielereien, die in die Mobilfunknetze drängen. Der Datenverkehr von mobilen Geräten steigt geschätzt um 53 Prozent pro Jahr – und das meiste davon strömt über die Basisstationen, deren Abdeckung ohnehin löchrig ist und deren Bandbreite sich Tausende von Nutzern teilen müssen.

Alles wird mobilLaden...
Alles wird mobil | Die Nachfrage nach drahtlosen Verbindungen explodiert geradezu, da immer mehr Geräte online gehen. Die Ingenieure hoffen, diese Nachfrage mit Hilfe von Netzen der fünften Generation befriedigen zu können. 5G soll die Übertragungsrate von Millionen auf Milliarden Bits pro Sekunde steigern.

Und auch die Qualität der Mobilfunknetze lässt zu wünschen übrig. Die Funknetze der ersten Generation, aufgebaut in den 1980er Jahren, nutzten analoge Signale und sind lange außer Betrieb gegangen. Doch die 2G-Netze der zweiten Generation, die zusätzlich digitale Leistungen wie Textübertragung anboten, decken immer noch 75 Prozent des Mobilfunks in Afrika und im Nahen und Mittleren Osten ab. Und auch in anderen Regionen gehen sie erst jetzt langsam außer Dienst. Im vergangenen Jahr bewegte sich bereits die Mehrheit der Mobilfunkkunden in Westeuropa in 3G-Netzen. Diese dritte Generation wurde in den 1990er Jahren installiert, um anspruchsvollere Leistungen wie etwa Internetzugang zu ermöglichen.

Die fortschrittlichsten kommerziellen Netze sind bereits 4G, eingeführt Ende der 2000er Jahre, um Smartphones mit Breitbandgeschwindigkeiten von bis zu 100 Megabit pro Sekunde zu versorgen. Diese Netze der vierten Generation breiten sich zwar schnell aus, aber um die Anforderungen in den 2020er Jahren zu erfüllen, müssen die Provider nach Ansicht von Experten der Industrie rechtzeitig auf eine fünfte Generation mit einer nochmals 100-fach höheren Geschwindigkeit umrüsten.

Es geht jedoch nicht nur um Geschwindigkeit – die Bandbreite der 5G-Netze werden sich sehr viel mehr Nutzer teilen, als es heute möglich wäre, so Rahim Tafazolli, Leiter des Institute for Communication Systems an der University of Surrey in Großbritannien: "Das Ziel ist, Millionen von Geräten pro Quadratkilometer zu unterstützen." Nur dann könne das noch zart knospende "Internet der Dinge" aufgefangen werden, das von Haushaltsgeräten über Heizungssteuerung und medizinische Überwachungsgeräte bis zu autonomen Fahrzeugen reicht.

Das Industriekonsortium Third Generation Partnership Project (3GPP) koordiniert den Übergang zu 5G wie schon zuvor die Übergänge zu 3G und 4G. Tafazolli arbeitet mit diesem Konsortium zusammen, um ein als "multiple input, multiple output" bezeichnetes Verfahren zu testen. MIMO soll es ermöglichen, auf jeder Radiofrequenz mehrere Datenströme zugleich zu übertragen, ohne dass sie sich vermischen. Die Idee ist, sowohl beim Sender als auch beim Empfänger mehrere Antennen zu verwenden, um für die Signale viele unterschiedliche Wege zu ermöglichen. Ausgeklügelte Signalverarbeitung kann zwischen diesen unterschiedlichen Wegen unterscheiden und so die unterschiedlichen Datenströme voneinander trennen.

In WLAN- und 4G-Netzen wird MIMO schon eingesetzt. Aber die geringe Größe der Smartphones beschränkt die Zahl der in ihnen – und damit auch auf den Basisstationen – untergebrachten Antennen gegenwärtig auf vier. Das zentrale Ziel der 5G-Forschung ist es, mehr Antennen auf beiden Seiten unterzubringen.

Große Mobilfunkanbieter haben in ihren Labors und auf Messen bereits erfolgreich MIMO mit großen Antennenzahlen demonstriert. Beim Mobile World Congress im Februar in Barcelona führte das Unternehmen Ericsson ein Multiuser-MIMO-System mit 512 Antennen vor, das 25 Gigabit pro Sekunde zwischen zwei Terminals übertrug, von denen das eine stationär, das andere auf Schienen in Bewegung war. Damit erreicht das System bereits ein Viertel des 100-Gigabit-Ziels von 5G. Das System sendete bei 15 Gigahertz, einer Frequenz im für 5G vorgesehenen Band. Der japanische Mobilfunkanbieter NTT DoCoMo arbeitet mit Ericsson zusammen, um das System nun auch im Freien zu testen. Und Korea Telecom plant, bei der Winterolympiade 2018 in Südkorea erste 5G-Dienste anzubieten.

Cloud ComputingLaden...
Cloud Computing | Ein großer Teil der digitalen Informationen in aller Welt verlagert sich in die Cloud – ein globales Netz von Datenzentren, die über Hochleistungsglasfaserleitungen miteinander verbunden sind. Der Bau weiterer Datenzentren und die Einführung von Leitungen mit noch höherer Kapazität versprechen die Reaktionszeiten der Cloud zu verbessern.

Ein anderer Ansatz ist, die Geräte anpassungsfähiger zu machen. Statt mit einem festgelegten Satz von Frequenzen zu arbeiten, könnten mobile Geräte "cognitive radio" nutzen, eine Art Funkerkennung: Softwaregesteuert würde das Gerät seine drahtlose Verbindung stets über einen Kanal laufen lassen, der gerade offen ist. Das würde die Daten nicht nur immer über die schnellste Verbindung leiten, so Tafazolli, sondern auch die Belastbarkeit des Netzes erhöhen, weil es stets Wege um Störungen herum findet. Zudem, so der Forscher weiter, sei es viel einfacher, die Leistung durch neue Software zu steigern als durch neue Hardware.

Eine entscheidende strategische Herausforderung für den Übergang zu 5G ist es unterdessen, einen Frequenzbereich im Radiospektrum zu finden, der die nötige Bandbreite und Abdeckung bietet. Internationale Vereinbarungen haben schon nahezu jede nutzbare Frequenz spezifischen Nutzungen zugeordnet – beispielsweise Fernsehsendern, der maritimen Navigation oder gar der Radioastronomie. Endgültige Entscheidungen müssen daher bis zur World Radiocommunications Conference 2019 warten. Die US Federal Communications Commission FCC – die für die Frequenzvergabe zuständige US-Behörde – versucht sich allerdings einen Vorsprung zu sichern, indem sie bereits Frequenzen unterhalb von einem Gigahertz an Telekom-Unternehmen versteigert. Ursprünglich für Fernsehsender genutzt, da sie besser als höhere Frequenzen Mauern und andere Hindernisse durchdringen, werden sie seit der Digitalisierung der TV-Angebote dort nicht länger gebraucht. Diese niedrigen Frequenzen sind besonders attraktiv für dünn besiedelte Regionen, so Tafazolli: Es würden nur wenige Basisstationen benötigt, um Breitbandangebote für Haushalte sowie Datenübertragungen für autonome Fahrzeuge zu ermöglichen.

Andere Frequenzbänder im Bereich von einem bis sechs Gigahertz könnten für 5G verfügbar werden, wenn die 2G- und 3G-Technik langsam außer Betrieb geht. Die größte Hoffnung für dicht besiedelte städtische Regionen ist jedoch die Nutzung von Frequenzen oberhalb von sechs Gigahertz, die auf Grund ihrer geringen Reichweite gegenwärtig kaum verwendet werden. Etwa alle 200 Meter müsste dann eine 5G-Basisstation stehen – das ist ein Fünftel des typischen Abstands von 4G-Basisstationen in den Städten. Trotzdem setzt die FCC auf diesen Frequenzbereich und genehmigte am 14. Juli seine Öffnung für Hochgeschwindigkeitsdienste. Auch die britische Regulierungsbehörde Ofcom plant ähnliche Schritte.

Die Telekom-Unternehmen sind an diesen hohen Frequenzen besonders interessiert, weil sie die Möglichkeit bieten, die 5G-Technik um weitere Nutzungsmöglichkeiten zu erweitern. In den USA haben der Netzanbieter Verizon und ein Konsortium aus Geräteherstellern um Ericsson, Cisco, Nokia und Samsung in den Bundesstaaten New Jersey, Massachusetts und Texas Tests mit 28 Gigahertz durchgeführt. Das System nutzt 5G, um Daten mit einem Gigabit pro Sekunde zu übertragen. Verizon plant, mit dem System per Richtfunk Festanschlüsse in Häusern zu versorgen. Entsprechende Versuche sollen bereits nächstes Jahr erfolgen. Das Unternehmen setzt aus Kostengründen auf Richtfunk als Alternative zu Telefonleitungen.

Größere Röhren

"Wenn ich mein Handy heraushole, denkt jeder, es handle sich um ein drahtloses Telekommunikationsgerät", sagt Neal Bergano, Technischer Direktor von TE SubCom, einem Produzenten für Unterseekabel in New Jersey. Doch das sei nur ein Teil der Wahrheit: "Zwar sind die Nutzer mobil, aber das Netz ist es nicht." Nutzt jemand sein Handy, so wird sein Radiosignal von der nächstgelegenen Basisstation in ein optisches Signal umgewandelt, das dann durch das Glasfasernetz an sein Ziel gelangt.

Die flexiblen Datenkanäle im Glasfasernetz sind seit über einem Vierteljahrhundert das Rückgrat des globalen Kommunikationsnetzes. Nichts kann mit seiner Bandbreite konkurrieren: Heute übermittelt eine einzige, haardünne Faser zehn Terabit pro Sekunde über den Atlantik. Das entspricht in jeder Sekunde dem Inhalt von 25-Dual-Layer-Blu-Ray-Discs und ist das 30 000-Fache der Übertragungsrate des 1988 verlegten ersten transatlantischen Glasfaserkabels. Der immense Anstieg basiert vor allem darauf, dass es den Ingenieuren gelang, gleichzeitig 100 separate Signale durch eine einzige Faser zu schicken, jedes mit seiner eigenen Wellenlänge. Da aber der Datenverkehr auf stark benutzten Routen weiter zunimmt, wie etwa zwischen London und New York, kommt auch diese Methode an ihre Grenzen. Störungen und Rauschen, die zwangsläufig entstehen, wenn Licht Tausende von Kilometern durch Glasfasern reist, machen es praktisch unmöglich, pro Wellenlänge mehr als 100 Gigabit pro Sekunde zu übertragen.

Um diese Grenze zu überwinden, haben die Hersteller eine neue Art von Glasfaser entwickelt. In Standardfasern bewegt sich das Licht durch einen neun Mikrometer durchmessenden Kern aus extrem reinem Glas in der Mitte der Faser. Das neue Material verteilt das Licht über einen größeren Kern, um so die Intensität und damit auch das Rauschen zu reduzieren. Der Nachteil ist, dass die neuen Fasern empfindlicher darauf reagieren, gebogen oder gestreckt zu werden, und das wiederum führt zu Fehlern bei der Datenübertragung. Aber die Fasern funktionieren sehr gut als Unterseekabel, da die Tiefsee eine gutartige, stabile Umgebung ist und die Fasern wenig belastet.

Im vergangenen Jahr schickte das kalifornische Unternehmen Infinera 150 Gigabit pro Sekunde mit einer einzigen Wellenlänge 7400 Kilometer durch ein solches neuartiges Glasfaserkabel – das ist mehr als das Dreifache der maximal möglichen Entfernung für ein normales Glasfaserkabel und mehr als genug, um den Atlantik zu überbrücken. Und über eine kürzere Entfernung gelang es sogar, 200 Gigabit pro Sekunde zu übermitteln.

Das mit 60 Terabit pro Sekunde derzeit leistungsstärkste unterseeische Kabel ist das im Juni in Betrieb genommene FASTER-System. Es verbindet Japan und den US-Bundesstaat Oregon und sendet in jedem von insgesamt sechs Paaren von Glasfasern mit großen Kernen Signale mit 100 Gigabit pro Sekunde auf 100 Wellenlängen. Doch im Mai kündigten Microsoft und Facebook gemeinsam an, FASTER mit ihrem System MAREA zu schlagen: Das Glasfaserkabel mit großen Kernen soll 6600 Kilometer zwischen Spanien und dem US-Bundesstaat Virginia überbrücken und Datenzentren der beiden Unternehmen auf beiden Seiten des Atlantiks mit 160 Terabit pro Sekunde verbinden.

Ein anderes Verfahren zur Reduzierung des Rauschens demonstrierte im vergangenen Jahr ein Forscherteam an der University of California in San Diego. Glasfasersysteme verwenden normalerweise separate Laser für jede Wellenlänge. Im Gegensatz dazu verwendete das Team einen Frequenzkamm, um eine Serie von Wellenlängen mit einem einzigen Laser zu erzeugen. "Es funktionierte ganz wunderbar", um das Rauschen zu reduzieren, so Teammitglied Nikola Alic. Weiterentwickelt könne der Ansatz die Übertragungsrate von Glasfasern verdoppeln, so der Elektroingenieur.

Signal-Laufzeit

Eine eindrucksvolle Bandbreite ist nützlich, aber es kommt auch auf die Schnelligkeit an. Die menschliche Sprache reagiert extrem empfindlich auf Unterbrechungen. Bereits eine Verzögerung von einer Viertelsekunde kann ein Telefon- oder Videogespräch erheblich stören. Und Videoübertragungen erfordern eine feste Anzahl von Bildern pro Sekunde. Deshalb friert das Bild ein, wenn der Datenstrom stockt. Um solche Probleme zu vermeiden, erlaubt die FCC spezielle Kodes, die der Übertragung von Datenpaketen von Telefongesprächen oder Videos Vorrang gewähren, damit sie schnell und gleichmäßig durch das Internet strömen können.

Neue, sich gerade entwickelnde Anwendungen wie Telerobotik, Fernchirurgie, Cloud-Computing und interaktive Spiele hängen ebenfalls stark von der Reaktionsfreudigkeit des Netzes ab. Die Latenzzeit, die ein Signal für die Hin- und Rückreise zwischen zwei Terminals benötigt, hängt hauptsächlich von der Entfernung ab – und diese Tatsache bestimmt die Geografie des Internets. Zwar rasen die Daten mit 200 000 Kilometern pro Sekunde durch die Glasfasern – also mit zwei Dritteln der Lichtgeschwindigkeit im Vakuum. Trotzdem muss ein Nutzer, der in London eine Taste drückt, 86 Millisekunden auf die Reaktion eines Datenzentrums im 8600 Kilometer entfernten San Francisco warten. Und diese Verzögerung führt dazu, dass die Datenverarbeitung in der Cloud geradezu im Schneckentempo abläuft.

Viele neue mobile Anwendungen erfordern sowohl große Bandbreite als auch kurze Latenzzeiten. Autonome Fahrzeuge beispielsweise benötigen Echtzeitdaten über ihre Umgebung, um über etwaige Gefahren informiert zu sein – von Schlaglöchern bis zu Unfällen auf der vorausliegenden Strecke. Selbst konventionelle Fahrzeuge entwickeln sich bereits zu drahtlosen Nervenzentren und brauchen kurze Latenzzeiten für die Steuerung ihrer Systeme per Sprache.

Eine große Herausforderung dürfte auch die Entwicklung dreidimensionaler VR-Systeme sein. Interaktive 3-D-Spiele benötigen Übertragungsraten von einem Gigabit pro Sekunde – das 20-Fache der Rate eines Videos von einer Blu-Ray-Disc. Noch wichtiger sei jedoch, dass das Bild 90-mal pro Sekunde erneuert werden muss, damit es mit Kopfbewegungen des Spielers während der Handlung mithalten kann, erläutert der Computerwissenschaftler David Whittinghill von der Purdue University im US-Bundesstaat Indiana. Wenn der Datenstrom sich verzögert, leidet der Spieler unter den typischen Symptomen einer Reisekrankheit. Um das zu vermeiden, hat Whittinghill eine spezielle Glasfaserleitung mit einer Übertragungsrate von zehn Gigabit pro Sekunde in seinem Labor für virtuelle Realität installiert.

Um die Antwortzeiten zu verkürzen, spiegeln große Internetunternehmen wie Google, Microsoft, Facebook und Amazon ihre Daten auf vielen Serverfarmen rund um den Globus – und Anfragen werden jeweils an die nächstgelegene geleitet. Videos, die sich im Cache eines nahen Datenzentrums befinden, erlauben dem Nutzer beispielsweise so vorzuspulen, als befinde sich das Video auf seinem lokalen Gerät, erklärt Geoff Bennett, einer der Direktoren von Infinera. Doch die Zunahme der Anzahl solcher Datenzentren trage wiederum erheblich zum Anwachsen des Datenverkehrs bei und steigere so die Nachfrage nach Bandbreite, so Bennett weiter: Die Anstrengungen der Anbieter, ihre Datenzentren weltweit zu synchronisieren, konsumiere heute mehr Bandbreite als der gesamte öffentliche Datenverkehr im Internet. Das Microsoft-Facebook-Kabel beispielsweise dient ausdrücklich diesem Zweck.

"Es funktionierte ganz wunderbar!"
(Nikola Alic)

Bislang befinden sich die meisten Datenzentren dort, wo auch die meisten Kunden und Kabel sind: in Nordamerika, Europa und Asien. "Viele Regionen auf der Welt sind immer noch auf den Fernzugriff auf Inhalte angewiesen, die nicht lokal gespeichert werden", sagt Erik Kreifeldt. Südamerika hat nur wenige Datenzentren, deshalb kommen viele Inhalte aus dem besser vernetzten Miami in Florida. Der Datenverkehr zwischen Chile und Brasilien etwa läuft häufig über Miami – das spart zwar Geld, geht aber zu Lasten der Zugriffszeiten. Ähnliche Probleme plagen den Nahen und Mittleren Osten, wo 85 Prozent des Datenverkehrs über europäische Datenzentren laufen. Doch das ändere sich, wenn auch langsam, so Kreifeldt. Amazon Web Services eröffnete in diesem Jahr sein erstes Cloud-Datenzentrum im indischen Mumbai, bereits seit 2011 betreibt es ein ähnliches Datenzentrum im brasilianischen São Paulo.

Interne Kommunikation

Die Bandbreite spielt nicht nur bei großen, sondern auch bei kleinsten Abständen eine entscheidende Rolle, nämlich auf und zwischen den Chips in den Servern eines Datenzentrums. Eine Verbesserung des internen Datenflusses sorgt für einen schnelleren Transport von Informationen innerhalb eines Datenzentrums – die dann auch den Nutzer schneller erreichen. Die Taktraten der Chips, also die Geschwindigkeit, mit der sie Daten verarbeiten, erreichte bereits vor vielen Jahren auf Grund von Problemen mit der Kühlung ein Plateau bei einigen Gigahertz. Der praktikabelste Weg, die Geschwindigkeit der Prozessoren zu verbessern, ist eine Aufteilung der Operationen auf mehrere Kerne, separate Mikroprozessoren, die auf ein und demselben Chip parallel arbeiten. Das erfordert Hochgeschwindigkeitsverbindungen auf dem Chip – und diese lassen sich mit Licht realisieren, das Daten schneller als Elektronen bewegen kann.

Das größte Hindernis dabei ist die Integration miniaturisierter Optik in die siliziumbasierte Elektronik. Trotz jahrelanger Forschungsarbeit auf dem Gebiet der Silizium-Photonik suchen Ingenieure immer noch nach einem Weg, mit Silizium effektiv Licht zu erzeugen. Das ist ein entscheidender Schritt für die optische Datenverarbeitung. Die besten Halbleiterlichtquellen, wie etwa Indiumphosphid, lassen sich zwar mit Silizium verbinden, wachsen aber nur schwer direkt auf Silizium, da die Gitterabstände beider Stoffe unterschiedlich sind. Es ist inzwischen gelungen, optische und elektronische Komponenten auf Indiumphosphid zu integrieren, allerdings nur auf kleinen Skalen.

"Ich bleibe vollkommen optimistisch, wenn ich an die Zukunft denke"
(Neal Bergano)

Um die photonische Integration auf die für eine kommerzielle Nutzung nötige Größe zu skalieren, wurde in Rochester im US-Bundesstaat New York im vergangenen Jahr das American Institute for Manufacturing Integrated Photonics ins Leben gerufen – ausgestattet mit 110 Millionen Dollar aus US-Bundesmitteln und 502 Millionen Dollar von der Industrie und anderen Geldgebern. Ziel des Instituts ist die Entwicklung effizienter Verfahren zur Herstellung integrierter photonischer Schaltungen für Hochgeschwindigkeitsanwendungen, insbesondere im Bereich optischer Kommunikation und optischer Computer.

Unabhängig davon präsentierte ein von Kanada finanziertes Team zuletzt eine photonische integrierte Schaltung aus 21 aktiven Elementen, die je nach Programmierung drei unterschiedliche logische Funktionen durchführen kann. Das ist ein wichtiger Schritt auf dem Weg zu ersten photonischen Mikroprozessoren, die vergleichbar sind mit den ersten programmierbaren elektronischen Chips, mit denen die Entwicklung der Mikrocomputer begann. "Im Vergleich zur heutigen Elektronik ist das zwar einfach", sagt der an der Entwicklung beteiligte Elektroingenieur Jianping Yao von der University of Ottawa. "Aber im Vergleich zu photonischen integrierten Schaltungen ist es ziemlich kompliziert."

Die weitere Entwicklung kann zu verschiedenen Anwendungen führen. Wenn der Chip für die Herstellung optimiert ist, könnte er beispielsweise das Signal eines 5G-Smartphones in der Basisstation in ein optisches Signal umwandeln, so Yao. Dieses könnte dann über Glasfaserkabel zu einer zentralen Einrichtung gelangen und dort wieder digitalisiert werden.

Die Suche nach schnelleren Chips ist – wie die anderen Internetprobleme auch – eine große Herausforderung. Doch Forscher wie Neal Bergano sehen viele Möglichkeiten zur Verbesserung des Internets. Seit 35 Jahren arbeitet er an der Weiterentwicklung der Glasfaseroptik. Sein Fazit: "Ich bleibe vollkommen optimistisch, wenn ich an die Zukunft denke."

42/2016

Dieser Artikel ist enthalten in Spektrum - Die Woche, 42/2016

Lesermeinung

Beitrag schreiben

Wir freuen uns über Ihre Beiträge zu unseren Artikeln und wünschen Ihnen viel Spaß beim Gedankenaustausch auf unseren Seiten! Bitte beachten Sie dabei unsere Kommentarrichtlinien.

Tragen Sie bitte nur Relevantes zum Thema des jeweiligen Artikels vor, und wahren Sie einen respektvollen Umgangston. Die Redaktion behält sich vor, Leserzuschriften nicht zu veröffentlichen und Ihre Kommentare redaktionell zu bearbeiten. Die Leserzuschriften können daher leider nicht immer sofort veröffentlicht werden. Bitte geben Sie einen Namen an und Ihren Zuschriften stets eine aussagekräftige Überschrift, damit bei Onlinediskussionen andere Teilnehmer sich leichter auf Ihre Beiträge beziehen können. Ausgewählte Lesermeinungen können ohne separate Rücksprache auch in unseren gedruckten und digitalen Magazinen veröffentlicht werden. Vielen Dank!

Partnervideos