Direkt zum Inhalt

News: Ein neuronales Netz mit spitzen Ohren

Trotz aller Bemühungen der Ingenieure und Beteuerungen der Marketingabteilungen wollen Computer einfach nicht richtig hören. Auch der Einsatz neuronaler Netze, die lernen und sich selbst programmieren, brachte nur bescheidene Erfolge. Doch nun melden amerikanische Wissenschaftler, sie hätten ein System entwickelt, das nicht nur allen anderen künstlichen Systemen überlegen ist, sondern sogar besser als der Mensch hören kann. Diesen Erfolg erzielten sie, indem sie die einzelnen 'Neuronen' des neuronalen Netzes mit variablen Zeittakten arbeiten ließen.
Wenn es um die Verarbeitung komplexer Informationsmuster geht, gehören neuronale Netze zu den geeignetsten künstlichen Systemen. Statt wie ein herkömmlicher Computer alle Aufgaben nach festgelegten Regeln mit einem einzigen Prozessor zu bearbeiten, sind neuronale Netze aus mehreren oder vielen Einheiten – den sogenannten Neuronen – aufgebaut, die miteinander verbunden sind. Während einer Trainingsphase lernen sie durch "Versuch und Irrtum", was von ihnen verlangt wird. Dabei programmieren sie sich gewissermaßen selbst.

"Obwohl Mathematiker gezeigt haben, daß die Netze bei bestimmten Arten von Berechnungen (vor allem Mustererkennung) sehr effektiv sein sollten, war es für künstliche neuronale Netzte schwierig, auch nur in die Nähe der Leistung biologischer Systeme zu kommen", sagt Jim-Shih Liaw von der University of Southern California. "Selbst große Netze mit mehr als 1 000 Neuronen und 10 Verbindungen sahen blaß aus im Vergleich mit den theoretischen Möglichkeiten. Die Defizite wurden häufig dem Umstand zugeschrieben, daß auch Netze mit 1 000 Neuronen winzig sind, wenn man dagegen die Millionen oder Milliarden Neuronen in biologischen Systemen betrachtet."

Daß der wahre Grund jedoch vielleicht ganz woanders liegt, hat Liaw nun zusammen mit seinem Kollegen Theodore W. Berger demonstriert. Die beiden haben ein neuronales Netz entworfen, das aus nur elf Neuronen und 30 Verbindungen besteht – und trotzdem besser Sprache erkennt als ein Mensch!

Die bisherigen neuronalen Netze sind zu stark vereinfachte Kopien ihrer biologischen Vorbilder, meint Berger. "Neuronen verarbeiten zeitlich strukturierte Informationen. Sie kommunizieren miteinander in einer 'Sprache', welche die Bedeutung im zeitlichen Ablauf des Signals verpackt. Ein Paar von Pulsen, die durch ein bestimmtes Zeitintervall getrennt sind, regt ein bestimmtes Neuron an, während Paare von Pulsen mit kürzeren oder längeren Intervallen es hemmen." In den herkömmlichen neuronalen Computernetzen geben die Neuronen dagegen nur diskrete Signale von verschiedener Intensität weiter, alle im Takt mit festen Zykluszeiten. "In lebenden Zellen ist die zeitliche Dimension – sowohl im anregenden Signal wie in der Antwort – ebenso wichtig wie die Intensität", sagt Berger.

Dementsprechend gestalteten er und Liaw ein Netz mit mehr Freiheit und Individualität der Neuronen. Sie entwarfen Computerchip-Neuronen, die Signale ähnlich weitergeben wie Hirnzellen im Hippocampus, wo das assoziative Lernen beim Menschen stattfindet. Diese Chips ordneten sie zu einem kleinen Verband, welcher der Standardarchitektur neuronaler Netze folgt. Obwohl alle Chips im wesentlichen gleich waren, hatte jeder einzelne gewisse individuelle Charakteristika, die zufällig aufgeteilt wurden. Mit einem speziellen Verfahren trainierten die Forscher ihr System, so daß es die vorläufigen Eigenschaften der Verbindungen an seine Aufgabe anpassen konnte.

In Testläufen mit jeweils nur wenigen zu erkennenden Wörtern schlug das Spracherkennungs-System von Berger und Liaw nicht nur alle anderen sprecherunabhängigen Computersysteme, sondern auch die besten menschlichen Ohren. Selbst wenn die Ziellaute von einem weißen Rauschen mit 1000fach höherer Amplitude überlagert waren, konnte es noch die Worte unterscheiden. Menschliche Testhörer scheiterten schon bei viel geringeren Störungen. Das Problem, eine bestimmte Stimme vor einem Hintergrundgemurmel zu verstehen, ist besonders schwierig. Normale Computersysteme geben auf, sobald zehn Prozent der Zielstimme vom Tumult maskiert sind, bei nur wenig mehr müssen auch Menschen auf gut Glück raten, was da gerade gesagt wurde. Dem neuen System reichten in Tests hingegen sechzig Prozent des Zielsignals, selbst wenn der Umgebungslärm 560mal so heftig war.

Die Wissenschaftler haben ihr System zum Patent angemeldet. Es soll in Zukunft Gehörlosen ebenso zugute kommen wie Fluglotsen oder anderen Menschen, die in lauter Umgebung ihren Gesprächspartner gut verstehen müssen. Und schließlich könnte es dafür sorgen, daß der Computer endlich einmal aufs Wort gehorcht.

Siehe auch

Lesermeinung

Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.

Partnerinhalte