Direkt zum Inhalt
Login erforderlich
Dieser Artikel ist Abonnenten mit Zugriffsrechten für diese Ausgabe frei zugänglich.

Neuroinformatik: Die neuronalen Netze werden erwachsen

Die aktuellen lernfähigen Computer sind dank ihrer vielschichtigen Struktur zu ungeahnten Leistungen fähig. Sie verstehen Sprache, erkennen Gesichter (oder Katzen) und verbessern ihre kognitiven Leistungen wie wir Menschen – indem sie träumen!
Neuronales Netz

Ein Computer, der Sprache verstehen oder Gesichter erkennen kann: Seit den Zeiten der Elektronenröhre und der Lochkarten verfolgt die Informatik das Ziel, ihre Geräte mit menschlichen Wahrnehmungsfähigkeiten auszustatten. Jahrzehntelang blieb das eher ein Traum, Erfolge gab es nur wenige. Heute jedoch können wir uns in ganz gewöhnlicher Sprache mit unserem Mobiltelefon über das Wetter oder den Ausgang des letzten Fußballspiels unterhalten. Und Facebook und Google+ erkennen Gesichter so gut, dass sie uns zeigen, auf welchen Fotos unsere Freunde zu sehen sind.

Welcher Errungenschaft haben wir diesen Durchbruch zu verdanken? Eine Vielzahl von algorithmischen und statistischen Methoden hat dazu beigetragen, ebenso wie leistungsfähigere Hardware. Aber ohne ein Konzept namens Deep Learning wäre diese rasante Entwicklung nicht möglich gewesen.

Ein lernender Computer ist in aller Regel als "neuronales Netz" organisiert, das heißt, er besteht aus lauter Elementen, die den Neuronen eines echten Gehirns nachempfunden sind. Bei der visuellen Objekterkennung etwa sind diese Neurone so in Schichten angeordnet wie im Sehsystem des Menschen: Die optischen Signale treffen in der Eingabeschicht der Netzhaut ein und gelangen über eine Abfolge weiterer Schichten bis zur letzten, die Bildelemente wie einen Strich oder ein Gesicht erkennt. Ein neuronales Netz, das zum "tiefen Lernen" fähig ist, verfügt über eine große Zahl solcher Verarbeitungsschichten.

Diese "tiefen Methoden" stecken hinter Spracherkennungssystemen wie Siri von Apple oder Voice Search von Google ebenso wie hinter dem maschinellen Sehen, das der Gesichtserkennung zu Grunde liegt. Zudem beflügeln sie das Data Mining: die Untersuchung großer Datensätze auf bedeutungsvolle Muster.

Wie funktionieren diese tiefen Programme? Sonderbarerweise weiß das keiner ganz genau. ...

Kennen Sie schon …

Spektrum Kompakt – Verhaltensbiologie – Tierisch sozial

Vor allem in Haustieren sehen wir Persönlichkeitsmerkmale wie Mut und Neugier oder Verschlossenheit. Doch nicht nur Hund und Katze haben eine Persönlichkeit, auch im Aquarium und im Ozean verhält man sich gemäß Charakter. Denn eine Persönlichkeit zu besitzen ist keine menschliche Eigenheit.

Spektrum - Die Woche – Sind wir viele?

Mutter, Ehefrau, Nachbarin, Kollegin, beste Freundin: Jeden Tag schlüpfen Menschen in etliche Rollen. Doch bedeutet das auch, dass sie über mehrere Identitäten verfügen? Außerdem schauen wir nach Nepal, wo die Mikrobiologin Deena Shrestha versucht, das Elefantenmensch-Syndrom auszurotten.

Spektrum - Die Woche – Eine zweite Zeitdimension

Forscher haben mit einem Quantenprozessor eine neue Materiephase erzeugt, die eine zusätzliche Zeitdimension besitzt. Womöglich werden Qubits damit weniger fehleranfällig.

Schreiben Sie uns!

1 Beitrag anzeigen

Wir freuen uns über Ihre Beiträge zu unseren Artikeln und wünschen Ihnen viel Spaß beim Gedankenaustausch auf unseren Seiten! Bitte beachten Sie dabei unsere Kommentarrichtlinien.

Tragen Sie bitte nur Relevantes zum Thema des jeweiligen Artikels vor, und wahren Sie einen respektvollen Umgangston. Die Redaktion behält sich vor, Zuschriften nicht zu veröffentlichen und Ihre Kommentare redaktionell zu bearbeiten. Die Zuschriften können daher leider nicht immer sofort veröffentlicht werden. Bitte geben Sie einen Namen an und Ihren Zuschriften stets eine aussagekräftige Überschrift, damit bei Onlinediskussionen andere Teilnehmende sich leichter auf Ihre Beiträge beziehen können. Ausgewählte Zuschriften können ohne separate Rücksprache auch in unseren gedruckten und digitalen Magazinen veröffentlicht werden. Vielen Dank!

  • Quellen

Hinton, G. E. et al.: The Wake-Sleep Algorithm for Unsupervised Neural Networks. In: Science 268, S. 1158 - 1161, 1995

Le, Q. V. et al.: Building High-Level Features Using Large-Scale Unsupervised Learning. 2012

Rumelhart, D. E. et al.: Learning Representations by Back-propagating Errors. In: Nature 323, S. 533 - 536, 1986

Taigman, Y. et al.: DeepFace: Closing the Gap to Human-Level Performance in Face Verification. 2014

Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.