Wir leben im Zeitalter der Information, und voller Stolz blicken wir auf die Erfindung des Computers. Noch vor einigen Jahren waren wir der Überzeugung, dass er besser funktionieren kann als unser Gehirn: genauer, zuverlässiger und schneller. Inzwischen wurden wir eines Besseren belehrt, denn formale Logik, Algorithmen und digitale Elektronik reichen nicht aus, um unsere komplexen Denkvorgänge zu übernehmen. Dennoch werden die künstlichen Informationssysteme immer besser. Inzwischen bahnt sich eine neue Entwicklung an: vom fremdorganisierten zum selbstorganisierten Computer, der unserem Hirn zunehmend ähneln soll.

Klar gegliedert und zu einem angemessenen Preis stellt das Buch von Ulrich Ramacher und Christoph von der Malsburg die "Konstruktion künstlicher Gehirne" dar: von der Modellierung der Nervenzellen (Neuronen) und deren Kontaktstellen (Synapsen) über die Vernetzung der Neuronen bis hin zur mikroelektronischen Realisierung. Das Buch richtet sich an Biologen, Informatiker, Biomathematiker, Mediziner und alle, die Interesse an Neuroinformatik und Mustererkennung haben und über Grundkenntnisse in Informatik und Mathematik verfügen.

Einer Wissenschaftlergruppe um Ramacher gelang es dabei bereits, ein sich selbst organisierendes "Gehirn" zu entwickeln, das dem Sehen dient. So schafft es dieses System, recht anspruchsvolle Aufgaben der Mustererkennung zu erledigen. Unabhängig von der Beleuchtung oder der Entfernung kann es Objekte wahrnehmen und richtig einordnen. Gesichter werden selbst dann identifiziert, wenn sich deren Mimik geändert hat.

Das System basiert auf einem einzigen Neuronen- und Synapsenmodell, das die natürlichen Nervenzellen und deren Verbindungsstellen simuliert. Eine so genannte Exzitation stimuliert die künstliche Nervenzelle und zeigt an, dass ein Zusammenhang – beispielsweise zwischen einem Merkmal und einem Objekt – besteht. Eine Inhibition bewirkt das Gegenteil. In der Synapsengleichung wird die Exzitation durch ein positives Vorzeichen wiedergegeben, die Exzitation durch ein negatives. Dieses Modell ist einfach genug, um simulierbar zu bleiben, und komplex genug, um nicht-triviale Erkennungsaufgaben zu übernehmen.

In den Nervenzellnetzen des künstlichen Gehirns stehen die Neuronen in enger Verbindung zueinander und geben dort Informationen durch elektrische Impulse weiter. Verschiedene Einheiten – Module – erledigen bestimmte Aufgaben. Es gibt Module, die Merkmale erkennen. Synchrones elektrisches Pulsieren dieser Nervenzellgruppen zeigt an, dass ein Objekt zu einem bestimmten Zeitpunkt ein bestimmtes Merkmal hat. Andere Module berechnen, ob eine Objektkomponente (beispielsweise eine Augenbraue) ein bestimmtes Merkmal (zum Beispiel schwarz) hat. Wiederum andere Einheiten ermitteln, ob eine Objektkomponente (etwa "rote Nase") zu einem Objekt ("Gesicht von Herrn Müller") gehört.

Wie die Leistungsfähigkeit des natürlichen beruht auch die des künstlichen Nervenzellnetzwerkes auf dynamischen Synapsen. In Abhängigkeit von einkommenden Impulsen und Potenzialen umgebender Nervenzellen verändern sich diese Synapsen rasch und leiten die Impulse stärker oder schwächer weiter. Angesichts der hohen Plastizität der synaptischen Ausgestaltung sind die Systeme mit dynamischen Synapsen denen mit konstanten deutlich überlegen – auch in der Mustererkennung. So sind Netze mit konstanten Synapsen zur Mustererkennung nicht in der Lage, wenn das Ergebnis durch Anfangswerte oder Signalrauschen beeinflusst wird. Erst dynamische Synapsen machen dies möglich.

Das Buch zeigt, dass die Informatik deutliche Fortschritte gemacht hat: Waren zu Anfang mathematische Logik und formale Systeme von grundlegender Bedeutung, orientieren sich mittlerweile die Informatiker an dynamischen Systemen, die mit probabilistischen Methoden, Statistik und nichtlinearen Differenzialgleichungen beschreibbar sind. Damit kommen die Informatiker der natürlichen Informationsverabeitung, die dynamisch und flexibel ist, ein großes Stück näher.