Direkt zum Inhalt

Lexikon der Physik: Neuronale Netze

Neuronale Netze

Christian W. Eurich, Bremen

Neuronale Netze sind dynamische Systeme, die aus einfach aufgebauten Einheiten, den Neuronen, bestehen, die über ein System von gerichteten Verbindungen miteinander wechselwirken. Sie wurden ursprünglich zur mehr oder weniger vereinfachten und idealisierten Modellierung biologischer Neuronenverbände entwickelt. Man spricht deshalb zur Unterscheidung von den natürlichen Systemen auch von künstlichen neuronalen Netzen, englisch Artificial Neural Networks.

Seit dem Erscheinen des Artikels ›A logical calculus of the ideas immanent in nervous activity‹ von Warren McCulloch und Walter Pitts im Jahr 1943 hat sich das Gebiet der neuronalen Netze in verschiedene Richtungen entwickelt, die z.T. gänzlich außerhalb der ursprünglich intendierten neurobiologischen Anwendungsfelder liegen (siehe Abb. 1 ). Einer dieser Zweige beschäftigt sich mit den mathematischen Aspekten; als Themen seien die Approximation von Funktionen durch neuronale Netze und zeitliche und räumliche Selbstorganisation (Synchronisation neuronaler Aktivität, Musterbildung in räumlich strukturierten Netzen) genannt. Ein zweites Forschungsgebiet verwendet neuronale Netze zur Modellierung neurobiologischer, psychologischer und linguistischer Phänomene. Zu diesen gehören beispielsweise Eigenschaften sensorischer und motorischer Verarbeitung (visuelles Auflösungsvermögen, Koordination von Bewegungen usw.), aber auch kognitive Leistungen wie Aufmerksamkeit und Gedächtnis. Die Flexibilität neuronaler Netzwerke durch die Anpassung der Synapsenstärken hat zum dritten zu Anwendungen in Technik und Wirtschaft geführt; Beispiele hierfür sind die Wiedererkennung verrauschter Muster in der Bildverarbeitung, die Vorhersage von Zeitreihen und die Steuerung autonomer Roboter. Obwohl neuronale Netze zumeist auf herkömmlichen Computern implementiert werden, ist in den letzten Jahren zum vierten spezielle auf Parallelverarbeitung basierende Hardware entwickelt worden, die eine schnelle Simulation auch großer Netze ermöglicht.

Die Neuronen künstlicher neuronaler Netze besitzen wesentliche Eigenschaften biologischer Nervenzellen, und ihre Wechselwirkung orientiert sich an der elektrischen und chemischen Signalübertragung im Gehirn. Man unterscheidet zwei Arten der Dynamik, die auf unterschiedlichen Zeitskalen ablaufen: schnelle neuronale Vorgänge (Aufnahme, Verarbeitung und Weitergabe von Signalen) auf der einen Seite und eine langsame Dynamik der Kopplungsstärken (Synapsenstärken) zwischen den Neuronen auf der anderen Seite. Durch die Veränderung der Kopplungsstärken kann das Verhalten des Netzwerks interaktiv oder selbstorganisiert verändert und an gewünschte Aufgaben angepaßt werden; man spricht in diesem Fall von Lernen. Neuronale Netze unterscheiden sich hinsichtlich des verwendeten Neuronenmodells, der Netzwerkarchitektur und der Natur der Lernregel zur Veränderung der Synapsenstärken.

Nach einem kurzen Überblick über neurobiologische Grundlagen werden im folgenden einige Standardmodelle, ihre mathematischen Eigenschaften und Anwendungen vorgestellt.

1 Neurobiologische Grundlagen

Biologische Neuronen dienen der Aufnahme, Verarbeitung und Weiterleitung von Signalen (siehe Abb. 2 ). Diese Signale haben die Form raumzeitlicher Spannungsänderungen (Potentialänderungen) über der Zellmembran. Im Ruhezustand ist das Zellinnere negativ gegenüber dem Außenraum und die Spannung beträgt ca. -70 mV (Ruhepotential).

Die Dendriten stellen die Eingangsfasern des Neurons dar. Sie sind besetzt mit bis zu 105 Kontaktstellen, den Synapsen, über die das Neuron Signale von anderen Nenrvenzellen empfängt. Die Signale breiten sich im Dendritenbaum und bis zum Zellkörper (Soma) aus. Überschreitet durch Depolarisation der Membran die Spannung am Soma einen Schwellenwert von ca. -40 mV, so wird am Ansatzpunkt der Nervenfaser (Axon) eine pulsförmige solitäre elektrische Welle (Aktionspotential, Spike) ausgelöst, die entlang der Nervenfaser zu den axonalen Endigungen läuft: das Neuron feuert. Zur Erhöhung der Signalgeschwindigkeit sind manche Axone von einer isolierenden Proteinschicht, der Myelinhülle (Myelinscheide), umgeben. An den axonalen Endigungen schließlich wird das elektrische Signal über Synapsen an nachgeschaltete Neuronen oder Muskelfasern übertragen.

Die synaptische Signalübertragung erfolgt entweder durch direkte elektrische Kopplung oder auf chemischem Wege. Bei der chemischen Synapse bewirkt ein ankommendes Aktionspotential in der vorgeschalteten Zelle die Ausschüttung von Transmitterstoffen, die zur nachgeschalteten Zelle diffundieren und dort aufgenommen werden. Als Folge davon kommt es in der nachgeschalteten Zelle zu einer Änderung der Membranspannung, zu einem postsynaptischen Potential. Chemische Synapsen können erregend (exzitatorisch) oder hemmend (inhibitorisch) wirken, je nach Vorzeichen des postsynaptischen Potentials.

Wird eine Nervenzelle erregt, so antwortet sie i.a. mit einer Serie von Aktionspotentialen, einem Spiketrain; Abb. 3 zeigt ein Beispiel. Der Abstand zweier Spikes kann dabei nicht beliebig klein sein, da die Zelle nach der Erzeugung eines Spikes für eine kurze Zeit, der Refraktärzeit, in eine Regenerationsphase geht.

2 Neuronenmodelle

Für das Studium neuronaler Netze wird unterschiedlich stark von den komplexen Eigenschaften biologischer Neuronen abstrahiert. In Netzen mit diskreter Zeitstruktur verwendet man das in Abb. 4 dargestellte, stark vereinfachte Neuronenmodell. Das Neuron bekommt Eingaben

, die entweder von anderen Neuronen stammen oder äußere Eingaben in das Netzwerk darstellen. Die Eingaben werden durch Multiplikation mit den Synapsenstärken

gewichtet. Die Aktivierung h des Neurons beträgt



Für

wirkt die Eingabe

exzitatorisch, für

inhibitorisch (

). Die Ausgabe

des Neurons wird durch Anwendung einer Ausgabefunktion

berechnet:

.

Im einfachsten Fall, dem sog. McCulloch-Pitts-Neuron, sind die Eingaben und die Ausgabe binär (

) und werden als ›Feuern‹ bzw. ›Nicht-Feuern‹ interpretiert. Für McCulloch-Pitts-Neuronen stellt

die Heaviside-Funktion

dar,



wobei

der Schwellenwert für das Feuern des Neurons ist ( Abb. 5a ).

Nehmen die

kontinuierliche Werte an, spricht man von einem Analogneuron, und die Ausgabe

wird als mittlere Anzahl von Spikes interpretiert, die das Neuron pro Zeiteinheit erzeugt (Feuerrate). Für Analogneuronen verwendet man eine sigmoide Ausgabefunktion, d.h. eine stetige und monotone Funktion, die von Null auf einen Maximalwert

ansteigt. Als Beispiel sei die Fermi-Funktion



genannt, wobei

die Aktivierung angibt, bei der das Neuron mit der Rate

feuert (Abb. 5b).

Neben den bisherigen deterministischen Modellen kann man auch Neuronen mit stochastischer Ausgabefunktion betrachten. Bei gegebener Aktivierung h wird dabei die Wahrscheinlichkeit berechnet, mit der ein binäres Neuron die Ausgabe

erzeugt.

Das gebräuchlichste Neuronenmodell für Netzwerke mit zeitkontinuierlicher Dynamik ist das Integrate-and-Fire-Neuron. Die dynamische Variable ist das Membranpotential

, wobei das Ruhepotential zumeist auf Null gesetzt wird. Abb. 6 zeigt das unterhalb der Feuerschwelle

gültige Ersatzschaltbild. R ist der Widerstand und C die Kapazität der Zellmembran; die Stromquelle

modelliert die Eingabe des Neurons auf Grund der Spikeaktivitäten der anderen Neuronen im Netzwerk. Für

gilt die lineare Gleichung



mit einer Anfangsbedingung

. Erreicht das Membranpotential zu einer Zeit

die Feuerschwelle,

, so gibt das Neuron einen Spike ab und das Membranpotential wird auf Null gesetzt:

. Refraktärzeiten können durch eine zeitabhängige Feuerschwelle,

, berücksichtigt werden. Für die auftretenden Ströme

wählt man gemäß dem Pulscharakter der Spikes die Delta-Funktion, oder man berücksichtigt postsynaptische Potentiale in Form einer Alpha-Funktion:



mit

für Exzitation und

für Inhibition.

Neben den beschriebenen gibt es weitere, insbesondere komplexere Neuronenmodelle, die die räumliche Struktur des in Abb. 2 dargestellten Neurons berücksichtigen. Zur Simulation größerer Netzwerke verwendet man wegen des geringeren Rechenaufwandes jedoch zumeist einfachere Modelle.

3 Das Hopfield-Modell

John Hopfield schlug 1982 ein neuronales Netz vor, das einen Assoziativspeicher darstellt: Dem Netz können durch Wahl der Synapsenstärken Muster eingeprägt werden, und bei späterer Präsentation eines verrauschten oder unvollständigen Musters ist es in der Lage, das ursprüngliche Muster zu reproduzieren. Hopfield-Netze werden deshalb in der Bildverarbeitung eingesetzt. Das Hopfield-Modell hat außerdem Bedeutung erlangt auf Grund seiner exakten Lösbarkeit und seiner formalen Analogie zum Ising-Modell in der Physik der Spingläser.

Das Netz besteht aus N McCulloch-Pitts-Neuronen, wobei als Ausgabewerte anstatt 0 und 1 üblicherweise -1 (nicht aktiv) und 1 (aktiv) gewählt werden. Alle Neuronen sind miteinander verbunden. Bekommt Neuron i (

) die Eingaben

(

), so berechnet sich seine Ausgabe zur Zeit t + 1 gemäß



dabei ist

die Signum-Funktion (

für

,

für

), und

stellt die Synapsenstärke dar, mit der Neuron j auf Neuron i projiziert. Die Dynamik des Netzes ist asynchron, d.h. in jedem Zeitschritt erfolgt die zufällige Auswahl eines Neurons i und die Berechnung seiner Aktivität

.

Für Netze mit symmetrischen Kopplungen,

, existiert eine Energiefunktion



die unter der Dynamik (2) monoton fallend ist. Damit läuft das Netzwerk für beliebige Anfangsbedingungen in eines der lokalen Minima der Energiefunktion; ein so erreichter Zustand

ist stabil. Wählt man eine graphische Darstellung durch Farbkodierung (Aktivität 1 schwarz, Aktivität -1 weiß ) und eine rechteckige Anordnung der Neuronen, so entspricht jedem Minimum ein stabiles Muster, das bei Wahl der Anfangsbedingungen in seinem Einzugsbereich angelaufen wird ( Abb. 7 ).

Durch geeignete Wahl der Synapsenstärken

ist es möglich, vom Benutzer gewünschte Muster im Netzwerk zu speichern. Sei das m-te Muster gegeben durch

mit

(

); dann existieren für



an den entsprechenden Stellen Minima der Energiefunktion.

In einem Hopfield-Netz lassen sich nicht beliebig viele Muster speichern. Rechnungen zeigen, daß im Mittel bei

ein Phasenübergang stattfindet, jenseits dessen keine Stabilität der Muster mehr erwartet werden kann. Die besten Speichereigenschaften hat das Hopfield-Netz für voneinander unabhängige Zufallsmuster, was bei realen Bildern im allgemeinen nicht der Fall ist.

4 Der Backpropagation-Algorithmus

Während bei Hopfield-Netzen die Synapsenstärken vorgegeben werden, stellt der Backpropagation-Algorithmus ein überwachtes Lernverfahren dar: dem Netz werden M Eingabemuster präsentiert, die jeweils mit einem Ausgabemuster assoziiert werden sollen. Der Fehler, den das Netzwerk dabei macht, wird durch Änderung der Synapsenstärken gemäß einem Gradientenverfahren minimiert. Backpropagation-Netze haben zahlreiche Anwendungen gefunden. Am bekanntesten ist wohl das von Terrence J. Sejnowski und Charles R. Rosenberg entwickelte NETtalk, dessen Eingabe aus englischem Text besteht. Der Text wird durch das Netzwerk in Ketten von Phonemen umgewandelt, die von einem Sprachsynthesizer wiedergegeben werden können.

Backpropagation-Netze (auch Multilayer-Perceptrons genannt) bestehen aus Schichten von Analogneuronen, wobei jede Schicht mit zufällig initialisierten Kopplungsstärken vollständig an die nachfolgende gekoppelt ist, jedoch keine Verbindungen zu vorherigen Schichten oder zwischen den Neuronen einer Schicht bestehen ( Abb. 8 ). Es handelt sich um sog. vorwärtsgerichtete Netze, im Gegensatz zu rückgekoppelten Netzen wie beispielsweise den Hopfield-Netzen. An die Eingabeschicht werden nacheinander M Eingabemuster in Form von N-dimensionalen reellen Vektoren

angelegt. Die Eingabeneuronen haben keine Dynamik, sondern leiten ihre Eingaben ohne Änderung weiter. Die Aktivität wird wie in Abschnitt 3 beschrieben über die verborgenen Schichten bis zu den K Neuronen der Ausgabeschicht propagiert, die die Ausgaben

erzeugen. Die gewünschten Ausgabemuster seien

(jeweils

). Nach Präsentation aller Muster wird der Fehler des Netzwerks in Form der Summe aller quadratischen Abweichungen zwischen

und

berechnet:





ist eine Funktion sämtlicher Synapsenstärken im Netzwerk, symbolisiert durch den Index w.

Die Lernregel, d.h die Änderung der Synapsenstärken jeweils nach Präsentation der M Muster, hat die Form eines Gradientenabstiegs. Mit

ist



wobei

als Lernrate bezeichnet wird und

die Stärke einer beliebigen Synapse zwischen Neuron j und Neuron i im Netzwerk darstellt.

Im folgenden sei die Ausgabefunktion die Fermi-Funktion (1) mit

, für die die Funktionalgleichung

gilt. Dann läßt sich für die rechte Seite von (3) folgende Rechenvorschrift angeben: Für jedes angelegte Muster

und jedes Ausgabeneuron k (

) wird für jeden Verbindungsweg

vom Ausgabeneuron zurück zur entsprechenden Synapse ein Produkt

von Faktoren berechnet, und es ist





ist die Ausgabe des Neurons i bei Präsentation des Musters m. Die Produkte

setzen sich wie folgt zusammen: i) Für jedes Neuron n entlang des Wegs ergibt sich ein Faktor

, wobei

die Ausgabe dieses Neurons ist. ii) Für jede Synapse mit der Stärke

entlang des Wegs ergibt sich ein Faktor

.

Als Beispiel diene das Netzwerk in Abb. 8 . Werden die Kopplungsstärken von der verborgenen Schicht zur Ausgabeschicht mit

und die von der Eingabeschicht zur verborgenen Schicht mit

bezeichnet, so gilt für

:



Zum beschriebenen Backpropagation-Algorithmus gibt es zahlreiche Erweiterungen, die insbesondere auf die Verbesserung der Konvergenzeigenschaften des Gradientenabstiegs und die Anwendbarkeit auf rekursive Netze zielen.

5 Kohonen-Netze

Teuvo Kohonen führte 1982 ein neuronales Netz ein, dessen Synapsenstärken sich organisieren, ohne daß eine Fehlerfunktion ausgewertet werden muß; das Kohonen-Netz verwendet ein unüberwachtes Lernverfahren. Die Eingaben in das Netz stammen aus einem metrischen Raum, beispielsweise einem Quadrat. Auch das Netzwerk hat eine räumliche Struktur: in vielen Fällen bilden die Neuronen eine lineare Kette oder ein zweidimensionales Gitter. Während des Lernvorgangs adaptieren die Synapsenstärken derart, daß die Neuronen den Eingaberaum nachbarschaftserhaltend repräsentieren. Eine Anwendung von Kohonen-Netzen besteht in der Modellierung von biologischen selbstorganisierenden Merkmalskarten, die sich beispielsweise in der menschlichen Großhirnrinde finden: dort existieren Areale mit einer topographischen Repräsentation der visuellen Umwelt oder der Hautoberfläche.

Die Eingangssignale in das Netz sind Vektoren

eines k-dimensionalen Raums

. Das Netzwerk

habe eine n-dimensionale Topologie, und jedes Neuron ist durch einen Ort

gekennzeichnet. Die Synapsenstärken zwischen dem Eingangssignal und dem Neuron

werden mit

bezeichnet. Für die neuronale Dynamik kann die Kopplung zwischen den Neuronen vernachlässigt werden. Somit berechnet sich im Falle von Analogneuronen deren Ausgabe als



wobei f die Fermi-Funktion (1) darstellt. Zu Beginn des Lernvorgangs werden die

zufällig initialisiert. Nach jeder Eingabe

, die aus einer beliebigen Verteilung gezogen ist, wird dasjenige Neuron

bestimmt, dessen Aktivität maximal ist. Anstatt einer Berechnung der

nach (4) verwendet man dazu die einfache Bedingung

Die Lernregel besteht darin, daß für jedes Neuron

der Gewichtsvektor gemäß



verändert wird.

ist die Lernrate, und

ist eine Funktion, die basierend auf dem Abstand der Neuronen

und

in

die Stärke des Lernschritts bestimmt. Im allgemeinen wählt man für

eine Gaußkurve, deren Breite im Verlauf des Lernvorgangs abnimmt, um das Netzwerk schließlich ›einzufrieren‹. Anschaulich besagt (6), daß alle Gewichtsvektoren

in

in Richtung des Eingangssignals

gezogen werden, wobei die jeweilige Strecke sich aus der Metrik des Raums

der Neuronen bestimmt.

Gleichung (5) definiert eine von den Synapsenstärken abhängige Abbildung

von

in die Menge

der Neuronen (siehe Abb. 9 ). Der Bildpunkt

ist gerade das Neuron mit der stärksten Antwort auf den Reiz v.

wird als neuronale Karte bezeichnet. Während des Lernvorgangs wird diese neuronale Karte verändert.

Für die Entwicklung der Synapsenstärken und die sich daraus ergebende Repräsentation des Eingangsraums

gibt es eine anschauliche Darstellung. Dabei werden für einen beliebigen Zeitpunkt die

in den Raum

eingezeichnet, und die Verbindung zwischen den Neuronen im Raum

wird durch Verbindungslinien zwischen den

symbolisiert. Abb. 10 zeigt ein schematisches Beispiel für ein Quadrat

und eine Kette

von Neuronen. Die Synapsenstärken sind zufällig initialisiert (a). Die Eingangssignale liegen gleichverteilt in

, und unter der Lerndynamik ordnen und entfalten sie sich (b-d), was zu einer nachbarschaftserhaltenden neuronalen Karte

führt. Auf Grund der möglichst guten Repräsentation des Quadrats durch die Neuronenkette bildet sich eine Kurve, die einer Iterierten einer Peano-Kurve entspricht.

Kohonen-Karten haben weitere interessante Eigenschaften. Liegen beispielsweise die Eingangssignale nicht gleichverteilt in

, so ist in Gebieten mit höherer Signaldichte auch die Dichte der Synapsenstärken

größer, so daß das Gebiet von überdurchschnittlich vielen Neuronen repräsentiert wird.

6 Synchronisation in Netzen aus spikenden Neuronen

Netzwerke mit zeitkontinuierlicher Dynamik werden häufig zur Modellierung neurobiologischer Systeme herangezogen. Die Wahl eines einfachen Neuronenmodells wie dem Integrate-and-Fire-Neuron erlaubt dabei teilweise einen analytischen Zugang. Ein aktuelles Forschungsgebiet ist die Untersuchung der Synchronisierung der Feueraktivitäten von Populationen gekoppelter Neuronen. Der Grund für das Interesse an diesem Gebiet liegt in der Vermutung, daß im Gehirn Synchronisation im Zusammenhang mit Gestaltwahrnehmung und verhaltensrelevanter Objekterkennung auftritt.

Renato E. Mirollo und Steven H. Strogatz studierten 1991 die Dynamik von Netzwerken vollständig exzitatorisch miteinander gekoppelter spikender Modellneuronen, die einen konstanten Eingabestrom bekommen. Sie zeigten, daß solche Netzwerke unter der neuronalen Dynamik für fast alle Anfangsbedingungen in einen Zustand evolvieren, in dem die Neuronen synchron mit der Phasenlage Null feuern. Erweiterungen dieser Untersuchung betreffen die Berücksichtigung von Signallaufzeiten zwischen den Neuronen, die in realen Systemen stets auftreten, und die Auswirkungen von Inhibiton und Exzitation. Das wesentliche Ergebnis ist, daß bei Vorhandensein von Zeitverzögerungen inhibitorische Kopplungen zur Bildung stabiler Cluster führen, deren Neuronen jeweils synchron feuern. Bei exzitatorischer Kopplung dagegen sind die sich ausbildenden Cluster nicht stabil, sondern zerfallen nach einigen Feuerperioden wieder und bilden sich spontan neu mit wechselnder neuronaler Zusammensetzung.

7 Ausblick

Das Gebiet der neuronalen Netze mit seiner etwas über 50-jährigen Geschichte zeigt sich nach wie vor unvollendet. Dies betrifft sowohl die mathematischen Eigenschaften selbst einfacher Netzwerke als auch die Anwendungen in Naturwissenschaft, Technik und Wirtschaft. Die Zahl der kommerziellen Anwendungen und der Beispiele, in denen neuronale Netze herkömmlichen Methoden überlegen sind, ist zur Zeit noch recht gering. Ein Grund für die Vorsicht, die man beispielsweise beim Einsatz neuronaler Netze für Steuerungsaufgaben walten läßt, liegt darin, daß die Netzwerkdynamik in vielen Fällen komplex und deshalb nicht durchschaubar ist. Der große Vorteil von neuronalen Netzen liegt aber in ihrer Flexibilität und ihrer Fähigkeit, sich ohne technische Fertigkeiten von seiten des Benutzers während des Gebrauchs an die jeweiligen Aufgaben anzupassen.

Literatur:

M. A. Arbib (Hrsg.): The Handbook of Brain Theory and Neural Networks, Cambridge, MA: MIT Press, 1995;

J. Hertz, A. Krogh, R.G. Palmer: Introduction to the Theory of Neural Computation, Redwood City, CA: Addison-Wesley, 1991;

W. Maass, C.M. Bishop (Hrsg.): Pulsed Neural Networks, Cambridge, MA: MIT Press, 1999;

H. Ritter, T. Martinetz, K. Schulten: Neuronale Netze, Bonn: Addison-Wesley, 1991;

R. Rojas: Theorie der neuronalen Netze, Berlin: Springer-Verlag, 1993;

A. Zell: Simulation neuronaler Netze, München: Oldenbourg, 1994.



neuronale Netze 1: Teildisziplinen.



neuronale Netze 2: Schematische Darstellung eines biologischen Neurons.



neuronale Netze 3: Spiketrain eines Mittelhirnneurons eines Salamanders als Antwort auf ein schwarzes bewegtes Rechteck, das dem Tier präsentiert wird. Die Aktionspotentiale sind als Striche dargestellt. Skala: 500 ms. (Daten mit freundlicher Genehmigung von B. Lienstädt.)



neuronale Netze 4: Modellneuron für Netze mit zeitdiskreter Dynamik. f ist das Symbol für die Ausgabefunktion.



neuronale Netze 5: Ausgabefunktionen für Modellneuronen. a) Um den Schwellenwert

verschobene Heaviside-Funktion für McCulloch-Pitts-Neuronen. b) Fermi-Funktion für Analogneuronen mit maximaler Feuerrate

; für

feuert das Neuron mit der Rate

.



neuronale Netze 6: Ersatzschaltbild für das Integrate-and-Fire-Neuron unterhalb der Feuerschwelle.



neuronale Netze 7: Der Buchstabe ›T‹ als Aktivitätsmuster eines Hopfield-Netzwerks. Entspricht der intakte Buchstabe (oben) einem Minimum der Energiefunktion, so wird er rekonstruiert, falls das Netzwerk mit einem verrauschten (Mitte) oder unvollständigen (unten) Muster gestartet wird.



neuronale Netze 8: Ein dreischichtiges Netzwerk mit

Eingabeneuronen,

verborgenen Neuronen und

Ausgabeneuronen. Schwarze Punkte symbolisieren Synapsen. Der Pfeil gibt die Richtung des Signalflusses an.



neuronale Netze 9: Eine neuronale Karte

, die einen zweidimensionalen Eingangsraum auf eine eindimensionale Kette von Neuronen abbildet.



neuronale Netze 10: Abbildung zwischen einer Kette und einem Quadrat. a) zufällig gewählte Anfangszuordnung; b) Grobzuordnung nach 200 Markow-Schritten, c) nach 50 000 Markow-Schritten. d) Nach 100 000 Markow-Schritten ähnelt die erhaltene Zuordnung einer Peano-Kurve.

  • Die Autoren
Mitarbeiter Band I und II

Redaktion:

Silvia Barnert
Dr. Matthias Delbrück
Dr. Reinald Eis
Natalie Fischer
Walter Greulich (Schriftleiter)
Carsten Heinisch
Sonja Nagel
Dr. Gunnar Radons
MS (Optics) Lynn Schilling-Benz
Dr. Joachim Schüller

Mitarbeiter Band III

Redaktion:

Christine Weber
Ulrich Kilian

Autoren (A) und Berater (B):

In eckigen Klammern steht das Autorenkürzel, die Zahl in der runden Klammer ist die Fachgebietsnummer; eine Liste der Fachgebiete findet sich im Vorwort.

Katja Bammel, Berlin [KB2] (A) (13)
Prof. Dr. W. Bauhofer, Hamburg (B) (20, 22)
Sabine Baumann, Heidelberg [SB] (A) (26)
Dr. Günther Beikert, Viernheim [GB1] (A) (04, 10, 25)
Prof. Dr. Hans Berckhemer, Frankfurt [HB1] (A, B) (29)
Prof. Dr. Klaus Bethge, Frankfurt (B) (18)
Prof. Tamás S. Biró, Budapest [TB2] (A) (15)
Dr. Thomas Bührke, Leimen [TB] (A) (32)
Angela Burchard, Genf [AB] (A) (20, 22)
Dr. Matthias Delbrück, Dossenheim [MD] (A) (12, 24, 29)
Dr. Wolfgang Eisenberg, Leipzig [WE] (A) (15)
Dr. Frank Eisenhaber, Heidelberg [FE] (A) (27; Essay Biophysik)
Dr. Roger Erb, Kassel [RE1] (A) (33)
Dr. Angelika Fallert-Müller, Groß-Zimmern [AFM] (A) (16, 26)
Dr. Andreas Faulstich, Oberkochen [AF4] (A) (Essay Adaptive Optik)
Prof. Dr. Rudolf Feile, Darmstadt (B) (20, 22)
Stephan Fichtner, Dossenheim [SF] (A) (31)
Dr. Thomas Filk, Freiburg [TF3] (A) (10, 15)
Natalie Fischer, Dossenheim [NF] (A) (32)
Prof. Dr. Klaus Fredenhagen, Hamburg [KF2] (A) (Essay Algebraische Quantenfeldtheorie)
Thomas Fuhrmann, Heidelberg [TF1] (A) (14)
Christian Fulda, Heidelberg [CF] (A) (07)
Frank Gabler, Frankfurt [FG1] (A) (22; Essay Datenverarbeitungssysteme künftiger Hochenergie- und Schwerionen-Experimente)
Dr. Harald Genz, Darmstadt [HG1] (A) (18)
Michael Gerding, Kühlungsborn [MG2] (A) (13)
Andrea Greiner, Heidelberg [AG1] (A) (06)
Uwe Grigoleit, Göttingen [UG] (A) (13)
Prof. Dr. Michael Grodzicki, Salzburg [MG1] (A, B) (01, 16; Essay Dichtefunktionaltheorie)
Prof. Dr. Hellmut Haberland, Freiburg [HH4] (A) (Essay Clusterphysik)
Dr. Andreas Heilmann, Chemnitz [AH1] (A) (20, 21)
Carsten Heinisch, Kaiserslautern [CH] (A) (03)
Dr. Hermann Hinsch, Heidelberg [HH2] (A) (22)
Jens Hoerner, Hannover [JH] (A) (20)
Dr. Dieter Hoffmann, Berlin [DH2] (A, B) (02)
Renate Jerecic, Heidelberg [RJ] (A) (28)
Dr. Ulrich Kilian, Hamburg [UK] (A) (19)
Thomas Kluge, Mainz [TK] (A) (20)
Achim Knoll, Straßburg [AK1] (A) (20)
Andreas Kohlmann, Heidelberg [AK2] (A) (29)
Dr. Barbara Kopff, Heidelberg [BK2] (A) (26)
Dr. Bernd Krause, Karlsruhe [BK1] (A) (19)
Ralph Kühnle, Heidelberg [RK1] (A) (05)
Dr. Andreas Markwitz, Dresden [AM1] (A) (21)
Holger Mathiszik, Bensheim [HM3] (A) (29)
Mathias Mertens, Mainz [MM1] (A) (15)
Dr. Dirk Metzger, Mannheim [DM] (A) (07)
Dr. Rudi Michalak, Warwick, UK [RM1] (A) (23)
Helmut Milde, Dresden [HM1] (A) (09; Essay Akustik)
Guenter Milde, Dresden [GM1] (A) (12)
Maritha Milde, Dresden [MM2] (A) (12)
Dr. Christopher Monroe, Boulder, USA [CM] (A) (Essay Atom- und Ionenfallen)
Dr. Andreas Müller, Kiel [AM2] (A) (33; Essay Alltagsphysik)
Dr. Nikolaus Nestle, Regensburg [NN] (A) (05)
Dr. Thomas Otto, Genf [TO] (A) (06; Essay Analytische Mechanik)
Prof. Dr. Harry Paul, Berlin [HP] (A) (13)
Cand. Phys. Christof Pflumm, Karlsruhe [CP] (A) (06, 08)
Prof. Dr. Ulrich Platt, Heidelberg [UP] (A) (Essay Atmosphäre)
Dr. Oliver Probst, Monterrey, Mexico [OP] (A) (30)
Dr. Roland Andreas Puntigam, München [RAP] (A) (14; Essay Allgemeine Relativitätstheorie)
Dr. Gunnar Radons, Mannheim [GR1] (A) (01, 02, 32)
Prof. Dr. Günter Radons, Stuttgart [GR2] (A) (11)
Oliver Rattunde, Freiburg [OR2] (A) (16; Essay Clusterphysik)
Dr. Karl-Henning Rehren, Göttingen [KHR] (A) (Essay Algebraische Quantenfeldtheorie)
Ingrid Reiser, Manhattan, USA [IR] (A) (16)
Dr. Uwe Renner, Leipzig [UR] (A) (10)
Dr. Ursula Resch-Esser, Berlin [URE] (A) (21)
Prof. Dr. Hermann Rietschel, Karlsruhe [HR1] (A, B) (23)
Dr. Peter Oliver Roll, Mainz [OR1] (A, B) (04, 15; Essay Distributionen)
Hans-Jörg Rutsch, Heidelberg [HJR] (A) (29)
Dr. Margit Sarstedt, Newcastle upon Tyne, UK [MS2] (A) (25)
Rolf Sauermost, Waldkirch [RS1] (A) (02)
Prof. Dr. Arthur Scharmann, Gießen (B) (06, 20)
Dr. Arne Schirrmacher, München [AS5] (A) (02)
Christina Schmitt, Freiburg [CS] (A) (16)
Cand. Phys. Jörg Schuler, Karlsruhe [JS1] (A) (06, 08)
Dr. Joachim Schüller, Mainz [JS2] (A) (10; Essay Analytische Mechanik)
Prof. Dr. Heinz-Georg Schuster, Kiel [HGS] (A, B) (11; Essay Chaos)
Richard Schwalbach, Mainz [RS2] (A) (17)
Prof. Dr. Klaus Stierstadt, München [KS] (A, B) (07, 20)
Cornelius Suchy, Brüssel [CS2] (A) (20)
William J. Thompson, Chapel Hill, USA [WJT] (A) (Essay Computer in der Physik)
Dr. Thomas Volkmann, Köln [TV] (A) (20)
Dipl.-Geophys. Rolf vom Stein, Köln [RVS] (A) (29)
Patrick Voss-de Haan, Mainz [PVDH] (A) (17)
Thomas Wagner, Heidelberg [TW2] (A) (29; Essay Atmosphäre)
Manfred Weber, Frankfurt [MW1] (A) (28)
Markus Wenke, Heidelberg [MW3] (A) (15)
Prof. Dr. David Wineland, Boulder, USA [DW] (A) (Essay Atom- und Ionenfallen)
Dr. Harald Wirth, Saint Genis-Pouilly, F [HW1] (A) (20)Steffen Wolf, Freiburg [SW] (A) (16)
Dr. Michael Zillgitt, Frankfurt [MZ] (A) (02)
Prof. Dr. Helmut Zimmermann, Jena [HZ] (A) (32)
Dr. Kai Zuber, Dortmund [KZ] (A) (19)

Mitarbeiter Band IV

Dr. Ulrich Kilian (verantwortlich)
Christine Weber

Redaktionsassistenz:

Matthias Beurer

Physikhistorische Beratung:

Priv.-Doz. Dr. Dieter Hoffmann, Berlin

Autoren (A) und Berater (B):

In eckigen Klammern steht das Autorenkürzel, die Zahl in der runden Klammer ist die Fachgebietsnummer; eine Liste der Fachgebiete findet sich im Vorwort.

Markus Aspelmeyer, München [MA1] (A) (20)
Dr. Katja Bammel, Cagliari, I [KB2] (A) (13)
Doz. Dr. Hans-Georg Bartel, Berlin [HGB] (A) (02)
Steffen Bauer, Karlsruhe [SB2] (A) (20, 22)
Dr. Günther Beikert, Viernheim [GB1] (A) (04, 10, 25)
Prof. Dr. Hans Berckhemer, Frankfurt [HB1] (A, B) (29)
Dr. Werner Biberacher, Garching [WB] (B) (20)
Prof. Tamás S. Biró, Budapest [TB2] (A) (15)
Prof. Dr. Helmut Bokemeyer, Darmstadt [HB2] (A, B) (18)
Dr. Ulf Borgeest, Hamburg [UB2] (A) (Essay Quasare)
Dr. Thomas Bührke, Leimen [TB] (A) (32)
Jochen Büttner, Berlin [JB] (A) (02)
Dr. Matthias Delbrück, Dossenheim [MD] (A) (12, 24, 29)
Karl Eberl, Stuttgart [KE] (A) (Essay Molekularstrahlepitaxie)
Dr. Dietrich Einzel, Garching [DE] (A) (20)
Dr. Wolfgang Eisenberg, Leipzig [WE] (A) (15)
Dr. Frank Eisenhaber, Wien [FE] (A) (27)
Dr. Roger Erb, Kassel [RE1] (A) (33; Essay Optische Erscheinungen der Atmosphäre)
Dr. Christian Eurich, Bremen [CE] (A) (Essay Neuronale Netze)
Dr. Angelika Fallert-Müller, Groß-Zimmern [AFM] (A) (16, 26)
Stephan Fichtner, Heidelberg [SF] (A) (31)
Dr. Thomas Filk, Freiburg [TF3] (A) (10, 15; Essay Perkolationstheorie)
Natalie Fischer, Walldorf [NF] (A) (32)
Dr. Harald Fuchs, Münster [HF] (A) (Essay Rastersondenmikroskopie)
Dr. Thomas Fuhrmann, Mannheim [TF1] (A) (14)
Christian Fulda, Hannover [CF] (A) (07)
Dr. Harald Genz, Darmstadt [HG1] (A) (18)
Michael Gerding, Kühlungsborn [MG2] (A) (13)
Prof. Dr. Gerd Graßhoff, Bern [GG] (A) (02)
Andrea Greiner, Heidelberg [AG1] (A) (06)
Uwe Grigoleit, Weinheim [UG] (A) (13)
Prof. Dr. Michael Grodzicki, Salzburg [MG1] (B) (01, 16)
Gunther Hadwich, München [GH] (A) (20)
Dr. Andreas Heilmann, Halle [AH1] (A) (20, 21)
Carsten Heinisch, Kaiserslautern [CH] (A) (03)
Dr. Christoph Heinze, Hamburg [CH3] (A) (29)
Dr. Marc Hemberger, Heidelberg [MH2] (A) (19)
Florian Herold, München [FH] (A) (20)
Dr. Hermann Hinsch, Heidelberg [HH2] (A) (22)
Priv.-Doz. Dr. Dieter Hoffmann, Berlin [DH2] (A, B) (02)
Dr. Georg Hoffmann, Gif-sur-Yvette, FR [GH1] (A) (29)
Dr. Gert Jacobi, Hamburg [GJ] (B) (09)
Renate Jerecic, Heidelberg [RJ] (A) (28)
Dr. Catherine Journet, Stuttgart [CJ] (A) (Essay Nanoröhrchen)
Prof. Dr. Josef Kallrath, Ludwigshafen, [JK] (A) (04; Essay Numerische Methoden in der Physik)
Priv.-Doz. Dr. Claus Kiefer, Freiburg [CK] (A) (14, 15; Essay Quantengravitation)
Richard Kilian, Wiesbaden [RK3] (22)
Dr. Ulrich Kilian, Heidelberg [UK] (A) (19)
Dr. Uwe Klemradt, München [UK1] (A) (20, Essay Phasenübergänge und kritische Phänomene)
Dr. Achim Knoll, Karlsruhe [AK1] (A) (20)
Dr. Alexei Kojevnikov, College Park, USA [AK3] (A) (02)
Dr. Berndt Koslowski, Ulm [BK] (A) (Essay Ober- und Grenzflächenphysik)
Dr. Bernd Krause, München [BK1] (A) (19)
Dr. Jens Kreisel, Grenoble [JK2] (A) (20)
Dr. Gero Kube, Mainz [GK] (A) (18)
Ralph Kühnle, Heidelberg [RK1] (A) (05)
Volker Lauff, Magdeburg [VL] (A) (04)
Priv.-Doz. Dr. Axel Lorke, München [AL] (A) (20)
Dr. Andreas Markwitz, Lower Hutt, NZ [AM1] (A) (21)
Holger Mathiszik, Celle [HM3] (A) (29)
Dr. Dirk Metzger, Mannheim [DM] (A) (07)
Prof. Dr. Karl von Meyenn, München [KVM] (A) (02)
Dr. Rudi Michalak, Augsburg [RM1] (A) (23)
Helmut Milde, Dresden [HM1] (A) (09)
Günter Milde, Dresden [GM1] (A) (12)
Marita Milde, Dresden [MM2] (A) (12)
Dr. Andreas Müller, Kiel [AM2] (A) (33)
Dr. Nikolaus Nestle, Leipzig [NN] (A, B) (05, 20; Essays Molekularstrahlepitaxie, Ober- und Grenzflächenphysik und Rastersondenmikroskopie)
Dr. Thomas Otto, Genf [TO] (A) (06)
Dr. Ulrich Parlitz, Göttingen [UP1] (A) (11)
Christof Pflumm, Karlsruhe [CP] (A) (06, 08)
Dr. Oliver Probst, Monterrey, Mexico [OP] (A) (30)
Dr. Roland Andreas Puntigam, München [RAP] (A) (14)
Dr. Andrea Quintel, Stuttgart [AQ] (A) (Essay Nanoröhrchen)
Dr. Gunnar Radons, Mannheim [GR1] (A) (01, 02, 32)
Dr. Max Rauner, Weinheim [MR3] (A) (15; Essay Quanteninformatik)
Robert Raussendorf, München [RR1] (A) (19)
Ingrid Reiser, Manhattan, USA [IR] (A) (16)
Dr. Uwe Renner, Leipzig [UR] (A) (10)
Dr. Ursula Resch-Esser, Berlin [URE] (A) (21)
Dr. Peter Oliver Roll, Ingelheim [OR1] (A, B) (15; Essay Quantenmechanik und ihre Interpretationen)
Prof. Dr. Siegmar Roth, Stuttgart [SR] (A) (Essay Nanoröhrchen)
Hans-Jörg Rutsch, Walldorf [HJR] (A) (29)
Dr. Margit Sarstedt, Leuven, B [MS2] (A) (25)
Rolf Sauermost, Waldkirch [RS1] (A) (02)
Matthias Schemmel, Berlin [MS4] (A) (02)
Michael Schmid, Stuttgart [MS5] (A) (Essay Nanoröhrchen)
Dr. Martin Schön, Konstanz [MS] (A) (14)
Jörg Schuler, Taunusstein [JS1] (A) (06, 08)
Dr. Joachim Schüller, Dossenheim [JS2] (A) (10)
Richard Schwalbach, Mainz [RS2] (A) (17)
Prof. Dr. Paul Steinhardt, Princeton, USA [PS] (A) (Essay Quasikristalle und Quasi-Elementarzellen)
Prof. Dr. Klaus Stierstadt, München [KS] (B)
Dr. Siegmund Stintzing, München [SS1] (A) (22)
Cornelius Suchy, Brüssel [CS2] (A) (20)
Dr. Volker Theileis, München [VT] (A) (20)
Prof. Dr. Gerald 't Hooft, Utrecht, NL [GT2] (A) (Essay Renormierung)
Dr. Annette Vogt, Berlin [AV] (A) (02)
Dr. Thomas Volkmann, Köln [TV] (A) (20)
Rolf vom Stein, Köln [RVS] (A) (29)
Patrick Voss-de Haan, Mainz [PVDH] (A) (17)
Dr. Thomas Wagner, Heidelberg [TW2] (A) (29)
Dr. Hildegard Wasmuth-Fries, Ludwigshafen [HWF] (A) (26)
Manfred Weber, Frankfurt [MW1] (A) (28)
Priv.-Doz. Dr. Burghard Weiss, Lübeck [BW2] (A) (02)
Prof. Dr. Klaus Winter, Berlin [KW] (A) (Essay Neutrinophysik)
Dr. Achim Wixforth, München [AW1] (A) (20)
Dr. Steffen Wolf, Berkeley, USA [SW] (A) (16)
Priv.-Doz. Dr. Jochen Wosnitza, Karlsruhe [JW] (A) (23; Essay Organische Supraleiter)
Priv.-Doz. Dr. Jörg Zegenhagen, Stuttgart [JZ3] (A) (21; Essay Oberflächenrekonstruktionen)
Dr. Kai Zuber, Dortmund [KZ] (A) (19)
Dr. Werner Zwerger, München [WZ] (A) (20)

Mitarbeiter Band V

Dr. Ulrich Kilian (verantwortlich)
Christine Weber

Redaktionsassistenz:

Matthias Beurer

Physikhistorische Beratung:

Priv.-Doz. Dr. Dieter Hoffmann, Berlin

Autoren (A) und Berater (B):

In eckigen Klammern steht das Autorenkürzel, die Zahl in der runden Klammer ist die Fachgebietsnummer; eine Liste der Fachgebiete findet sich im Vorwort.

Prof. Dr. Klaus Andres, Garching [KA] (A) (10)
Markus Aspelmeyer, München [MA1] (A) (20)
Dr. Katja Bammel, Cagliari, I [KB2] (A) (13)
Doz. Dr. Hans-Georg Bartel, Berlin [HGB] (A) (02)
Steffen Bauer, Karlsruhe [SB2] (A) (20, 22)
Dr. Günther Beikert, Viernheim [GB1] (A) (04, 10, 25)
Prof. Dr. Hans Berckhemer, Frankfurt [HB1] (A, B) (29; Essay Seismologie)
Dr. Werner Biberacher, Garching [WB] (B) (20)
Prof. Tamás S. Biró, Budapest [TB2] (A) (15)
Prof. Dr. Helmut Bokemeyer, Darmstadt [HB2] (A, B) (18)
Dr. Thomas Bührke, Leimen [TB] (A) (32)
Jochen Büttner, Berlin [JB] (A) (02)
Dr. Matthias Delbrück, Dossenheim [MD] (A) (12, 24, 29)
Prof. Dr. Martin Dressel, Stuttgart (A) (Essay Spindichtewellen)
Dr. Michael Eckert, München [ME] (A) (02)
Dr. Dietrich Einzel, Garching (A) (Essay Supraleitung und Suprafluidität)
Dr. Wolfgang Eisenberg, Leipzig [WE] (A) (15)
Dr. Frank Eisenhaber, Wien [FE] (A) (27)
Dr. Roger Erb, Kassel [RE1] (A) (33)
Dr. Angelika Fallert-Müller, Groß-Zimmern [AFM] (A) (16, 26)
Stephan Fichtner, Heidelberg [SF] (A) (31)
Dr. Thomas Filk, Freiburg [TF3] (A) (10, 15)
Natalie Fischer, Walldorf [NF] (A) (32)
Dr. Thomas Fuhrmann, Mannheim [TF1] (A) (14)
Christian Fulda, Hannover [CF] (A) (07)
Frank Gabler, Frankfurt [FG1] (A) (22)
Dr. Harald Genz, Darmstadt [HG1] (A) (18)
Prof. Dr. Henning Genz, Karlsruhe [HG2] (A) (Essays Symmetrie und Vakuum)
Dr. Michael Gerding, Potsdam [MG2] (A) (13)
Andrea Greiner, Heidelberg [AG1] (A) (06)
Uwe Grigoleit, Weinheim [UG] (A) (13)
Gunther Hadwich, München [GH] (A) (20)
Dr. Andreas Heilmann, Halle [AH1] (A) (20, 21)
Carsten Heinisch, Kaiserslautern [CH] (A) (03)
Dr. Marc Hemberger, Heidelberg [MH2] (A) (19)
Dr. Sascha Hilgenfeldt, Cambridge, USA (A) (Essay Sonolumineszenz)
Dr. Hermann Hinsch, Heidelberg [HH2] (A) (22)
Priv.-Doz. Dr. Dieter Hoffmann, Berlin [DH2] (A, B) (02)
Dr. Gert Jacobi, Hamburg [GJ] (B) (09)
Renate Jerecic, Heidelberg [RJ] (A) (28)
Prof. Dr. Josef Kallrath, Ludwigshafen [JK] (A) (04)
Priv.-Doz. Dr. Claus Kiefer, Freiburg [CK] (A) (14, 15)
Richard Kilian, Wiesbaden [RK3] (22)
Dr. Ulrich Kilian, Heidelberg [UK] (A) (19)
Thomas Kluge, Jülich [TK] (A) (20)
Dr. Achim Knoll, Karlsruhe [AK1] (A) (20)
Dr. Alexei Kojevnikov, College Park, USA [AK3] (A) (02)
Dr. Bernd Krause, München [BK1] (A) (19)
Dr. Gero Kube, Mainz [GK] (A) (18)
Ralph Kühnle, Heidelberg [RK1] (A) (05)
Volker Lauff, Magdeburg [VL] (A) (04)
Dr. Anton Lerf, Garching [AL1] (A) (23)
Dr. Detlef Lohse, Twente, NL (A) (Essay Sonolumineszenz)
Priv.-Doz. Dr. Axel Lorke, München [AL] (A) (20)
Prof. Dr. Jan Louis, Halle (A) (Essay Stringtheorie)
Dr. Andreas Markwitz, Lower Hutt, NZ [AM1] (A) (21)
Holger Mathiszik, Celle [HM3] (A) (29)
Dr. Dirk Metzger, Mannheim [DM] (A) (07)
Dr. Rudi Michalak, Dresden [RM1] (A) (23; Essay Tieftemperaturphysik)
Günter Milde, Dresden [GM1] (A) (12)
Helmut Milde, Dresden [HM1] (A) (09)
Marita Milde, Dresden [MM2] (A) (12)
Prof. Dr. Andreas Müller, Trier [AM2] (A) (33)
Prof. Dr. Karl Otto Münnich, Heidelberg (A) (Essay Umweltphysik)
Dr. Nikolaus Nestle, Leipzig [NN] (A, B) (05, 20)
Dr. Thomas Otto, Genf [TO] (A) (06)
Priv.-Doz. Dr. Ulrich Parlitz, Göttingen [UP1] (A) (11)
Christof Pflumm, Karlsruhe [CP] (A) (06, 08)
Dr. Oliver Probst, Monterrey, Mexico [OP] (A) (30)
Dr. Roland Andreas Puntigam, München [RAP] (A) (14)
Dr. Gunnar Radons, Mannheim [GR1] (A) (01, 02, 32)
Dr. Max Rauner, Weinheim [MR3] (A) (15)
Robert Raussendorf, München [RR1] (A) (19)
Ingrid Reiser, Manhattan, USA [IR] (A) (16)
Dr. Uwe Renner, Leipzig [UR] (A) (10)
Dr. Ursula Resch-Esser, Berlin [URE] (A) (21)
Dr. Peter Oliver Roll, Ingelheim [OR1] (A, B) (15)
Hans-Jörg Rutsch, Walldorf [HJR] (A) (29)
Rolf Sauermost, Waldkirch [RS1] (A) (02)
Matthias Schemmel, Berlin [MS4] (A) (02)
Prof. Dr. Erhard Scholz, Wuppertal [ES] (A) (02)
Dr. Martin Schön, Konstanz [MS] (A) (14; Essay Spezielle Relativitätstheorie)
Dr. Erwin Schuberth, Garching [ES4] (A) (23)
Jörg Schuler, Taunusstein [JS1] (A) (06, 08)
Dr. Joachim Schüller, Dossenheim [JS2] (A) (10)
Richard Schwalbach, Mainz [RS2] (A) (17)
Prof. Dr. Klaus Stierstadt, München [KS] (B)
Dr. Siegmund Stintzing, München [SS1] (A) (22)
Dr. Berthold Suchan, Gießen [BS] (A) (Essay Wissenschaftsphilosophie)
Cornelius Suchy, Brüssel [CS2] (A) (20)
Dr. Volker Theileis, München [VT] (A) (20)
Prof. Dr. Stefan Theisen, München (A) (Essay Stringtheorie)
Dr. Annette Vogt, Berlin [AV] (A) (02)
Dr. Thomas Volkmann, Köln [TV] (A) (20)
Rolf vom Stein, Köln [RVS] (A) (29)
Dr. Patrick Voss-de Haan, Mainz [PVDH] (A) (17)
Dr. Thomas Wagner, Heidelberg [TW2] (A) (29)
Manfred Weber, Frankfurt [MW1] (A) (28)
Dr. Martin Werner, Hamburg [MW] (A) (29)
Dr. Achim Wixforth, München [AW1] (A) (20)
Dr. Steffen Wolf, Berkeley, USA [SW] (A) (16)
Dr. Stefan L. Wolff, München [SW1] (A) (02)
Priv.-Doz. Dr. Jochen Wosnitza, Karlsruhe [JW] (A) (23)
Dr. Kai Zuber, Dortmund [KZ] (A) (19)
Dr. Werner Zwerger, München [WZ] (A) (20)

Schreiben Sie uns!

Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.

Partnerinhalte

Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.