Direkt zum Inhalt

Lexikon der Physik: Fehlerrechnung

Fehlerrechnung

Walter Seibt, Gießen

1. Einleitung

Unvermeidbarkeit von Meßfehlern

Jede reale Messung einer physikalischen Größe ist mit einer Unsicherheit im Ergebnis behaftet. Dies ist eng mit der Frage verknüpft, ob es den wahren WertX einer physikalischen Größe, der letztendlich ja doch ermittelt werden soll, überhaupt gibt. Im allgemeinen muß diese Frage wohl verneint werden, da der wahre Wert einer stetigen Variablen nie genau bestimmt werden kann. Wir wollen für unsere Darstellung jedoch an diesem Begriff festhalten und definieren ihn als den Mittelwert einer unendlich langen Meßreihe. Er kann daher im Experiment nie tatsächlich ermittelt werden, die Messung liefert stets nur einen BestwertxBest.

Auch der Begriff des Fehlersδx sollte geklärt werden. Ein Fehler in unserem Zusammenhang ist nicht das Ergebnis eines Fehlverhaltens des Messenden, sondern es handelt sich um die prinzipiell unvermeidliche Meßunsicherheit, die jeder Messung auch bei größter Sorgfalt anhaftet. Da sich dieser Begriff jedoch eingebürgert hat, wollen wir auch an ihm festhalten.

Die Angabe eines Meßergebnisses erfolgt daher stets in der Form: wahrer Wert = Bestwert ± Fehler, oderX = xBest ± δx.

Bedeutung der Fehlerabschätzung

Hinter jeder Messung steckt eine gewisse Absicht. Die Größe des Fehlers entscheidet oft darüber, ob eine Messung ihren Zweck erfüllt oder nicht.

Viele Messungen dienen etwa dazu, die Vorhersagen einer Theorie zu überprüfen. Berühmtestes Beispiel eines Experimentes dieser Art war die Messung der Ablenkung eines Lichtstrahls, der nahe an der Sonne vorbeigeht. Auf Grund seiner Allgemeinen Relativitätstheorie sagte Einstein 1916 einen Winkel von α = 1,8″ voraus. Eine Messung im Jahre 1919 (von Eddington et al.) lieferte einen Wert von α = 2,0″ ± 0,3″. Dieses Ergebnis bestätigt mit hoher Wahrscheinlichkeit die Vorhersage und damit auch die Theorie. Ein Ergebnis von α = 0″, wie es klassisch erwartet wird, liegt weit außerhalb der ermittelten Fehlergrenzen (siehe Randspalte). Wäre der Fehler der Messung wesentlich größer oder völlig unbekannt, könnte keine Entscheidung über die Gültigkeit von Einsteins Theorie getroffen werden.

Einstein wies 1916 darauf hin, daß nach der Allgemeinen Relativitätstheorie Licht, das nahe an der Sonne vorbeigeht, um einen Winkel α = 1,8′ abgelenkt wird. Gemäß der vorrelativistischen Physik wird α = 0 erwartet, die Berücksichtigung der Speziellen Relativitätstheorie führt zur Vorhersage α = 0,9′. Auch dieser Wert liegt außerhalb der Fehlergrenzen der Messung von 1919.

2. Grundbegriffe

Systematischer und zufälliger Fehler

Systematische Fehler, herrührend von Unzulänglichkeiten der Meßgeräte, verfälschen ein Meßergebnis stets um den gleichen Betrag in die gleiche Richtung. Ihnen kommt man durch eine Wiederholung der Messung nicht auf die Spur, und sie können auch durch Rechenaufwand nicht verringert werden. Sie müssen auf andere Weise ermittelt und apparativ beseitigt werden.

Im Gegensatz dazu kann der statistische oder zufällige Fehler (zufällige Unsicherheit) das Ergebnis in beide Richtungen verändern. Er hat seine Ursache im Beobachter selbst. Er ist prinzipiell unvermeidbar, kann jedoch durch wiederholte Messungen und geeignete Auswertungsmethoden in seiner Größe abgeschätzt werden.

Relativer und absoluter Fehler

Die Angabe der Meßunsicherheit kann auf zwei verschiedene Weisen erfolgen:

Wird die Meßunsicherheit als Zahlenwert δx (mit der gleichen Einheit wie die Meßgröße selbst) angegeben, dann spricht man vom absoluten Fehler.

Man kann die Qualität einer Messung aber auch durch den Quotienten aus δx und xBest anzeigen. Diesen Ausdruck bezeichnet man als relativen Fehler (relative Unsicherheit):



.

Diese dimensionslose Größe gibt die Größe der Meßunsicherheit (nach Multiplikation mit 100) in Prozent an.

Signifikante Stellen und Fehlerangabe

Das Hauptanliegen der Fehlerrechnung ist es, nach praktischen Verfahren zu suchen, die es erlauben, eine quantitative Aussage über die Größe der Meßunsicherheit δx zu machen. Man muß sich jedoch darüber im klaren sein, daß es exakte Fehlerangaben nie geben kann. Was eine Fehlerrechnung mit ihren anerkannten Methoden leisten kann, sind Angaben darüber, mit welcher Wahrscheinlichkeit man bei einer identisch wiederholten Meßreihe ein Ergebnis innerhalb bestimmter Grenzen erwarten kann.

Unter diesem Aspekt sollte man auch bei der Formulierung eines Meßergebnisses zunächst nur die Stellen angeben, in denen sich der Fehler mit großer Wahrscheinlichkeit noch nicht auswirkt (signifikante Stellen), plus eine weitere Stelle, die auf Grund der Fehlerrechnung unsicher ist. Da der Fehler selbst ebenfalls mit einer hohen Unsicherheit belastet ist, genügt dort im allgemeinen die Angabe einer, maximal zwei Stellen.

3. Messung einer Variablen

Um die Zuverlässigkeit einer Messung der Größe x abschätzen zu können, führen wir sie mehrmals durch und unterziehen die so gewonnen Meßdaten einer statistischen Analyse (statistische Unsicherheit).

Statistische Betrachtungen

Mittelwert

Es kann gezeigt werden, daß der (arithmetische) Mittelwert

, der aus den Einzelwerten xi gewonnen werden kann, einen Bestwert xBest für die Meßgröße X darstellt:



.
Standardabweichung der Einzelmessung

Um einen Schätzwert für die mittlere Unsicherheit der Meßwerte zu finden, bildet man die sogenannte Standardabweichungder Einzelmessungσx aus den einzelnen Werten und dem Mittelwert. Diese Größe hängt nur von der Qualität der Meßapparatur ab, nicht jedoch von der Anzahl der durchgeführten Messungen:



.
Standardabweichung des Mittelwertes

Naturgemäß hat man in den Mittelwert einer Meßreihe ein größeres Vertrauen als in die einzelnen Meßwerte. Man verwendet daher die Standardabweichung für den Mittelwert

als quantitatives Maß für die Meßunsicherheit δx:



.

Ein Meßergebnis für die Größe x hat daher folgendes Aussehen:



.

Im folgenden soll versucht werden, zu begründen, daß der Mittelwert einer Meßreihe als Bestwert für die gesuchte Größe verwendet werden kann und daß die Standardabweichung des Mittelwertes eine Größe darstellt, die eine quantitative Aussage über den Fehler ermöglicht.

Darstellung der Meßergebnisse

Um dieses Ziel zu erreichen, müssen statistische Verfahren in Anwendung kommen. Dazu ist es erforderlich, die Daten einer umfangreichen Meßreihe in passender Form darzustellen. Eine einfache Möglichkeit bieten Stabdiagramme.
Stabdiagramme

Die Darstellung in einem Stabdiagramm eignet sich besonders, wenn nur diskrete Ergebniswerte auftreten (wie z.B. bei Würfelexperimenten oder anderen Zählexperimenten, bei denen nur die Häufigkeit eines Ereignisses gefragt ist). Es wird die relative Häufigkeit eines Ergebnisses gegen den Meßwert als senkrechter Balken aufgetragen ( Abb. 1 ).

Zunächst soll an einem Würfelexperiment das Verfahren erläutert werden, da in diesem Fall die Wahrscheinlichkeiten für das Eintreten der einzelnen Ergebnisse bekannt sind und deshalb der Mittelwert einer unendlich langen Meßreihe
(= wahrer Wert = Erwartungswert) berechnet werden kann.

Das Beispiel zeigt im linken Diagramm die beim Wurf mit zwei Würfeln bei N = 20 Würfen erzielten Augenzahlen. Die eingezeichnete Linie ist die berechnete Wahrscheinlichkeit. Sie ist gleich der bei unendlich vielen Versuchen erzielten Häufigkeitverteilung (= Grenzverteilung für die Einzelmessung).

Errechnet man Mittelwert und Standardabweichung für den Mittelwert, dann erhält man als Ergebnis für die dargestellte Meßreihe(Meßwert für x) = 7,05 ± 0,54.

Der wahre Wert X beträgt hier 7,0.

Der obere Teil von Abb. 1 zeigt die Verteilung der Mittelwerte, wenn man die Meßreihe oft wiederholt. Würde man die gleiche Meßreihe unendlich oft durchführen, dann würden die Ergebnisse, nach ihrer Häufigkeit sortiert, das Dreieck (die Grenzverteilung für den Mittelwert) füllen. Das Flächenverhältnis des schraffierten Teils zur Gesamtfläche gibt also die Wahrscheinlichkeit an, mit der eine erneut durchgeführte Messung innerhalb der angegebenen Fehlergrenzen liegt, in unserem Fall sind das ca. 64,4 %. Damit haben wir ein Verfahren kennengelernt, das eine quantitative Aussage bezüglich des Fehlers erlaubt.

Voraussetzung dafür ist jedoch, wie hier gezeigt wurde, die Kenntnis der Grenzverteilung. Wenn es uns gelingt, für reale physikalische Meßreihen die Grenzverteilung mathematisch zu formulieren, dann haben wir unser Ziel erreicht.
Histogramm

In den meisten Fällen liefert eine Messung keine ganzzahligen Ergebnisse, da die meisten physikalischen Größen einen kontinuierlichen Bereich möglicher Werte haben. Man teilt dann den Wertebereich in eine geeignete Anzahl von Intervallen oder Klassen ein und zählt jeweils, wieviele Ergebniswerte in eine solche Klasse fallen (Histogramm). Als Beispiel wurden in Abb. 2 die Messungen einer Zeit von ca. 2,67 s (Meßgenauigkeit 0,001 s, Klassenbreite 0,01 s) dargestellt. Man erkennt qualitativ, daß die zu erwartende Verteilung bei einer Steigerung der Anzahl der Messungen durch eine symmetrische Glockenkurve wiedergegeben wird, wie sie in der Abbildung bereits andeutungsweise eingetragen ist.
Grenzverteilungen

Die Verteilungskurve der Meßresultate für den Grenzfall unendlich vieler Messungen nennt man die Grenzverteilung dieser Messung.

Wenn die Grenzverteilung f(x) explizit bekannt ist, dann kann daraus der Mittelwert und die Standardabweichung errechnet werden:



Verteilungen

Wir stehen nun vor der Frage, ob es möglich ist, die Grenzverteilung für ein bestimmtes Experiment vorauszusagen. Man kann zeigen, daß in den meisten Fällen als Grenzverteilung die sogenannte Normalverteilung (Gauß-Verteilung, normale Dichtefunktion) angenommen werden kann. Zu Erklärung dieses Zusammenhanges geht man von der sog. Binomialverteilung für die Ereignisse aus.
Binomialverteilung

Diese Verteilung ist anwendbar, wenn mit vielen identischen Objekten das gleiche Experiment durchgeführt wird, wobei für jedes Objekt ein bestimmtes Ergebnis mit der Wahrscheinlichkeit p möglich ist. Wird mit n Teilchen das gleiche Experiment gemacht, dann ist die Wahrscheinlichkeit dafür, daß bei ν Teilchen das Ereignis beobachtet wird,



In Abb. 3 werden die Verteilungen für die folgenden Experimente dargestellt:
• Wahrscheinlichkeit, beim Werfen von drei Würfeln eine bestimmte Anzahl von Einsen zu erhalten (Mittelwert = 1/2)
• Wahrscheinlichkeit, beim Werfen von zwölf Würfeln eine bestimmte Anzahl von Einsen zu erhalten (Mittelwert = 2)
• Wahrscheinlichkeit, beim Werfen von zwölf Würfeln eine bestimmte Anzahl gerader Augen zu erhalten (Mittelwert = 6).

Man erkennt, daß mit steigendem Mittelwert auch diese Verteilung die Form einer symmetrischen Glockenkurve annimmt. Es kann gezeigt werden, daß für diesen Grenzfall die Binomialverteilung in die sogenannte Gauß-Verteilung oder NormalverteilungfX(x) übergeht.
Poisson-Verteilung

Auch die Poisson-Verteilung kann für den Fall großer Objektzahlen durch die Normalverteilung fX(x) beschrieben werden.
Normal- oder Gauß-Verteilung

Bei dieser Funktion handelt es sich um eine Glockenkurve, die durch zwei Parameter charakterisiert ist: Sie ist beim Wert X (dem wahren Wert) zentriert und besitzt am Wendepunkt die Breite 2σ (Breitenparameter).

Sie hat das in Abb. 4 dargestellte Aussehen und gehorcht der folgenden Funktion:



Wenn es uns gelingt, zu zeigen, daß die Werte einer Meßreihe, die unabhängig und zufällig sind, durch die Binomialverteilung gegeben sind, dann haben wir unser Ziel erreicht.
Die Normalverteilung als Grenzverteilung bei Meßreihen

Unter der Annahme, daß bei der Messung einer Größe x, deren wahrer Wert X sei, n unabhängige Quellen zufälliger Abweichungen auftreten (unabhängige Unsicherheit), die der Einfachheit halber alle gleich groß sein sollen und mit gleicher Wahrscheinlichkeit den Meßwert vergrößern bzw. verkleinern sollen, dann läßt sich zeigen, daß die zu erwartenden Wahrscheinlichkeiten für die einzelnen Meßwerte durch die Binomialverteilung beschrieben werden (Random-Walk-Problem!), welche für großes n durch die Normalverteilung ersetzt werden kann. Damit erhalten wir die Möglichkeit, eine quantitative Aussage darüber zu machen, was bei dieser Verteilung die Angabe der Unsicherheitsgrenze σ bedeutet.

Wertet man das Integral



aus, dann sieht man, daß ca. 68 % aller Messungen (dies entspricht wiederum der gerasterten Fläche in der Abbildung) im Bereich dieser Unsicherheitsgrenzen liegen.

Fehlerfunktion

Man kann das Vertrauen, das in ein Meßergebnis gesetzt wird, dadurch vergrößern, daß man den möglichen Fehlerbereich auf den Wert t · σ erweitert. Mit welcher Wahrscheinlichkeit in diesem Fall eine erneute Messung innerhalb der Fehlergrenzen liegt, kann aus der sogenannten Gaußschen Fehlerfunktion (auch normales Fehlerintegral genannt) abgelesen werden.

Die Integralfunktion ( Abb. 5 ) zeigt die Wahrscheinlichkeit P, daß ein Ergebniswert von x innerhalb von t Standardabweichungen vom wahren Wert X fällt. Läßt man eine Unsicherheit von 2σ nach jeder Seite zu, dann liegen bereits ca. 95 % aller Messungen im Fehlerbereich.
Das Verwerfen von Daten

Mit Hilfe des Chauvenetschen Kriteriums kann beurteilt werden, ob ein etwas ausgefallener Wert innerhalb einer Meßreihe (ein sogenannter ›Ausreißer‹) bei der Mittelwertbildung berücksichtigt werden sollte, oder ob der Wert aus einem Experimentierfehler resultiert und deshalb verworfen werden muß.

Wir wollen annehmen, daß eine Meßreihe aus N Messungen einen Mittelwert von

und eine Standardabweichung von σx besitze. Wir wollen weiter annehmen, daß unter den Meßwerten ein verdächtiger Wert xverd ist, der um (tverd · σx) vom Mittelwert abweicht. Mit Hilfe der Integralfunktion kann man die Wahrscheinlichkeit P ausrechnen, mit der ein Meßwert außerhalb dieser Schranken fällt. Multipliziert man dieses P mit N, dann erhält man die Anzahl der Meßwerte, die im Mittel auf Grund der Normalverteilung außerhalb (tverd · σx) fallen. Damit erhalten wir die erwartete Anzahl n von Meßwerten, die mindestens so schlecht wie xverd sind:n(schlechter als xverd) = N P (außerhalb tverd · σx).

Wenn n kleiner als 1 / 2 ist, dann erfüllt xverd das Chauvenetsche Kriterium nicht und wird verworfen. Auch dieses Kriterium ist wie alle anderen Aussagen der Fehlerrechnung nur eine Wahrscheinlichkeitsangabe und damit in ihrer Wertung einer subjektiven Beurteilung unterworfen.

Mittelwert als Bestwert

Es soll nun noch begründet werden, daß der Mittelwert einer Meßreihe tatsächlich als Bestwert für die gesuchte Größe interpretiert werden kann.

Die wahren Werte X und σ (aus einer unendlich langen Meßreihe ermittelt!) sind nicht bekannt. Um aus endlich vielen Daten einen Bestwert für diese Größen zu erhalten, wird das Prinzip der größten Wahrscheinlichkeit angewandt.

Wären die Parameter X und σ bekannt, dann könnten die Wahrscheinlichkeiten für die tatsächlich gemessenen Werte xi berechnet werden. So ist z.B. die Wahrscheinlichkeit, den Wert x1 zu messen, auf Grund der Normalverteilung proportional zum Ausdruck



.

Die Wahrscheinlichkeit, alle xi der Meßreihe zu erhalten, ist das Produkt der Einzelwahrscheinlichkeiten:



In dieser Beziehung sind X und σ unbekannt. Als Bestwerte ermitteln wir diejenigen Werte dieser Größen, für welche die beobachteten x1, x2, 1/4, xN am wahrscheinlichsten sind. P (als Funktion von X) ist maximal, wenn der Exponent minimal ist. Differenziert man diesen und setzt die Ableitung gleich null, dann erhält man



Der so definierte Bestwert X ist gleich dem Mittelwert der Meßreihe

. Nach dem gleichen Verfahren ergibt sich, daß der Bestwert für die Breite σ gleich der Standardabweichung der N beobachteten Werte xi ist.

Mit anderen Worten: Für eine Normalverteilung, die am Mittelwert

zentriert ist und die Breite σ besitzt, ist die Wahrscheinlichkeit am größten, die real gemessene Ergebnisverteilung zu erhalten.
Der gewichtete Mittelwert

Oft ergibt sich die Aufgabe, mehrere unabhängige Messungen derselben physikalischen Größe x1,x2,1/4xN zu einem Bestwert xBest zu kombinieren, wobei die Messungen mit unterschiedlicher Genauigkeit σ1, σ2, 1/4, σN durchgeführt wurden. Auch hier hilft uns das Prinzip der größten Wahrscheinlichkeit weiter.

Der Bestwert für den unbekannten Wert X ist derjenige Wert, für den die tatsächlichen Beobachtungen xA und xB am wahrscheinlichsten sind. Im Exponenten der e-Funktion erscheint diesmal ein Term der Form



Wird differenziert und nach X aufgelöst, erhält man den folgenden gewichteten Mittelwert als Bestwert



,

wobei die als Gewichte definierten Größen

benutzt wurden: Kleine Standardabweichung bedeutet großes Gewicht bei der Mittelung.

Der Chi-Quadrat-Test

Um zu testen, ob die Ergebnisse einer Meßreihe der zu erwartenden Grenzverteilung folgen, kann man den sogenannten Chi-Quadrat-Test oder χ2-Test durchführen.

Wir wollen annehmen, daß eine Größe x mehrmals gemessen wird, und es soll geprüft werden, ob die Werte einer bestimmten Verteilung f(x) folgen. Dazu teilen wir die Meßwerte in n Klassen ein (k = 1, ..., n) und ermitteln jeweils die Anzahl Bk der Beobachtungen, die in Klasse k fallen. Diese Zahlen vergleichen wir mit der auf Grund der als bekannt angenommenen Verteilung errechneten Anzahl von erwarteten Meßwerten Ek. Die damit gebildete Größe



ist ein quantitatives Maß dafür, ob die beobachteten Meßwerte mit der angenommenen Verteilung beschrieben werden können.

Bei χ2 = 0 wäre die Übereinstimmung vollkommen. Im allgemeinen sollten die einzelnen Terme der Summe etwa 1 sein, da im Mittel die Abweichung des Meßwertes vom Idealwert in der Größenordnung der Standardabweichung liegen sollte. Wenn die angenommene Verteilung die Messungen richtig beschreibt, sollte χ2n oder kleiner sein, da die Summe n Terme umfaßt. Ist dagegen χ 2 viel größer als n, dann liegt die Vermutung nahe, daß die Meßwerte nicht der erwarteten Verteilung folgen.

4. Fehlerfortpflanzung

Funktionen mehrerer Variabler

Im allgemeinen Fall beruht die Bestimmung einer unbekannten Größe q auf der Messung mehrerer Variabler x, y, usw. Unter der Annahme, daß die Fehler der einzelnen Variablen unabhängig und normalverteilt sind, erhält man die Unsicherheit für q (Fehlerfortpflanzung) aus der Beziehung



.

Kovarianz in der Fehlerfortpflanzung

Um festzustellen, ob die Fehler zweier Meßgrößen x und y tatsächlich unabhängig sind, bildet man die Kovarianz. Darunter versteht man einen Ausdruck der Form



.

Bei einer Abhängigkeit (z.B. zu großes x ergibt stets ein zu großes y) haben die Klammern stets das gleiche Vorzeichen, und die Varianz ist groß. Bei unabhängigen Meßwerten sollte man erwarten, daß sich die Kovarianz nach vielen Messung dem Wert null nähert.

Lineare Regression (Methode der kleinsten Quadrate)

Mit dieser Methode wird die Gerade y = A + Bx (d.h. die Konstanten A und B) bestimmt, die am besten den Zusammenhang zwischen zwei Variablen x und y wiedergibt, von denen angenommen wird, daß zwischen ihnen ein linearer Zusammenhang besteht (Methode der kleinsten Quadrate, lineare Regression).

Auch hier geht man wieder von der Wahrscheinlichkeit aus, die beobachteten Wertepaare (x, y) zu erhalten, und berechnet die Größen A und B, für die die Wahrscheinlichkeiten maximal sind.

Unter der Annahme, daß nur die y-Werte unsicher sind und diese Werte um den wahren Wert von y mit dem Breitenparameter σy normalverteilt sind, sind die Bestwerte für A und B gegeben durch



Die Abkürzung Δ bedeutet



.

Diese Beziehungen liefern die Bestwerte für A und B auf der Grundlage der gemessenen Punkte (xi, yi), ..., (xN, yN).

Wenn nach der Unsicherheit dieser Größen gefragt wird, muß erst etwas über die Unsicherheit der Meßwerte von yi gesagt werden. Die yi sind nicht Meßwerte derselben Größe, sondern sie sind mit den (als fehlerfrei angenommenen) xi-Werten durch die Geradengleichung A + Bxi verknüpft. Also sind die Abweichungen

normalverteilt und alle mit derselben Breite σy beim Wert 0 zentriert. Auch hier kann das Prinzip der größten Wahrscheinlichkeit angewendet werden. Es liefert als besten Schätzwert für σy das Resultat



Es darf hier nicht durch die Anzahl der Wertepaare N dividiert werden, sondern durch die Anzahl der Freiheitsgrade. Da die Wertepaare bereits benutzt wurden, um die Konstanten A und B zu berechnen, sind nur noch N – 2 dieser Wertepaare voneinander unabhängig und dürfen für die Berechnung verwendet werden. Für die Unsicherheiten von A und B ergeben sich damit die Beziehungen:



und

Nach der Methode der kleinsten Quadrate lassen sich Meßwertepaare auch an andere Beziehungen (z.B. Polynome, Exponentialfunktion usw.) anpassen.

Linearer Korrelationskoeffizient

Von der linearen Regression zu unterscheiden ist eine Fragestellung, bei der untersucht werden soll, ob zwischen zwei Meßgrößen ein z.B. linearer Zusammenhang (Korrelation) besteht. So könnte man z.B. daran interessiert sein, herauszufinden, ob Studenten, die in den Übungen hohe Punktzahlen, d.h. gute Ergebnisse erreichen, auch in der Abschlußprüfung gut abschneiden.

Dazu muß geprüft werden, wie gut eine Menge von Meßwertepaaren (xi, yi), ..., (xN, yN) einer linearen Beziehung gehorcht. Dazu muß der lineare Korrelationskoeffizient gebildet werden. Dieser ist definiert zu



.R kann zwischen +1 und -1 liegen. Positive Werte wären das erwartete Ergebnis, negative Werte dagegen würden bedeuten, daß gute Übungsergebnisse zu schlechten Abschlußprüfungen führen. Für diese Werte liegen die Punkte dicht bei einer Geraden. Für r = 0 besteht keine Korrelation zwischen den x- und y-Werten.

Literatur:

John R. Taylor: Fehleranalyse, VCH Verlagsgesellschaft, Weinheim 1988;
G.L. Squires: Meßergebnisse und ihre Auswertung, de Gruyter, Berlin, 1971.





Fehlerrechnung 1: Die obere Teilabbildung zeigt in Form eines Stabdiagramms die relative Häufigkeit, mit der beim 20maligen Werfen von zwei Würfeln eine bestimmte Augensumme erzielt wurde. Die für dieses Experiment leicht zu berechnenden Wahrscheinlichkeiten (= Ergebnis bei unendlich vielen Würfen = Grenzverteilung) sind ebenfalls eingetragen. Unten sieht man die Grenzverteilung für die Mittelwerte, die aus jeder Meßreihe errechnet werden können. Sie ist, wie erwartet, bedeutend schmaler: Die Mittelwerte streuen weniger als die Einzelmessungen (Abszissenwerte beachten!).



Fehlerrechnung 2: So ändert sich die Verteilung der Meßwerte in einem realen physikalischen Meßprozeß, wenn man die Anzahl der Messungen erhöht. Die Verteilung wird glatter, ist symmetrisch und hat die Form einer Glockenkurve. Dies ist die gesuchte Grenzverteilung für das Experiment.



Fehlerrechnung 3: Drei Beispiele für Experimente, die mit Hilfe der Binomialverteilung mathematisch korrekt beschrieben werden können. Auch hier wird mit steigendem Mittelwert für die Verteilung eine symmetrische Glockenkurve beobachtet.



Fehlerrechnung 4: Es kann mathematisch exakt gezeigt werden, daß sowohl die Binomial- als auch die Poisson-Verteilung für große Mittelwerte in die sogenannte Gauß- oder Normalverteilung übergeht. Sie ist charakterisiert durch den Wert X und die Breite 2σ. Diese beiden Größen entsprechen den Begriffen Bestwert und Unsicherheit der Messung.



Fehlerrechnung 5: Wahrscheinlichkeit, mit der der Mittelwert einer neuen Meßreihe innerhalb der Fehlergrenzen liegt, wenn als Fehlergrenze mehr als eine Standardabweichung angegeben wird. Man erkennt, daß eine Verdreifachung des Fehlerbereichs bereits eine fast hundertprozentige Sicherheit bedeutet, mit einem neuen Ergebnis innerhalb dieser Grenzen zu liegen.

  • Die Autoren
Mitarbeiter Band I und II

Redaktion:

Silvia Barnert
Dr. Matthias Delbrück
Dr. Reinald Eis
Natalie Fischer
Walter Greulich (Schriftleiter)
Carsten Heinisch
Sonja Nagel
Dr. Gunnar Radons
MS (Optics) Lynn Schilling-Benz
Dr. Joachim Schüller

Mitarbeiter Band III

Redaktion:

Christine Weber
Ulrich Kilian

Autoren (A) und Berater (B):

In eckigen Klammern steht das Autorenkürzel, die Zahl in der runden Klammer ist die Fachgebietsnummer; eine Liste der Fachgebiete findet sich im Vorwort.

Katja Bammel, Berlin [KB2] (A) (13)
Prof. Dr. W. Bauhofer, Hamburg (B) (20, 22)
Sabine Baumann, Heidelberg [SB] (A) (26)
Dr. Günther Beikert, Viernheim [GB1] (A) (04, 10, 25)
Prof. Dr. Hans Berckhemer, Frankfurt [HB1] (A, B) (29)
Prof. Dr. Klaus Bethge, Frankfurt (B) (18)
Prof. Tamás S. Biró, Budapest [TB2] (A) (15)
Dr. Thomas Bührke, Leimen [TB] (A) (32)
Angela Burchard, Genf [AB] (A) (20, 22)
Dr. Matthias Delbrück, Dossenheim [MD] (A) (12, 24, 29)
Dr. Wolfgang Eisenberg, Leipzig [WE] (A) (15)
Dr. Frank Eisenhaber, Heidelberg [FE] (A) (27; Essay Biophysik)
Dr. Roger Erb, Kassel [RE1] (A) (33)
Dr. Angelika Fallert-Müller, Groß-Zimmern [AFM] (A) (16, 26)
Dr. Andreas Faulstich, Oberkochen [AF4] (A) (Essay Adaptive Optik)
Prof. Dr. Rudolf Feile, Darmstadt (B) (20, 22)
Stephan Fichtner, Dossenheim [SF] (A) (31)
Dr. Thomas Filk, Freiburg [TF3] (A) (10, 15)
Natalie Fischer, Dossenheim [NF] (A) (32)
Prof. Dr. Klaus Fredenhagen, Hamburg [KF2] (A) (Essay Algebraische Quantenfeldtheorie)
Thomas Fuhrmann, Heidelberg [TF1] (A) (14)
Christian Fulda, Heidelberg [CF] (A) (07)
Frank Gabler, Frankfurt [FG1] (A) (22; Essay Datenverarbeitungssysteme künftiger Hochenergie- und Schwerionen-Experimente)
Dr. Harald Genz, Darmstadt [HG1] (A) (18)
Michael Gerding, Kühlungsborn [MG2] (A) (13)
Andrea Greiner, Heidelberg [AG1] (A) (06)
Uwe Grigoleit, Göttingen [UG] (A) (13)
Prof. Dr. Michael Grodzicki, Salzburg [MG1] (A, B) (01, 16; Essay Dichtefunktionaltheorie)
Prof. Dr. Hellmut Haberland, Freiburg [HH4] (A) (Essay Clusterphysik)
Dr. Andreas Heilmann, Chemnitz [AH1] (A) (20, 21)
Carsten Heinisch, Kaiserslautern [CH] (A) (03)
Dr. Hermann Hinsch, Heidelberg [HH2] (A) (22)
Jens Hoerner, Hannover [JH] (A) (20)
Dr. Dieter Hoffmann, Berlin [DH2] (A, B) (02)
Renate Jerecic, Heidelberg [RJ] (A) (28)
Dr. Ulrich Kilian, Hamburg [UK] (A) (19)
Thomas Kluge, Mainz [TK] (A) (20)
Achim Knoll, Straßburg [AK1] (A) (20)
Andreas Kohlmann, Heidelberg [AK2] (A) (29)
Dr. Barbara Kopff, Heidelberg [BK2] (A) (26)
Dr. Bernd Krause, Karlsruhe [BK1] (A) (19)
Ralph Kühnle, Heidelberg [RK1] (A) (05)
Dr. Andreas Markwitz, Dresden [AM1] (A) (21)
Holger Mathiszik, Bensheim [HM3] (A) (29)
Mathias Mertens, Mainz [MM1] (A) (15)
Dr. Dirk Metzger, Mannheim [DM] (A) (07)
Dr. Rudi Michalak, Warwick, UK [RM1] (A) (23)
Helmut Milde, Dresden [HM1] (A) (09; Essay Akustik)
Guenter Milde, Dresden [GM1] (A) (12)
Maritha Milde, Dresden [MM2] (A) (12)
Dr. Christopher Monroe, Boulder, USA [CM] (A) (Essay Atom- und Ionenfallen)
Dr. Andreas Müller, Kiel [AM2] (A) (33; Essay Alltagsphysik)
Dr. Nikolaus Nestle, Regensburg [NN] (A) (05)
Dr. Thomas Otto, Genf [TO] (A) (06; Essay Analytische Mechanik)
Prof. Dr. Harry Paul, Berlin [HP] (A) (13)
Cand. Phys. Christof Pflumm, Karlsruhe [CP] (A) (06, 08)
Prof. Dr. Ulrich Platt, Heidelberg [UP] (A) (Essay Atmosphäre)
Dr. Oliver Probst, Monterrey, Mexico [OP] (A) (30)
Dr. Roland Andreas Puntigam, München [RAP] (A) (14; Essay Allgemeine Relativitätstheorie)
Dr. Gunnar Radons, Mannheim [GR1] (A) (01, 02, 32)
Prof. Dr. Günter Radons, Stuttgart [GR2] (A) (11)
Oliver Rattunde, Freiburg [OR2] (A) (16; Essay Clusterphysik)
Dr. Karl-Henning Rehren, Göttingen [KHR] (A) (Essay Algebraische Quantenfeldtheorie)
Ingrid Reiser, Manhattan, USA [IR] (A) (16)
Dr. Uwe Renner, Leipzig [UR] (A) (10)
Dr. Ursula Resch-Esser, Berlin [URE] (A) (21)
Prof. Dr. Hermann Rietschel, Karlsruhe [HR1] (A, B) (23)
Dr. Peter Oliver Roll, Mainz [OR1] (A, B) (04, 15; Essay Distributionen)
Hans-Jörg Rutsch, Heidelberg [HJR] (A) (29)
Dr. Margit Sarstedt, Newcastle upon Tyne, UK [MS2] (A) (25)
Rolf Sauermost, Waldkirch [RS1] (A) (02)
Prof. Dr. Arthur Scharmann, Gießen (B) (06, 20)
Dr. Arne Schirrmacher, München [AS5] (A) (02)
Christina Schmitt, Freiburg [CS] (A) (16)
Cand. Phys. Jörg Schuler, Karlsruhe [JS1] (A) (06, 08)
Dr. Joachim Schüller, Mainz [JS2] (A) (10; Essay Analytische Mechanik)
Prof. Dr. Heinz-Georg Schuster, Kiel [HGS] (A, B) (11; Essay Chaos)
Richard Schwalbach, Mainz [RS2] (A) (17)
Prof. Dr. Klaus Stierstadt, München [KS] (A, B) (07, 20)
Cornelius Suchy, Brüssel [CS2] (A) (20)
William J. Thompson, Chapel Hill, USA [WJT] (A) (Essay Computer in der Physik)
Dr. Thomas Volkmann, Köln [TV] (A) (20)
Dipl.-Geophys. Rolf vom Stein, Köln [RVS] (A) (29)
Patrick Voss-de Haan, Mainz [PVDH] (A) (17)
Thomas Wagner, Heidelberg [TW2] (A) (29; Essay Atmosphäre)
Manfred Weber, Frankfurt [MW1] (A) (28)
Markus Wenke, Heidelberg [MW3] (A) (15)
Prof. Dr. David Wineland, Boulder, USA [DW] (A) (Essay Atom- und Ionenfallen)
Dr. Harald Wirth, Saint Genis-Pouilly, F [HW1] (A) (20)Steffen Wolf, Freiburg [SW] (A) (16)
Dr. Michael Zillgitt, Frankfurt [MZ] (A) (02)
Prof. Dr. Helmut Zimmermann, Jena [HZ] (A) (32)
Dr. Kai Zuber, Dortmund [KZ] (A) (19)

Mitarbeiter Band IV

Dr. Ulrich Kilian (verantwortlich)
Christine Weber

Redaktionsassistenz:

Matthias Beurer

Physikhistorische Beratung:

Priv.-Doz. Dr. Dieter Hoffmann, Berlin

Autoren (A) und Berater (B):

In eckigen Klammern steht das Autorenkürzel, die Zahl in der runden Klammer ist die Fachgebietsnummer; eine Liste der Fachgebiete findet sich im Vorwort.

Markus Aspelmeyer, München [MA1] (A) (20)
Dr. Katja Bammel, Cagliari, I [KB2] (A) (13)
Doz. Dr. Hans-Georg Bartel, Berlin [HGB] (A) (02)
Steffen Bauer, Karlsruhe [SB2] (A) (20, 22)
Dr. Günther Beikert, Viernheim [GB1] (A) (04, 10, 25)
Prof. Dr. Hans Berckhemer, Frankfurt [HB1] (A, B) (29)
Dr. Werner Biberacher, Garching [WB] (B) (20)
Prof. Tamás S. Biró, Budapest [TB2] (A) (15)
Prof. Dr. Helmut Bokemeyer, Darmstadt [HB2] (A, B) (18)
Dr. Ulf Borgeest, Hamburg [UB2] (A) (Essay Quasare)
Dr. Thomas Bührke, Leimen [TB] (A) (32)
Jochen Büttner, Berlin [JB] (A) (02)
Dr. Matthias Delbrück, Dossenheim [MD] (A) (12, 24, 29)
Karl Eberl, Stuttgart [KE] (A) (Essay Molekularstrahlepitaxie)
Dr. Dietrich Einzel, Garching [DE] (A) (20)
Dr. Wolfgang Eisenberg, Leipzig [WE] (A) (15)
Dr. Frank Eisenhaber, Wien [FE] (A) (27)
Dr. Roger Erb, Kassel [RE1] (A) (33; Essay Optische Erscheinungen der Atmosphäre)
Dr. Christian Eurich, Bremen [CE] (A) (Essay Neuronale Netze)
Dr. Angelika Fallert-Müller, Groß-Zimmern [AFM] (A) (16, 26)
Stephan Fichtner, Heidelberg [SF] (A) (31)
Dr. Thomas Filk, Freiburg [TF3] (A) (10, 15; Essay Perkolationstheorie)
Natalie Fischer, Walldorf [NF] (A) (32)
Dr. Harald Fuchs, Münster [HF] (A) (Essay Rastersondenmikroskopie)
Dr. Thomas Fuhrmann, Mannheim [TF1] (A) (14)
Christian Fulda, Hannover [CF] (A) (07)
Dr. Harald Genz, Darmstadt [HG1] (A) (18)
Michael Gerding, Kühlungsborn [MG2] (A) (13)
Prof. Dr. Gerd Graßhoff, Bern [GG] (A) (02)
Andrea Greiner, Heidelberg [AG1] (A) (06)
Uwe Grigoleit, Weinheim [UG] (A) (13)
Prof. Dr. Michael Grodzicki, Salzburg [MG1] (B) (01, 16)
Gunther Hadwich, München [GH] (A) (20)
Dr. Andreas Heilmann, Halle [AH1] (A) (20, 21)
Carsten Heinisch, Kaiserslautern [CH] (A) (03)
Dr. Christoph Heinze, Hamburg [CH3] (A) (29)
Dr. Marc Hemberger, Heidelberg [MH2] (A) (19)
Florian Herold, München [FH] (A) (20)
Dr. Hermann Hinsch, Heidelberg [HH2] (A) (22)
Priv.-Doz. Dr. Dieter Hoffmann, Berlin [DH2] (A, B) (02)
Dr. Georg Hoffmann, Gif-sur-Yvette, FR [GH1] (A) (29)
Dr. Gert Jacobi, Hamburg [GJ] (B) (09)
Renate Jerecic, Heidelberg [RJ] (A) (28)
Dr. Catherine Journet, Stuttgart [CJ] (A) (Essay Nanoröhrchen)
Prof. Dr. Josef Kallrath, Ludwigshafen, [JK] (A) (04; Essay Numerische Methoden in der Physik)
Priv.-Doz. Dr. Claus Kiefer, Freiburg [CK] (A) (14, 15; Essay Quantengravitation)
Richard Kilian, Wiesbaden [RK3] (22)
Dr. Ulrich Kilian, Heidelberg [UK] (A) (19)
Dr. Uwe Klemradt, München [UK1] (A) (20, Essay Phasenübergänge und kritische Phänomene)
Dr. Achim Knoll, Karlsruhe [AK1] (A) (20)
Dr. Alexei Kojevnikov, College Park, USA [AK3] (A) (02)
Dr. Berndt Koslowski, Ulm [BK] (A) (Essay Ober- und Grenzflächenphysik)
Dr. Bernd Krause, München [BK1] (A) (19)
Dr. Jens Kreisel, Grenoble [JK2] (A) (20)
Dr. Gero Kube, Mainz [GK] (A) (18)
Ralph Kühnle, Heidelberg [RK1] (A) (05)
Volker Lauff, Magdeburg [VL] (A) (04)
Priv.-Doz. Dr. Axel Lorke, München [AL] (A) (20)
Dr. Andreas Markwitz, Lower Hutt, NZ [AM1] (A) (21)
Holger Mathiszik, Celle [HM3] (A) (29)
Dr. Dirk Metzger, Mannheim [DM] (A) (07)
Prof. Dr. Karl von Meyenn, München [KVM] (A) (02)
Dr. Rudi Michalak, Augsburg [RM1] (A) (23)
Helmut Milde, Dresden [HM1] (A) (09)
Günter Milde, Dresden [GM1] (A) (12)
Marita Milde, Dresden [MM2] (A) (12)
Dr. Andreas Müller, Kiel [AM2] (A) (33)
Dr. Nikolaus Nestle, Leipzig [NN] (A, B) (05, 20; Essays Molekularstrahlepitaxie, Ober- und Grenzflächenphysik und Rastersondenmikroskopie)
Dr. Thomas Otto, Genf [TO] (A) (06)
Dr. Ulrich Parlitz, Göttingen [UP1] (A) (11)
Christof Pflumm, Karlsruhe [CP] (A) (06, 08)
Dr. Oliver Probst, Monterrey, Mexico [OP] (A) (30)
Dr. Roland Andreas Puntigam, München [RAP] (A) (14)
Dr. Andrea Quintel, Stuttgart [AQ] (A) (Essay Nanoröhrchen)
Dr. Gunnar Radons, Mannheim [GR1] (A) (01, 02, 32)
Dr. Max Rauner, Weinheim [MR3] (A) (15; Essay Quanteninformatik)
Robert Raussendorf, München [RR1] (A) (19)
Ingrid Reiser, Manhattan, USA [IR] (A) (16)
Dr. Uwe Renner, Leipzig [UR] (A) (10)
Dr. Ursula Resch-Esser, Berlin [URE] (A) (21)
Dr. Peter Oliver Roll, Ingelheim [OR1] (A, B) (15; Essay Quantenmechanik und ihre Interpretationen)
Prof. Dr. Siegmar Roth, Stuttgart [SR] (A) (Essay Nanoröhrchen)
Hans-Jörg Rutsch, Walldorf [HJR] (A) (29)
Dr. Margit Sarstedt, Leuven, B [MS2] (A) (25)
Rolf Sauermost, Waldkirch [RS1] (A) (02)
Matthias Schemmel, Berlin [MS4] (A) (02)
Michael Schmid, Stuttgart [MS5] (A) (Essay Nanoröhrchen)
Dr. Martin Schön, Konstanz [MS] (A) (14)
Jörg Schuler, Taunusstein [JS1] (A) (06, 08)
Dr. Joachim Schüller, Dossenheim [JS2] (A) (10)
Richard Schwalbach, Mainz [RS2] (A) (17)
Prof. Dr. Paul Steinhardt, Princeton, USA [PS] (A) (Essay Quasikristalle und Quasi-Elementarzellen)
Prof. Dr. Klaus Stierstadt, München [KS] (B)
Dr. Siegmund Stintzing, München [SS1] (A) (22)
Cornelius Suchy, Brüssel [CS2] (A) (20)
Dr. Volker Theileis, München [VT] (A) (20)
Prof. Dr. Gerald 't Hooft, Utrecht, NL [GT2] (A) (Essay Renormierung)
Dr. Annette Vogt, Berlin [AV] (A) (02)
Dr. Thomas Volkmann, Köln [TV] (A) (20)
Rolf vom Stein, Köln [RVS] (A) (29)
Patrick Voss-de Haan, Mainz [PVDH] (A) (17)
Dr. Thomas Wagner, Heidelberg [TW2] (A) (29)
Dr. Hildegard Wasmuth-Fries, Ludwigshafen [HWF] (A) (26)
Manfred Weber, Frankfurt [MW1] (A) (28)
Priv.-Doz. Dr. Burghard Weiss, Lübeck [BW2] (A) (02)
Prof. Dr. Klaus Winter, Berlin [KW] (A) (Essay Neutrinophysik)
Dr. Achim Wixforth, München [AW1] (A) (20)
Dr. Steffen Wolf, Berkeley, USA [SW] (A) (16)
Priv.-Doz. Dr. Jochen Wosnitza, Karlsruhe [JW] (A) (23; Essay Organische Supraleiter)
Priv.-Doz. Dr. Jörg Zegenhagen, Stuttgart [JZ3] (A) (21; Essay Oberflächenrekonstruktionen)
Dr. Kai Zuber, Dortmund [KZ] (A) (19)
Dr. Werner Zwerger, München [WZ] (A) (20)

Mitarbeiter Band V

Dr. Ulrich Kilian (verantwortlich)
Christine Weber

Redaktionsassistenz:

Matthias Beurer

Physikhistorische Beratung:

Priv.-Doz. Dr. Dieter Hoffmann, Berlin

Autoren (A) und Berater (B):

In eckigen Klammern steht das Autorenkürzel, die Zahl in der runden Klammer ist die Fachgebietsnummer; eine Liste der Fachgebiete findet sich im Vorwort.

Prof. Dr. Klaus Andres, Garching [KA] (A) (10)
Markus Aspelmeyer, München [MA1] (A) (20)
Dr. Katja Bammel, Cagliari, I [KB2] (A) (13)
Doz. Dr. Hans-Georg Bartel, Berlin [HGB] (A) (02)
Steffen Bauer, Karlsruhe [SB2] (A) (20, 22)
Dr. Günther Beikert, Viernheim [GB1] (A) (04, 10, 25)
Prof. Dr. Hans Berckhemer, Frankfurt [HB1] (A, B) (29; Essay Seismologie)
Dr. Werner Biberacher, Garching [WB] (B) (20)
Prof. Tamás S. Biró, Budapest [TB2] (A) (15)
Prof. Dr. Helmut Bokemeyer, Darmstadt [HB2] (A, B) (18)
Dr. Thomas Bührke, Leimen [TB] (A) (32)
Jochen Büttner, Berlin [JB] (A) (02)
Dr. Matthias Delbrück, Dossenheim [MD] (A) (12, 24, 29)
Prof. Dr. Martin Dressel, Stuttgart (A) (Essay Spindichtewellen)
Dr. Michael Eckert, München [ME] (A) (02)
Dr. Dietrich Einzel, Garching (A) (Essay Supraleitung und Suprafluidität)
Dr. Wolfgang Eisenberg, Leipzig [WE] (A) (15)
Dr. Frank Eisenhaber, Wien [FE] (A) (27)
Dr. Roger Erb, Kassel [RE1] (A) (33)
Dr. Angelika Fallert-Müller, Groß-Zimmern [AFM] (A) (16, 26)
Stephan Fichtner, Heidelberg [SF] (A) (31)
Dr. Thomas Filk, Freiburg [TF3] (A) (10, 15)
Natalie Fischer, Walldorf [NF] (A) (32)
Dr. Thomas Fuhrmann, Mannheim [TF1] (A) (14)
Christian Fulda, Hannover [CF] (A) (07)
Frank Gabler, Frankfurt [FG1] (A) (22)
Dr. Harald Genz, Darmstadt [HG1] (A) (18)
Prof. Dr. Henning Genz, Karlsruhe [HG2] (A) (Essays Symmetrie und Vakuum)
Dr. Michael Gerding, Potsdam [MG2] (A) (13)
Andrea Greiner, Heidelberg [AG1] (A) (06)
Uwe Grigoleit, Weinheim [UG] (A) (13)
Gunther Hadwich, München [GH] (A) (20)
Dr. Andreas Heilmann, Halle [AH1] (A) (20, 21)
Carsten Heinisch, Kaiserslautern [CH] (A) (03)
Dr. Marc Hemberger, Heidelberg [MH2] (A) (19)
Dr. Sascha Hilgenfeldt, Cambridge, USA (A) (Essay Sonolumineszenz)
Dr. Hermann Hinsch, Heidelberg [HH2] (A) (22)
Priv.-Doz. Dr. Dieter Hoffmann, Berlin [DH2] (A, B) (02)
Dr. Gert Jacobi, Hamburg [GJ] (B) (09)
Renate Jerecic, Heidelberg [RJ] (A) (28)
Prof. Dr. Josef Kallrath, Ludwigshafen [JK] (A) (04)
Priv.-Doz. Dr. Claus Kiefer, Freiburg [CK] (A) (14, 15)
Richard Kilian, Wiesbaden [RK3] (22)
Dr. Ulrich Kilian, Heidelberg [UK] (A) (19)
Thomas Kluge, Jülich [TK] (A) (20)
Dr. Achim Knoll, Karlsruhe [AK1] (A) (20)
Dr. Alexei Kojevnikov, College Park, USA [AK3] (A) (02)
Dr. Bernd Krause, München [BK1] (A) (19)
Dr. Gero Kube, Mainz [GK] (A) (18)
Ralph Kühnle, Heidelberg [RK1] (A) (05)
Volker Lauff, Magdeburg [VL] (A) (04)
Dr. Anton Lerf, Garching [AL1] (A) (23)
Dr. Detlef Lohse, Twente, NL (A) (Essay Sonolumineszenz)
Priv.-Doz. Dr. Axel Lorke, München [AL] (A) (20)
Prof. Dr. Jan Louis, Halle (A) (Essay Stringtheorie)
Dr. Andreas Markwitz, Lower Hutt, NZ [AM1] (A) (21)
Holger Mathiszik, Celle [HM3] (A) (29)
Dr. Dirk Metzger, Mannheim [DM] (A) (07)
Dr. Rudi Michalak, Dresden [RM1] (A) (23; Essay Tieftemperaturphysik)
Günter Milde, Dresden [GM1] (A) (12)
Helmut Milde, Dresden [HM1] (A) (09)
Marita Milde, Dresden [MM2] (A) (12)
Prof. Dr. Andreas Müller, Trier [AM2] (A) (33)
Prof. Dr. Karl Otto Münnich, Heidelberg (A) (Essay Umweltphysik)
Dr. Nikolaus Nestle, Leipzig [NN] (A, B) (05, 20)
Dr. Thomas Otto, Genf [TO] (A) (06)
Priv.-Doz. Dr. Ulrich Parlitz, Göttingen [UP1] (A) (11)
Christof Pflumm, Karlsruhe [CP] (A) (06, 08)
Dr. Oliver Probst, Monterrey, Mexico [OP] (A) (30)
Dr. Roland Andreas Puntigam, München [RAP] (A) (14)
Dr. Gunnar Radons, Mannheim [GR1] (A) (01, 02, 32)
Dr. Max Rauner, Weinheim [MR3] (A) (15)
Robert Raussendorf, München [RR1] (A) (19)
Ingrid Reiser, Manhattan, USA [IR] (A) (16)
Dr. Uwe Renner, Leipzig [UR] (A) (10)
Dr. Ursula Resch-Esser, Berlin [URE] (A) (21)
Dr. Peter Oliver Roll, Ingelheim [OR1] (A, B) (15)
Hans-Jörg Rutsch, Walldorf [HJR] (A) (29)
Rolf Sauermost, Waldkirch [RS1] (A) (02)
Matthias Schemmel, Berlin [MS4] (A) (02)
Prof. Dr. Erhard Scholz, Wuppertal [ES] (A) (02)
Dr. Martin Schön, Konstanz [MS] (A) (14; Essay Spezielle Relativitätstheorie)
Dr. Erwin Schuberth, Garching [ES4] (A) (23)
Jörg Schuler, Taunusstein [JS1] (A) (06, 08)
Dr. Joachim Schüller, Dossenheim [JS2] (A) (10)
Richard Schwalbach, Mainz [RS2] (A) (17)
Prof. Dr. Klaus Stierstadt, München [KS] (B)
Dr. Siegmund Stintzing, München [SS1] (A) (22)
Dr. Berthold Suchan, Gießen [BS] (A) (Essay Wissenschaftsphilosophie)
Cornelius Suchy, Brüssel [CS2] (A) (20)
Dr. Volker Theileis, München [VT] (A) (20)
Prof. Dr. Stefan Theisen, München (A) (Essay Stringtheorie)
Dr. Annette Vogt, Berlin [AV] (A) (02)
Dr. Thomas Volkmann, Köln [TV] (A) (20)
Rolf vom Stein, Köln [RVS] (A) (29)
Dr. Patrick Voss-de Haan, Mainz [PVDH] (A) (17)
Dr. Thomas Wagner, Heidelberg [TW2] (A) (29)
Manfred Weber, Frankfurt [MW1] (A) (28)
Dr. Martin Werner, Hamburg [MW] (A) (29)
Dr. Achim Wixforth, München [AW1] (A) (20)
Dr. Steffen Wolf, Berkeley, USA [SW] (A) (16)
Dr. Stefan L. Wolff, München [SW1] (A) (02)
Priv.-Doz. Dr. Jochen Wosnitza, Karlsruhe [JW] (A) (23)
Dr. Kai Zuber, Dortmund [KZ] (A) (19)
Dr. Werner Zwerger, München [WZ] (A) (20)

Schreiben Sie uns!

Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.

Partnerinhalte

Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.