Lesermeinung - Spektrum der Wissenschaft

Ihre Beiträge sind uns willkommen! Schreiben Sie uns Ihre Fragen und Anregungen, Ihre Kritik oder Zustimmung. Wir veröffentlichen hier laufend Ihre aktuellen Zuschriften.
  • Lactobacillus gasseri und sein Lactocilin ist in seiner Wirkungsstätte der Vagina gut aufbewahrt.

    13.09.2014, Susi Parthener
    Kurzfristige, dicke Gewinne und steigende Aktienkurse zwilichtiger Einrichtungen stehen hier wohl an erster Stelle. Nicht auszudenken was passiert wenn sich aufgrund von Missbrauch Resistenzen gegen diesem "natürichen" Schutz entwickeln.

    Die wirtschafliche Verwertung ist ein solcher Missbrauch - und diese Verwertung ist schonungslos sowie grenzenlos solange sich damit einpaar Mäuse verdienen lassen.
  • Andreas Nieder und seine grausamen Tierversuche

    12.09.2014, gegen solche Tierversuche
    Solchen Wissenschaftlern solte keine Platform für ihre Forschungen gegeben werden: Nieder und Mitarbeiter forschen über das Zählvermögen von Rhesusaffen. Über einem Bohrloch im Schädel werden den Tieren eine Kammer für Elektroden sowie ein Metallbolzen auf dem Kopf implantiert. Die Tiere müssen jeden Tag mehrere Stunden in einem Primatenstuhl sitzen und Punkte und Zahlen auf einem Bildschirm erkennen. Ihr Kopf ist dabei mit dem Bolzen unbeweglich an ein Gestell geschraubt. Gleichzeitig werden über die Elektroden Hirnströme gemessen. Lässt der Affe einen gedrückten Hebel im richtigen Moment los, erhält er über einen Schlauch im Mund etwas Saft. Außerhalb der Experimente gibt es nichts zu trinken. Für einen Tropfen Saft tun die durstigen Affen alles, was von ihnen verlangt wird. Das Leid dieser Tiere erstreckt sich oft über viele Jahre. Quelle: aerzte-gegen-tierversuche.de/de/?option=com_content&view=article&id=227:affenqual-in-tuebingen&catid=55:tierversuche-an-affen&Itemid=65
  • Sehr gefährliches Vorgehen

    12.09.2014, Jakob Demir
    Nehmen wir an, die Pharmaindustrie findet einen Weg solche Antibiotika künstlich herzustellen.

    Dann wäre das Produkt zuerst ein Meilenstein in der Medizin. Sehr verträglich, da praktisch vom menschlichen Körper bekannt.

    Wie bei jeder intensiver Verbreitung von Antibiotika wäre die Gefahr vorhanden, dass Keime Resistenzen bilden.

    Das Problem ist nun, dass nun der eigene Körper kein Mittel mehr hat, sich gegen resistente Keime zu wehren.

    Wir beschleunigen gerade in immer schnellerem Zyklus die Evolution.
    Leider auch der Erreger und Keime.

    Ich wäre persönlich dagegen solche Mittel außerhalb von Kliniken einzusetzen, da unsere heutiges Antibiotika-Problem vornehmlich durch Nichteinhaltung der Vorschriften entstanden ist, bzw. durch unverantwortliche Entsorgung über die Kanalisation.

    Grüße
    DJ
  • Wie das?

    12.09.2014, Balu
    Wie kann das Verhältnis von Wasserstoff zu Deuterium etwas aussagen?

    Die Erde ist ja vor 4,5 Milliarden Jahren aus dem selben Material entstanden wie 67P/Tschurjumow-Gerasimenko und all die anderen Kometen. Von daher sollte das Verhältnis von Wasserstoff zu Deuterium in der Erde ohnehin mit dem der Kometen übereinstimmen, ob es nun bei der Entstehung schon da war oder im nachhinein durch Kometen auf die Erde gebracht wurde.
  • Rechteck gar nicht langweilig

    10.09.2014, Wolfram Graser
    Im Artikel "Chaos auf dem Billardtisch" bezeichnet Christoph Pöppe das Billardspiel auf einem rechteckigen Tisch als "langweilig regulär". Aber einen sogar noch einfacheren Fall, nämlich die eindimensionale Version des Spiels, haben Albert Einstein und Max Born hingebungsvoll untersucht. Born hat seinen etwas verstörenden Befund erstmals in seiner Nobelpreis-Rede 1954 vorgetragen ("Die statistische Deutung der Quantenmechanik", in "Physik im Wandel meiner Zeit", 2. Auflage, Vieweg 1958, S. 173): "Der Determinismus der klassischen Physik erweist sich als Trugbild, erzeugt durch eine Überschätzung mathematisch-logischer Begriffsbildungen." Die Bewegung ist nämlich instabil und indeterministisch: Auch in diesem einfachen Fall ist nach einer bestimmten Zeit die Position der Kugel (bzw. des Gaspartikels) völlig unbestimmt, wegen der unvermeidlichen Ungenauigkeiten in der Kenntnis der Anfangsbedingungen. Er bemerkt dazu weiter (M. Born, Dan. Mat. Fys. Medd. 30, no. 2 (1955), p. 1-26): "Though this is perfectly trivial, I have never seen it pointed out." Gerhard Vollmer hat M. Born deswegen als Entdecker der Chaos-Theorie bezeichnet (G. Vollmer, Naturwissenschaftliche Rundschau, 9 (1988), 345; als Anmerkung im Literaturverzeichnis).
    Antwort der Redaktion:

    Der Hinweis wirft ein interessantes Licht auf die Frage nach dem Chaos. Es stellt sich nämlich heraus, dass die Grenze zwischen "regulär" und "chaotisch" längst nicht so klar definiert ist, wie es den Anschein hat.

    Erstes Beispiel: Ein Massenpunkt wird angestoßen und bewegt sich ab dort ohne Einwirkung einer Kraft durch den leeren Raum. Jeder würde die Bewegung als regulär bezeichnen, denn sie gehorcht einer linearen Gleichung: x(t) = vt+a, und die Unsicherheit in der Position x(t) steigt zwar mit der Zeit an, aber nur proportional der Zeit; der Proportionalitätsfaktor ist die Unsicherheit in der Anfangsbedingung v.

    Zweites Beispiel: Der Massenpunkt gehorcht einer linearen Differenzialgleichung der Form (d/dt)x = cx mit der Lösung x = x0 exp(ct). Das nennt auch noch niemand ein chaotisches System; denn die Unsicherheit über den Ort den Massenpunkts wächst zwar exponentiell mit der Zeit, aber die relative Unsicherheit, also Unsicherheit geteilt durch die Größe des Raums, in dem der Massenpunkt sich aufhalten könnte, bleibt konstant. Vor allem ist zwar nicht die Kurve, auf der das Teilchen sich bewegt, linear, wohl aber das "Naturgesetz", sprich die Gleichung, der es gehorcht, und ein nichtlineares Naturgesetz gilt allgemein als notwendige Bedingung für Chaos.

    Jetzt packen wir beide Teilchen in einen quaderförmigen Kasten mit reflektierenden Wänden. Dann ist Beispiel 1 in einer Dimension das, worüber Born nachgedacht hat, und in zwei Dimensionen Sinais Billard. In Borns Augen ist es chaotisch (was heute ein Vertreter der Theorie der dynamischen Systeme wohl nicht mehr so sehen würde), in Sinais Theorie definitiv nicht.

    Ob Beispiel 2 im Kasten nach Sinai chaotisch wäre (also Entropie größer als null hätte), weiß ich nicht. In der Theorie der dynamischen Systeme ist es eines der klassischen Beispiele für Chaos. Das Argument mit der relativen Unsicherheit zieht nicht mehr, denn der Raum, in dem das Teilchen sich aufhalten könnte, wird ja mit der Zeit nicht größer; und vor allem ist die diskrete Version des Problems: xn+1 = 2xn mod 1 (die "Blätterteigtransformation") das klassische Beispiel für deterministisches Chaos.

    Allem Anschein nach ist "Sinai-Chaos" (Entropie größer als null) eine verschärfte Form von Chaos.

    Das "langweilige" Billard zeigt übrigens eine sehr empfindliche Abhängigkeit von den Anfangsdaten: Wenn die Anfangsrichtung des Teilchens (y-Koordinate durch x-Koordinate der Anfangsgeschwindigkeit) rational ist, trifft die Bahn irgendwann wieder ihren Anfangspunkt und wird dann periodisch; ist die Richtung irrational, so wird die Bahn ergodisch, das heißt, sie kommt jedem Punkt des Rechtecks beliebig nahe. Für Sinai ist also noch nicht einmal Ergodizität eine hinreichende Bedingung für Chaos. Soweit ich weiß, ist ein Prozess mit positiver Entropie nicht nur ergodisch, sondern sogar "mischend" (zwei beliebige Trajektorien kommen sich immer wieder beliebig nahe).

    Christoph Pöppe, Redaktion

    Nachtrag: Soeben (6. 10. 2014) bin ich auf eine ältere Arbeit gestoßen, die den Zusammenhang zwischen physikalischer Entropie und Kolmogorow-Sinai-Entropie zum Thema hat: Vito Latora und Michel Baranger: Kolmogorov-Sinai Entropy-Rate vs. Physical Entropy.

  • 10.09.2014, Kevin Kircher
    "Dabei müssten Menschen erst gar nicht mit antibiotischen Medikamenten behandelt werden, wenn es zum Beispiel mit Handhygiene und Isolationsmaßnahmen gelänge, die Ausbreitung eines Krankheitserregers zu stoppen."

    Dasist sehr naiv bis arrogant. Es stimmt, dass für normale Krankheitsverläufe gerade junger, nicht chronisch kranker Menschen Antibiotika mehr oder weniger ohne große Bedeutung, lediglich ein gigantischer Markt sind. Die Forderung von "Händewaschen hilft" bei chronisch Kranken ist ein Witz. Die meisten gefährlichen und multiresistenten Keime kommen erst über das Wasser. Und einmal nicht richtig abgetrocknet, zack. Oder Freibäder, Seen. Man müsste Wasser komplett meiden. Nein, gerade bei Mukoviszidose steckt sich JEDER irgendwann mit einem harten Keim an. Das ist durch keine Hygienemaßnahme der Welt vermeidbar. Nur konkrete Angriffe auf diese Bakterien behindert ihr zerstörerisches Werk. Bislang waren diese Angriffe sehr aggressiv, aber nicht sonderlich klug. Durch den Selektionsdrang wurden richtige Monsterbakterien herangezüchtet. Wer die noch chemisch vergiften will, vergiftet auch den Körper. Dahingend sind beide im Text beschrieben Ansätze sehr wichtig. Wenn man allerdings sieht, mit welchen Forschungs-Budgets deutsche Universitäten mittlerweile auskommen, mit welcher rechtlicher Hinterwelten sich auseinandergesetzt werden müssen, ist das sehr beschämend.
  • "Uns läuft die Zeit davon"

    10.09.2014, Werner Kohl
    Seltsam. Jetzt wird der schnellste Anstieg an Treibhausgasen seit 30 Jahren festgestellt und resümmiert, dass "uns die Zeit davonläuft". Dabei wird völlig unterschlagen, dass die "globale Temperatur" seit längerem stagniert. Letzteres ist ein allgemein bekannter Fakt und wird im Englischen meist als "Hiatus" bezeichnet.

    Eine kürzlich publizierte Arbeit (Steve McIntyre, dx.doi.org/10.4236/ojs.2014.47050) hat diesen "Hiatus" genauer analysiert und kommt zu folgendem Ergebnis:
    - Die HadCRUT4-Reihe der Oberflächentemperaturen zeigt eine Stagnation über die letzten 19 Jahre
    - Die UAH-Reihe der Satellitenaufzeichnungen der unterem Troposphäre belegt eine Stagnation über die letzten 16 Jahre
    - Die RSS-Reihe der Satellitenaufzeichnungen der unterem Troposphäre belegt eine Stagnation über die letzten 26 Jahre

    Keines der gängigen Klimamodelle, die Eingang in den neusten Klimareport AR5 des IPCC gefunden haben, kann diesen Stillstand reproduzieren. Diese sind damit falsifiziert und folglich völlig ungeeignet, Prognosen anzustellen.

    Führende Klimaforscher wie Kevin Trenberth erkennen inzwischen natürliche Einflüsse als Ursache für den augenblicklichen und möglicherweise weiter andauernden Stillstand an. Explizit genannt sind multidekadische Zyklen (z.B. PDO oder AMO), die derzeit ihre negative Phase durchlaufen bzw. in diese eintreten. Da diese den anthropogenen Einfluss auf die Temperaturentwicklung derzeit komplett kompensieren, lässt sich unmittelbar schlussfolgern, dass deren positive Phase Ende des letzten Jahrhunderts mindestens zur Hälfte zum damaligen Temperaturanstieg beitrug. Daraus folgt wiederum, dass die vom IPCC angenommene Sensitivität des CO2 deutlich zu hoch angesetzt ist.

    Ich würde mir sehr wünschen, dass SdW diese wissenschaftlichen Erkenntnisse in seine Artikel einfließen lässt und auch kritische Stimmen (wie dieses Posting) zulässt.
  • Pfirsichzucht?

    09.09.2014, Ulrich Heemann
    Der Artikel zur menschlich beeinflussten Entwicklung der Pfirsiche benutzt mehrfach den Bergriff der Zucht. Das ist jedoch sehr fraglich, denn darunter verseht man die bewusst gelenkte Modifikation von Eigenschaften. Dies wiederum setzt ein Wissen um die Vererbbarkeit von Eigenschaften - in diesem Fall von Pflanzen - voraus. Selbst wenn die Erfahrung mit Tieren (und Menschen) eine solche Machbarkeit sichtbar machen sollte, kann dies zumindest bei Pflanzen nicht einfach unterstellt werden. Wohl aber ist es natürlich, dass man die schönsten und größten Pfirsiche pflückt bzw. auch mitnimmt und dabei unwillkürlich eine Auswahl (Auslese) trifft. So können sich an festen Standorten langsam immer mehr dieser Kerne sammeln und dabei zwangsläufig, aber ungeplant eine Evolution einleiten. Im Gegensatz zu Tieren fördert hier der Verzehr der besten Individuen deren Entwicklung. Das lässt sich sogar auch auf deren Ergiebigkeit (Zahl der Früchte am Baum) übertragen.
  • Zweiter Teil der Frage

    09.09.2014, Raimund Zopp, Gföhl/Niederösterreich
    Verliert das Universum durch diesen Effekt nicht ständig an gravitationswirksamer Masse? Wird das in den kosmologischen Modellen berücksichtigt?
  • So schlecht ist der p-Wert nicht

    09.09.2014, Dr. Martin Treiber
    Es ist schön, dass Regina Nuzzo auf die Gefahren einer Missinterpretation des so genannten p-Wertes bei statistischen Befunden hinweist, umso mehr, da Studenten und Wissenschaftler in solchen Situationen häufig eine statistische Software anwerfen und den ausgeworfenen p-Wert (zusammen mit ähnlich fragwürdigen Kennzahlen) unreflektiert übernehmen.

    Jedoch schießt die Autorin dabei über das Ziel hinaus, indem sie die ebenso fragwürdige Arbeit von Sellke et al. als Basis ihres Artikels nimmt. Da in dem Kasten "Magerer Erkenntnisgewinn" viele Annahmen unerwähnt bleiben, habe ich die zugrundeliegenden Publikation (Thomas Sellke, M. J. Bayarri, James O. Berger: Calibration of p Values for Testing Precise Null Hypotheses, The American Statistician, 55:1, 62-71, 2001) genauer angeschaut. Die Annahmen in der mittleren Situation "Münzwurf" sind dabei wie folgt:

    1. In 50 Prozent der Fragestellungen ist der wahre Wert genau X=0 (die Nullhypothese H0 trifft zu), während er in den anderen Fällen immer denselben positiven Wert hat.

    2. Die Messung weist einen normalverteilten Messfehler bekannter und von X unabhängiger Varianz auf.

    3. Der p-Wert wird für eine Punkt-Nullhypothese (z. B. X=0) berechnet. In diesen so genannten symmetrischen Tests bekommen auch hinreichend negative Messungen ("das Medikament wirkt weniger als ein Placebo") einen kleinen p-Wert.

    Punkt 3 ist zwar dem Sachverhalt meist nicht angemessen, aber ebenso wie Punkt 2 eher unproblematisch. Annahme 1 hingegen ist meist unrealistisch und führt zu falschen Schlussfolgerungen, wie folgendes Beispiel zeigt: In 50 % der getesteten Medikamente sei der wahre Wert X=0 entsprechend der Nullhypothese (Medikament ist wirkungslos) und in den anderen 50 % X=5 (Medikament wirkt). Ferner sei die Standardabweichung des normalverteilten Messfehlers gleich 1 und die Messung ergebe x=2, was einem p-Wert von etwa 5 % entspricht. Das Messergebnis ist also zwei Standardabweichungen vom wahren Wert der wirkungslosen Medikamente, aber drei Standardabweichungen von dem der wirkenden Medikamente entfernt, und daher ist es wahrscheinlicher, dass diese Messung von einem wirkungslosen Medikament herrührt: Eine einfache Rechnung zeigt, dass diese Messung mit einer Wahrscheinlichkeit von etwa 95 % von einem wirkungslosen Medikament herrührt, nicht etwa zu 5 %, wie es der p-Wert nahelegt.

    Führt der p-Wert also wirklich zu solch massiven Fehlinterpretationen? Nicht wirklich: Zunächst einmal ist im Falle eines wirkungslosen Medikaments ein solch hoher oder höherer x-Wert sehr unwahrscheinlich (nämlich 2,5 %), und man muss schon sehr viel Pech haben, solch einer Fehlinterpretation aufzusitzen. Wichtiger jedoch ist die Verfälschung durch die unrealistischen Annahmen. Realistischer ist es sicherlich, nicht nur den Messfehler Y als normalverteilt anzusehen, sondern auch die wahren Werte X. Ferner sollte man unsymmetrisch auf die Nullhypothese H0: X ≤ 0 testen.

    Die hier abzurufende Grafik zeigt für symmetrisch um null verteilte wahre Werte (also P(H0)=1/2) die dann resultierende Wahrscheinlichkeit P(H0|p) dafür, dass die Nullhypothese "X ≤ 0" bei gegebenem p-Wert wahr ist, und zwar in Abhängigkeit vom Verhältnis der Standardabweichung σy des Messfehlers zur Standardabweichung σx der wahren Werte. Daraus erhält man folgende Anleitung zur Interpretation des p-Werts:

    * Ist die Standardabweichung des Messfehlers deutlich geringer als die vermutete Schwankungsbreite der wahren Werte, sagt der p-Wert des unsymmetrischen Tests in Wesentlichen die Wahrheit, zumindest, wenn die Nullhypothese in etwa 50 % der Fälle zutrifft.

    * Ist die Standardabweichung des Messfehlers hingegen deutlich höher als die Schwankungsbreite der wahren Werte, ergibt die Messung kaum Informationsgewinn, und die a-priori-Wahrscheinlichkeit (hier 50 %) bleibt nahezu unverändert.

    * Bei etwa gleichen Standardabweichungen trifft die Nullhypothese etwa doppelt so häufig zu, wie es der p-Wert impliziert.

    Diese Aussagen sind robust bezüglich der Verteilung der wahren Werte und der Messfehler: Sie gelten beispielweise auch für gleichverteilte wahre Werte oder eine unbekannte und aus der Messung zu schätzende Standardabweichung der Schätzfehler. Wichtig ist nur, dass die wahren Werte nicht auf einen Punkt konzentriert sind wie im oben angesprochenen Artikel.

  • Auslöschung des Natürlichen - und eines Kulturguts

    08.09.2014, Christopher
    Das zunehmende Ausmaß der Beleuchtung ist sicherlich eng an ein Naturverständnis geknüpft, das Natur zunächst und vor allem als Gefährdung auffasst - eine erstaunlich mittelalterliche Denkweise. Die Verbannung der Dunkelheit verbannt das Unbeherrschbare, mithin das Natürliche. Es hat eine gewisse Konsequenz, dass im selben Zuge das älteste Kulturgut - der Sternhimmel - ausgelöscht wird.
  • Moblilisierung archimedischer Körper

    08.09.2014, Werner Hilger
    Die beschriebene "Mobilisierung" eines Ikosaeders durch Verdopplung der Seiten ist etwas unhandlich; es scheint ein einheitliches einfaches Mobilisierungsprinzip für bestimmte archimedische Körper zu geben.
    Man betrachte zu den platonischen Körpern die Kantengraphen. Die entsprechenden Polyeder (wie in Abb. d auf S.67) bestehen dann aus Dreiecken (gelb) sowie 3-, 4- oder 5-Ecken (grün).
    Bei entsprechender einseitiger Befestigung der gelben Dreiecke an den grünen n-Ecken lassen sich die Körper analog mobilisieren:

    Tetraeder -> Oktaeder -> Kuboktaeder
    Oktaeder/Würfel -> Kuboktaeder -> kleines Rhombenkuboktaeder
    Dodekaeder/Ikosaeder -> Ikosidodekaeder -> kleines Rhombenikosidodekaeder
    Antwort der Redaktion:

    Die von Ihnen übersichtlich aufgeführten Mobilisierungen funktionieren alle – in der unhandlichen Version mit verdoppelten Seitenflächen. Es ist auch kein Problem, von den beiden Exemplaren jeder Seitenfläche nur eines auszuwählen und es dieselbe Bewegung ausführen zu lassen wie eine der Flächen des "doppelseitigen" Modells – in der Computergrafik. Unterwegs haben dann die Ecken der Seitenflächen im Allgemeinen keinen Kontakt untereinander, so dass ein "reales" mechanisches Modell nicht funktionieren kann.

    Letzteres gelingt nur dann, wenn sich in jeder Ecke des Ursprungskörpers eine gerade Anzahl von Flächen trifft. Dann kann man jeweils zwei benachbarte Flächen an den Ecken verbinden, ohne dass eine Ecke unverbunden bleibt. Benachbarte Flächen rotieren dann stets gegenläufig.

    Die Bedingung "gerade Anzahl von Flächen an jeder Ecke" erfüllt unter den platonischen Körpern nur das Oktaeder. Unter den archimedischen Körpern ist die Auswahl schon reichhaltiger: Kuboktaeder, Ikosidodekaeder, kleines Rhombenkuboktaeder, kleines Rhombenikosidodekaeder. Ob die beiden letzten Körper schon einmal beweglich gebaut worden sind, ist mir nicht bekannt.

    Christoph Pöppe, Redaktion

  • Großer und schneller Tropfen

    08.09.2014, Kai Hiltmann
    Auch in der Technik wird der Druck meist über eine verstellbare Ventilöffnung eingestellt. Interessanter finde ich aber folgenden Aspekt:

    Der Fisch will einen sowohl großen als auch schnellen Tropfen erzeugen, um das Ziel mit hoher Leistung zu treffen. Diese Leistung hat er jedoch nicht zur Verfügung. Außerdem kann er mit weitem Maul entweder einen breiten Strahl oder, mit schmalem, einen schnellen Strahl erzeugen. Der Strahl soll sowohl breit (großer Querschnitt) als auch schmal (schnell) sein, was aber offensichtlich nicht gleichzeitig möglich ist. Auch Ingenieure würden hier meist kapitulieren. Die Lösungstechnik nach TRIZ heißt "Separation in der Zeit" und "Separation im Raum": ERST wird die Energie über längere Zeit erzeugt (Strahl, geringe Leistung), DANN in einem Tropfen konzentriert (hohe Leistung). Im Maul ist der Strahl lang gestreckt, am Ziel gebündelt.
    Beide Lösungstechniken sind anspruchsvoll, ihre Kombination ist genial. Auch der verwendete physikalische Effekt, eine intensive Welle durch Überlagerung verschiedener Geschwindigkeiten zu erzeugen, ist in der Technik sehr selten (wenn er auch jeder sich brechenden Welle am Strand zugrunde liegt).
  • "Lichtverschmutzung"

    07.09.2014, Tim
    "Lichtverschmutzung" ist ein unwissenschaftlicher Kampfbegriff. Meinetwegen kann die BILD-Zeitung ihn gern verwenden, aber bitte nicht SdW.

    Öffentliche Beleuchtung wird ja nicht gemacht, um Astronomen zu ärgern, sondern weil die Bürger im großen und ganzen zufrieden und einverstanden mit ihr sind. Natürlich gibt es wie überall auch bei der öffentlichen Beleuchtung Optimierungspotential. Aber unter dem Strich ist sie kein Problem, sondern eine Errungenschaft.
  • Milliardenschäden?!

    06.09.2014, Michael Rupp
    da möchte ich aber mal mindestens einen Kasten Bier wetten (ohne entsprechend recherchiert zu haben), dass die "Milliardenschäden" von 1996 in isländischen Kronen bewertet wurden! (1 EUR sind nämlich ca. 156 davon)
    Antwort der Redaktion:
    Sehr geehrter Herr Rupp,

    Sie haben Recht: der Schaden in Euro betrug nur "nur" etwa 30 Millionen Euro. Ich ergänze die Devisenangaben.

    Mit freundlichen Grüßen
    Daniel Lingenhöhl
Anzeige