Direkt zum Inhalt

Kommentare - - Seite 465

Ihre Beiträge sind uns willkommen! Schreiben Sie uns Ihre Fragen und Anregungen, Ihre Kritik oder Zustimmung. Wir veröffentlichen hier laufend Ihre aktuellen Zuschriften.
  • Kommentar des Autors

    15.02.2017, Jean-Paul Delahaye
    Ich bezweifle nicht, dass man dem Simpson-Paradox und seinen Varianten entgehen kann, indem man Bedingungen an die Größe der Teilgruppen stellt. Das ist sogar relativ einfach zu beweisen. Es geht nur darum, sich das Paradox zu Bewusstsein zu bringen, damit man sich die richtigen Regeln zu seiner Vermeidung geben kann.
  • Ist das Simpson-Paradox wirklich ein Paradox?

    15.02.2017, Christian Hartl
    Bei einer statistischen Auswertung wie in dem Beispiel am Anfang des Artikels wird normalerweise kein genaues Modell über die individuelle Wirkweise des Medikaments zugrundegelegt. Insbesondere fließt die Abhängigkeit der Wirkweise von den Merkmalen des Individuums (Geschlecht, Helligkeit der Augen, und potentiell unzählige weitere wie z. B. DNA oder aktuelle körperliche Verfassung) nicht in die Hypothese ein, ebensowenig der charakteristische Krankheitsverlauf. Die implizite Annahme ist lediglich, dass das Medikament auf ein beliebiges Individuum (mit einer gewissen Wahrscheinlichkeit) entweder wirkt oder nicht.

    Im Vergleich dazu ist die Situation in einem typischen physikalischen Experiment wesentlich einfacher und klarer: Alle statistischen Objekte (z. B. Elektronen) sind exakt identisch, und die postulierte Wirkung der Experimentanordnung (z. B. elektromagnetisches Feld) und der physikalischen Gesetze (z. B. Streuung an anderen Objekten) in Abhängigkeit von weiteren Merkmalen (Ort, Geschwindigkeit) ist im Modell genau definiert.

    Dem entspricht in gewisser Weise die "Sichtweise 3" auf das Paradox: Die Behandlungsempfehlung sollte auf möglichst detaillierten (und statistisch ausreichenden) Daten beruhen.

    Ich glaube, die Aussage "Wenn das Paradox vorliegt, gibt es keine Abhilfe – aber das kommt glücklicherweise selten vor" führt jedoch in die Irre. Und dass man "guten Gewissens riskieren kann, nicht daran zu denken", wie im Schlusssatz des Artikels beruhigend angemerkt wird, ist womöglich genau der falsche Rat. Im Konfigurationsraum der möglichen Experimentergebnisse liegen die Instanzen des Simpson-Paradoxons nämlich dünn gestreut. Das bedeutet aber, dass in nächster Nachbarschaft einer solchen Instanz Ergebnisse lauern, die zu abweichenden Schlussfolgerungen führen würden!

    Daraus aber kann nur folgen, so vermute ich, dass am Experiment etwas faul ist: Entweder sind die relevanten Einflussparameter nicht in repräsentativer Weise in der Stichprobe vorhanden (entsprechend der natürlich vorkommenden Gesamtverteilung) oder in jeweils nicht ausreichender Anzahl, oder aber das implizite Modell ist falsch, d. h. man hat die Daten nach irrelevanten Parametern gruppiert und nicht nach den entscheidenden Einflussfaktoren!

    Es würde gänzlich der Intuition widersprechen, wenn diese numerischen "Singularitäten" eine seltsame Form von Pech bedeuten würden. Das kann schon deshalb nicht sein, weil es ja für die Interpretation eines robusten Experiments keinen Unterschied machen darf, ob man die Zahlen leicht variiert.

    Man sieht an den Farbplots aus dem Artikel auch deutlich, dass die Simpson-Paradoxa immer in unruhigen Zonen auftreten, nie aber mitten in einer ruhigen grünen oder ruhigen roten Zone. Für ein solides Experiment wird das Ergebnis aber immer in solche ruhigen Zonen fallen, vor allem wenn der Effekt stark ist. Vermutlich kann das Paradox auch noch in einem anderen Fall schlagend werden: nämlich dann, wenn zwar ein Effekt vorhanden ist, dies jedoch nur in schwacher Ausprägung (z. B. 51% Erfolg beim Medikament, 49% beim Placebo); zumindest in der medizinischen Praxis dürfte dies wenig relevant sein, da wir in dem Fall nahe einem Nulleffekt sind.

    Ich persönlich sehe daher folgende Schlussfolgerungen:

    1. Erwischt dich bei einem Experiment "zufällig" das so genannte "Simpson-Paradoxon", dann überprüfe die Methode des Experiments und überlege, ob die richtigen Einflussgrößen kontrolliert werden und in ausreichender und repräsentativer Form in der Stichprobe landen. Das Simpson-Paradox kann im Einzelfall also nützliche Hinweise geben!

    2. Umgekehrt: Erwischt dich das Simpson-Paradox "zufällig" NICHT, so überprüfe dennoch, ob das Ergebnis im Konfigurationsraum der möglichen Ergebnisse in einer instabilen Region liegt (also ob es umliegende Punkte gibt, welche zu einer anderen Interpretation führen würden).

    Dass die Schlussfolgerung 1 im echten Leben Anwendung findet, zeigt sich an den drei Beispielen im Kasten "Das Simpson-Paradox im echten Leben": Die Studien wurden eben nicht verworfen nach dem Motto "Pech gehabt", sondern es wurde jeweils nach den Gründen für das "Paradox" gesucht - und diese wurden gefunden.

    Die Schlussfolgerung 2 finde ich interessant: Es sollte möglich sein, die Daten aus einem Experiment nach den genannten Kriterien auf Robustheit zu überprüfen. Gut möglich, dass manche Statistik-Programme dies ohnehin können oder sogar routinemäßig machen - ich weiß es nicht.
    Stellungnahme der Redaktion

    Kein Einwand, aber ein Aufruf zur Vorsicht: Den Schemata von Jean-François Colonna sieht man nicht wirklich an, wo es ruhig und wo es unruhig zugeht. Colonna hat in sehr raffinierter Weise (getrennt für Männer und Frauen) jeweils vier Dimensionen auf eine zusammengedrückt, allerdings um den Preis, dass Punkte, die in dem originalen achtdimensionalen Parameterraum eng beisammen waren, das in dieser Darstellung nicht mehr unbedingt sind, und umgekehrt. Deswegen darf man sich für die Frage, ob ein Ergebnis robust gegen kleine Abweichungen ist, nicht auf diese Darstellung verlassen, sondern muss abstraktere Mittel zu Hilfe nehmen (die es gibt).


    Christoph Pöppe, Redaktion

  • Der deutsche Energiewende-Wahn bringt eine weitere unsinnige Idee hervor

    14.02.2017, Dr. Armin Quentmeier
    Der CO2-Ausstoß in Deutschland lag in 2016 bei ca. 800 Millionen t; davon entfallen ca. 40 Millionen t = 5% auf den Güterverkehr auf der Straße (zum Vergleich: PKWs, also „motorisierter Individualverkehr" macht schon ca. 100 Millionen t aus).
    Wie viel Prozent können durch Stromabnehmer-LKWs auf unseren Straßen eingespart werden? Zur Erinnerung: LKWs fahren nicht nur auf Autobahnen (Gesamtlänge 12.900 km), sondern auch auf Bundestraßen, Landstraßen, Kreisstraßen und städtischen Straßen (ca. 630.000 km). Die kleinsten Dörfer, sofern sie nicht auf den Halligen liegen, können durch LKWs erreicht und versorgt werden.
    Wie viel CO2 wird bei LKW-Fahrten auf Autobahnen und den anderen Straßen emittiert? Nur auf Autobahnen wäre die Investition in LKW-Oberleitungen technisch und kostenmäßig realisierbar, aber die Autobahnen machen nur 2 % des deutschen Straßennetzes aus. Können dadurch vielleicht 25 % der durch LKWs erzeugten CO2-Emissionen eingespart werden, dann wären das 10 Millionen von 800 Millionen t, also 1,25 % der deutschen CO2-Gesamtfreisetzung in einem Jahr. Und für einen solchen lächerlichen Einspareffekt sollen womöglich 10.000 km Autobahn für 10 Milliarden Euro elektrifiziert werden? Das ist eine groteske Vorstellung, aber leider besteht die Gefahr, daß diese Wahnsinnsidee von unseren Politikern in die Tat umgesetzt wird, so wie bereits jetzt 26.000 riesige Windmühlen unser Land von der Nordsee bis zum Alpenrand verschandeln. 35 Millionen Euro in eine solche unsinnige Sache wie einen Modellversuch für Oberleitungen für LKWs zu investieren ist eine grandiose Geldverschwendung und ein großer Schritt in die falsche Richtung.
  • Mysteriöses Sonnenereignis

    13.02.2017, Goswin Seibicke
    Solch ein mysteriöses, also unerklärliches, Ereignis ist auch in den Eisbohrkernen der Antarktis und von Grönland vor ca. 8000 Jahren vor heute zu erkennen. Es ist der einzige größere Kälteeinbruch, der von den Ozeanologen (Kiel) mir nicht erklärt werden konnte außer mit einer Vermutung über einen ausgelaufenen Schmelzwassersee in Nordamerika. Ich hatte das im Rahmen meiner Sprachforschung untersucht, um eventuelle Auswirkungen auf Wanderbewegungen unserer Vorfahren in Europa durch extreme Ereignisse zu erkennen.
  • RE: Verfechter/Vertreter der Dunklen Materie

    12.02.2017, Peter Spieß
    Natürlich wechselwirkt dunkle Materie, v. a. in Form von Gravitation.
    Und der Vergleich mit "Äther" ist ja nun ziemlicher Quatsch...
  • Verifikation im Bereich des Möglichen

    12.02.2017, Rolf Münger
    Wenn die Grenz-Beschleunigung 0,00000000012 Meter pro Sekundenquadrat beträgt, dann sollte eine Messung der tatsächlichen Gesetzmässigkeit möglich sein. Zwei Massen von je 100kg in einem Abstand von 10m erfahren durch die gegenseitige Anziehung eine etwas geringere Beschleunigung, diese wäre also bereits nicht mehr im Bereich des Newton-Gesetzes. Die zwei Massen würden sich im Lauf von 2 Stunden um ca. 1.7 mm annähern, dies wäre leicht messbar.
    Es sollte also genügen, zwei Satelliten nebeneinander im All zu positionieren und zu messen, wie sich deren Abstand aufgrund der gegenseitigen Anziehung entwickelt. Man sollte leicht erkennen können, ob die Newton-Gravitation bei geringen Schwere-Beschleunigungen gilt oder nicht.
  • Grube Messel fehldatiert?

    12.02.2017, Klaus de Leuw
    "Vor gut 20 Millionen Jahren "lernten" auch Säugetiere, sich in die Lüfte zu erheben." Dann sind wohl die zahlreichen Fledermausfossilien aus der rund 48 Mio. Jahre alten Grube Messel fehldatiert wie die Grube selbst?
    Stellungnahme der Redaktion

    Vielen Dank für Ihren berechtigten Hinweis. Wir korrigieren die Angabe in der Rezension und leiten Ihren Hinweis an den Springer-Verlag weiter.

    Mit freundlichen Grüßen, d. Red.

  • Klimaphänomene

    11.02.2017, Noldi Schwarz
    Was soll das Ganze? Nun werden bereits einzelne Tage beigezogen um den Klimawandel zu beweisen? Vor einigen Jahren hiess es noch, die Periode müsse mindestens 15 - 25 Jahre dauern um ein klares Bild zu erhalten. Ich erinnere mich an einen Januaraufenthalt in Finnland vor rund 20 Jahren. In den ersten Tagen herrschten Temperaturen von -30 bis -40 Grad. 2 Tage später waren es knapp 0 Grad. Das zeigt doch, dass solche Unterschiede kein neues Phänomen sind, sondern zu neuen Phänomenen gemacht werden. Hätten wir keinen stetigen Klimawandel würde sich z.B. die Schweiz immer noch unter einer riesigen, meterdicken Eisschicht befinden. Das war gerade Mal vor 10 - 12'000 Jahren. Ein Klacks, wenn man das Alter unseres Planeten bedenkt.
  • Kommunikationsstrategie gesucht

    11.02.2017, Jutta Paulus
    Anscheinend führen die immer extremeren Ausschläge des zumindest in der Arktis rapide voranschreitenden Klimawandels nicht dazu, dass diese Bedrohung als solche wahrgenommen wird - weder von den Politikern, noch in den Medien (jedenfalls der jeweiligen Mehrheit). Versucht man, die dringende Notwendigkeit sofortigen Umsteuerns in der Energie-, Verkehrs-, Industrie- und Landwirtschaftspolitik zu thematisieren, wird man schnell des Alarmismus und der Angstmacherei beschuldigt. Gern wird auch behauptet, es gebe ja nun wirklich wichtigere Themen (Migration, soziale Gerechtigkeit, Trump), und ein Land allein könne ohnehin nichts ausrichten usw. usf.
    Wie kann erreicht werden, dass wenigstens zur Kenntnis genommen wird, dass die Realität im hohen Norden gerade sämtliche Modelle überholt?!
  • Hilfskonstrukt?

    11.02.2017, Theingard
    Dieser Meinung bin ich schon lange (moderne Äthertheorie). Warum die MOND-Theorie erst jetzt wieder einer näheren Betrachtung unterzogen wird, kann ich nicht verstehen. Sie ist eine gute Alternative, die ohne weit hergeholte Zusatzannahmen (exotische Teilchen ohne Wechselwirkung außer Gravitation) auskommt.
  • Einstein + Relativität der Materie/Masse ? .

    11.02.2017, carsten
    Einstein definierte Schwerkraft als Effekt der Krümmung von Raum und Zeit in der Anwesenheit von Materie ..... bzw. Abwesenheit von Materie - oder ? Ist es nicht so definiert, dass Zeit bei Anwesenheit von Materie langsamer wird zur allgemeinen Raumzeit ??? Oder meinte er nicht Masse, die er als Materie oder Energie definierte ?

    Fakt ist eben, das das mit der Schwerkraft im Sonnensystem und vielleicht innerhalb einer Galaxie gilt und darüber hinaus scheint es dann unstimmig zuwerden. Und deswegen versucht man eben, wie man das eben so macht Theorien aufzulösen und ins noch kleinere zu gehen, noch mehr an Selbstverständlichkeiten in Frage zu stellen, um den Bogen schlüssig spannen zu können, wie Einstein das ja auch gemacht hat.. Raum und Zeit existieren nicht so konkret und faktisch, wie wir das gerne hätten.
    Ich habe da in dem Artikel jetzt einfach rausgelesen, dass der Raum im Universum gekrümmt ist und deswegen die Galaxien von Außen deformiert aussehen, aber aus der Ichperpektive dann wieder homogen sind. Eigentlich sind das auch Gedanken von Einstein. Jetzt fehlt eventuell nur noch der Denkansatz Relativität der Materie . Materie ist nicht gleich Energie, sondern es gibt noch einen weiteren Faktor, der aus Energie Masse Materie werden läßt .. Gott?
    Oder (oben im Artikel wird die dunkle Energie ja nicht verleugnet): weil Masse gleich Energie ist, krümmt auch die dunkle Energie den Raum und verformt so die Galaxien, die sonst vielleicht strahlenförmig aussehen würden - so wie unser Sonnenstystem. Wir haben quasi die Raumkrümmung ständig vor unseren Augen bzw. Teleskopen und wollen den Wald vor lauter Bäumen nicht sehen.
  • Dunkle Materie nicht erforderlich

    11.02.2017, Dr. Klaus Baeuerle
    Dunkle Materie ist nur erforderlich wenn Gravitonen die Ursache von Gravitation sind.
    Bislang wurden trotz hohem Aufwand weder Gravitonen noch Dunkle Materie nachgewiesen.
    Dieser link stellt ein Gravitationsmodell vor, welches ohne Beides auskommt.
    Er macht das Aequivalenzprinzip plausibel.
    http://colorfulglobe.com/gravitation.html


  • Life Science Krise

    10.02.2017, Oliver R.
    Dass die Life Sciences in einer stummen Krise angekommen sind, ist mittlerweile ein in der Forscherszene bekanntes, aber tabuisiertes Geheimnis. Fehlende Replizierbarkeit, Zeitliche statt Qualitative Konkurrenz und Häppchenpublishing ruinieren die Arbeitswelt für nicht allzuviele Forscher und solche, die es werden wollen. Da scheint es kaum verwunderlich, wenn zu reißerischen Formulierungen und aufbauschenden Artikeln gegriffen wird, um medienwirksam zu bleiben.

    Allein schon der Fall des metallischen Wasserstoffs war ein Paradebeispiel für solches Verhalten. Was mich allerdings wundert ist der Fakt, dass sich andere noch darüber wundern.
  • Die Theorie ist das Problem

    09.02.2017, Albrecht Giese
    Das Problem der Gravitation ist, dass die heutige Physik nicht weiß, wie es zu Gravitationserscheinungen kommt. Gewiss, wir haben die Allgemeine Relativitätstheorie von Einstein. Aber diese ist ein geometrischer, kein physikalischer Ansatz. Sie beschreibt Gravitation quantitativ richtig, erklärt sie aber nicht.
    Beispielsweise ist die Frage, was gravitative Masse eigentlich mit träger Masse zu tun hat, heute völlig unverstanden. Die Higgs-Theorie, welche nach Ansicht des Nobelpreis-Komitees die Trägheit erklärt, sagt nichts zur Gravitation. Die Verbindung ist unerklärt.
    Da gibt es nun einen einfachen und gut funktionierenden Ansatz, der auf diese unverstandene Verbindung verzichtet; die Annahme nämlich, dass Gravitation nichts mit Masse zu tun hat. Das heißt im Detail, dass jedes Elementarteilchen den gleichen Beitrag zum Gravitationsfeld leistet, unabhängig von seiner Masse. Das hat nun die Konsequenz, dass leichte Teilchen wie Photonen und Neutrinos einen ernst zu nehmenden Beitrag leisten. Und das hat ein verblüffendes Ergebnis.
    Nimmt man die Photonen und die Neutrinos einer Galaxie zur Bestimmung des Gravitationsfeldes hinzu, gleichwertig neben den Quarks der Protonen und Neutronen, dann kommt bei der Berechnung der Galaxien, das heißt ihrer Rotationskurven, genau das heraus, was man beobachtet, dabei sowohl die Größe des Effektes wie auch die räumliche Verteilung. – Wäre das nicht einmal eine Überlegung wert?
  • Die Guten werden im Stich gelassen

    09.02.2017, Holm Simon

    Die guten und die schlechten Bakterien (S. 76, Kasten) habe ich über den im Artikel dargestellten Zeitraum hinaus weiter im Computer wachsen lassen. Die angegebenen Zahlen ermöglichen eine eindeutige Rekonstruktion der (exponentiellen) Wachstumsfunktion jeder der sechs Subpopulationen. Zum Startzeitpunkt (t = 0) liegt der Anteil der „Guten“ in der Gesamtpopulation bei 0,500 und zur Zeit t = 1 bei 0,533 (wie dort angegeben). Bei t = 1,74 erreicht dieser Anteil sein Maximum mit 0,541. Danach fällt der Anteil der „Guten“ monoton und nähert sich asymptotisch Null. Bei t = 3,63 ist der Ausgangswert wieder erreicht, und bei t = 20 liegt der Anteil nur noch bei 1,9 Prozent der Gesamtpopulation. Unter speziellen Bedingungen können die „Guten“ also in exponentiell wachsenden Populationen trotz Anteilsverlusten in den einzelnen Subpopulationen zugleich für einen begrenzten Zeitraum Anteile an der Gesamtpopulation gewinnen. Langfristig lässt sie die Simpson-Paradoxie jedoch im Stich.


    Ergänzung 23. 2. 2017:


    Modifiziert man die (eigentlich exponentielle) Wachstumsfunktion der (fiktiven) Bakterienkulturen so, dass das Wachstum (für Altruisten und Egoisten) mit dem Anteil der Altruisten (systematisch und nicht nur zufällig) positiv korreliert ist, kann man aus den angeführten Daten (S. 76 Kasten) eine eindeutige Rekonstruktion der Wachstumsfunktion nicht mehr durchführen. Aber alle mit dem Simpson-Paradox vereinbaren (und sinnvollen) Wachstumsfunktionen weisen sehr ähnliche Eigenschaften auf : Der Anteil der Altruisten an der Gesamtpopulation steigt anfangs bis zu einem Maximum, um dann asymptotisch einem Grenzwert zuzustreben, der kleiner ist als der Anfangswert. Langfristig kann also durch den puren „Simpson-Effekt“ der Anteil der „Guten“ nicht steigen. Auch wenn das Wachstum wegen Ressourcenverbrauchs in Stagnation gerät, verschwindet der „Simpson-Effekt“, da sich die Populationsgrößen angleichen.



    Wenn allerdings während einer Wachstumsphase, in der der Anteil der „Guten“ nicht zu niedrig ist, eine schwere Störung mit Vermischung aller Populationen, Ausscheiden eines großen (und zufällig ausgewählten) Teils der Individuen aus der Vermehrungstätigkeit, sowie Neugründungen getrennter Kleingruppen mit großer (zufälliger) Verschiedenheit ihres Anteils an „Guten“ auftritt, und anschließend eine Wachstumsphase (der Kleingruppen) folgt, kann der Anteil der „Guten“ von Runde zu Runde ansteigen und sogar langfristig auf hohe Werte klettern, wenn dieser Zyklus aus ökologischer Krise und Wachstum immer wieder wiederholt wird. In dem angeführten Artikel aus „Science“ berichten Chuang und Kollegen, dass (in Laborversuchen mit Bakterien) nach 5 Wiederholungen einer solchen Prozedur der Anteil der „Guten“ von 10 % auf 95 % gestiegen war. Bedeutet das, dass schwere ökologische Krisen wichtig oder notwendig zur Evolution von Altruismus sind? Und die Moral von der Geschicht: Ohne Krise gedeiht das Gute nicht?


Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.