Direkt zum Inhalt

Kommentare - - Seite 743

Ihre Beiträge sind uns willkommen! Schreiben Sie uns Ihre Fragen und Anregungen, Ihre Kritik oder Zustimmung. Wir veröffentlichen hier laufend Ihre aktuellen Zuschriften.
  • Zweiter Teil der Frage

    09.09.2014, Raimund Zopp, Gföhl/Niederösterreich
    Verliert das Universum durch diesen Effekt nicht ständig an gravitationswirksamer Masse? Wird das in den kosmologischen Modellen berücksichtigt?
  • So schlecht ist der p-Wert nicht

    09.09.2014, Dr. Martin Treiber
    Es ist schön, dass Regina Nuzzo auf die Gefahren einer Missinterpretation des so genannten p-Wertes bei statistischen Befunden hinweist, umso mehr, da Studenten und Wissenschaftler in solchen Situationen häufig eine statistische Software anwerfen und den ausgeworfenen p-Wert (zusammen mit ähnlich fragwürdigen Kennzahlen) unreflektiert übernehmen.

    Jedoch schießt die Autorin dabei über das Ziel hinaus, indem sie die ebenso fragwürdige Arbeit von Sellke et al. als Basis ihres Artikels nimmt. Da in dem Kasten "Magerer Erkenntnisgewinn" viele Annahmen unerwähnt bleiben, habe ich die zugrundeliegenden Publikation (Thomas Sellke, M. J. Bayarri, James O. Berger: Calibration of p Values for Testing Precise Null Hypotheses, The American Statistician, 55:1, 62-71, 2001) genauer angeschaut. Die Annahmen in der mittleren Situation "Münzwurf" sind dabei wie folgt:

    1. In 50 Prozent der Fragestellungen ist der wahre Wert genau X=0 (die Nullhypothese H0 trifft zu), während er in den anderen Fällen immer denselben positiven Wert hat.

    2. Die Messung weist einen normalverteilten Messfehler bekannter und von X unabhängiger Varianz auf.

    3. Der p-Wert wird für eine Punkt-Nullhypothese (z. B. X=0) berechnet. In diesen so genannten symmetrischen Tests bekommen auch hinreichend negative Messungen ("das Medikament wirkt weniger als ein Placebo") einen kleinen p-Wert.

    Punkt 3 ist zwar dem Sachverhalt meist nicht angemessen, aber ebenso wie Punkt 2 eher unproblematisch. Annahme 1 hingegen ist meist unrealistisch und führt zu falschen Schlussfolgerungen, wie folgendes Beispiel zeigt: In 50 % der getesteten Medikamente sei der wahre Wert X=0 entsprechend der Nullhypothese (Medikament ist wirkungslos) und in den anderen 50 % X=5 (Medikament wirkt). Ferner sei die Standardabweichung des normalverteilten Messfehlers gleich 1 und die Messung ergebe x=2, was einem p-Wert von etwa 5 % entspricht. Das Messergebnis ist also zwei Standardabweichungen vom wahren Wert der wirkungslosen Medikamente, aber drei Standardabweichungen von dem der wirkenden Medikamente entfernt, und daher ist es wahrscheinlicher, dass diese Messung von einem wirkungslosen Medikament herrührt: Eine einfache Rechnung zeigt, dass diese Messung mit einer Wahrscheinlichkeit von etwa 95 % von einem wirkungslosen Medikament herrührt, nicht etwa zu 5 %, wie es der p-Wert nahelegt.

    Führt der p-Wert also wirklich zu solch massiven Fehlinterpretationen? Nicht wirklich: Zunächst einmal ist im Falle eines wirkungslosen Medikaments ein solch hoher oder höherer x-Wert sehr unwahrscheinlich (nämlich 2,5 %), und man muss schon sehr viel Pech haben, solch einer Fehlinterpretation aufzusitzen. Wichtiger jedoch ist die Verfälschung durch die unrealistischen Annahmen. Realistischer ist es sicherlich, nicht nur den Messfehler Y als normalverteilt anzusehen, sondern auch die wahren Werte X. Ferner sollte man unsymmetrisch auf die Nullhypothese H0: X ≤ 0 testen.

    Die hier abzurufende Grafik zeigt für symmetrisch um null verteilte wahre Werte (also P(H0)=1/2) die dann resultierende Wahrscheinlichkeit P(H0|p) dafür, dass die Nullhypothese "X ≤ 0" bei gegebenem p-Wert wahr ist, und zwar in Abhängigkeit vom Verhältnis der Standardabweichung σy des Messfehlers zur Standardabweichung σx der wahren Werte. Daraus erhält man folgende Anleitung zur Interpretation des p-Werts:

    * Ist die Standardabweichung des Messfehlers deutlich geringer als die vermutete Schwankungsbreite der wahren Werte, sagt der p-Wert des unsymmetrischen Tests in Wesentlichen die Wahrheit, zumindest, wenn die Nullhypothese in etwa 50 % der Fälle zutrifft.

    * Ist die Standardabweichung des Messfehlers hingegen deutlich höher als die Schwankungsbreite der wahren Werte, ergibt die Messung kaum Informationsgewinn, und die a-priori-Wahrscheinlichkeit (hier 50 %) bleibt nahezu unverändert.

    * Bei etwa gleichen Standardabweichungen trifft die Nullhypothese etwa doppelt so häufig zu, wie es der p-Wert impliziert.

    Diese Aussagen sind robust bezüglich der Verteilung der wahren Werte und der Messfehler: Sie gelten beispielweise auch für gleichverteilte wahre Werte oder eine unbekannte und aus der Messung zu schätzende Standardabweichung der Schätzfehler. Wichtig ist nur, dass die wahren Werte nicht auf einen Punkt konzentriert sind wie im oben angesprochenen Artikel.

  • Auslöschung des Natürlichen - und eines Kulturguts

    08.09.2014, Christopher
    Das zunehmende Ausmaß der Beleuchtung ist sicherlich eng an ein Naturverständnis geknüpft, das Natur zunächst und vor allem als Gefährdung auffasst - eine erstaunlich mittelalterliche Denkweise. Die Verbannung der Dunkelheit verbannt das Unbeherrschbare, mithin das Natürliche. Es hat eine gewisse Konsequenz, dass im selben Zuge das älteste Kulturgut - der Sternhimmel - ausgelöscht wird.
  • Moblilisierung archimedischer Körper

    08.09.2014, Werner Hilger
    Die beschriebene "Mobilisierung" eines Ikosaeders durch Verdopplung der Seiten ist etwas unhandlich; es scheint ein einheitliches einfaches Mobilisierungsprinzip für bestimmte archimedische Körper zu geben.
    Man betrachte zu den platonischen Körpern die Kantengraphen. Die entsprechenden Polyeder (wie in Abb. d auf S.67) bestehen dann aus Dreiecken (gelb) sowie 3-, 4- oder 5-Ecken (grün).
    Bei entsprechender einseitiger Befestigung der gelben Dreiecke an den grünen n-Ecken lassen sich die Körper analog mobilisieren:

    Tetraeder -> Oktaeder -> Kuboktaeder
    Oktaeder/Würfel -> Kuboktaeder -> kleines Rhombenkuboktaeder
    Dodekaeder/Ikosaeder -> Ikosidodekaeder -> kleines Rhombenikosidodekaeder
    Stellungnahme der Redaktion

    Die von Ihnen übersichtlich aufgeführten Mobilisierungen funktionieren alle – in der unhandlichen Version mit verdoppelten Seitenflächen. Es ist auch kein Problem, von den beiden Exemplaren jeder Seitenfläche nur eines auszuwählen und es dieselbe Bewegung ausführen zu lassen wie eine der Flächen des "doppelseitigen" Modells – in der Computergrafik. Unterwegs haben dann die Ecken der Seitenflächen im Allgemeinen keinen Kontakt untereinander, so dass ein "reales" mechanisches Modell nicht funktionieren kann.


    Letzteres gelingt nur dann, wenn sich in jeder Ecke des Ursprungskörpers eine gerade Anzahl von Flächen trifft. Dann kann man jeweils zwei benachbarte Flächen an den Ecken verbinden, ohne dass eine Ecke unverbunden bleibt. Benachbarte Flächen rotieren dann stets gegenläufig.


    Die Bedingung "gerade Anzahl von Flächen an jeder Ecke" erfüllt unter den platonischen Körpern nur das Oktaeder. Unter den archimedischen Körpern ist die Auswahl schon reichhaltiger: Kuboktaeder, Ikosidodekaeder, kleines Rhombenkuboktaeder, kleines Rhombenikosidodekaeder. Ob die beiden letzten Körper schon einmal beweglich gebaut worden sind, ist mir nicht bekannt.


    Christoph Pöppe, Redaktion

  • Großer und schneller Tropfen

    08.09.2014, Kai Hiltmann
    Auch in der Technik wird der Druck meist über eine verstellbare Ventilöffnung eingestellt. Interessanter finde ich aber folgenden Aspekt:

    Der Fisch will einen sowohl großen als auch schnellen Tropfen erzeugen, um das Ziel mit hoher Leistung zu treffen. Diese Leistung hat er jedoch nicht zur Verfügung. Außerdem kann er mit weitem Maul entweder einen breiten Strahl oder, mit schmalem, einen schnellen Strahl erzeugen. Der Strahl soll sowohl breit (großer Querschnitt) als auch schmal (schnell) sein, was aber offensichtlich nicht gleichzeitig möglich ist. Auch Ingenieure würden hier meist kapitulieren. Die Lösungstechnik nach TRIZ heißt "Separation in der Zeit" und "Separation im Raum": ERST wird die Energie über längere Zeit erzeugt (Strahl, geringe Leistung), DANN in einem Tropfen konzentriert (hohe Leistung). Im Maul ist der Strahl lang gestreckt, am Ziel gebündelt.
    Beide Lösungstechniken sind anspruchsvoll, ihre Kombination ist genial. Auch der verwendete physikalische Effekt, eine intensive Welle durch Überlagerung verschiedener Geschwindigkeiten zu erzeugen, ist in der Technik sehr selten (wenn er auch jeder sich brechenden Welle am Strand zugrunde liegt).
  • "Lichtverschmutzung"

    07.09.2014, Tim
    "Lichtverschmutzung" ist ein unwissenschaftlicher Kampfbegriff. Meinetwegen kann die BILD-Zeitung ihn gern verwenden, aber bitte nicht SdW.

    Öffentliche Beleuchtung wird ja nicht gemacht, um Astronomen zu ärgern, sondern weil die Bürger im großen und ganzen zufrieden und einverstanden mit ihr sind. Natürlich gibt es wie überall auch bei der öffentlichen Beleuchtung Optimierungspotential. Aber unter dem Strich ist sie kein Problem, sondern eine Errungenschaft.
  • Milliardenschäden?!

    06.09.2014, Michael Rupp
    da möchte ich aber mal mindestens einen Kasten Bier wetten (ohne entsprechend recherchiert zu haben), dass die "Milliardenschäden" von 1996 in isländischen Kronen bewertet wurden! (1 EUR sind nämlich ca. 156 davon)
    Stellungnahme der Redaktion

    Sehr geehrter Herr Rupp,

    Sie haben Recht: der Schaden in Euro betrug nur "nur" etwa 30 Millionen Euro. Ich ergänze die Devisenangaben.

    Mit freundlichen Grüßen
    Daniel Lingenhöhl

  • Das wissenschaftliche Wertesystem bedarf einer Korrektur

    05.09.2014, Frank Niemeyer
    Ich freue mich, daß sich Spektrum der Wissenschaft vermehrt mit Fragen der Qualität in der Wissenschaft befaßt. Frau Nuzzos Artikel zum besorgniserregenden "p-Wert-Kult" ist ein wichtiger Beitrag, um die überfällige Diskussion über unwissentlich oder auch bewußt fehlinterpretierte statistische Aussagen auch ins Bewußtsein der interessierten Öffentlichkeit zu rücken, die schließlich für den Großteil dieser Forschung auch bezahlt und – schlimmer noch – mit den Folgen leben muß, wenn zum Beispiel aus falsch verstandenen Statistiken politische Entscheidungen hervorgehen.

    Ob Nullhypothesentests à la Fisher-Neyman-Pearson und die damit verbundenen p-Werte im Speziellen überhaupt sinnvoll nutzbar zur Beantwortung üblicher wissenschaftlicher Fragestellungen sind, ist schließlich Gegenstand einer seit Jahrzehnten, teilweise recht leidenschaftlich, geführten Dikussion; ganz zu schweigen von der wohl noch länger geführten Debatte über die "richtige" Interpretation von Wahrscheinlichkeiten (Laplace, Boole, Venn etc.). Leider wird Statistik-Anwendern meiner Erfahrung nach praktisch nie vermittelt, daß dieser grundsätzliche Gegensatz zwischen der frequentistischen und der bayesianischen Interpretation überhaupt existiert. Das wäre aber wichtig, um nicht den Eindruck entstehen zu lassen, es gäbe nur eine zulässige, quasi sakrosankte Methode, an die man sich geradezu sklavisch halten müsse, um Schlüsse aus den Ergebnissen eines Experiments ziehen zu dürfen, bzw. die auf scheinbar geradezu magische Art und Weise selbst aus einer eigentlich offensichtlich unzureichenden Datenbasis noch "signifikante" Ergebnisse extrahieren kann, auch wenn das jedem gesunden Menschenverstand widerspricht.

    Die Ursachen für den allgegenwärtigen Mißbrauch von Nullhypothesentests und die Fehlinterpretationen von p-Werten sind vielfältig, und entsprechend schwer ist ihnen beizukommen. Ein wesentlicher Grund dürfte aber schlicht Bequemlichkeit sein: Nicht-Statistiker sind in der Regel nicht an Statistik interessiert, das ist jedenfalls meine Erfahrung. Folglich wird das Knöpfchen im Statistikprogramm halt gedrückt, damit man den für die Publikation notwendigen p-Wert erhält. Was sich dahinter verbirgt, interessiert in der Regel wenig, solange nur das Ergebnis statistische Signifikanz signalisiert (und wie immer bestätigen Ausnahmen nur die Regel). Aber wie sollte sich an dieser Praxis auch etwas ändern, solange die Qualität eines Wissenschaftlers alleine an der Länge seiner Publikationsliste gemessen wird?

    Auch das ist ein Grund, warum man der Open-Science-Bewegung nur Erfolg wünschen kann oder, noch besser, aktiv zu ihrem Erfolg beitragen sollte. Ein solcher Kulturwechsel ist meines Erachtens schlicht überlebensnotwendig für die wissenschaftliche Forschung. Zwar wird ein offener, transparenter Umgang mit Forschungsdaten allein weder die gegenwärtige Praxis allgegenwärtiger statistischer Tests noch bewußten Betrug unterbinden können. Aber so wäre es, als erster Schritt in eine bessere, offenere Zukunft, zumindest möglich, daß Dritte die Daten und deren Interpretation überprüfen und so zumindest methodische Fehler aufdecken.
  • @Köhler

    04.09.2014, Frank Svoboda
    Ihren Einwand verstehe ich nicht. Es geht doch wohl in erster Linie darum, interne Operationen des Prozessors oder der Speicher usw. zu beschleunigen. Wieso müssten dann mehr Kabel verbaut werden? Und Photonen haben doch gar keine (Ruhe)Masse.
    Im Übrigen haben in einem Computer sowieso nicht alle Bauteile die gleiche Taktfrequenz. Viele Peripherie-Bauteile arbeiten mit niedrigeren Taktfrequenzen als der Prozessor - oder auch höheren, wie bei einigen Grafik-Chips.
  • Find ich nicht gut

    03.09.2014, Köhler
    ein Computer mit hohen Taktfrequenzen im Herz Bereich ist wie ein stau in der Stadt erstens würde mehr kabel verbaut werden müssen. 2. müsste man ein kurz frequentes beschleunigen verhindern was nur mit schwerer Masse möglich ist (Photonen) um eine halbwegs gleiche Frequenz aller Bauteile zu erlangen.
  • Eins nach dem anderen!

    02.09.2014, Johannes Seemann
    Das ist ja eine interessante Forderung, die der Iran da stellt. Wie wäre es denn erst mal mit der Regulierung der Geburtenzahl auf zwei Kinder - dann würde sich das Problem reduzieren. Dann mit der Ausbildung und Gesundheitsförderung der Kinder. Wir können unser Trinkwasser natürlich auch für das gleiche Geld verkaufen, wie der Iran sein Öl an uns. So wendet sich das Blatt.
    Stellungnahme der Redaktion

    Sehr geehrter Herr Seemann,

    das Bevölkerungswachstum liegt im Iran übrigens derzeit bei 1,3 Prozent (in Deutschland bei 0,2 Prozent); pro Frau wurden 2011 im Mittelwert 1,6 Kinder geboren. Insgesamt sank die Geburtenrate seit mehreren Jahrzehnten recht drastisch, teilweise unter dem Einfluss politischer Steuerungsmaßnahmen.

    Auch der Bildungspolitik stellen neutrale Beobachter ein eher positives Zeugnis aus, vor allem im Vergleich mit anderen islamischen Staaten. Gerade der recht hohe Anteil an weiblichen Studierenden überrascht Uninformierte oft. Die Probleme des Landes liegen offenkundig auf anderem Gebiet.

    Mit freundlichen Grüßen
    Jan Osterkamp
    Redaktion Spektrum.de

  • Fragwürdige Göttlichkeit

    01.09.2014, Ferdinand Wegrostek, Zillingdorf Bergwerk (Österreich)
    Der Beitrag hat mir als ehemaligem Wirtschaftspsychologen, Markt- und Meinungsforscher gut gefallen, weil er der Signifikanz die zugeschriebene Göttlichkeit nimmt und aufzeigt, was der p-Wert (nicht) zu leisten im Stande ist. Gefallen hat mir auch das Herausstreichen anderer wichtiger Orientierungsparameter wie Effektgröße und Konfidenzintervall.
    Das Spektrum der Faktoren, welche die Ergebnisse einer Untersuchung beziehungsweise den p-Wert beeinflussen können, ist so breit, dass es nicht verwundert, dass ein guter Teil aller mit Signifikanz deklarierten Studien schlichtweg falsche und nicht replizierbare Ergebnisse enthält.
    Die Einflussfaktoren beginnen beim Untersucher selbst, seinen Beweggründen, Zielen und Erwartungen an die Studie, reichen über das Prozedere von Hypothesenformulierung, Art des gewählten experimentelles Designs, Stichprobenart und -größe, das benutzte statistische Verfahren und enden letztlich mit einer vorsichtig-richtigen oder gewagt-fragwürdigen Interpretation.
    Unzureichendes Fachwissen selbst erscheint mir dabei nicht als vordergründige Ursache, dass ein guter Teil aller Studien falsch ist. Die Ursachen liegen häufig im Ehrgeiz und Erfolgsdruck, dem sich Forscher und Doktoranden aussetzen. Man ist a priori bestrebt die eigene Hypothese zu bestätigen, arbeitet konzentriert darauf hin und vermeidet jede Art von möglicher Falsifizierung. Bei kommerziellen Unternehmungen wie etwa Markt- und Meinungsforschungsinstituten führen Zeitdruck und wirtschaftliche Zielstrebungen, Profitorientierung und Minimierung des Kostenaufwandes zu Fehlern und Nachlässigkeiten in Planung, Durchführung und Auswertung – oder gar zu mehr oder weniger bewusster Ergebnismanipulation.
    Abhilfe kann hier nur eine noch stärkere Reglementierung als bisher durch Fachgremien bringen. Kontrolle und Sanktion müssten mit vorgesehen werden. Es gilt noch strengere Standards im wissenschaftlichen Bereich als auch in den einzelnen kommerziellen Branchen sowie für die Ergebnisveröffentlichung zu setzen. Möglichst viele Untersuchungsparameter müssten dargestellt werden und Eingang in die Publikationen der Studien an die Öffentlichkeit, also an den statistischen Laien, finden. Im Bereich von Umfragen und deren Publikationen müssten vom Journalisten standardmäßig Stichprobengröße und Konfidenzintervall (mit Erklärung) anführt werden. Denn nur durch Offenlegung möglichst vieler statistischer Parameter und deren richtige Interpretation kann man letzten Endes den bestehenden Vorurteilen gegenüber Umfrageergebnissen in der breiten Öffentlichkeit wirkungsvoll begegnen und den strapazierten Spruch "Es gibt drei Arten von Lügen: Lügen, verdammte Lügen und Statistiken“ selbst als oberflächlichen Sager entlarven.
  • leichte Winde?

    01.09.2014, Simon
    Wieso sieht man dann oft, dass diese Steine Erdmassen vor sich herschieben? Bei leichten Winden soll dies doch nicht möglich sein oder?
  • Cartans Torsion statt Supersymmetrie

    01.09.2014, Rainer W. Kühne, Braunschweig
    Sowohl die ATLAS als auch die CMS Collaboration des LHC haben keine supersymmetrischen Teilchen entdeckt (ATLAS Coll., Phys. Rev. Lett. 106 (2011) 131802; CMS Coll., Phys. Rev. Lett. 107 (2011) 221804). Die untere Grenzmasse für gleichschwere Squarks und Gluinos liegt nun bei 1700 GeV (ATLAS Coll., arXiv: 1405.7875). Vorhergesagt waren Squark- und Gluino-Massen von höchstens 300 GeV.

    Die LUX Collaboration hat keine Neutralinos aus der kalten dunklen Materie entdeckt (LUX Coll., Phys. Rev. Lett. 112 (2014) 091303) und damit die Beobachtung der DAMA Collaboration widerlegt, die vielfach als Evidenz für SUSY-CDM galt.

    Die indirekte Evidenz für Gravitationswellen im inflationären Universum (BICEP2 Coll., Phys. Rev. Lett. 112 (2014) 241101) konnte als Effekt des interstellaren Staubs erklärt werden (K. M. Smith et al., Phys. Rev. Lett. 113 (2014) 031301; M. J. Mortonson and U. Seljak, arXiv: 1405.5857; R. Flauger et al., arXiv: 1405.7351). Diese Erklärung schließt kosmische Inflation auf der Energie-Skala von 10¹⁶ GeV oder mehr aus, also SUSY-GUT-Skala oder Planck-Skala.

    Die Supersymmetrie ist damit widerlegt. Damit sind auch die auf der Supersymmetrie basierenden Theorien wie Supergravitation, Superstring-Theorie, M-Theorie, supersymmetrische Große Vereinheitlichung obsolet geworden.

    Ein Argument für die Existenz von Supersymmetrie war bislang, dass sie die Existenz von Fermionen (mit asymmetrischem Energie-Impuls-Tensor) im Gravitationsfeld erklären kann. Der Energie-Impuls-Tensor der allgemeinen Relativität ist bekanntlich symmetrisch. Aber auch eine Erweiterung der Allgemeinen Relativität, die Einstein-Cartan-Theorie, die Cartans Torsion enthält, beschreibt einen asymmetrischen Energie-Impuls-Tensor. (Siehe R. W. Kühne, Quantum Field Theory with Electric-Magnetic Duality and Spin-Mass Duality but Without Grand Unification and Supersymmetry, African Review of Physics 6 (2011) 165-179 http://lamp.ictp.it/index.php/aphysrev/article/download/460/211.pdf http://inspirehep.net/record/1182299?ln=de .)

    Die Quantisierung der elektrischen Ladung kann durch Diracs magnetische Monopole erklärt werden, dazu bedarf es nicht der Großen Vereinheitlichung. Das Problem der Massenhierarchie entfällt, da es keine Große Vereinheitlichung gibt. (Siehe mein obengenanntes Paper in African Review of Physics.)

    Meine in diesem Paper vorgestellte Theorie kann durch das dort vorgeschlagene Tabletop-Experiment verifiziert werden.

    Zu den von Joseph Lykken und Maria Spiropulu genannten Alternativen sei gesagt, dass ich alle Theorien als leicht widerlegbar halte, die mehr als drei Raumdimensionen oder mehr als eine Zeitdimension besitzen. Der Grund ist, dass ein Raum mit n Dimensionen n(n-1)/2 orthogonale Rotationsachsen besitzt. Bei n=1 Dimension sind dies null Rotationsachsen, das ist möglich, wie bei der Zeit. Bei n=2 Dimensionen gibt es eine Rotationsachse, die senkrecht auf den beiden Dimensionen steht (z. B. Zeigeruhr), eine zweidimensionaler Raum ist also prinzipiell unvollständig. Bei n=3 Dimensionen gibt es drei orthogonale Rotationsachsen, von denen sich jede in eine der Dimensionen des Raums erstreckt, also ein vollständiges und konsistentes System. Bei mehr als drei Dimensionen gibt es mehr orthogonale Rotationsachsen als Dimensionen, das System ist also inkonsistent. Auch kompaktifizierte Dimensionen helfen nicht, da Objekte, die kleiner als die kompaktifizierten Dimensionen sind, rotieren sollten.

    Der Anti-deSitter-Raum (zwei zeitliche und drei räumliche Dimensionen) ist also schon aus diesem Grund unmöglich. Abgesehen davon ist er physikalisch unmöglich, da er statisch ist, also keinen Hubble-Effekt enthält, und eine negative kosmologische Konstante beschreibt, was der Beobachtung einer positiven kosmoligischen Konstanten widerspricht. Damit sind sowohl die Randall-Sundrum-Theorie als auch alle Theorien obsolet, die eine Analogie zwischen konformer Feldtheorie und Anti-deSitter-Raum behaupten.

    Zum Leserbrief von Werner Preuß: Die Bosonen können nicht aus Konstituenten aufgebaut sein. Wäre z. B. das W-Boson zusammengesetzt, so müssten, wegen der Mischung der Felder gemäß Quantenflavourdynamik = Weinberg-Salam-Theorie, auch das Z-Boson und das Photon zusammengesetzt sein. Konstituenten haben aber ein Schwerpunktssystem, so dass für das Gesamtsystem eine endliche Ruhmasse vorliegt. Das Photon hat aber die Ruhmasse null. Somit kann das Photon nicht zusammengesetzt sein, ebensowenig das Z-Boson und das W-Boson.
  • Und immer wieder das PIK als Institut für Klimahorror am Fließband

    01.09.2014, Klimarealist
    Der Redakteur hätte mal besser lesen sollen, bevor er diese Überschrift titelte. Denn das PIK schrieb eigentlich in seiner typischen Manier:
    Dieser Meeresspiegelanstieg könnte - vielleicht, eher nicht - so in 5000 Jahren verstärkt steigen. Zumindest haben wir nach verzeifelter Suche in der sich dem Klimawandel völlig verweigernden Antarktis wenige Gletscher gefunden, die so etwas wie einen "Propfen" vor dem Weg ins Meer haben. Sofern so ein "Pfropfen" schmelzen würde - nicht in Sicht, aber könnte doch - müsste der Gletscher schneller fließen. Dann würde doch der Meeresspiegel steigen, wenn das die ganze Arktis mit machen würde. Geht zwar nicht, weil der wesentliche Teil Festlandeis ist. Klingt aber doch alarmistisch gut. Unsere Simulationen haben das auf jeden Fall sofort mit ungeheurer Präzision, aber hoher Streuung rechnen können, wann das dann passiert ist.
    Und dass dieser Schwachsinn von uns in allen Zeitungen veröffentlicht wird, belegt, dass es wieder eine gute Klimawandel-Alarm-Story ist.
    Denn wer Klimawandelangst hat, den lasssen wir nicht im Stich.
    Stellungnahme der Redaktion

    Sehr geehrter Klimarealist,

    der Titel des Papers in Nature Climate Change lautet "Ice plug prevents irreversible discharge from East Antarctica". Weder hier noch anderswo im Paper ist die Rede davon, der Meeresspiegel steige erst in 5000 Jahren verstärkt. Laut den Simulationen könnte der Eisverlust in der Ostantarktis bereits in den kommenden Jahrhunderten deutlich zum Anstieg des Meeresspiegels beitragen. Genauso ist es auch im Abstract wiedergeben: "Our results are robust with respect to variation in ice parameters, forcing details and model resolution as well as increased surface mass balance, indicating that East Antarctica may become a large contributor to future sea-level rise on timescales beyond a century". Die Anhebung des Meeresspiegels ist dabei eine Art Sättigungsfunktion mit zunächst starkem, später flachem Anstieg. Der Wert von 3-4 Meter wird - hier haben Sie recht - im bereits flachen Kurvenabschnitt nach einigen tausend Jahren erreicht. Das ist aber nicht der wesentliche Punkt. Die zentrale Aussage des Papers ist, das Schmelzen des "Eiskorkens" setze ein irreversibles Kalben der Gletschermasse in Gang, die am Ende zu einem 3-4 Meter höheren Meeresspiegel führe. So haben wir es in der Nachricht auch wiedergegeben.

    Dass die Antarktis sich dem Klimawandel "völlig verweigere", kann man nicht gerade behaupten. Siehe etwa hier.

    Mit freundlichem Gruß
    Frank Schubert

Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.