Direkt zum Inhalt

Kommentare - - Seite 746

Ihre Beiträge sind uns willkommen! Schreiben Sie uns Ihre Fragen und Anregungen, Ihre Kritik oder Zustimmung. Wir veröffentlichen hier laufend Ihre aktuellen Zuschriften.
  • Wie das?

    12.09.2014, Balu
    Wie kann das Verhältnis von Wasserstoff zu Deuterium etwas aussagen?

    Die Erde ist ja vor 4,5 Milliarden Jahren aus dem selben Material entstanden wie 67P/Tschurjumow-Gerasimenko und all die anderen Kometen. Von daher sollte das Verhältnis von Wasserstoff zu Deuterium in der Erde ohnehin mit dem der Kometen übereinstimmen, ob es nun bei der Entstehung schon da war oder im nachhinein durch Kometen auf die Erde gebracht wurde.
  • Rechteck gar nicht langweilig

    10.09.2014, Wolfram Graser
    Im Artikel "Chaos auf dem Billardtisch" bezeichnet Christoph Pöppe das Billardspiel auf einem rechteckigen Tisch als "langweilig regulär". Aber einen sogar noch einfacheren Fall, nämlich die eindimensionale Version des Spiels, haben Albert Einstein und Max Born hingebungsvoll untersucht. Born hat seinen etwas verstörenden Befund erstmals in seiner Nobelpreis-Rede 1954 vorgetragen ("Die statistische Deutung der Quantenmechanik", in "Physik im Wandel meiner Zeit", 2. Auflage, Vieweg 1958, S. 173): "Der Determinismus der klassischen Physik erweist sich als Trugbild, erzeugt durch eine Überschätzung mathematisch-logischer Begriffsbildungen." Die Bewegung ist nämlich instabil und indeterministisch: Auch in diesem einfachen Fall ist nach einer bestimmten Zeit die Position der Kugel (bzw. des Gaspartikels) völlig unbestimmt, wegen der unvermeidlichen Ungenauigkeiten in der Kenntnis der Anfangsbedingungen. Er bemerkt dazu weiter (M. Born, Dan. Mat. Fys. Medd. 30, no. 2 (1955), p. 1-26): "Though this is perfectly trivial, I have never seen it pointed out." Gerhard Vollmer hat M. Born deswegen als Entdecker der Chaos-Theorie bezeichnet (G. Vollmer, Naturwissenschaftliche Rundschau, 9 (1988), 345; als Anmerkung im Literaturverzeichnis).
    Stellungnahme der Redaktion

    Der Hinweis wirft ein interessantes Licht auf die Frage nach dem Chaos. Es stellt sich nämlich heraus, dass die Grenze zwischen "regulär" und "chaotisch" längst nicht so klar definiert ist, wie es den Anschein hat.


    Erstes Beispiel: Ein Massenpunkt wird angestoßen und bewegt sich ab dort ohne Einwirkung einer Kraft durch den leeren Raum. Jeder würde die Bewegung als regulär bezeichnen, denn sie gehorcht einer linearen Gleichung: x(t) = vt+a, und die Unsicherheit in der Position x(t) steigt zwar mit der Zeit an, aber nur proportional der Zeit; der Proportionalitätsfaktor ist die Unsicherheit in der Anfangsbedingung v.


    Zweites Beispiel: Der Massenpunkt gehorcht einer linearen Differenzialgleichung der Form (d/dt)x = cx mit der Lösung x = x0 exp(ct). Das nennt auch noch niemand ein chaotisches System; denn die Unsicherheit über den Ort den Massenpunkts wächst zwar exponentiell mit der Zeit, aber die relative Unsicherheit, also Unsicherheit geteilt durch die Größe des Raums, in dem der Massenpunkt sich aufhalten könnte, bleibt konstant. Vor allem ist zwar nicht die Kurve, auf der das Teilchen sich bewegt, linear, wohl aber das "Naturgesetz", sprich die Gleichung, der es gehorcht, und ein nichtlineares Naturgesetz gilt allgemein als notwendige Bedingung für Chaos.


    Jetzt packen wir beide Teilchen in einen quaderförmigen Kasten mit reflektierenden Wänden. Dann ist Beispiel 1 in einer Dimension das, worüber Born nachgedacht hat, und in zwei Dimensionen Sinais Billard. In Borns Augen ist es chaotisch (was heute ein Vertreter der Theorie der dynamischen Systeme wohl nicht mehr so sehen würde), in Sinais Theorie definitiv nicht.


    Ob Beispiel 2 im Kasten nach Sinai chaotisch wäre (also Entropie größer als null hätte), weiß ich nicht. In der Theorie der dynamischen Systeme ist es eines der klassischen Beispiele für Chaos. Das Argument mit der relativen Unsicherheit zieht nicht mehr, denn der Raum, in dem das Teilchen sich aufhalten könnte, wird ja mit der Zeit nicht größer; und vor allem ist die diskrete Version des Problems: xn+1 = 2xn mod 1 (die "Blätterteigtransformation") das klassische Beispiel für deterministisches Chaos.


    Allem Anschein nach ist "Sinai-Chaos" (Entropie größer als null) eine verschärfte Form von Chaos.


    Das "langweilige" Billard zeigt übrigens eine sehr empfindliche Abhängigkeit von den Anfangsdaten: Wenn die Anfangsrichtung des Teilchens (y-Koordinate durch x-Koordinate der Anfangsgeschwindigkeit) rational ist, trifft die Bahn irgendwann wieder ihren Anfangspunkt und wird dann periodisch; ist die Richtung irrational, so wird die Bahn ergodisch, das heißt, sie kommt jedem Punkt des Rechtecks beliebig nahe. Für Sinai ist also noch nicht einmal Ergodizität eine hinreichende Bedingung für Chaos. Soweit ich weiß, ist ein Prozess mit positiver Entropie nicht nur ergodisch, sondern sogar "mischend" (zwei beliebige Trajektorien kommen sich immer wieder beliebig nahe).


    Christoph Pöppe, Redaktion


    Nachtrag: Soeben (6. 10. 2014) bin ich auf eine ältere Arbeit gestoßen, die den Zusammenhang zwischen physikalischer Entropie und Kolmogorow-Sinai-Entropie zum Thema hat: Vito Latora
    und Michel Baranger: Kolmogorov-Sinai Entropy-Rate vs. Physical Entropy
    .

  • 10.09.2014, Kevin Kircher
    "Dabei müssten Menschen erst gar nicht mit antibiotischen Medikamenten behandelt werden, wenn es zum Beispiel mit Handhygiene und Isolationsmaßnahmen gelänge, die Ausbreitung eines Krankheitserregers zu stoppen."

    Dasist sehr naiv bis arrogant. Es stimmt, dass für normale Krankheitsverläufe gerade junger, nicht chronisch kranker Menschen Antibiotika mehr oder weniger ohne große Bedeutung, lediglich ein gigantischer Markt sind. Die Forderung von "Händewaschen hilft" bei chronisch Kranken ist ein Witz. Die meisten gefährlichen und multiresistenten Keime kommen erst über das Wasser. Und einmal nicht richtig abgetrocknet, zack. Oder Freibäder, Seen. Man müsste Wasser komplett meiden. Nein, gerade bei Mukoviszidose steckt sich JEDER irgendwann mit einem harten Keim an. Das ist durch keine Hygienemaßnahme der Welt vermeidbar. Nur konkrete Angriffe auf diese Bakterien behindert ihr zerstörerisches Werk. Bislang waren diese Angriffe sehr aggressiv, aber nicht sonderlich klug. Durch den Selektionsdrang wurden richtige Monsterbakterien herangezüchtet. Wer die noch chemisch vergiften will, vergiftet auch den Körper. Dahingend sind beide im Text beschrieben Ansätze sehr wichtig. Wenn man allerdings sieht, mit welchen Forschungs-Budgets deutsche Universitäten mittlerweile auskommen, mit welcher rechtlicher Hinterwelten sich auseinandergesetzt werden müssen, ist das sehr beschämend.
  • "Uns läuft die Zeit davon"

    10.09.2014, Werner Kohl
    Seltsam. Jetzt wird der schnellste Anstieg an Treibhausgasen seit 30 Jahren festgestellt und resümmiert, dass "uns die Zeit davonläuft". Dabei wird völlig unterschlagen, dass die "globale Temperatur" seit längerem stagniert. Letzteres ist ein allgemein bekannter Fakt und wird im Englischen meist als "Hiatus" bezeichnet.

    Eine kürzlich publizierte Arbeit (Steve McIntyre, dx.doi.org/10.4236/ojs.2014.47050) hat diesen "Hiatus" genauer analysiert und kommt zu folgendem Ergebnis:
    - Die HadCRUT4-Reihe der Oberflächentemperaturen zeigt eine Stagnation über die letzten 19 Jahre
    - Die UAH-Reihe der Satellitenaufzeichnungen der unterem Troposphäre belegt eine Stagnation über die letzten 16 Jahre
    - Die RSS-Reihe der Satellitenaufzeichnungen der unterem Troposphäre belegt eine Stagnation über die letzten 26 Jahre

    Keines der gängigen Klimamodelle, die Eingang in den neusten Klimareport AR5 des IPCC gefunden haben, kann diesen Stillstand reproduzieren. Diese sind damit falsifiziert und folglich völlig ungeeignet, Prognosen anzustellen.

    Führende Klimaforscher wie Kevin Trenberth erkennen inzwischen natürliche Einflüsse als Ursache für den augenblicklichen und möglicherweise weiter andauernden Stillstand an. Explizit genannt sind multidekadische Zyklen (z.B. PDO oder AMO), die derzeit ihre negative Phase durchlaufen bzw. in diese eintreten. Da diese den anthropogenen Einfluss auf die Temperaturentwicklung derzeit komplett kompensieren, lässt sich unmittelbar schlussfolgern, dass deren positive Phase Ende des letzten Jahrhunderts mindestens zur Hälfte zum damaligen Temperaturanstieg beitrug. Daraus folgt wiederum, dass die vom IPCC angenommene Sensitivität des CO2 deutlich zu hoch angesetzt ist.

    Ich würde mir sehr wünschen, dass SdW diese wissenschaftlichen Erkenntnisse in seine Artikel einfließen lässt und auch kritische Stimmen (wie dieses Posting) zulässt.
  • Pfirsichzucht?

    09.09.2014, Ulrich Heemann
    Der Artikel zur menschlich beeinflussten Entwicklung der Pfirsiche benutzt mehrfach den Bergriff der Zucht. Das ist jedoch sehr fraglich, denn darunter verseht man die bewusst gelenkte Modifikation von Eigenschaften. Dies wiederum setzt ein Wissen um die Vererbbarkeit von Eigenschaften - in diesem Fall von Pflanzen - voraus. Selbst wenn die Erfahrung mit Tieren (und Menschen) eine solche Machbarkeit sichtbar machen sollte, kann dies zumindest bei Pflanzen nicht einfach unterstellt werden. Wohl aber ist es natürlich, dass man die schönsten und größten Pfirsiche pflückt bzw. auch mitnimmt und dabei unwillkürlich eine Auswahl (Auslese) trifft. So können sich an festen Standorten langsam immer mehr dieser Kerne sammeln und dabei zwangsläufig, aber ungeplant eine Evolution einleiten. Im Gegensatz zu Tieren fördert hier der Verzehr der besten Individuen deren Entwicklung. Das lässt sich sogar auch auf deren Ergiebigkeit (Zahl der Früchte am Baum) übertragen.
  • Zweiter Teil der Frage

    09.09.2014, Raimund Zopp, Gföhl/Niederösterreich
    Verliert das Universum durch diesen Effekt nicht ständig an gravitationswirksamer Masse? Wird das in den kosmologischen Modellen berücksichtigt?
  • So schlecht ist der p-Wert nicht

    09.09.2014, Dr. Martin Treiber
    Es ist schön, dass Regina Nuzzo auf die Gefahren einer Missinterpretation des so genannten p-Wertes bei statistischen Befunden hinweist, umso mehr, da Studenten und Wissenschaftler in solchen Situationen häufig eine statistische Software anwerfen und den ausgeworfenen p-Wert (zusammen mit ähnlich fragwürdigen Kennzahlen) unreflektiert übernehmen.

    Jedoch schießt die Autorin dabei über das Ziel hinaus, indem sie die ebenso fragwürdige Arbeit von Sellke et al. als Basis ihres Artikels nimmt. Da in dem Kasten "Magerer Erkenntnisgewinn" viele Annahmen unerwähnt bleiben, habe ich die zugrundeliegenden Publikation (Thomas Sellke, M. J. Bayarri, James O. Berger: Calibration of p Values for Testing Precise Null Hypotheses, The American Statistician, 55:1, 62-71, 2001) genauer angeschaut. Die Annahmen in der mittleren Situation "Münzwurf" sind dabei wie folgt:

    1. In 50 Prozent der Fragestellungen ist der wahre Wert genau X=0 (die Nullhypothese H0 trifft zu), während er in den anderen Fällen immer denselben positiven Wert hat.

    2. Die Messung weist einen normalverteilten Messfehler bekannter und von X unabhängiger Varianz auf.

    3. Der p-Wert wird für eine Punkt-Nullhypothese (z. B. X=0) berechnet. In diesen so genannten symmetrischen Tests bekommen auch hinreichend negative Messungen ("das Medikament wirkt weniger als ein Placebo") einen kleinen p-Wert.

    Punkt 3 ist zwar dem Sachverhalt meist nicht angemessen, aber ebenso wie Punkt 2 eher unproblematisch. Annahme 1 hingegen ist meist unrealistisch und führt zu falschen Schlussfolgerungen, wie folgendes Beispiel zeigt: In 50 % der getesteten Medikamente sei der wahre Wert X=0 entsprechend der Nullhypothese (Medikament ist wirkungslos) und in den anderen 50 % X=5 (Medikament wirkt). Ferner sei die Standardabweichung des normalverteilten Messfehlers gleich 1 und die Messung ergebe x=2, was einem p-Wert von etwa 5 % entspricht. Das Messergebnis ist also zwei Standardabweichungen vom wahren Wert der wirkungslosen Medikamente, aber drei Standardabweichungen von dem der wirkenden Medikamente entfernt, und daher ist es wahrscheinlicher, dass diese Messung von einem wirkungslosen Medikament herrührt: Eine einfache Rechnung zeigt, dass diese Messung mit einer Wahrscheinlichkeit von etwa 95 % von einem wirkungslosen Medikament herrührt, nicht etwa zu 5 %, wie es der p-Wert nahelegt.

    Führt der p-Wert also wirklich zu solch massiven Fehlinterpretationen? Nicht wirklich: Zunächst einmal ist im Falle eines wirkungslosen Medikaments ein solch hoher oder höherer x-Wert sehr unwahrscheinlich (nämlich 2,5 %), und man muss schon sehr viel Pech haben, solch einer Fehlinterpretation aufzusitzen. Wichtiger jedoch ist die Verfälschung durch die unrealistischen Annahmen. Realistischer ist es sicherlich, nicht nur den Messfehler Y als normalverteilt anzusehen, sondern auch die wahren Werte X. Ferner sollte man unsymmetrisch auf die Nullhypothese H0: X ≤ 0 testen.

    Die hier abzurufende Grafik zeigt für symmetrisch um null verteilte wahre Werte (also P(H0)=1/2) die dann resultierende Wahrscheinlichkeit P(H0|p) dafür, dass die Nullhypothese "X ≤ 0" bei gegebenem p-Wert wahr ist, und zwar in Abhängigkeit vom Verhältnis der Standardabweichung σy des Messfehlers zur Standardabweichung σx der wahren Werte. Daraus erhält man folgende Anleitung zur Interpretation des p-Werts:

    * Ist die Standardabweichung des Messfehlers deutlich geringer als die vermutete Schwankungsbreite der wahren Werte, sagt der p-Wert des unsymmetrischen Tests in Wesentlichen die Wahrheit, zumindest, wenn die Nullhypothese in etwa 50 % der Fälle zutrifft.

    * Ist die Standardabweichung des Messfehlers hingegen deutlich höher als die Schwankungsbreite der wahren Werte, ergibt die Messung kaum Informationsgewinn, und die a-priori-Wahrscheinlichkeit (hier 50 %) bleibt nahezu unverändert.

    * Bei etwa gleichen Standardabweichungen trifft die Nullhypothese etwa doppelt so häufig zu, wie es der p-Wert impliziert.

    Diese Aussagen sind robust bezüglich der Verteilung der wahren Werte und der Messfehler: Sie gelten beispielweise auch für gleichverteilte wahre Werte oder eine unbekannte und aus der Messung zu schätzende Standardabweichung der Schätzfehler. Wichtig ist nur, dass die wahren Werte nicht auf einen Punkt konzentriert sind wie im oben angesprochenen Artikel.

  • Auslöschung des Natürlichen - und eines Kulturguts

    08.09.2014, Christopher
    Das zunehmende Ausmaß der Beleuchtung ist sicherlich eng an ein Naturverständnis geknüpft, das Natur zunächst und vor allem als Gefährdung auffasst - eine erstaunlich mittelalterliche Denkweise. Die Verbannung der Dunkelheit verbannt das Unbeherrschbare, mithin das Natürliche. Es hat eine gewisse Konsequenz, dass im selben Zuge das älteste Kulturgut - der Sternhimmel - ausgelöscht wird.
  • Moblilisierung archimedischer Körper

    08.09.2014, Werner Hilger
    Die beschriebene "Mobilisierung" eines Ikosaeders durch Verdopplung der Seiten ist etwas unhandlich; es scheint ein einheitliches einfaches Mobilisierungsprinzip für bestimmte archimedische Körper zu geben.
    Man betrachte zu den platonischen Körpern die Kantengraphen. Die entsprechenden Polyeder (wie in Abb. d auf S.67) bestehen dann aus Dreiecken (gelb) sowie 3-, 4- oder 5-Ecken (grün).
    Bei entsprechender einseitiger Befestigung der gelben Dreiecke an den grünen n-Ecken lassen sich die Körper analog mobilisieren:

    Tetraeder -> Oktaeder -> Kuboktaeder
    Oktaeder/Würfel -> Kuboktaeder -> kleines Rhombenkuboktaeder
    Dodekaeder/Ikosaeder -> Ikosidodekaeder -> kleines Rhombenikosidodekaeder
    Stellungnahme der Redaktion

    Die von Ihnen übersichtlich aufgeführten Mobilisierungen funktionieren alle – in der unhandlichen Version mit verdoppelten Seitenflächen. Es ist auch kein Problem, von den beiden Exemplaren jeder Seitenfläche nur eines auszuwählen und es dieselbe Bewegung ausführen zu lassen wie eine der Flächen des "doppelseitigen" Modells – in der Computergrafik. Unterwegs haben dann die Ecken der Seitenflächen im Allgemeinen keinen Kontakt untereinander, so dass ein "reales" mechanisches Modell nicht funktionieren kann.


    Letzteres gelingt nur dann, wenn sich in jeder Ecke des Ursprungskörpers eine gerade Anzahl von Flächen trifft. Dann kann man jeweils zwei benachbarte Flächen an den Ecken verbinden, ohne dass eine Ecke unverbunden bleibt. Benachbarte Flächen rotieren dann stets gegenläufig.


    Die Bedingung "gerade Anzahl von Flächen an jeder Ecke" erfüllt unter den platonischen Körpern nur das Oktaeder. Unter den archimedischen Körpern ist die Auswahl schon reichhaltiger: Kuboktaeder, Ikosidodekaeder, kleines Rhombenkuboktaeder, kleines Rhombenikosidodekaeder. Ob die beiden letzten Körper schon einmal beweglich gebaut worden sind, ist mir nicht bekannt.


    Christoph Pöppe, Redaktion

  • Großer und schneller Tropfen

    08.09.2014, Kai Hiltmann
    Auch in der Technik wird der Druck meist über eine verstellbare Ventilöffnung eingestellt. Interessanter finde ich aber folgenden Aspekt:

    Der Fisch will einen sowohl großen als auch schnellen Tropfen erzeugen, um das Ziel mit hoher Leistung zu treffen. Diese Leistung hat er jedoch nicht zur Verfügung. Außerdem kann er mit weitem Maul entweder einen breiten Strahl oder, mit schmalem, einen schnellen Strahl erzeugen. Der Strahl soll sowohl breit (großer Querschnitt) als auch schmal (schnell) sein, was aber offensichtlich nicht gleichzeitig möglich ist. Auch Ingenieure würden hier meist kapitulieren. Die Lösungstechnik nach TRIZ heißt "Separation in der Zeit" und "Separation im Raum": ERST wird die Energie über längere Zeit erzeugt (Strahl, geringe Leistung), DANN in einem Tropfen konzentriert (hohe Leistung). Im Maul ist der Strahl lang gestreckt, am Ziel gebündelt.
    Beide Lösungstechniken sind anspruchsvoll, ihre Kombination ist genial. Auch der verwendete physikalische Effekt, eine intensive Welle durch Überlagerung verschiedener Geschwindigkeiten zu erzeugen, ist in der Technik sehr selten (wenn er auch jeder sich brechenden Welle am Strand zugrunde liegt).
  • "Lichtverschmutzung"

    07.09.2014, Tim
    "Lichtverschmutzung" ist ein unwissenschaftlicher Kampfbegriff. Meinetwegen kann die BILD-Zeitung ihn gern verwenden, aber bitte nicht SdW.

    Öffentliche Beleuchtung wird ja nicht gemacht, um Astronomen zu ärgern, sondern weil die Bürger im großen und ganzen zufrieden und einverstanden mit ihr sind. Natürlich gibt es wie überall auch bei der öffentlichen Beleuchtung Optimierungspotential. Aber unter dem Strich ist sie kein Problem, sondern eine Errungenschaft.
  • Milliardenschäden?!

    06.09.2014, Michael Rupp
    da möchte ich aber mal mindestens einen Kasten Bier wetten (ohne entsprechend recherchiert zu haben), dass die "Milliardenschäden" von 1996 in isländischen Kronen bewertet wurden! (1 EUR sind nämlich ca. 156 davon)
    Stellungnahme der Redaktion

    Sehr geehrter Herr Rupp,

    Sie haben Recht: der Schaden in Euro betrug nur "nur" etwa 30 Millionen Euro. Ich ergänze die Devisenangaben.

    Mit freundlichen Grüßen
    Daniel Lingenhöhl

  • Das wissenschaftliche Wertesystem bedarf einer Korrektur

    05.09.2014, Frank Niemeyer
    Ich freue mich, daß sich Spektrum der Wissenschaft vermehrt mit Fragen der Qualität in der Wissenschaft befaßt. Frau Nuzzos Artikel zum besorgniserregenden "p-Wert-Kult" ist ein wichtiger Beitrag, um die überfällige Diskussion über unwissentlich oder auch bewußt fehlinterpretierte statistische Aussagen auch ins Bewußtsein der interessierten Öffentlichkeit zu rücken, die schließlich für den Großteil dieser Forschung auch bezahlt und – schlimmer noch – mit den Folgen leben muß, wenn zum Beispiel aus falsch verstandenen Statistiken politische Entscheidungen hervorgehen.

    Ob Nullhypothesentests à la Fisher-Neyman-Pearson und die damit verbundenen p-Werte im Speziellen überhaupt sinnvoll nutzbar zur Beantwortung üblicher wissenschaftlicher Fragestellungen sind, ist schließlich Gegenstand einer seit Jahrzehnten, teilweise recht leidenschaftlich, geführten Dikussion; ganz zu schweigen von der wohl noch länger geführten Debatte über die "richtige" Interpretation von Wahrscheinlichkeiten (Laplace, Boole, Venn etc.). Leider wird Statistik-Anwendern meiner Erfahrung nach praktisch nie vermittelt, daß dieser grundsätzliche Gegensatz zwischen der frequentistischen und der bayesianischen Interpretation überhaupt existiert. Das wäre aber wichtig, um nicht den Eindruck entstehen zu lassen, es gäbe nur eine zulässige, quasi sakrosankte Methode, an die man sich geradezu sklavisch halten müsse, um Schlüsse aus den Ergebnissen eines Experiments ziehen zu dürfen, bzw. die auf scheinbar geradezu magische Art und Weise selbst aus einer eigentlich offensichtlich unzureichenden Datenbasis noch "signifikante" Ergebnisse extrahieren kann, auch wenn das jedem gesunden Menschenverstand widerspricht.

    Die Ursachen für den allgegenwärtigen Mißbrauch von Nullhypothesentests und die Fehlinterpretationen von p-Werten sind vielfältig, und entsprechend schwer ist ihnen beizukommen. Ein wesentlicher Grund dürfte aber schlicht Bequemlichkeit sein: Nicht-Statistiker sind in der Regel nicht an Statistik interessiert, das ist jedenfalls meine Erfahrung. Folglich wird das Knöpfchen im Statistikprogramm halt gedrückt, damit man den für die Publikation notwendigen p-Wert erhält. Was sich dahinter verbirgt, interessiert in der Regel wenig, solange nur das Ergebnis statistische Signifikanz signalisiert (und wie immer bestätigen Ausnahmen nur die Regel). Aber wie sollte sich an dieser Praxis auch etwas ändern, solange die Qualität eines Wissenschaftlers alleine an der Länge seiner Publikationsliste gemessen wird?

    Auch das ist ein Grund, warum man der Open-Science-Bewegung nur Erfolg wünschen kann oder, noch besser, aktiv zu ihrem Erfolg beitragen sollte. Ein solcher Kulturwechsel ist meines Erachtens schlicht überlebensnotwendig für die wissenschaftliche Forschung. Zwar wird ein offener, transparenter Umgang mit Forschungsdaten allein weder die gegenwärtige Praxis allgegenwärtiger statistischer Tests noch bewußten Betrug unterbinden können. Aber so wäre es, als erster Schritt in eine bessere, offenere Zukunft, zumindest möglich, daß Dritte die Daten und deren Interpretation überprüfen und so zumindest methodische Fehler aufdecken.
  • @Köhler

    04.09.2014, Frank Svoboda
    Ihren Einwand verstehe ich nicht. Es geht doch wohl in erster Linie darum, interne Operationen des Prozessors oder der Speicher usw. zu beschleunigen. Wieso müssten dann mehr Kabel verbaut werden? Und Photonen haben doch gar keine (Ruhe)Masse.
    Im Übrigen haben in einem Computer sowieso nicht alle Bauteile die gleiche Taktfrequenz. Viele Peripherie-Bauteile arbeiten mit niedrigeren Taktfrequenzen als der Prozessor - oder auch höheren, wie bei einigen Grafik-Chips.
  • Find ich nicht gut

    03.09.2014, Köhler
    ein Computer mit hohen Taktfrequenzen im Herz Bereich ist wie ein stau in der Stadt erstens würde mehr kabel verbaut werden müssen. 2. müsste man ein kurz frequentes beschleunigen verhindern was nur mit schwerer Masse möglich ist (Photonen) um eine halbwegs gleiche Frequenz aller Bauteile zu erlangen.
Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.