Lesermeinung - Spektrum der Wissenschaft

Ihre Beiträge sind uns willkommen! Schreiben Sie uns Ihre Fragen und Anregungen, Ihre Kritik oder Zustimmung. Wir veröffentlichen hier laufend Ihre aktuellen Zuschriften.
  • Das wissenschaftliche Wertesystem bedarf einer Korrektur

    05.09.2014, Frank Niemeyer
    Ich freue mich, daß sich Spektrum der Wissenschaft vermehrt mit Fragen der Qualität in der Wissenschaft befaßt. Frau Nuzzos Artikel zum besorgniserregenden "p-Wert-Kult" ist ein wichtiger Beitrag, um die überfällige Diskussion über unwissentlich oder auch bewußt fehlinterpretierte statistische Aussagen auch ins Bewußtsein der interessierten Öffentlichkeit zu rücken, die schließlich für den Großteil dieser Forschung auch bezahlt und – schlimmer noch – mit den Folgen leben muß, wenn zum Beispiel aus falsch verstandenen Statistiken politische Entscheidungen hervorgehen.

    Ob Nullhypothesentests à la Fisher-Neyman-Pearson und die damit verbundenen p-Werte im Speziellen überhaupt sinnvoll nutzbar zur Beantwortung üblicher wissenschaftlicher Fragestellungen sind, ist schließlich Gegenstand einer seit Jahrzehnten, teilweise recht leidenschaftlich, geführten Dikussion; ganz zu schweigen von der wohl noch länger geführten Debatte über die "richtige" Interpretation von Wahrscheinlichkeiten (Laplace, Boole, Venn etc.). Leider wird Statistik-Anwendern meiner Erfahrung nach praktisch nie vermittelt, daß dieser grundsätzliche Gegensatz zwischen der frequentistischen und der bayesianischen Interpretation überhaupt existiert. Das wäre aber wichtig, um nicht den Eindruck entstehen zu lassen, es gäbe nur eine zulässige, quasi sakrosankte Methode, an die man sich geradezu sklavisch halten müsse, um Schlüsse aus den Ergebnissen eines Experiments ziehen zu dürfen, bzw. die auf scheinbar geradezu magische Art und Weise selbst aus einer eigentlich offensichtlich unzureichenden Datenbasis noch "signifikante" Ergebnisse extrahieren kann, auch wenn das jedem gesunden Menschenverstand widerspricht.

    Die Ursachen für den allgegenwärtigen Mißbrauch von Nullhypothesentests und die Fehlinterpretationen von p-Werten sind vielfältig, und entsprechend schwer ist ihnen beizukommen. Ein wesentlicher Grund dürfte aber schlicht Bequemlichkeit sein: Nicht-Statistiker sind in der Regel nicht an Statistik interessiert, das ist jedenfalls meine Erfahrung. Folglich wird das Knöpfchen im Statistikprogramm halt gedrückt, damit man den für die Publikation notwendigen p-Wert erhält. Was sich dahinter verbirgt, interessiert in der Regel wenig, solange nur das Ergebnis statistische Signifikanz signalisiert (und wie immer bestätigen Ausnahmen nur die Regel). Aber wie sollte sich an dieser Praxis auch etwas ändern, solange die Qualität eines Wissenschaftlers alleine an der Länge seiner Publikationsliste gemessen wird?

    Auch das ist ein Grund, warum man der Open-Science-Bewegung nur Erfolg wünschen kann oder, noch besser, aktiv zu ihrem Erfolg beitragen sollte. Ein solcher Kulturwechsel ist meines Erachtens schlicht überlebensnotwendig für die wissenschaftliche Forschung. Zwar wird ein offener, transparenter Umgang mit Forschungsdaten allein weder die gegenwärtige Praxis allgegenwärtiger statistischer Tests noch bewußten Betrug unterbinden können. Aber so wäre es, als erster Schritt in eine bessere, offenere Zukunft, zumindest möglich, daß Dritte die Daten und deren Interpretation überprüfen und so zumindest methodische Fehler aufdecken.
  • @Köhler

    04.09.2014, Frank Svoboda
    Ihren Einwand verstehe ich nicht. Es geht doch wohl in erster Linie darum, interne Operationen des Prozessors oder der Speicher usw. zu beschleunigen. Wieso müssten dann mehr Kabel verbaut werden? Und Photonen haben doch gar keine (Ruhe)Masse.
    Im Übrigen haben in einem Computer sowieso nicht alle Bauteile die gleiche Taktfrequenz. Viele Peripherie-Bauteile arbeiten mit niedrigeren Taktfrequenzen als der Prozessor - oder auch höheren, wie bei einigen Grafik-Chips.
  • Find ich nicht gut

    03.09.2014, Köhler
    ein Computer mit hohen Taktfrequenzen im Herz Bereich ist wie ein stau in der Stadt erstens würde mehr kabel verbaut werden müssen. 2. müsste man ein kurz frequentes beschleunigen verhindern was nur mit schwerer Masse möglich ist (Photonen) um eine halbwegs gleiche Frequenz aller Bauteile zu erlangen.
  • Eins nach dem anderen!

    02.09.2014, Johannes Seemann
    Das ist ja eine interessante Forderung, die der Iran da stellt. Wie wäre es denn erst mal mit der Regulierung der Geburtenzahl auf zwei Kinder - dann würde sich das Problem reduzieren. Dann mit der Ausbildung und Gesundheitsförderung der Kinder. Wir können unser Trinkwasser natürlich auch für das gleiche Geld verkaufen, wie der Iran sein Öl an uns. So wendet sich das Blatt.
    Antwort der Redaktion:
    Sehr geehrter Herr Seemann,

    das Bevölkerungswachstum liegt im Iran übrigens derzeit bei 1,3 Prozent (in Deutschland bei 0,2 Prozent); pro Frau wurden 2011 im Mittelwert 1,6 Kinder geboren. Insgesamt sank die Geburtenrate seit mehreren Jahrzehnten recht drastisch, teilweise unter dem Einfluss politischer Steuerungsmaßnahmen.

    Auch der Bildungspolitik stellen neutrale Beobachter ein eher positives Zeugnis aus, vor allem im Vergleich mit anderen islamischen Staaten. Gerade der recht hohe Anteil an weiblichen Studierenden überrascht Uninformierte oft. Die Probleme des Landes liegen offenkundig auf anderem Gebiet.

    Mit freundlichen Grüßen
    Jan Osterkamp
    Redaktion Spektrum.de
  • Fragwürdige Göttlichkeit

    01.09.2014, Ferdinand Wegrostek, Zillingdorf Bergwerk (Österreich)
    Der Beitrag hat mir als ehemaligem Wirtschaftspsychologen, Markt- und Meinungsforscher gut gefallen, weil er der Signifikanz die zugeschriebene Göttlichkeit nimmt und aufzeigt, was der p-Wert (nicht) zu leisten im Stande ist. Gefallen hat mir auch das Herausstreichen anderer wichtiger Orientierungsparameter wie Effektgröße und Konfidenzintervall.
    Das Spektrum der Faktoren, welche die Ergebnisse einer Untersuchung beziehungsweise den p-Wert beeinflussen können, ist so breit, dass es nicht verwundert, dass ein guter Teil aller mit Signifikanz deklarierten Studien schlichtweg falsche und nicht replizierbare Ergebnisse enthält.
    Die Einflussfaktoren beginnen beim Untersucher selbst, seinen Beweggründen, Zielen und Erwartungen an die Studie, reichen über das Prozedere von Hypothesenformulierung, Art des gewählten experimentelles Designs, Stichprobenart und -größe, das benutzte statistische Verfahren und enden letztlich mit einer vorsichtig-richtigen oder gewagt-fragwürdigen Interpretation.
    Unzureichendes Fachwissen selbst erscheint mir dabei nicht als vordergründige Ursache, dass ein guter Teil aller Studien falsch ist. Die Ursachen liegen häufig im Ehrgeiz und Erfolgsdruck, dem sich Forscher und Doktoranden aussetzen. Man ist a priori bestrebt die eigene Hypothese zu bestätigen, arbeitet konzentriert darauf hin und vermeidet jede Art von möglicher Falsifizierung. Bei kommerziellen Unternehmungen wie etwa Markt- und Meinungsforschungsinstituten führen Zeitdruck und wirtschaftliche Zielstrebungen, Profitorientierung und Minimierung des Kostenaufwandes zu Fehlern und Nachlässigkeiten in Planung, Durchführung und Auswertung – oder gar zu mehr oder weniger bewusster Ergebnismanipulation.
    Abhilfe kann hier nur eine noch stärkere Reglementierung als bisher durch Fachgremien bringen. Kontrolle und Sanktion müssten mit vorgesehen werden. Es gilt noch strengere Standards im wissenschaftlichen Bereich als auch in den einzelnen kommerziellen Branchen sowie für die Ergebnisveröffentlichung zu setzen. Möglichst viele Untersuchungsparameter müssten dargestellt werden und Eingang in die Publikationen der Studien an die Öffentlichkeit, also an den statistischen Laien, finden. Im Bereich von Umfragen und deren Publikationen müssten vom Journalisten standardmäßig Stichprobengröße und Konfidenzintervall (mit Erklärung) anführt werden. Denn nur durch Offenlegung möglichst vieler statistischer Parameter und deren richtige Interpretation kann man letzten Endes den bestehenden Vorurteilen gegenüber Umfrageergebnissen in der breiten Öffentlichkeit wirkungsvoll begegnen und den strapazierten Spruch "Es gibt drei Arten von Lügen: Lügen, verdammte Lügen und Statistiken“ selbst als oberflächlichen Sager entlarven.
  • leichte Winde?

    01.09.2014, Simon
    Wieso sieht man dann oft, dass diese Steine Erdmassen vor sich herschieben? Bei leichten Winden soll dies doch nicht möglich sein oder?
  • Cartans Torsion statt Supersymmetrie

    01.09.2014, Rainer W. Kühne, Braunschweig
    Sowohl die ATLAS als auch die CMS Collaboration des LHC haben keine supersymmetrischen Teilchen entdeckt (ATLAS Coll., Phys. Rev. Lett. 106 (2011) 131802; CMS Coll., Phys. Rev. Lett. 107 (2011) 221804). Die untere Grenzmasse für gleichschwere Squarks und Gluinos liegt nun bei 1700 GeV (ATLAS Coll., arXiv: 1405.7875). Vorhergesagt waren Squark- und Gluino-Massen von höchstens 300 GeV.

    Die LUX Collaboration hat keine Neutralinos aus der kalten dunklen Materie entdeckt (LUX Coll., Phys. Rev. Lett. 112 (2014) 091303) und damit die Beobachtung der DAMA Collaboration widerlegt, die vielfach als Evidenz für SUSY-CDM galt.

    Die indirekte Evidenz für Gravitationswellen im inflationären Universum (BICEP2 Coll., Phys. Rev. Lett. 112 (2014) 241101) konnte als Effekt des interstellaren Staubs erklärt werden (K. M. Smith et al., Phys. Rev. Lett. 113 (2014) 031301; M. J. Mortonson and U. Seljak, arXiv: 1405.5857; R. Flauger et al., arXiv: 1405.7351). Diese Erklärung schließt kosmische Inflation auf der Energie-Skala von 10¹⁶ GeV oder mehr aus, also SUSY-GUT-Skala oder Planck-Skala.

    Die Supersymmetrie ist damit widerlegt. Damit sind auch die auf der Supersymmetrie basierenden Theorien wie Supergravitation, Superstring-Theorie, M-Theorie, supersymmetrische Große Vereinheitlichung obsolet geworden.

    Ein Argument für die Existenz von Supersymmetrie war bislang, dass sie die Existenz von Fermionen (mit asymmetrischem Energie-Impuls-Tensor) im Gravitationsfeld erklären kann. Der Energie-Impuls-Tensor der allgemeinen Relativität ist bekanntlich symmetrisch. Aber auch eine Erweiterung der Allgemeinen Relativität, die Einstein-Cartan-Theorie, die Cartans Torsion enthält, beschreibt einen asymmetrischen Energie-Impuls-Tensor. (Siehe R. W. Kühne, Quantum Field Theory with Electric-Magnetic Duality and Spin-Mass Duality but Without Grand Unification and Supersymmetry, African Review of Physics 6 (2011) 165-179 http://lamp.ictp.it/index.php/aphysrev/article/download/460/211.pdf http://inspirehep.net/record/1182299?ln=de .)

    Die Quantisierung der elektrischen Ladung kann durch Diracs magnetische Monopole erklärt werden, dazu bedarf es nicht der Großen Vereinheitlichung. Das Problem der Massenhierarchie entfällt, da es keine Große Vereinheitlichung gibt. (Siehe mein obengenanntes Paper in African Review of Physics.)

    Meine in diesem Paper vorgestellte Theorie kann durch das dort vorgeschlagene Tabletop-Experiment verifiziert werden.

    Zu den von Joseph Lykken und Maria Spiropulu genannten Alternativen sei gesagt, dass ich alle Theorien als leicht widerlegbar halte, die mehr als drei Raumdimensionen oder mehr als eine Zeitdimension besitzen. Der Grund ist, dass ein Raum mit n Dimensionen n(n-1)/2 orthogonale Rotationsachsen besitzt. Bei n=1 Dimension sind dies null Rotationsachsen, das ist möglich, wie bei der Zeit. Bei n=2 Dimensionen gibt es eine Rotationsachse, die senkrecht auf den beiden Dimensionen steht (z. B. Zeigeruhr), eine zweidimensionaler Raum ist also prinzipiell unvollständig. Bei n=3 Dimensionen gibt es drei orthogonale Rotationsachsen, von denen sich jede in eine der Dimensionen des Raums erstreckt, also ein vollständiges und konsistentes System. Bei mehr als drei Dimensionen gibt es mehr orthogonale Rotationsachsen als Dimensionen, das System ist also inkonsistent. Auch kompaktifizierte Dimensionen helfen nicht, da Objekte, die kleiner als die kompaktifizierten Dimensionen sind, rotieren sollten.

    Der Anti-deSitter-Raum (zwei zeitliche und drei räumliche Dimensionen) ist also schon aus diesem Grund unmöglich. Abgesehen davon ist er physikalisch unmöglich, da er statisch ist, also keinen Hubble-Effekt enthält, und eine negative kosmologische Konstante beschreibt, was der Beobachtung einer positiven kosmoligischen Konstanten widerspricht. Damit sind sowohl die Randall-Sundrum-Theorie als auch alle Theorien obsolet, die eine Analogie zwischen konformer Feldtheorie und Anti-deSitter-Raum behaupten.

    Zum Leserbrief von Werner Preuß: Die Bosonen können nicht aus Konstituenten aufgebaut sein. Wäre z. B. das W-Boson zusammengesetzt, so müssten, wegen der Mischung der Felder gemäß Quantenflavourdynamik = Weinberg-Salam-Theorie, auch das Z-Boson und das Photon zusammengesetzt sein. Konstituenten haben aber ein Schwerpunktssystem, so dass für das Gesamtsystem eine endliche Ruhmasse vorliegt. Das Photon hat aber die Ruhmasse null. Somit kann das Photon nicht zusammengesetzt sein, ebensowenig das Z-Boson und das W-Boson.
  • Und immer wieder das PIK als Institut für Klimahorror am Fließband

    01.09.2014, Klimarealist
    Der Redakteur hätte mal besser lesen sollen, bevor er diese Überschrift titelte. Denn das PIK schrieb eigentlich in seiner typischen Manier:
    Dieser Meeresspiegelanstieg könnte - vielleicht, eher nicht - so in 5000 Jahren verstärkt steigen. Zumindest haben wir nach verzeifelter Suche in der sich dem Klimawandel völlig verweigernden Antarktis wenige Gletscher gefunden, die so etwas wie einen "Propfen" vor dem Weg ins Meer haben. Sofern so ein "Pfropfen" schmelzen würde - nicht in Sicht, aber könnte doch - müsste der Gletscher schneller fließen. Dann würde doch der Meeresspiegel steigen, wenn das die ganze Arktis mit machen würde. Geht zwar nicht, weil der wesentliche Teil Festlandeis ist. Klingt aber doch alarmistisch gut. Unsere Simulationen haben das auf jeden Fall sofort mit ungeheurer Präzision, aber hoher Streuung rechnen können, wann das dann passiert ist.
    Und dass dieser Schwachsinn von uns in allen Zeitungen veröffentlicht wird, belegt, dass es wieder eine gute Klimawandel-Alarm-Story ist.
    Denn wer Klimawandelangst hat, den lasssen wir nicht im Stich.
    Antwort der Redaktion:
    Sehr geehrter Klimarealist,

    der Titel des Papers in Nature Climate Change lautet "Ice plug prevents irreversible discharge from East Antarctica". Weder hier noch anderswo im Paper ist die Rede davon, der Meeresspiegel steige erst in 5000 Jahren verstärkt. Laut den Simulationen könnte der Eisverlust in der Ostantarktis bereits in den kommenden Jahrhunderten deutlich zum Anstieg des Meeresspiegels beitragen. Genauso ist es auch im Abstract wiedergeben: "Our results are robust with respect to variation in ice parameters, forcing details and model resolution as well as increased surface mass balance, indicating that East Antarctica may become a large contributor to future sea-level rise on timescales beyond a century". Die Anhebung des Meeresspiegels ist dabei eine Art Sättigungsfunktion mit zunächst starkem, später flachem Anstieg. Der Wert von 3-4 Meter wird - hier haben Sie recht - im bereits flachen Kurvenabschnitt nach einigen tausend Jahren erreicht. Das ist aber nicht der wesentliche Punkt. Die zentrale Aussage des Papers ist, das Schmelzen des "Eiskorkens" setze ein irreversibles Kalben der Gletschermasse in Gang, die am Ende zu einem 3-4 Meter höheren Meeresspiegel führe. So haben wir es in der Nachricht auch wiedergegeben.

    Dass die Antarktis sich dem Klimawandel "völlig verweigere", kann man nicht gerade behaupten. Siehe etwa hier.

    Mit freundlichem Gruß
    Frank Schubert
  • Eigene Erfahrung

    31.08.2014, Klaus Fischer
    Für mich ein sehr interessanter Artikel.
    Ich habe Mitte der 90-ziger Jahre 2 Jahre in Tanzania gelebt und während der Zeit 2 epileptische Anfälle gehabt. Die intensiven neurologischen Untersuchungen in Deutschland haben damals keinen Befund ergeben. Es ist auch keinerlei Behandlung erfolgt. Seitdem sind die Anfälle nicht wieder aufgetreten. Wäre interessant zu wissen, ob sich die Neurozystizerkose nach einer gewissen Zeit tot läuft.
    mfg
    KF
  • Versuchsaufbau und überlichtschnelle Kommunikation

    29.08.2014, madphilosophist
    Mir stellen sich bei der Durchsicht des Originalpapers und meinen bescheidenen Kenntnissen zwei aufeinander aufbauende Fragen, die evtl. jmd. mit mehr Sachverstand erläutern könnte:

    1. Betrachtet man den Strahlengang in der Originalveröffentlichung, so wird der Infrarotstrahl, der mit dem Objekt wechselwirkt durch den zweiten Kristall geschickt um ihn mit dem dort entstehenden zweiten Infrarotstrahl zur Interferenz zu bringen. Hierbei muss sichergestellt werden, dass nach dem Zusammenbringen der beiden Strahlen keine "which-is-which"-Information bezüglich des Ursprungs einzelner Photonen mehr enthalten ist, da es sonst nicht zur Interferenz kommen kann. Die Frage die sich hier stellt ist, ob es dazu unbedingt notwendig ist den Strahl der vom Objekt kommt auch durch den zweiten Kristall zu leiten (sorgt gerade das für das Auslöschen der "which-is-which" Information?) oder ob es auch möglich ist die Interferenz zwischen den beiden Infrarotstrahlen nach der Aufspaltung des zweiten Strahls herbeizuführen.

    2. Wenn es möglich ist die Interferenz nach dem Kristall zu erzeugen, müsste es möglich sein einen Kommunikationskanal zu installieren, der, sobald er einmal besteht, eine überlichtschnelle Informationsübertragung erlauben würde. Indem man 4 kontinuierliche Teilstrahlen erzeugt und die beiden Infrarotstrahlen zu Alice schickt, die das zu verschickende Bild in einen der Strahlen hält und dann die beiden Strahlen zur Interferenz bringt, kann Bob aus den beiden anderen Strahlen mit einer Kamera die Nachricht sofort auslesen.
    Inwiefern treffen in diesem Szenario die allgemeinen Argumente gegen überlichtschnelle Informationsübertragung über verschränkte Quantenzustände zu?
    Antwort der Redaktion:
    Tatsächlich hat sich jemand mit Sachverstand Ihrer Fragen angenommen, nämlich SciLogs-Blogger Joachim Schulz. Er erörtert in seinem Beitrag das Experiment und die möglichen Erkenntnisse und Interpretationen und nimmt dabei auch explizit Bezug auf Ihre zweite Frage:

    http://www.scilogs.de/quantenwelt/welcher-weg-abbildung/

    Mike Beckers
    Redaktion
  • Idee

    27.08.2014, Sven
    Ich glaube nicht, dass man sich ein schwarzes Loch als isoliertes Gebilde vorstellen darf. Wenn ich das Universum als "komplexe Kugel" und den dreidimensionalen Raum als 2-Dimensionales Abbild auf der Oberfläche des Universums verstehe, könnte man doch auf die Idee kommen, dass Licht und Materie direkt in die Expansion eben dieser Oberfläche der komplexen Kugel "investiert" wird. Das könnte auch die beschleunigte Expansion erklären. Das Ende von schwarzen Löchern stelle ich mir sehr unspektakulär als einfaches Verschwinden des Ereignishorizontes hinter die Oberfläche des übrig bleibenden Neutronensternes vor, die ganze Energie und Materie wäre ja bereits in Expansion umgewandelt ... Aber zum Glück bin ich Laie und brauche das nicht mathematisch zu beweisen :)
  • Diese frage kann nur persöhnlich beantwortet werden

    27.08.2014, Christian
    Ich schließe mich meinem vorkommentator voll und ganz an das NEM nicht gleich NEM ist und es auf die art des NEM ankommt zumal auch wirksame NEM bei verschiedenen Personen verschiedene Wirkungen haben,ich als "Sportler" mit meiner täglichen kalorieneinahmen von 4100 Kalorien(ich tracke meine Makronährstoffe mit der digitalwaage desshalb ist dies eine zuverlässige zahl) wovon. 6-700g aus Kohlenhydraten bestehen und durch die sonst zu hohe ballaststoffaufnahme eher einen durchschnittlichen vollkornprodukt konsum habe kann eher von B-vitaminen wie z.b Vitamin B1(coenzym der pyruvatdehydrogenase(kohlenhydratverstoffwechselung) profitieren als jemand der auf 2000 kcal die hälfte seiner Makronährstoffe durch fett bezieht,somit ist für mich die frage nach der notwendigkeit oder nutzen von NEM eine ganz andere frage als für andere.
  • Der Titel des Artikels reflektiert bereits das Problem

    27.08.2014, Markus
    Ist NEM gut? Die Antwort muss sein: Kommt darauf an!

    Was ist NEM? Vitamin und Mineralpräparate waren es früher. Heute ist es ein Mix aus Laborprodukten und 100% natürlichen Produkten jeder Art (Pilze, Obst, Gemüse, Lebensmittel aus der ganzen Frucht oder Extrakte, einfache Mehle oder konzentrierte Pulver, etc.). Es sind teilweise Produkte von Firmen die auf einen Zug aufspringen und billig verkaufen (mit wenig nutzen) und teilweise Produkte von idealistischen kleinen Firmen die bei sehr vielen Menschen eine schnelle und reale Wirkung zeigen. Manche NEM basieren auf nachweisbaren, physiologischen Wirkungen durch die verwendeten Zutaten und andere bewegen sich ganz und gar im Esoterikbereich. Alles was unser Gesetzgeben weder uneingeschränkt erlauben, noch ganz verbieten will/kann landet als NEM am Markt. Laut Gesetz dürfen NEM natürlich nichts können (sonst wäre es ja ein Arzneimittel), doch selbstverständlich haben so einige Pflanzen aus Mutter Natur eine tolle Wirkung und zum Glück ist noch nicht alles verboten oder als Arzneimittel zur „Denaturalisierung“ verdonnert. NEM ist also in gewisser Weise alles und nichts und eine pauschale Aussage darüber kann naturgemäß nicht getroffen werden. Dies stellt natürlich auch die Seriosität und den Grad an objektiver, wissenschaftlicher Herangehensweise dieses Artikels in Frage.
  • "Schockfront"

    27.08.2014, Ackermann Hans
    Sehr geehrte Damen und Herren

    Im Beitrag "Stosswellen aus dem Giganto-Galaxiencrash" wird wieder einmal "Schockfront" geschrieben. Im Deutschen gibt's in der Physik keine Schocks, nur im menschlichen Nervensystem !
  • Dunkle Materie? Oder einfach nur zu dunkel, um gesehen zu werden?

    27.08.2014, Peter Fuhrmann, Mainz
    Wie Sie sehen lese ich die Spektren noch ein Mal bevor ich sie dann wegwerfe. Ehrlich gesagt, fangen die Artikel über die sogenannte dunkle Materie an, mich zu langweilen.

    Warum?

    Mit einer überschlägigen Rechnung lässt sich zeigen, dass sich etliche Sonnenmassen ohne großen Aufwand in der unmittelbaren Umgebung der Sonne verstecken lassen, ohne irgendwelche exotischen Hypothesen bemühen zu müssen.

    1 Lichtjahr entspricht ca. 10 Billionen (=1013) Kilometer. 1 Kubiklichtjahr entspricht demzufolge ca. 1039 Kubikkilometer. Ein kugelförmiger Raum um die Sonne mit dem Radius von ca. 1 Lichtjahr enthält annähernd 4 Kubiklichtjahre (etwa die Hälfte, 52,36 Prozent, von 2 * 2 * 2 Lichtjahren), entsprechend also 4 x 1039 Kubikkilometer.

    Wenn man diese Kugel in lauter kleine Würfel mit 1000 Kilometer Kantenlänge zerteilt, also 1000 km x 1000 km x 1000 km = 109 km3 = 1 Milliarde Kubikkilometer dann ergibt das 4 * 1030 solcher Würfel.

    Die Masse der Sonne beträgt ungefähr 2 x 1030 kg. Wenn nun irgendwo in jedem dieser Würfel ein Miniasteroid von 1 kg Masse schwebt, ein Körper von kaum 10 Zentimeter Durchmesser, ergibt das schon insgesamt 2 zusätzliche Sonnenmassen in diesem Volumen.

    Es könnten sich allerdings auch viel größere Massen dort verbergen: Etliche Objekte von Jupitergröße, tausende von Plutogröße, Milliarden von Objekten mit mehr als einem Kilometer Durchmesser (Kometengröße) und Myriaden von Objekten mit mehr als einem Meter Durchmesser. Ganz zu schweigen von meinen 1-kg-Klötzchen, die ich vorhin erwähnt habe.

    All das würde uns nicht im geringsten auffallen, weil die Objekte wegen ihrer großen Entfernung und ihrer "Dunkelheit" außerhalb unserer Wahrnehmung liegen. Außerdem sind sie zu klein und letztlich zu wenige, um unsere Sicht in irgendeiner Richtung zu behindern, wodurch wir ja ebenfalls auf sie aufmerksam werden könnten.

    Natürlich ist das alles auch schon lange bekannt und wird unter dem Stichwort Oortsche Wolke als Quelle der langperiodischen und hyperbolischen Kometen angesehen. Ja, es gibt diese dunkle Materie, aber sie ist nicht im geringsten exotisch, sondern gegenwärtig einfach nur unsichtbar im wahrsten Sinne des Wortes. Sie strahlt nicht, enthält keine ionisierten Gase, sondern besteht aus langweiligen klumpigen Asteroiden und Kometen, die alle Galaxien erfüllen und von früheren Sternexplosionen herrühren.