Lesermeinung - Spektrum der Wissenschaft

Ihre Beiträge sind uns willkommen! Schreiben Sie uns Ihre Fragen und Anregungen, Ihre Kritik oder Zustimmung. Wir veröffentlichen hier laufend Ihre aktuellen Zuschriften.
  • 16.02.2017, Professor Dr. Klaus Gottstein
    Mit großem Interesse habe ich den Artikel von Manfred Popp gelesen. Er gibt eine gute Übersicht über die schon lange bekannten Fakten des deutschen "Uranprojekts" während des Zweiten Weltkriegs und der Vorgeschichte und Geschichte des Atombombenbaus in den USA und enthält insofern nichts Neues. Das, was als ganz neue, aus den Originaldokumenten gezogene Erkenntnis verkündet wird, beruht jedoch zum größten Teil auf einer nicht nachvollziehbaren, in sich nicht konsistenten Argumentation. Insbesondere ist die Schlussfolgerung unbegründet, dass der Plan zum Bau einer deutschen Atombombe nicht nur aus materiellen Gründen aufgegeben werden musste, sondern dass er in jedem Fall am unzulänglichen kernphysikalischen Wissen der leitenden deutschen Physiker gescheitert wäre.

    Herr Popp untersucht auf der Grundlage des modernen Wissensstandes über die physikalische und technische Funktionsweise von Atomwaffen, wie weit die heutigen Erkenntnisse bereits in den damals geheim gehaltenen Berechnungen Heisenbergs von 1939 erkennbar sind. Das ist nicht ohne wissenschaftshistorisches Interesse, führt aber nicht zu neuen Erkenntnissen in der Frage, warum es keine deutsche Atombombe gab. Es ist nicht überraschend, dass Heisenberg 1939 und 1940 noch nicht alles wusste, was die amerikanischen Bombenbauer – teilweise seine Schüler – im Verlauf des Manhattan-Projekts und später erarbeitet haben. Ihm genügte es, gezeigt zu haben, dass Atombomben zwar theoretisch möglich wären, dass ihr Bau aber einen riesigen Aufwand erfordern würde, der mehrere Jahre erfordern und daher in dem laufenden Krieg nicht mehr zu einsatzfähigen Waffen führen würde. Heisenberg war sehr froh, dass Rüstungsminister Speer daraufhin das Projekt "Bombe" beendete und nur den Bau eines kleinen Versuchsreaktors genehmigte. Seine Sorge war gewesen, dass fachlich ignorante, aber verzweifelt-fanatische Befehlshaber dennoch ein großes Atombombenprojekt anordnen, ihm auftragen und nach dessen notwendigem Scheitern ihm dieses zur Last legen würden. Es besteht wohl kein Zweifel, dass der Bau einer Atombombe und deren Einsatz von Hitler befohlen worden wäre, wenn dies als im Bereich der technischen Möglichkeiten liegend angesehen worden wäre. Dann hätte Heisenberg vor der moralischen Alternative gestanden, einem derartigen Befehl widerwillig zu folgen oder sein Leben als Verweigerer oder Saboteur aufs Spiel zu setzen. Er schätzte sich glücklich, dass ihm diese Entscheidung erspart geblieben war.

    Nach der Beendigung des Projekts hatte Heisenberg kein Interesse mehr daran, die Theorie der Atombombe weiter zu untersuchen und weiter zu entwickeln. Aus dem eben erwähnten Grunde wäre dies sogar gefährlich gewesen. Es war für ihn auch kein seine wissenschaftliche Neugier reizendes Problem. Dass Heisenberg aber durchaus in der Lage war, eine brauchbare Theorie der Atombombe auszuarbeiten, bewies er während seiner Internierung in Farm Hall, als er im August 1945 nach der Nachricht von der Hiroshima-Bombe innerhalb einer Woche eine solche Theorie entwickelte und seinen Mitinternierten vortrug. Wie Popp richtig ausführt, zeigt dies, dass Heisenberg während des Krieges sich offenbar nie die Mühe gemacht, eine Woche aufzuwenden, um eine Theorie der Bombe zu erarbeiten. Er wollte sie nicht wissen, obwohl er sie hätte wissen können. Andererseits wirft Popp dem amerikanischen Wissenschaftshistoriker Walker mangelnde physikalische Fachkenntnisse vor, weil dieser aus dem ungefähr richtigen Schätzwert für die kritische Masse in einem Dokument des Heereswaffenamts von 1942 geschlossen hatte, die Deutschen hätten die Bombe bauen können, wenn die industriellen, ökonomischen und organisatorischen Vorbedingungen erfüllbar gewesen wären. Das ist inkonsistent. Popps eigene Feststellung, dass Heisenberg unter entsprechenden Voraussetzungen nur eine Woche gebraucht hätte, um eine Theorie als Grundlage für die erforderlichen technischen Schritte zu entwickeln, lässt er als Rechtfertigung für Walkers Aussage nicht gelten.

    Aus historischer Sicht ist der Wissensstand nach den Untersuchungen von Popp unverändert: Der Bau einer deutschen Atombombe ist an den materiellen Verhältnissen in Deutschland während der Kriegsjahre gescheitert, nicht am damaligen Stand von Heisenbergs Wissen. Sein aus heutiger Sicht noch unvollkommener Wissensstand von 1939/1940 mag für Wissenschaftshistoriker des Spezialgebiets "Geschichte des Atombombenbaus" von Interesse sein, ändert aber nichts an den Gründen für die Nicht-Entstehung einer deutschen Atombombe.

    Im einzelnen wäre zu den von Herrn Popp genannten Argumenten noch folgendes zu bemerken:
    - Es trifft zu, dass eine Kenntnis der kritischen Masse des Uran 235 eine notwendige, aber nicht hinreichende Bedingung für den Bau einer Atombombe ist. Der ungefähr richtige Schätzwert für die kritische Masse, über den Heisenberg ab 1942 nach mehreren Quellen verfügte, den er aber den nicht eng mit ihm zusammen arbeitenden Mitgliedern des „Uranvereins“ vorenthielt, hätte – wie Popp richtig feststellt - allein nicht für den Bau einer Atombombe ausgereicht. Es ist aber auch festzuhalten, dass es im "Uranverein" keine Bemühungen gab, die im Prinzip bestehenden und von Popp zitierten experimentellen Möglichkeiten zur Bestimmung der kritischen Masse von Plutonium mit Hilfe von Mattauchs Massenspektrographen und den Zyklotronen in Paris oder Kopenhagen auszuschöpfen, was den amerikanischen Experten Jeremy Bernstein erstaunte, wie Popp berichtet. Man kann dies als weiteren Hinweis auf eine mangelnde Motivation zum Bombenbau ansehen.
    - Dass Heisenberg im Dezember 1939 in der Zusammenfassung seiner Rechnungen zum Bau von Reaktoren unter Verwendung von angereichertem Uran erwähnt, dass hochangereichertes Uran ein hochexplosiver Sprengstoff sei, rechtfertigt nicht Popps Annahme, Heisenberg hätte einen Reaktor als Bombe ("Reaktorbombe") vorgeschlagen. Der Unterschied zwischen Reaktor und Bombe war Heisenberg und seinen engsten Mitarbeitern wie C.F.von Weizsäcker und Karl Wirtz nachweislich sehr wohl bekannt. Allerdings trifft es zu, dass dieser Unterschied nicht allen Mitgliedern des "Uranvereins" klar gewesen zu sein scheint, z. B. nicht dem von Heisenberg nicht eingeweihten administrativen Leiter des Uranprojekts Walther Gerlach.
    - Popp stellt richtig fest, dass Heisenberg nicht detailliert wissen wollte, wie die Bombe funktionieren könnte, nachdem das Bombenprojekt abgesagt war. Andererseits schließt Popp sich dem Urteil von Goudsmit in dessen Buch ALSOS von 1947 an, dass die deutschen Physiker, insbesondere Heisenberg, die Bedeutung der kritischen Masse und den Unterschied zwischen Bombe und Reaktor nicht verstanden hätten. Diese Meinung ist angesichts der bekannten Fakten nicht zu halten.
    Eine ausführlichere Richtigstellung der immer noch anzutreffenden Mythen um den "Uranverein" und die vom deutschen Heereswaffenamt bei Kriegsbeginn veranlassten Voruntersuchungen über die Möglichkeit der Herstellung von "Atombomben" findet sich in meinem Aufsatz "Werner Heisenberg and the German Uranium Project (1939-1945). Myths and Facts" auf der Webseite der Heisenberg-Gesellschaft (www.heisenberg-gesellschaft.de), der auch in der Juli-Ausgabe des "Physics and Society Newsletter" der American Physical Society publiziert wurde.

    Zum Autor des Leserbriefs: Klaus Gottstein hat zwanzig Jahre (1950-1970) unter Werner Heisenberg als Experimentalphysiker in dem von Heisenberg geleiteten Max-Planck-Institut für Physik gearbeitet. Sechs Jahre lang (1974-1980) war er Mitarbeiter von Carl Friedrich von Weizsäcker in Starnberg. In beiden Funktionen hörte er mehrmals Berichte von Heisenberg und von Weizsäcker über die von ihnen während des Krieges durchgeführten Untersuchungen im Rahmen des sogenannten Uranprojekts. Dieses war vom damaligen Heereswaffenamt bei Kriegsbeginn ins Leben gerufen worden, um die Möglichkeiten einer Nutzung der durch die kurz zuvor von Otto Hahn entdeckte Kernspaltung frei werdende Energie für militärische und zivile Zwecke zu erkunden. Zudem gehörte Gottstein seit 1962, zeitweise im Vorstand und im Beirat, der Vereinigung deutscher Wissenschaftler (VDW) an, zu deren Gründungsmitgliedern Werner Heisenberg, C. F. von Weizsäcker und Otto Hahn gehörten. Ein Hauptthema in den Diskussionen der VDW waren die mit der rapiden Ausbreitung der Kernwaffen verbundenen großen Risiken.
  • Kommentar des Autors

    15.02.2017, Jean-Paul Delahaye
    Ich bezweifle nicht, dass man dem Simpson-Paradox und seinen Varianten entgehen kann, indem man Bedingungen an die Größe der Teilgruppen stellt. Das ist sogar relativ einfach zu beweisen. Es geht nur darum, sich das Paradox zu Bewusstsein zu bringen, damit man sich die richtigen Regeln zu seiner Vermeidung geben kann.
  • Ist das Simpson-Paradox wirklich ein Paradox?

    15.02.2017, Christian Hartl
    Bei einer statistischen Auswertung wie in dem Beispiel am Anfang des Artikels wird normalerweise kein genaues Modell über die individuelle Wirkweise des Medikaments zugrundegelegt. Insbesondere fließt die Abhängigkeit der Wirkweise von den Merkmalen des Individuums (Geschlecht, Helligkeit der Augen, und potentiell unzählige weitere wie z. B. DNA oder aktuelle körperliche Verfassung) nicht in die Hypothese ein, ebensowenig der charakteristische Krankheitsverlauf. Die implizite Annahme ist lediglich, dass das Medikament auf ein beliebiges Individuum (mit einer gewissen Wahrscheinlichkeit) entweder wirkt oder nicht.

    Im Vergleich dazu ist die Situation in einem typischen physikalischen Experiment wesentlich einfacher und klarer: Alle statistischen Objekte (z. B. Elektronen) sind exakt identisch, und die postulierte Wirkung der Experimentanordnung (z. B. elektromagnetisches Feld) und der physikalischen Gesetze (z. B. Streuung an anderen Objekten) in Abhängigkeit von weiteren Merkmalen (Ort, Geschwindigkeit) ist im Modell genau definiert.

    Dem entspricht in gewisser Weise die "Sichtweise 3" auf das Paradox: Die Behandlungsempfehlung sollte auf möglichst detaillierten (und statistisch ausreichenden) Daten beruhen.

    Ich glaube, die Aussage "Wenn das Paradox vorliegt, gibt es keine Abhilfe – aber das kommt glücklicherweise selten vor" führt jedoch in die Irre. Und dass man "guten Gewissens riskieren kann, nicht daran zu denken", wie im Schlusssatz des Artikels beruhigend angemerkt wird, ist womöglich genau der falsche Rat. Im Konfigurationsraum der möglichen Experimentergebnisse liegen die Instanzen des Simpson-Paradoxons nämlich dünn gestreut. Das bedeutet aber, dass in nächster Nachbarschaft einer solchen Instanz Ergebnisse lauern, die zu abweichenden Schlussfolgerungen führen würden!

    Daraus aber kann nur folgen, so vermute ich, dass am Experiment etwas faul ist: Entweder sind die relevanten Einflussparameter nicht in repräsentativer Weise in der Stichprobe vorhanden (entsprechend der natürlich vorkommenden Gesamtverteilung) oder in jeweils nicht ausreichender Anzahl, oder aber das implizite Modell ist falsch, d. h. man hat die Daten nach irrelevanten Parametern gruppiert und nicht nach den entscheidenden Einflussfaktoren!

    Es würde gänzlich der Intuition widersprechen, wenn diese numerischen "Singularitäten" eine seltsame Form von Pech bedeuten würden. Das kann schon deshalb nicht sein, weil es ja für die Interpretation eines robusten Experiments keinen Unterschied machen darf, ob man die Zahlen leicht variiert.

    Man sieht an den Farbplots aus dem Artikel auch deutlich, dass die Simpson-Paradoxa immer in unruhigen Zonen auftreten, nie aber mitten in einer ruhigen grünen oder ruhigen roten Zone. Für ein solides Experiment wird das Ergebnis aber immer in solche ruhigen Zonen fallen, vor allem wenn der Effekt stark ist. Vermutlich kann das Paradox auch noch in einem anderen Fall schlagend werden: nämlich dann, wenn zwar ein Effekt vorhanden ist, dies jedoch nur in schwacher Ausprägung (z. B. 51% Erfolg beim Medikament, 49% beim Placebo); zumindest in der medizinischen Praxis dürfte dies wenig relevant sein, da wir in dem Fall nahe einem Nulleffekt sind.

    Ich persönlich sehe daher folgende Schlussfolgerungen:

    1. Erwischt dich bei einem Experiment "zufällig" das so genannte "Simpson-Paradoxon", dann überprüfe die Methode des Experiments und überlege, ob die richtigen Einflussgrößen kontrolliert werden und in ausreichender und repräsentativer Form in der Stichprobe landen. Das Simpson-Paradox kann im Einzelfall also nützliche Hinweise geben!

    2. Umgekehrt: Erwischt dich das Simpson-Paradox "zufällig" NICHT, so überprüfe dennoch, ob das Ergebnis im Konfigurationsraum der möglichen Ergebnisse in einer instabilen Region liegt (also ob es umliegende Punkte gibt, welche zu einer anderen Interpretation führen würden).

    Dass die Schlussfolgerung 1 im echten Leben Anwendung findet, zeigt sich an den drei Beispielen im Kasten "Das Simpson-Paradox im echten Leben": Die Studien wurden eben nicht verworfen nach dem Motto "Pech gehabt", sondern es wurde jeweils nach den Gründen für das "Paradox" gesucht - und diese wurden gefunden.

    Die Schlussfolgerung 2 finde ich interessant: Es sollte möglich sein, die Daten aus einem Experiment nach den genannten Kriterien auf Robustheit zu überprüfen. Gut möglich, dass manche Statistik-Programme dies ohnehin können oder sogar routinemäßig machen - ich weiß es nicht.
    Antwort der Redaktion:

    Kein Einwand, aber ein Aufruf zur Vorsicht: Den Schemata von Jean-François Colonna sieht man nicht wirklich an, wo es ruhig und wo es unruhig zugeht. Colonna hat in sehr raffinierter Weise (getrennt für Männer und Frauen) jeweils vier Dimensionen auf eine zusammengedrückt, allerdings um den Preis, dass Punkte, die in dem originalen achtdimensionalen Parameterraum eng beisammen waren, das in dieser Darstellung nicht mehr unbedingt sind, und umgekehrt. Deswegen darf man sich für die Frage, ob ein Ergebnis robust gegen kleine Abweichungen ist, nicht auf diese Darstellung verlassen, sondern muss abstraktere Mittel zu Hilfe nehmen (die es gibt).


    Christoph Pöppe, Redaktion

  • Der deutsche Energiewende-Wahn bringt eine weitere unsinnige Idee hervor

    14.02.2017, Dr. Armin Quentmeier
    Der CO2-Ausstoß in Deutschland lag in 2016 bei ca. 800 Millionen t; davon entfallen ca. 40 Millionen t = 5% auf den Güterverkehr auf der Straße (zum Vergleich: PKWs, also „motorisierter Individualverkehr" macht schon ca. 100 Millionen t aus).
    Wie viel Prozent können durch Stromabnehmer-LKWs auf unseren Straßen eingespart werden? Zur Erinnerung: LKWs fahren nicht nur auf Autobahnen (Gesamtlänge 12.900 km), sondern auch auf Bundestraßen, Landstraßen, Kreisstraßen und städtischen Straßen (ca. 630.000 km). Die kleinsten Dörfer, sofern sie nicht auf den Halligen liegen, können durch LKWs erreicht und versorgt werden.
    Wie viel CO2 wird bei LKW-Fahrten auf Autobahnen und den anderen Straßen emittiert? Nur auf Autobahnen wäre die Investition in LKW-Oberleitungen technisch und kostenmäßig realisierbar, aber die Autobahnen machen nur 2 % des deutschen Straßennetzes aus. Können dadurch vielleicht 25 % der durch LKWs erzeugten CO2-Emissionen eingespart werden, dann wären das 10 Millionen von 800 Millionen t, also 1,25 % der deutschen CO2-Gesamtfreisetzung in einem Jahr. Und für einen solchen lächerlichen Einspareffekt sollen womöglich 10.000 km Autobahn für 10 Milliarden Euro elektrifiziert werden? Das ist eine groteske Vorstellung, aber leider besteht die Gefahr, daß diese Wahnsinnsidee von unseren Politikern in die Tat umgesetzt wird, so wie bereits jetzt 26.000 riesige Windmühlen unser Land von der Nordsee bis zum Alpenrand verschandeln. 35 Millionen Euro in eine solche unsinnige Sache wie einen Modellversuch für Oberleitungen für LKWs zu investieren ist eine grandiose Geldverschwendung und ein großer Schritt in die falsche Richtung.
  • Mysteriöses Sonnenereignis

    13.02.2017, Goswin Seibicke
    Solch ein mysteriöses, also unerklärliches, Ereignis ist auch in den Eisbohrkernen der Antarktis und von Grönland vor ca. 8000 Jahren vor heute zu erkennen. Es ist der einzige größere Kälteeinbruch, der von den Ozeanologen (Kiel) mir nicht erklärt werden konnte außer mit einer Vermutung über einen ausgelaufenen Schmelzwassersee in Nordamerika. Ich hatte das im Rahmen meiner Sprachforschung untersucht, um eventuelle Auswirkungen auf Wanderbewegungen unserer Vorfahren in Europa durch extreme Ereignisse zu erkennen.
  • RE: Verfechter/Vertreter der Dunklen Materie

    12.02.2017, Peter Spieß
    Natürlich wechselwirkt dunkle Materie, v. a. in Form von Gravitation.
    Und der Vergleich mit "Äther" ist ja nun ziemlicher Quatsch...
  • Verifikation im Bereich des Möglichen

    12.02.2017, Rolf Münger
    Wenn die Grenz-Beschleunigung 0,00000000012 Meter pro Sekundenquadrat beträgt, dann sollte eine Messung der tatsächlichen Gesetzmässigkeit möglich sein. Zwei Massen von je 100kg in einem Abstand von 10m erfahren durch die gegenseitige Anziehung eine etwas geringere Beschleunigung, diese wäre also bereits nicht mehr im Bereich des Newton-Gesetzes. Die zwei Massen würden sich im Lauf von 2 Stunden um ca. 1.7 mm annähern, dies wäre leicht messbar.
    Es sollte also genügen, zwei Satelliten nebeneinander im All zu positionieren und zu messen, wie sich deren Abstand aufgrund der gegenseitigen Anziehung entwickelt. Man sollte leicht erkennen können, ob die Newton-Gravitation bei geringen Schwere-Beschleunigungen gilt oder nicht.
  • Grube Messel fehldatiert?

    12.02.2017, Klaus de Leuw
    "Vor gut 20 Millionen Jahren "lernten" auch Säugetiere, sich in die Lüfte zu erheben." Dann sind wohl die zahlreichen Fledermausfossilien aus der rund 48 Mio. Jahre alten Grube Messel fehldatiert wie die Grube selbst?
    Antwort der Redaktion:
    Vielen Dank für Ihren berechtigten Hinweis. Wir korrigieren die Angabe in der Rezension und leiten Ihren Hinweis an den Springer-Verlag weiter.

    Mit freundlichen Grüßen, d. Red.
  • Klimaphänomene

    11.02.2017, Noldi Schwarz
    Was soll das Ganze? Nun werden bereits einzelne Tage beigezogen um den Klimawandel zu beweisen? Vor einigen Jahren hiess es noch, die Periode müsse mindestens 15 - 25 Jahre dauern um ein klares Bild zu erhalten. Ich erinnere mich an einen Januaraufenthalt in Finnland vor rund 20 Jahren. In den ersten Tagen herrschten Temperaturen von -30 bis -40 Grad. 2 Tage später waren es knapp 0 Grad. Das zeigt doch, dass solche Unterschiede kein neues Phänomen sind, sondern zu neuen Phänomenen gemacht werden. Hätten wir keinen stetigen Klimawandel würde sich z.B. die Schweiz immer noch unter einer riesigen, meterdicken Eisschicht befinden. Das war gerade Mal vor 10 - 12'000 Jahren. Ein Klacks, wenn man das Alter unseres Planeten bedenkt.
  • Kommunikationsstrategie gesucht

    11.02.2017, Jutta Paulus
    Anscheinend führen die immer extremeren Ausschläge des zumindest in der Arktis rapide voranschreitenden Klimawandels nicht dazu, dass diese Bedrohung als solche wahrgenommen wird - weder von den Politikern, noch in den Medien (jedenfalls der jeweiligen Mehrheit). Versucht man, die dringende Notwendigkeit sofortigen Umsteuerns in der Energie-, Verkehrs-, Industrie- und Landwirtschaftspolitik zu thematisieren, wird man schnell des Alarmismus und der Angstmacherei beschuldigt. Gern wird auch behauptet, es gebe ja nun wirklich wichtigere Themen (Migration, soziale Gerechtigkeit, Trump), und ein Land allein könne ohnehin nichts ausrichten usw. usf.
    Wie kann erreicht werden, dass wenigstens zur Kenntnis genommen wird, dass die Realität im hohen Norden gerade sämtliche Modelle überholt?!
  • Hilfskonstrukt?

    11.02.2017, Theingard
    Dieser Meinung bin ich schon lange (moderne Äthertheorie). Warum die MOND-Theorie erst jetzt wieder einer näheren Betrachtung unterzogen wird, kann ich nicht verstehen. Sie ist eine gute Alternative, die ohne weit hergeholte Zusatzannahmen (exotische Teilchen ohne Wechselwirkung außer Gravitation) auskommt.
  • Einstein + Relativität der Materie/Masse ? .

    11.02.2017, carsten
    Einstein definierte Schwerkraft als Effekt der Krümmung von Raum und Zeit in der Anwesenheit von Materie ..... bzw. Abwesenheit von Materie - oder ? Ist es nicht so definiert, dass Zeit bei Anwesenheit von Materie langsamer wird zur allgemeinen Raumzeit ??? Oder meinte er nicht Masse, die er als Materie oder Energie definierte ?

    Fakt ist eben, das das mit der Schwerkraft im Sonnensystem und vielleicht innerhalb einer Galaxie gilt und darüber hinaus scheint es dann unstimmig zuwerden. Und deswegen versucht man eben, wie man das eben so macht Theorien aufzulösen und ins noch kleinere zu gehen, noch mehr an Selbstverständlichkeiten in Frage zu stellen, um den Bogen schlüssig spannen zu können, wie Einstein das ja auch gemacht hat.. Raum und Zeit existieren nicht so konkret und faktisch, wie wir das gerne hätten.
    Ich habe da in dem Artikel jetzt einfach rausgelesen, dass der Raum im Universum gekrümmt ist und deswegen die Galaxien von Außen deformiert aussehen, aber aus der Ichperpektive dann wieder homogen sind. Eigentlich sind das auch Gedanken von Einstein. Jetzt fehlt eventuell nur noch der Denkansatz Relativität der Materie . Materie ist nicht gleich Energie, sondern es gibt noch einen weiteren Faktor, der aus Energie Masse Materie werden läßt .. Gott?
    Oder (oben im Artikel wird die dunkle Energie ja nicht verleugnet): weil Masse gleich Energie ist, krümmt auch die dunkle Energie den Raum und verformt so die Galaxien, die sonst vielleicht strahlenförmig aussehen würden - so wie unser Sonnenstystem. Wir haben quasi die Raumkrümmung ständig vor unseren Augen bzw. Teleskopen und wollen den Wald vor lauter Bäumen nicht sehen.
  • Dunkle Materie nicht erforderlich

    11.02.2017, Dr. Klaus Baeuerle
    Dunkle Materie ist nur erforderlich wenn Gravitonen die Ursache von Gravitation sind.
    Bislang wurden trotz hohem Aufwand weder Gravitonen noch Dunkle Materie nachgewiesen.
    Dieser link stellt ein Gravitationsmodell vor, welches ohne Beides auskommt.
    Er macht das Aequivalenzprinzip plausibel.
    http://colorfulglobe.com/gravitation.html


  • Life Science Krise

    10.02.2017, Oliver R.
    Dass die Life Sciences in einer stummen Krise angekommen sind, ist mittlerweile ein in der Forscherszene bekanntes, aber tabuisiertes Geheimnis. Fehlende Replizierbarkeit, Zeitliche statt Qualitative Konkurrenz und Häppchenpublishing ruinieren die Arbeitswelt für nicht allzuviele Forscher und solche, die es werden wollen. Da scheint es kaum verwunderlich, wenn zu reißerischen Formulierungen und aufbauschenden Artikeln gegriffen wird, um medienwirksam zu bleiben.

    Allein schon der Fall des metallischen Wasserstoffs war ein Paradebeispiel für solches Verhalten. Was mich allerdings wundert ist der Fakt, dass sich andere noch darüber wundern.
  • Die Theorie ist das Problem

    09.02.2017, Albrecht Giese
    Das Problem der Gravitation ist, dass die heutige Physik nicht weiß, wie es zu Gravitationserscheinungen kommt. Gewiss, wir haben die Allgemeine Relativitätstheorie von Einstein. Aber diese ist ein geometrischer, kein physikalischer Ansatz. Sie beschreibt Gravitation quantitativ richtig, erklärt sie aber nicht.
    Beispielsweise ist die Frage, was gravitative Masse eigentlich mit träger Masse zu tun hat, heute völlig unverstanden. Die Higgs-Theorie, welche nach Ansicht des Nobelpreis-Komitees die Trägheit erklärt, sagt nichts zur Gravitation. Die Verbindung ist unerklärt.
    Da gibt es nun einen einfachen und gut funktionierenden Ansatz, der auf diese unverstandene Verbindung verzichtet; die Annahme nämlich, dass Gravitation nichts mit Masse zu tun hat. Das heißt im Detail, dass jedes Elementarteilchen den gleichen Beitrag zum Gravitationsfeld leistet, unabhängig von seiner Masse. Das hat nun die Konsequenz, dass leichte Teilchen wie Photonen und Neutrinos einen ernst zu nehmenden Beitrag leisten. Und das hat ein verblüffendes Ergebnis.
    Nimmt man die Photonen und die Neutrinos einer Galaxie zur Bestimmung des Gravitationsfeldes hinzu, gleichwertig neben den Quarks der Protonen und Neutronen, dann kommt bei der Berechnung der Galaxien, das heißt ihrer Rotationskurven, genau das heraus, was man beobachtet, dabei sowohl die Größe des Effektes wie auch die räumliche Verteilung. – Wäre das nicht einmal eine Überlegung wert?