Direkt zum Inhalt

Kommentare - - Seite 948

Ihre Beiträge sind uns willkommen! Schreiben Sie uns Ihre Fragen und Anregungen, Ihre Kritik oder Zustimmung. Wir veröffentlichen hier laufend Ihre aktuellen Zuschriften.
  • Stuhlbeine mit Lichteffekt

    29.08.2011, Helmut Leffler, Eschborn
    Gerade habe ich den interessanten Artikel von H. J. Schlichting gelesen, als ich auf einen Lichteffekt stieß, den ich mir nicht erklären kann. Das beiliegende Foto zeigt zwei Stuhlbeine unter dem Küchentisch, die – von der Sonne angestrahlt – fast konzentrische Lichtringe auf dem Boden abbilden. Wieso wird das Licht mit kaum merklicher Intensitätsabschwächung rund um den spiegelnden Zylinder (Konus) gestreut?



    Und noch ein schöner Nebeneffekt: In beiden Lichtringen wird der Schatten des jeweils anderen Reflektors scharf abgebildet. Aus dem Vollschatten der Beine, die vom Aufsetzpunkt ausgehen, kann man den Einfallswinkel der Sonne erkennen. Im Volllichtstreifen am Boden sind die Schatten der Beine knochenähnlich eingeschnürt, was vermutlich auf einen Abbildungsfehler der Kamera zurückzuführen ist.
  • Größenordnung

    29.08.2011, Marcus Maschke, Oldenburg
    Die genannte Fließgeschwindigkeit von 10**-8 bis 10**-9 pro Sekunde kommt mir doch sehr langsam vor.

    Dies entspräche 1- 10 Nanometer/Sekunde. Hat hier der Fehlerteufel zugeschlagen?

    Marcus Maschke, Oldenburg
    Stellungnahme der Redaktion

    Sehr geehrter Herr Maschke,



    die Größenordnung ist korrekt, das Wasser fließt tatsächlich so langsam: Es sickert durch die Sedimentschichten von West nach Ost und muss einen entsprechenden Widerstand überwinden. Während des Wochenendes schränkte Valiya Hamza in einer Pressemitteilung deshalb auch den Terminus "Fluss" etwas ein: Die Wissenschaftler wenden den Ausdruck zwar weiterhin an, betonten aber, dass es sich nicht um einen klassischen Untergrundfluss handelt, wie er in Karstgestein bisweilen auftritt. Stattdessen handelt es sich um ein breites Wasserband, das sich unterhalb des Amazonas kontinuierlich bewegt. Ich bitte, diese anfängliche Ungenauigkeit zu entschuldigen.



    Mit freundlichen Grüßen



    Daniel Lingenhöhl

  • Direkte Messung von Gravitationswellen möglich?

    24.08.2011, Dr. Dr. Hans Georg Wulz, Wien
    Ich nehme Ihren Artikel aus der Juli-Ausgabe, "Mit Pulsaren auf der Jagd nach Gravitationswellen" zum Anlass, ein für mich bislang nicht zufrieden stellend behandeltes Thema der direkten Messung von Gravitationswellen, etwa mit Laser-Interferometrie, am Boden (z. B. LIGO oder VIRGO) oder im Weltraum durch LISA zur Diskussion zu bringen.

    Es ist unbestritten, dass die indirekte Beobachtung von Gravitationswellen durch die Messung der Bewegung von sehr großen Massen wissenschaftlich bestätigt ist und bisher sehr erfolgreich war (das Thema Ihres Artikels in der Juli-Ausgabe).

    Eine direkte Messung von Gravitationswellen aber erscheint mir in einem ersten Überlegungsansatz jedoch als nicht möglich.

    Nach den Feldgleichungen der allgemeinen Relativitätstheorie, ART, bewirkt jede "Störung" des vierdimensionalen Zeit-Raum-Kontinuums durch Masse oder durch Energie (als "Ursache", beschrieben durch den Energie-Impuls-Tensor) eine Verzerrung des Zeit-Raum-Kontinuums (als "Wirkung", beschreiben durch den riemannschen Krümmungstensor).

    Im beispielsweisen Fall eines rotierenden Doppelsternsystems emittiert dieses Sternsystem periodisch variierende Gravitationswellen ab.

    Diese Wellen aber treffen nicht auf ein Messsystem, etwa wie LISA, auf, wie in sehr vielen Publikationen beschrieben ist, sondern sie bewirken eine Verzerrung des gesamten Zeit-Raum-Kontinuums, einschließlich des Messobjekts, aber auch des darin befindlichen Messsystems.

    Jede "Störung" des Zeit-Raum-Kontinuums durch bewegte oder beschleunigte Massen oder durch eine Energiewandlung bewirkt nach der ART eine Verzerrung des gesamten Zeit-Raum-Kontinuums einschließlich auch einer Meßeinrichtung wie LISA.

    Der Messvorgang setzt voraus, dass ein externer, vom zum messenden Objekt unabhängiger Beobachter die Messung durchführt. Dies ist aber nach meiner Auffassung bei der künftig geplanten direkten Messung von Gravitationswellen nicht der Fall. Hier ist das Meßobjekt (z. B. ein rotierendes Doppelsternsystem) und der Beobachter, z. B. LISA) Bestandteil desselben Systems, desselben Zeit-Raum-Kontinuums. Alle durch die bewegten Massen oder Energie(wandlungen) bewirkten Verzerrungen des Zeit-Raum-Kontinuums betreffen nicht nur das Messobjekt, sondern im selben Maße auch die darin befindliche Messeinrichtung. Die Durchführung einer direkten Messung ist daher aus meiner Sicht nicht möglich.
    Stellungnahme der Redaktion

    Die von Herrn Dr. Dr. Wulz gestellte Frage bestrifft ein Problem der Relativitätstheorie, das lange Zeit kontrovers diskutiert wurde. Noch Jahrzehnte nach Einsteins ursprünglichen Arbeiten zu Gravitationswellen (1916, 1918) war nicht eindeutig geklärt, ob Gravitationswellen tatsächlich physikalisch messbare Auswirkungen haben und ob Systeme wie Doppelsterne derartige Gravitationswellen aussenden und dadurch Bahnenergie verlieren. Einstein selbst kam 1936, zusammen mit Nathan Rosen, zu dem Schluss, dass entgegen früherer Überlegungen im Rahmen seiner Relativitätstheorie Gravitationswellen doch keine physikalische Realität haben, was er später revidierte. Inzwischen sind diese Fragen der Abstrahlung und Wirkung von Gravitationswellen mit Hilfe moderner mathematischer Methoden eindeutig geklärt.


    Die Herausforderung dabei ist, dass wir wie in allen Bereichen der Physik auch hier mit Idealisierungen und Näherungen arbeiten müssen, da uns eine geschlossene Beschreibung der gesamten Raumzeit des Universums in all ihren Details nicht möglich ist. Bereits die Beschreibung der Raumzeit eines Doppelsternsystems ist analytisch nur mit Hilfe von Näherungsverfahren möglich. Im Rahmen derartiger Näherungen lässt sich jedoch mit völlig ausreichender Genauigkeit das System aus Quelle und Detektor beschreiben und zeigen, dass die Gravitationswellen eines Binärsystems (auch wenn es sich dabei um zwei massereiche Schwarze Löcher handelt) zu messbaren Signallaufzeitschwankungen bei Detektoren wie LISA oder Pulsaren führen.


    Im Folgenden möchten wir die einige Aspekte und Ergebnisse dieser Berechnungen kurz erläutern. Die recht umfangreichen mathematischen Details finden sich in der einschlägigen Fachliteratur. Einen guten Einstieg bieten Übersichtsartikel wie http://relativity.livingreviews.org/Articles/lrr-2006-4/ und http://relativity.livingreviews.org/Articles/lrr-2007-2/, sowie das Buch “Gravitational Waves” von Michele Maggiore, und die darin gegebenen Referenzen.


    Bei einem Gravitationswellenexperiment, wie z. B. LISA, zeigt sich, dass im Rahmen der oben angesprochenen Näherungen, der Beitrag der Satelliten zur Raumzeit vernachlässigbar klein ist. Die Weltlinien der LISA Satelliten sind damit durch zeitartige Geodätische im Fernfeld des Binärsystems beschrieben. Die Funktionsweise der einzelnen frei fallenden Satelliten kann in sehr guter Näherung gemäß des Einsteinschen Äquivalenzprinzips als frei von gravitativen Effekten beschrieben werden, da die Gezeitenkräfte auf Grund der Gravitationswelle über die Ausdehnung der Satelliten hinweg absolut vernachlässigbar sind. Tauschen diese Satelliten nun Lichtsignale aus, so zeigt die Integration der lichtartigen Geodätischen, dass Signale, die von einem Satelliten in konstanten Zeitintervallen (gemessen mit der lokalen Eigenzeit des sendenden Satelliten) beim empfangenden Satelliten mit der Gravitationswelle entsprechenden zeitlichen schwankenden Abständen (gemessen mit der lokalen Eigenzeit des empfangenden Satelliten) ankommen. Die Überlegung ist analog im Fall eines passiven Satelliten, der nur dazu dient, das Lichtsignal des sendenden Satelliten zu selbigen zurück zu reflektieren. In diesem Fall misst der “aktive” Satellit die Gesamtlaufzeit jedes Lichtimpulses, die, wie die Rechnung zeigt, periodische Schwankungen als direkten Effekt der Gravitationswelle aufweisen. Bei der geringen Ausdehnung des LISA Experimentes im Vergleich zur Entfernung zur Quelle ist eine ebene Gravitationswelle als Näherung absolut legitim und führt praktisch zu den selben Ergebnissen.


    Bei den Pulsaren als Gravitationswellendetektoren ist der Sachverhalt etwas komplizierter, da Neutronensterne nicht als Testteilchen beschrieben werden können, sondern ganz wesentlich die Raumzeit mit beeinflussen. Die vorangegangenen Betrachtungen können aber auch auf ein derartiges System übertragen werden, da die einsteinsche Gravitationstheorie das starke Äquivalenzprinzip erfüllt und somit gravitativ gebundene kompakte Körper sich auf zeitartigen Geodätischen der externen Metrik bewegen. Das vereinfacht die Betrachtung der gesamten Raumzeit bestehend aus Quelle, Beobachter und Pulsar. Und auch hier ergibt die Rechnung periodische Schwankungen in der Ankunftszeit der Pulsarsignale als messbaren Effekt der Gravitationswelle.

    Prof. Dr. Michael Kramer und Dr. Norbert Wex

  • Visionäre Fernsehserie

    24.08.2011, Karl Georg
    Jetzt wird mir auch klar wie die Smart- Phones zu ihrem Namen gekommen sind, natürlich durch die US-amerikanische Comedyserie "Get Smart". Sicherlich ist es noch etwas umständlich beim telefonieren, wie Maxwell Smart immer den Schuh ausziehen zu müssen, ich bin mir aber sicher, dass die Wissenschaft bald einen Weg gefunden hat, die in den Schuhen erzeugte Energie, drahtlos auf das Handyakku in der Brustasche zu übertragen!
  • Nichtstandard-Analysis

    23.08.2011, Andreas Rychen
    Zitat: „Die logisch einwandfreie und strenge Darstellung der heutigen Analysislehrbücher … lässt den unendlich kleinen Größen keinen Platz.“

    Ich empfehle dem Autor dieses Artikels sich mit der Nichtstandard-Analysis vertraut zu machen. In dieser kommen sehr wohl unendlich kleine und unendlich große reelle Zahlen vor, mit denen genau so gerechnet werden kann wie mit gewöhnlichen reellen Zahlen.
    Vergleiche:
    http://users.minet.uni-jena.de/~bezi/Materialien/wieczorek100215_nonstandAnalysisNEU.pdf

    Auch wird Nichtstandard-Analysis in Lehrmitteln für die Schule eingesetzt.
    Vergleiche:
    H. Jerome Keisler: Elementary Calculus, An Infinitesimal Approach
    http://www.math.wisc.edu/~keisler/calc.html
    Stellungnahme der Redaktion

    "Im Aufsatz geht es allein um die unendlich kleinen Größen von Leibniz. Diese haben mit den unendlich kleinen Größen der Nichtstandard-Analysis nur den Namen gemein, sind aber grundlegend anders definiert und konzipiert. Zum Unterschied zwischen beiden Begriffen empfehle ich die Lektüre des Aufsatzes von Henk Bos im Archive for History of Exact Sciences 1974."


    Eberhard Knobloch

  • Die freie Wildbahn ist kein Blumentopf

    22.08.2011, Christoph Kolmet, Darmstadt
    Biogeoklimatische Modelle reichen nicht aus! Die freie Wildbahn ist kein Blumentopf. Die Summe aller physischen Parameter macht vielleicht größenordnungsmäßig die Hälfte eines Lebensraumes einer Art aus. Die andere Hälfte kommt von der Interaktion der Lebewesen einer Lebensgemeinschaft, den sog. endogenen Standortsfaktoren. Im deutschsprachigen Raum beschreibt dies am besten die Pflanzensoziologie, die sich wohl im angelsächsischen noch nicht so durchgesetzt hat. Die unterschiedlichen Haltungen kommen daher nicht nur von der Technikskepsis allein.

    beste Grüße

    Christoph Kolmet
  • Verschränkung

    22.08.2011, Hans Palm, Frankfurt am Main
    Die Tatsache, dass Elementarteilchen unabhängig von ihrem räumlichen Abstand ohne Zeitverlust ihr Verhalten aneinander anpassen können, hat weit gehende Implikationen. Je mehr Teilchen miteinander verschränkt sind, desto stärker müsste sich das in dem von ihnen eingenommenen makroskopischen Raum und damit auf unsere Alltagserfahrung auswirken. Es ist sicherlich möglich, solche Szenarien absichtlich zu erzeugen, und man darf gespannt sein, wie sich Quantenphänomene dann darstellen.

    Außerdem: Warum sollte es Verschränkung nur bei Elementarteilchen geben? In komplexen makroskopischen Systemen gibt es auch Phänomene, die als spontane Wirkungen unabhängig vom räumlichen Abstand angesehen werden können: Man spricht die Gedanken eines anderen aus, man fühlt den Tod eines anderen Wesens, man macht dieselbe Erfindung etc. Solche Ereignisse lassen sich nicht willentlich herbeiführen und nicht reproduzieren, was auf einen quantenphysikalischen Ursprung hindeuten könnte.

    Noch etwas: Wenn räumliche Entfernung keine Rolle spielt, sind die räumlichen Dimensionen vermutlich Ausdruck einer abgeleiteten Wahrnehmung und nicht der ursprünglichen Wirklichkeit. Dieser Gedanke wirkt bizarr, da praktisch jede Wahrnehmung von uns auf räumliche Art erfolgt. Er lässt jedoch leichter akzeptieren, dass das materielle Universum aus einem dimensionslosen Punkt hervorgegangen ist.
  • Beschränkte körperliche Sinne

    22.08.2011, Walter Weiss, Kassel
    Der Artikel gibt dem interessierten Laien einen recht guten Überblick über die neueste Quantenmechnik-Forschung, die künftig immer mehr Aufmerksamkeit erwecken dürfte.

    Leider trennt der Verfasser zwei sich ausschließende Bereiche nicht mit der genügenden Deutlichkeit: das Abbild, das unsere körperlichen Sinne von unserer Umwelt im Gehirn erzeugen, auf der einen Seite und die von der naturwissenschaftlichen Forschung nach und nach (in einer niemals endenden Anstrengung!) ermittelte Welt jenseits der Reichweite unserer Sinne.

    Diese begriffliche Trennung ist entscheidend wichtig, wobei nur zwei Aspekte hervorgehoben werden mögen:

    (1) Nur innerhalb des erstgenannten Bereichs können wir Vorgänge verstehen; soweit Anstrengungen jeder Art unternommen werden, ein solches Verständnis auch auf den zweiten Bereich auszudehnen, muß das begrifflich scheitern6nbsp;- soviele Bücher und ganze Bibliotheken auch den Versuch einer Verständlichkeit unternehmen. Es ist also z. B. ganz sinnlos, die Quantenmechanik verstehen zu wollen - man kann sie nur mit Hilfe der Mathematik in Formeln ausdrücken. Ein solches Berechnen kann ein Verstehen niemals ersetzen. Es gibt keine Vergleiche, Beispiele, Metaphern oder sonstige Hilfsmittel, ein wirkliches Verständnis herbeizuführen.

    (2) Was unsere körperlichen Sinne im Gehirn als Abbild unserer Umgebung abliefern, ist nicht nur wegen der Beschränktheit der Reichweite unserer körperlichen Sinne etwas anderes als der zweitgenannte Bereich; dieses Abbild kann grundsätzlich auch ganz falsch sein, also Eigenschaften vorgaukeln, die gar nicht bestehen - aber gleichwohl für unsere Bewegung in diesem Bereich durchaus wirkungsvolle Gehhilfen darstellen. Es könnte den Anschein haben, dass unsere 'selbstverständliche' Vorstellung von Zeit und Raum zu diesen Gehhilfen gehört, dass sich also bei wissenschaftlicher Untersuchung des zweiten Bereichs diese Vorstellungen in Nichts auflösen.
  • Drei Bemerkungen

    22.08.2011, Eduard Wirsing,Ulm
    Erstens. Wenn an zwei zum Gesamtspin 0 verschränkten Teilchen an voneinander entfernten Orten die Spins (+ oder − ) gemessen werden, bestätigen die Experimente die von der Theorie geforderte Korrelation der Messwerte: Das ist im Wesentlichen eine nur vom Winkel zwischen den Messachsen abhängige Wahrscheinlichkeiten für die Übereinstimmung der Werte. Vor den Messungen, darüber scheint Einigkeit zu herrschen, haben die Teilchen keine Spinwerte. Auch die spezielle Relativitätstheorie ist wohl akzeptiert.

    Die Folgerung, die Esfeld zieht (und die man häufig liest), ist aber höchst verfänglich: ”SOBALD eines der Objekte einen definitiven Wert annimmt, etwa durch eine Messung, ... erhält das andere AUGENBLICKLICH (meine Hervorhebung) den entgegengesetzten Spinwert.“ Von welchem Augenblick ist überhaupt die Rede? Nach deutscher Grammatik meint der Satz den Augenblick der ersten Messung. Aber welche das ist, hängt im Allgemeinen vom Betrachter ab. Damit ist nicht einmal klar, welches der beiden Teilchen sich ’augenblicklich‘ in einen neuen Zustand begibt. Aber auch, wenn wir uns auf die Sicht eines Beobachters einigen, warum sollen wir an ein augenblickliches Geschehen glauben? Jeder Zeitpunkt bis zur zweiten Messung hätte doch den gleichen Effekt. Dem dramatischen ’Augenblick‘ entspricht kein reales, beobachtbares Ereignis. Da geschieht nichts, was einen Zeitpunkt für sich beanspruchen könnte.

    Dass die Ergebnisse der zwei Messungen unabhängig von Ihrem Abstand in Raum und Zeit korreliert sind, bei passender Anordnung bis zu 100%, ist für Physiker wie Philosophen schon an sich eine harte Nuss. Die metaphysische Annahme eines nicht beobachtbaren Ereignisses zu einem nicht bestimmbaren Zeitpunkt an einem nicht bestimmbaren der beiden Teilchen macht die Nuss nicht weicher, taucht sie aber in einen dichten Nebel aus Unklarheit. Ist das nicht gegen physikalische wie philosophische Vernunft?

    Zweitens und drittens. Gleich doppelt stoße ich mich an dem Satz: ”Dennoch widersprechen die Korrelationen der Grundannahme der Relativitätstheorie, nach der Ereignisse nur durch Faktoren bestimmt sind, die in deren so genanntem Vergangenheitslichtkegel liegen, also kausal abhängig sind.“

    Inwiefern ist Kausalität, oder was hier gemeint ist, eine Grundannahme der Relativitätstheorie? Um die Lorentztransformation anzuwenden, braucht es keine Annahme über Ursache und Wirkung. Die Relativitätstheorie liefert ihren Beitrag zur Formulierung: Vergangen für jeden Beobachter ist der rückwärtige Lichtkegel. Aber ’Grundannahme‘? Ist das kein Missverständnis?

    Das Andere hier: Obwohl der zitierte Satz grammatisch nicht ganz klar ist, verstehe ich ihn so, als widersprächen die besprochenen Korrelationen dem Kausalitätsprinzip. Eine absolute Antwort kann es darauf nicht geben, weil der Begriff zu unterschiedlich interpretiert wird. Wie ich Kausalität verstehe, erwächst damit aus dem Phänomen der Verschränkung aber kein Problem.

    Das liegt an der Spukhaftigkeit von Einsteins ’Fernwirkung‘. Die ist nämlich schlimmer, als gemeinhin betont wird, und vielleicht hat er selbst das gar nicht so gemeint: Sie bewirkt nämlich gar nichts, der Suggestivwirkung des Wortes zum Trotz. Wir lassen Alice hier auf der Erde und Beth auf dem Mars an einer Serie von verschränkten Elektronenpaaren die Spins messen, und zwar so, dass nicht von vornherein die Zeitfolge klar ist; sonst gibt es nichts Interessantes zu diskutieren. Bei ihren Messungen gewinnt Alice, wenn sie von der Verschränkung weiß, jeweils auch die Kenntnis, mit welchen Wahrscheinlichkeiten Beth ’+‘ oder ’−‘ messen
    wird oder schon gemessen hat, wenn ihre Messachse so oder so steht. Beth geht es genauso. Auf die Reihenfolge aber, wer da zuerst misst, finden sie in den Messprotokollen keinen Hinweis! Das ist eine Konsequenz davon, dass wir Verschränkung nicht nutzen können, um Signale (insbesondere nicht mit Überlichtgeschwindigkeit) zu übertragen. Nichts Beobachtbares, keine Wirkung, eben Spuk!

    Wieso Signalisieren nicht geht? Der Apparat der Quantenmechanik zeigt, dass beim individuellen Durchmessen einer Teilchengesamtheit, wenn man die Teilchen nach der Messung wieder mischt, die ursprüngliche Gesamtheit neu entsteht. Normalerweise ist das experimentell gar nicht zu schaffen, aber mit den verschränkten Paaren funktioniert es perfekt: Alice misst Beths Teilchen, ohne sie im Geringsten anzufassen, indirekt, nebenher mit ihren eigenen. Darum bleibt Beths Gesamtheit völlig unverändert. An der Wahrscheinlichkeit keines Messergebnisses ändert sich für Beth irgendetwas. All das natürlich umgekehrt mit Blick von Beth zu Alice.

    Da also weder Beth noch Alice irgendetwas von der Tätigkeit der anderen bemerken können: Wo nichts verursacht ist, wofür sollten, wofür könnten sie nach einer Ursache fragen? Dabei geht es nicht um die persönliche Wahrnehmung; aber wenn irgendetwas ’den Lauf der Welt‘ ab hier verändern würde, wäre es doch jedenfalls beobachtbar. Eine Verletzung des Kausalitätsprinzips kann ich darum nicht sehen. Aber zurück zur Korrelation der Messreihen. Ihrer Natur nach ist das eine Beziehung zwischen den bei den Messungen erhaltenen Informationen. Sie bewirkt darum bei keiner der beiden Messungen etwas, sondern nur im Vergleich der beiden. Erst, wenn beide Informationen (etwa in einem Computer) zusammengeführt werden, kann ein Signal generiert werden. Das Zusammenführen ist aber nach heutigem Kenntnisstand höchstens mit Lichtgeschwindigkeit möglich. Wenn daher ”Tick“ oder die Explosion ertönt, liegt alles, was kausal dahingeführt hat, vom Erzeugen der verschränkten Teilchen über Alices und Beths Messungen, im rückwäörtigen Lichtkegel, ganz wie es sein soll.

    Noch etwas zum Abschluss. Die Tatsache, dass die Messprotokolle auch bei nachträglicher Analyse kein Signal von Alice an Beth oder umgekehrt enthüllen, insbesondere also keine Zeitmarke, zeigt die Verträglichkeit von Verschränkung und spezieller Relativitätstheorie und lässt sofort den Versuch scheitern, mit dem Phänomen der Verschränkung eine absolute Zeit nachzuweisen, wie sie uns in dem Artikel ”Bedroht die Quantenverschränkung Einsteins Theorie?“ von David Z. Albert und Rivka Galchen, Spektrum der Wissenschaft 9/09, eingeredet werden soll. Da dort überdies ohne Begründung behauptet wird, unmittelbare, auch überlichtsschnelle Signale gehörten einfach zu einer nichtlokalen Welt, kann ich diesen unsäglichen Artikel nur für einen groben Bluff halten.
  • Antwort zum Leserbrief von Dr. Peter Ziegler

    19.08.2011, Dr.-Ing. Ludger Mohrbach, Dr.-Ing. Bernhard Kuczera, Dr. Th. Walter Tromm, Dr.-Ing. Joachim Knebel
    Wir geben Dr. Peter Ziegler recht, dass das "Restrisiko" nicht Realität werden darf, also äußerst klein sein muss. Allerdings ist Risiko als Schadensausmaß mal Eintrittswahrscheinlichkeit definiert. Letztere ist in Japan nachweislich falsch bewertet worden.

    Zur Kritik der mangelnden Versicherbarkeit lässt sich festhalten, dass die Betreiber nach einem Dreistufenmodell haften: Mit einer über den Versicherungsmarkt gedeckten Haftpflichtversicherung bis 250 Mio. € und darüber hinaus bis 2,5 Mrd. € über einen Haftungsverbund der Betreiber auf Gegenseitigkeit. Außerdem haften die jeweils betreibenden Konzerne mit ihrem Gesamtvermögen für Schäden, die diese Grenze überschreiten.

    Würde die Forderung nach unbegrenzter Haftung auch an andere risikoträchtige Industriezweige gerichtet, wie Betreiber von Anlagen der chemischen oder petrochemischen Industrie, von Wasserkraftwerken mit Staudämmen oder Riesentankern, so wäre deren internationale Wettbewerbsfähigkeit massiv eingeschränkt.

    Konservative Abschätzungen zu den Kosten des Rückbaus aller Reaktorblöcke an den Standorten Fukushima Daiichi und Daini inklusive notwendiger Aufräumarbeiten und Erwerb der unbewohnbaren Landflächen in der Evakuierungszone sowie entsprechender zusätzlicher Kompensationszahlungen an die bisherigen Nutzer lassen eine Schadenssumme des Reaktorunfalls in einer Bandbreite von 60 bis 180 Mrd. € erwarten.

    Zum Vergleich: Könnten in Deutschland die 17 noch vorhandenen Kernkraftwerke auch die zweite Hälfte ihrer technischen Mindestlebensdauer von 60 Jahren ausnutzen, so würden durch den Produktionskostenvorteil von etwa 4 Ct/kWh (wegfallende Abschreibungen plus steigende Marktpreise durch den Emissionshandel in der EU) rechnerisch 180 Mrd. € in heutigem Geldwert eingespart. Durch den Verzicht auf diesen volkswirtschaftlichen Kostenvorteil könnten die ökonomischen Folgen des Fukushima-Unfalls hierzulande größer werden als in Japan, sie liegen jedoch zumindest in einer vergleichbaren Größenordnung.
  • Antwort zum Leserbrief von Jutta Paulus

    19.08.2011, Dr.-Ing. Ludger Mohrbach, Dr.-Ing. Bernhard Kuczera, Dr. Th. Walter Tromm, Dr.-Ing. Joachim Knebel
    Die Auslegung deutscher Kernkraftwerke laut Regelwerk - unter anderem auf das 100.000-jährige Erdbeben und das 10.000-jährige Hochwasser am jeweiligen Standort zuzüglich Sicherheitsreserven - wird in den periodischen Sicherheitsüberprüfungen regelmäßig auf den Stand von Wissenschaft und Technik hin überprüft und bei Bedarf durch entsprechende Nachrüstungen verbessert. Bei neuen Erkenntnissen kommen alle Auslegungsdetails auf den Prüfstand, also auch solche, die schon in der Vergangenheit mehrfach überprüft worden sind.

    Das Basel-Beben von 1356 mit Herd im südlichen Endbereich des Oberrheingrabens ist selbstverständlich bei der Auslegung des Kernkraftwerks Neckarwestheim nach den Grundsätzen der kerntechnischen Regel KTA 2201.1 "Auslegung von Kernkraftwerken gegen seismische Einwirkungen; Teil 1: Grundsätze" als eines von vielen, im Erdbebenkatalog für Deutschland und angrenzende Gebiete geführten Ereignissen berücksichtigt worden. Nach den KTA-Grundsätzen ist einerseits ein 200 km Standortumkreis zu berücksichtigen, anderseits sind die stärksten Ereignisse innerhalb der darin befindlichen seismotektonischen Einheiten in Standortnähe zu verschieben. Zum Basel-Beben ist festzustellen, dass sein Epizentrum weiter entfernt ist und außerhalb dieses Standortumkreises liegt, und dass es nach der Anwendung dieser Grundsätze gegenüber Erdbeben anderer Regionen von untergeordneter Bedeutung ist. Hier dominieren die Erdbeben in der Schwäbischen Alb, die seinerzeit auch bei der Auslegung des Standorts als maßgebliche Ereignisse identifiziert und zugrunde gelegt wurden.

    Als beratendes Gremium steht den Aufsichtsbehörden unter anderem die Reaktorsicherheitskommission zur Seite, in der satzungsgemäß die "gesamte Anschauungsbandbreite nach dem Stand von Wissenschaft und Technik" repräsentiert sein soll, so dass dort regelmäßig auch einer Kernenergiebegünstigung unverdächtige Sachverständige vertreten sind. Das unverändert hohe Sicherheitsniveau in Deutschland hat dieses Gremium vor kurzem mit seiner Stellungnahme zur anlagenspezifischen Sicherheitsüberprüfung der deutschen Anlagen unter Berücksichtigung der Ereignisse in Fukushima bestätigt. Bundesumweltminister Norbert Röttgen hat am 17. Mai 2011 bei der Präsentation dieser Stellungnahme betont, es gebe keinen sicherheitstechnischen Grund, "Hals über Kopf aus der Kernenergie auszusteigen" und es sei "verantwortbar, nicht sofort auszusteigen".

    Die Vermutung, dass die Wasserstoffexplosion im Block 4 durch einen "Siphon-Effekt" verursacht wurde, der zusätzlich zum Ausdampfen Wasser aus den Abklingbecken abgesaugt hat, ist eine schlüssige technische Erklärung, die nicht im IAEA-Bericht enthalten ist. Das Rückströmen von Wasser durch Beckenkühlleitungen kann nur dann eintreten, wenn entsprechende Rückschlagklappen nicht vorhanden waren oder versagt haben. Hierzu gibt es einige Beispiele aus US-Anlagen. In Fukushima-Anlagen könnte das Offenbleiben von Ventilen nach dem Verlust der Batteriekapazität als generische Ursache gewirkt haben. In diesem Fall könnten einzelne Brennelemente im Abklingbecken von Block 4 ausgetrocknet sein, unter Bildung von Wasserstoff bei der Zirkon-Wasserdampf-Reaktion. Dieser Hergang der Wasserstoffproduktion ist auch bei den Blöcken 1 bis 3 denkbar. Der vermutete Übertrag von Wasserstoff aus dem Block 3 in Block 4 erscheint dagegen unwahrscheinlich.


  • Antwort zum Leserbrief von Guido Carl

    19.08.2011, Dr.-Ing. Ludger Mohrbach, Dr.-Ing. Bernhard Kuczera, Dr. Th. Walter Tromm, Dr.-Ing. Joachim Knebel
    In den von Guido Carl genannten Quellen sind diese Hinweise nicht zu finden. In der ersten wird ein Augenzeuge zitiert,
    der sich zum Zeitpunkt des Erdbebens im Reaktorgebäude von Block 1 in einem Bereich befindet, in dem gewöhnlich keine radioaktive Kontamination zu befürchten und keine Schutzkleidung zu tragen ist. Er berichtet von metallischen Leitungen, deren Schweißnähte aufbrechen, von austretendem Wasser und der Unsicherheit, ob es sich um kontaminiertes Wasser handelt. Stichhaltige Belege für die Behauptung, es habe sich tatsächlich um sicherheitstechnisch relevante Leitungen des Reaktors gehandelt, gibt der Augenzeugenbericht nicht her.

    In der zweiten Quelle, einem Bericht des Verbandes der japanischen Atomwirtschaft, sind keine Aussagen zur Beschädigung des Notkühlsystems im Block 3 vor dem Eintreffen des Tsunamis enthalten. Dort heißt es jedoch: "Quake caused no major damage to reactors. Tokyo Electric Power Company has found from its data that the March 11th erarthquake caused no safety abnormalities at the Fukushima Daiichi nuclear plant until the tsunami came." Ihre Behauptung, es habe frühzeitig vor dem Tsunami Beschädigungen am Sicherheitsbehälter und dadurch Radioaktivitätsfreisetzungen gegeben, bleibt unbelegt. Aus den veröffentlichten Daten gemessener Ortsdosisleistungen lässt sich die Aussage nicht ableiten.

    Fukushima ist keine Frage des Restrisikos. Hauptursache für diesen Unfall war die unzureichende Auslegung gegen Tsunamis bei gleichzeitigem Versagen der Aufsichtsbehörden. Stichhaltige Belege für anderslautende Behauptungen, wonach schon das Erdbeben vor dem Auftreffen des Tsunamis auslegungsüberschreitende sicherheitsrelevante Schäden an den Reaktoren verursacht habe, so dass der Unfall als Restrisiko-Ereignis eingestuft werden müsse, sind bisher nicht bekannt geworden.

    Mehr als 10 m hohe Tsunami-Wellen sind an japanischen Küsten etwa alle 30 Jahre zu erwarten und an einzelnen Küstenstandorten etwa alle 100 bis 1000 Jahre. Dies ist bei weitem nicht so selten, wie es für den Restrisikobereich gefordert wird: ein Ereignis in weniger als 100.000 bis über 1 Million Jahren.

    Premierminister Naoto Kan hat am 18. Mai 2011 bestätigt, dass die Aufsichtsbehörde nicht unabhängig war, Strukturänderungen angekündigt und am 4. August personelle Konsequenzen gezogen. Die Behörde hat es über Jahrzehnte versäumt, selbst nach neuen wissenschaftlichen Erkenntnissen zum Tsunami-Risiko einen geeigneten baulichen Schutz durchzusetzen (z.B. wasserdichte Türen in den Maschinenhäusern oder auch verbunkerte Notstromdiesel mit gesicherten Treibstoffvorräten).

    Mit dem im Juni 2011 auf der IAEA-Homepage unter www.iaea.org/newscenter/focus/fukushima/japan-report veröffentlichten "Report of the Japanese Government to the IAEA Ministerial Conference on Nuclear Safety. The Accident at Tepco's Fukushima Nuclear Power Stations" liegt ein offizieller Bericht vor, in dem die bisherigen Erkenntnisse detailliert zusammengefasst sind. In der Zusammenfassung des Berichts heißt es auf Seite 29:

    "Although damage to the external power supply was caused by the earthquake, no damage caused by the earthquake to systems, equipment or devices important for nuclear reactor safety at nuclear reactors has been confirmed. However, further investigation should be conducted as the details regarding this situation remain unknown."

    Damit bleibt die bisherige Aussage richtig, dass es zum jetzigen Zeitpunkt keine stichhaltigen Belege dafür gibt, dass schon das Erdbeben vor dem Tsunami sicherheitsrelevante Schäden an einzelnen Blöcken verursacht hat. Jede anderslautende Behauptung ist zum jetzigen Zeitpunkt reine Spekulation.


  • Naturkatastrophe in Japan nicht auf Deutschland übertragbar

    19.08.2011, Gerd Zelck, Seevetal
    Den guten Beitrag mit der richtigen Erkenntnis, dass es keinen sicherheitstechnischen Grund gab und gibt, deutsche Kernkraftwerke abzuschalten, möchte ich ergänzen:
    Erdbeben und Tsunami forderten in Japan mindestens 28 000 Tote; tausende werden noch vermisst. Dagegen gab es durch die Probleme bei den Kernkraftwerken bis heute kein einziges Todesopfer. In Deutschland gab es in den vergangenen 45 Jahren, in denen die Kernenergie genutzt wurde, ebenfalls kein einziges Todesopfer, dagegen aber über eine Million Verkehrstote und eine ähnliche hohe Zahl an Schwerverletzten mit lebenslang bleibenden starken Behinderungen. Und was machen wir aus diesen Fakten? Wir übertragen die Naturgefahren in Japan und deren technische Mängel an den Reaktoren auf unser Land und steigen überhastet aus der Nutzung aus.
    Zusätzlich wird eine Gefahr durch gezielte Flugzeugabstürze auf unsere Kernkraftwerke aufgebaut. Ein verhältnismäßig kleines Objekt am Boden, wie ein KKW es darstellt, mit einem Flugzeug zu treffen, erfordert langjährige Übungen, wie sie wohl nur Militärpiloten erfahren. Terroristen, die Passagierflugzeuge kapern, erlangen diese fliegerischen Fertigkeiten wohl kaum und suchen sich leichtere Objekte, die möglichst auch noch viel spektakulärer sind, wie z. B. Wolkenkratzer in New York. Auch wir haben ähnliche Bauten in Frankfurt und auch das Reichstagsgebäude in Berlin oder ein vollbesetztes Fußballstadium wären unter Sichtflugbedingungen leichter zu treffen als so ein kleines Atomei. Ich denke, dass die Bekämpfung und Diskreditierung der Kernenergie zunächst der Ausgangspunkt war und man dann nach geeigneten Ansatzpunkten suchte. Die tragischen Ereignisse in den USA waren dafür ein willkommener Anlass.
    Allgemein verbreitet ist die Meinung, dass radioaktive Strahlung grundsätzlich schädlich für den menschlichen Organismus ist. Hierbei wird eine lineare Abnahme der Schädlichkeit aus Bereichen konkreter Vorkommnisse mit beobachteten Schädigungen bis hin zum Wert Null-Radioaktivität zu Grunde gelegt. Danach ist dann auch schon die natürlich vorhandene Umweltstrahlung, unter der sich alles Leben auf der Erde entwickelt hat, für uns Menschen grundsätzlich schädlich. Diese Einstellung über die grundsätzliche Gefährlichkeit radioaktiver Strahlungwird insbesondere von speziellen Protagonisten-gruppen wie Greenpeace, der Partei Die Grünen etc. vertreten und gehütet. In der Öffentlichkeit unterdrückt werden dagegen Beobachtungen, dass niedrige Strahlendosen für die menschliche Gesundheit eventuell sogar förderlich sein könnten. Und diese Beobachtungen gibt es!

    In Deutschland beträgt die mittlere Dosis durch die natürliche Strahlung 2,4 mS/J und kann regional bis 4 mS/a ansteigen. In bestimmten Gegenden der Erde ist diese Strahlenbelastung wesentlich höher, ohne dass dadurch besondere Krankheiten und Leiden auffällig geworden sind, so z. B. in Brasilien/Atlantikküste mit 200 mS/a, Indien/Monazitbezirk mit 40 und Ramsar/Iran mit 450 mS/a.
    Wir müssen aber gar nicht so weit unseren Blick schweifen lassen. In den Heilstollen in Bad Gastein/Österreich wurden im Mittel 44.000 Bq gemessen (Spitzenwerte bis 166.000 Bq/m³ Luft) verursacht durch Radongas. Das Bfs empfiehlt (heute) eine Wohnraumsanierung ab 100 Bq/m³. Trotz der hohen Strahlenbelastungen im österreichischen Heilstollen kommen viele Besucher und Heilsuchende und sichern gute Geschäfte. Ein Freund von mir war dort und fuhr mit seiner Frau einmal zum Kennenlernen in den Stollen ein. Allein dafür mussten sie pro Person 28 € bezahlen. Wenn das gefährlich wäre, wäre das in Österreich bestimmt verboten worden. Aber gründliche Studien mit bestrahlten und nicht-bestrahlten Probandengruppen sollen die heilende Wirkung eindeutig nachgewiesen haben.
    Insbesondere das letzte Beispiel führt zu der provokanten Frage: Ist jede Strahlendosis aus radioaktiven Quellen schädlich? In einer Broschüre „Strahlung und Strahlenschutz“ von 1992 vom damaligen Bundesamt für Strahlenschutz (Bfs) steht darüber: "Von Anbeginn an hat sich alles Leben auf der Erde unter dem Einfluss von ionisierenden Strahlen entwickelt. Obwohl es die Theorie gibt, dass ein bestimmtes Maß an ionisierender Strahlung Lebensvorgänge auch positiv beeinflussen kann, gehen alle Schutzkonzepte grundsätzlich von einer schädlichen Wirkung aus."
  • Nicht ganz überzeugend ...

    19.08.2011, Guido Carl, Lorsch
    Vielen Dank zunächst, dass Sie auf meine Kritik eingehen.

    Was meinen zweiten Hinweis angeht: Sie haben ganz Recht, dort hat Tepco bestritten, dass es sicherheitsrelevante Schäden durch das Erdbeben gegeben habe. Es tut mir leid, da habe ich mich völlig vertan und Ihnen unnötig Arbeit gemacht.

    Dass Sie allerdings meinen ersten Hinweis als Beleg verstehen wollen, geht weit am Ziel vorbei. Natürlich ist das kein unumstößlicher Beleg, sondern eben ein Hinweis darauf, dass das Erdbeben Schäden auch an sicherheitstechnisch relevanten Leitungen angerichtet haben kann.

    Es ist doch Ihre Aufgabe nachzuprüfen, ob a) die gebrochenen Leitungen tatsächlich nicht sicherheitstechnisch relevant waren. Und falls das - wie ich ebenfalls vermute - zutrifft, ist zu zeigen, ob b) diese Leitungen deutlich weniger erdbebensicher verlegt waren als die sicherheitstechnisch relevanten Leitungen. Erst dann könnten Sie man den Hinweis als vermutlich unzutreffend abhaken.
    Das war übrigens schon Ihre Aufgabe, als Sie Ihren Artikel recherchiert und geschrieben haben, nicht erst, seit ich auf dieses Defizit hingewiesen habe. Und nun verzichten Sie nicht nur darauf, diesem Hinweis nachzugehen, sondern fordern von mir die Belege, die Sie selbst nicht gesucht haben. In meinen Augen ist das nur Rhetorik.

    Und sicher, meinen Hinweis auf frühzeitige Messungen radioaktiver Teilchen habe ich nicht belegt. Leider finde ich den Artikel nicht, in dem ein fachkundiger Japaner (Techniker, Wissenschaftler?) solche Messungen erwähnt hat. Vielleicht finde ich den Artikel aber noch ...

    Mit freundlichen Grüßen
  • Es gibt durchaus Nachweise

    18.08.2011, Ottmar Krüger
    Die meisten CFS-Symptome konnten bereits pathophysiologisch nachgewiesen werden. Man findet auch hierzulande veränderte Laborparameter bei CFS-Kranken, verglichen mit den Testergebnissen gesunder Personen.
    Fakt ist, dass es sich bei CFS/Myalgischer Encepalomyelitis laut ICD 10 G 93.3, um eine neurologische Erkrankung handelt.
    In den neuesten, internationalen Konsenskriterien ME/CSF/2011 wird CSF als eine erworbene, neurologische Erkrankung definiert, die mit vielschichtigen Dysfunktionen einhergeht, wie etwa:
    - Dysregulationen des Nervensystems und Immunsystems (mit intrazellulär persistierenden Infektionen: Bakterien,Viren, Pilze) und ihren Folgen
    - Dysregulation der endokrinen Drüsen
    - Störungen im Zellstoffwechsel der Zellen (Mitochondropathie)
    - gestörter Ionenkanaltransport
    - veränderte Genexpression
    Für all diese Dysfunktionen gibt es messbare Laborparameter.
    Es gibt also durchaus Nachweise!
Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.