Direkt zum Inhalt

Kommentare - - Seite 948

Ihre Beiträge sind uns willkommen! Schreiben Sie uns Ihre Fragen und Anregungen, Ihre Kritik oder Zustimmung. Wir veröffentlichen hier laufend Ihre aktuellen Zuschriften.
  • Idealisierungsperspektive Selbstbetrachtung

    11.08.2011, Martin Linke, Erfurt
    Als Erstes einmal ein Riesenkompliment. Ich bin ein sehr begeisterter Leser der Spektrum-Hefte. Aktuellster Stand der Forschung, verständlich formuliert und ein relativ vorbehaltloser Einblick auch in die Konflikte der Forschung. Danke sehr!

    Zum Artikel:

    Ich verfolge diese Artikelserie von Anfang an mit großer Spannung. Mir fällt auf, dass auch die Wissenschaftler, trotz aller Bemühungen, nicht frei von Vorurteilen sind. Ich finde es menschlich und verständlich, dass wir uns selber gewünschte Eigenschaften zuschreiben, deswegen auch danach suchen. Wissenschaftlern sollte dies so nicht unterlaufen. Klar ist auch, die Wirklichkeit, Realität, ist zu komplex, um durch uns verstanden zu werden. Zwangsläufiges Vermodellhaften und das Isolieren von Prozessen sind die Folge davon.
    Im Augenblick sieht es für mich so aus, als wollten wir Menschen uns bestimmte Fragen nicht beantworten. Zum Beispiel: Prozessiert unser Gehirn logisch? Ist Logik überhaupt notwendig, um erfolgreich Handlungen zu planen (viele Wege führen zum Ziel)? Ist es notwendig, vordefinierte Ziele zu erreichen, oder ist die Motivation zu irgendeiner Handlung wichtiger? Was ist Intelligenz?

    Ich persönlich sehe das Zusammenspiel zwischen unserer Psyche und unserem Gehirn etwas komplexer. Da unser Gehirn durch Evolution sehr gut an unsere Umwelt angepasst ist, widerspiegelt unser Gehirn in seiner Struktur schon ziemlich genau die Umwelt. Also selbst mit den verhältnismäßig geringen sensorischen Eingaben, zu denen wir fähig sind, gibt es schon nur ein gewisses Augabespektrum. Dies von Beginn der Wahrnehmung an. Gesellschaftliches Lernen ist quasi nur ein Finetuning. Die Zusammenhäng zwischen Bewusstsein, Wahrnehmung, Logik und den Vorstellungen über uns selbst und unsere Umwelt sind also zwangsläufig ressourcenbeschränkt. Ich meine, wir können nicht, was wir wollen, sondern nur, was wir können! Solange wie unsere Struktur uns ermöglicht, essen, schlafen und uns vermehren zu können, so lange sind wir erfolgreich. Dabei ist es nicht notwendig für uns, die Umwelt oder Realität an sich zu begreifen. Nur weil ein vermutetes Ergebniss eintrifft, ist die Idee dahinter nicht automatisch entsprechend dem tatsächlichen Prozess.

    Mit der Empathie sehe ich das identisch. Da alle Prozesse in uns Strukturfolgen unseres Gehirnes sind (unterschiedlich dicke Myelinummantelung um die Nervenbahnen, Verschaltung der Synapsen), ist es mit Sicherheit nicht weit hergeholt, dass man auf Grund der Gestik und Mimik ziemlich automatisiert auf die Stimmung und Motivation seines Gegenübers kommt. Zusätzlich wird dieses System durch erlernte und antrainierte Fähigkeiten erweitert oder eingeschränkt. Ich persönlich halte die allermeisten Prozesse in unserem Gehirn für unterbewusst, quasi automatisiert. Wir bemerken unsere Gedanken und Gefühle nur. Bewusstsein ist für mich, unsere einzigartige Fähigkeit, unsere Struktur durch bewusstes, zielgerichtetes Training zu beeinflussen um ein angestrebtes Verhalten zu erreichen. Was uns aus den verschiedensten Gründen mehr oder weniger gut gelingt.

    Nur weil wir selbst unsere Logiken als zwingend logisch betrachten, bedeutet es nicht, dass diese Logik auch außerhalb von uns existiert. Nur erkennen wir halt sehr gerne Muster (wie schon auch von ihnen in Artikeln über Glaube beschrieben), wo auch gar keine sind. Die einzige rationale Fähigkeit von uns ist, wie ich meine, die Fähigkeit der Infragestellung von uns selbst. Die Norm ist zurzeit leider, dass Menschen sich lieber für fast alles eine Bestätigung suchen, was man sich so vorstellen kann, indem sie nur die Widersprüche hartnäckig genug ignorieren. Daher ist es für Menschen schwierig, zwischen Imagination und Wirklichkeit zu trennen. Wird die Gruppe der Zustimmenden groß genug, wird aus diesen Überzeugungen Wissen. Also ein entspannterer Umgang mit uns selbst führt zwar nicht zu mehr faktischen Wissen, hält uns aber offener für alternative Sichtweisen.

    Ich freue mich schon sehr auf weitere inspirierende Beiträge.

  • Fakten?

    11.08.2011, Jutta Paulus, Neustadt an der Weinstraße
    Wenn, wie die Autoren schreiben, Notstromdiesel und Treibstoffvorräte in Deutschland verbunkert sind, warum taucht dann eben dieser Punkt in sämtlichen Prüfkatalogen bzw. Nachrüstungsforderungen auf? Woher kommt die Einstufung, deutsche AKW seien für das "100 000-jährige" Erdbeben am jeweiligen Standort ausgelegt? Neckarwestheim war nicht für die im nahe gelegenen Oberrheingraben auftretenden Beben (vgl. Basel im 14. Jahrhundert) ausgelegt.

    Mehrere Experten halten Tepcos Darstellung, der Wasserstoff sei aus Block 3 in Block 4 gelangt, für haltlos
    (http://www.tec-sim.de/images/stories/sfp-failure-23-7.pdf). Dazu hätte der Wasserstoff im WetWell unter die Wasseroberfläche diffundieren und von dort aus das Einspeiserohr erreichen müssen. Viel wahrscheinlicher
    ist das "Siphoning", welches durch Kühlwasserverlust und das Prinzip der kommunizierenden Röhren zur Freilegung der Brennstabköpfe führt.

    Kurz: "I am not convinced" - und daher ist mir 2022 auch zu spät. Auch wenn mir klar ist, dass die für meinen Wohnort größte Gefahr wahrscheinlich nicht vom (Luftlinie) nächstgelegenen AKW Philippsburg, sondern von Fessenheim und Cattenom ausgeht, und wir Deutsche auf diese keinen Einfluss haben.

    eingegangen bei spektrumdirekt am 26.7.2011
    Stellungnahme der Redaktion

    Die Auslegung deutscher Kernkraftwerke laut Regelwerk - unter anderem auf das 100.000-jährige Erdbeben und das 10.000-jährige Hochwasser am jeweiligen Standort zuzüglich Sicherheitsreserven - wird in den periodischen Sicherheitsüberprüfungen regelmäßig auf den Stand von Wissenschaft und Technik hin überprüft und bei Bedarf durch entsprechende Nachrüstungen verbessert. Bei neuen Erkenntnissen kommen alle Auslegungsdetails auf den Prüfstand, also auch solche, die schon in der Vergangenheit mehrfach überprüft worden sind.


    Das Basel-Beben von 1356 mit Herd im südlichen Endbereich des Oberrheingrabens ist selbstverständlich bei der Auslegung des Kernkraftwerks Neckarwestheim nach den Grundsätzen der kerntechnischen Regel KTA 2201.1 "Auslegung von Kernkraftwerken gegen seismische Einwirkungen; Teil 1: Grundsätze" als eines von vielen, im Erdbebenkatalog für Deutschland und angrenzende Gebiete geführten Ereignissen berücksichtigt worden. Nach den KTA-Grundsätzen ist einerseits ein 200-Kilometer-Standortumkreis zu berücksichtigen, anderseits sind die stärksten Ereignisse innerhalb der darin befindlichen seismotektonischen Einheiten in Standortnähe zu verschieben. Zum Basel-Beben ist festzustellen, dass sein Epizentrum weiter entfernt ist und außerhalb dieses Standortumkreises liegt, und dass es nach der Anwendung dieser Grundsätze gegenüber Erdbeben anderer Regionen von untergeordneter Bedeutung ist. Hier dominieren die Erdbeben in der Schwäbischen Alb, die seinerzeit auch bei der Auslegung des Standorts als maßgebliche Ereignisse identifiziert und zu Grunde gelegt wurden.



    Als beratendes Gremium steht den Aufsichtsbehörden unter anderem die Reaktorsicherheitskommission zur Seite, in der satzungsgemäß die "gesamte Anschauungsbandbreite nach dem Stand von Wissenschaft und Technik" repräsentiert sein soll, so dass dort regelmäßig auch einer Kernenergiebegünstigung unverdächtige Sachverständige vertreten sind. Das unverändert hohe Sicherheitsniveau in Deutschland hat dieses Gremium vor Kurzem mit seiner Stellungnahme zur anlagenspezifischen Sicherheitsüberprüfung der deutschen Anlagen unter Berücksichtigung der Ereignisse in Fukushima bestätigt. Bundesumweltminister Norbert Röttgen hat am 17. Mai 2011 bei der Präsentation dieser Stellungnahme betont, es gebe keinen sicherheitstechnischen Grund, "Hals über Kopf aus der Kernenergie auszusteigen" und es sei "verantwortbar, nicht sofort auszusteigen".



    Die Vermutung, dass die Wasserstoffexplosion im Block 4 durch einen "Siphon-Effekt" verursacht wurde, der zusätzlich zum Ausdampfen Wasser aus den Abklingbecken abgesaugt hat, ist eine schlüssige technische Erklärung, die nicht im IAEA-Bericht enthalten ist. Das Rückströmen von Wasser durch Beckenkühlleitungen kann nur dann eintreten, wenn entsprechende Rückschlagklappen nicht vorhanden waren oder versagt haben. Hierzu gibt es einige Beispiele aus US-Anlagen. In Fukushima-Anlagen könnte das Offenbleiben von Ventilen nach dem Verlust der Batteriekapazität als generische Ursache gewirkt haben. In diesem Fall könnten einzelne Brennelemente im Abklingbecken von Block 4 ausgetrocknet sein, unter Bildung von Wasserstoff bei der Zirkon-Wasserdampf-Reaktion. Dieser Hergang der Wasserstoffproduktion ist auch bei den Blöcken 1 bis 3 denkbar. Der vermutete Übertrag von Wasserstoff aus dem Block 3 in Block 4 erscheint dagegen unwahrscheinlich.



    Dr.-Ing. Ludger Mohrbach, Dr.-Ing. Bernhard Kuczera,
    Dr. Th. Walter Tromm, Dr.-Ing. Joachim Knebel

  • Restrisiko

    11.08.2011, Dr. Peter Ziegler, Alsbach-Hähnlein
    Wie von der Atomindustrie vom "Restrisiko" gesprochen wird ist Menschen verachtend. Denn wird dieses Restrisiko Realität, dann sind ganze Landstriche unbewohnbar und die hier lebende Bevölkerung verliert ihre Heimat und den größten Teil ihres Besitzes. Dabei sind diese Schäden nicht durch Versicherungen der Atomkraftwerksbetreiber abgedeckt!

    Weiterhin dürfte z.B. bei einem Super-GAU in Biblis das Rheintal unpassierbar werden mit unabsehbaren Folgen für die europäische und deutsche Wirtschaft und deren Verkehrswege. Man muss nur einmal nachsehen, welche wichtigen Verkehrswege durch dieses Gebiet führen.

    Fazit: Dieses "Restrisiko" ist nicht zu verantworten, auch wenn dabei einige Firmen finanzielle Verluste erleiden.

    eingegangen bei spektrumdirekt am 28.7.2011
    Stellungnahme der Redaktion

    Wir geben Ihnen Recht, dass das "Restrisiko" nicht Realität werden darf, also äußerst klein sein muss. Allerdings ist Risiko als Schadensausmaß mal Eintrittswahrscheinlichkeit definiert. Letztere ist in Japan nachweislich falsch bewertet worden. Zu Ihrer Kritik der mangelnden Versicherbarkeit lässt sich festhalten, dass die Betreiber nach einem Dreistufenmodell haften: Mit einer über den Versicherungsmarkt gedeckten Haftpflichtversicherung bis 250 Mio. € und darüber hinaus bis 2,5 Mrd. € über einen Haftungsverbund der Betreiber auf Gegenseitigkeit. Außerdem haften die jeweils betreibenden Konzerne mit ihrem Gesamtvermögen für Schäden, die diese Grenze überschreiten. Würde die Forderung nach unbegrenzter Haftung auch an andere risikoträchtige Industriezweige gerichtet, wie Betreiber von Anlagen der chemischen oder petrochemischen Industrie, von Wasserkraftwerken mit Staudämmen oder Riesentankern, so wäre deren internationale Wettbewerbsfähigkeit massiv eingeschränkt.


    Konservative Abschätzungen zu den Kosten des Rückbaus aller Reaktorblöcke an den Standorten Fukushima Daiichi und Daini inklusive notwendiger Aufräumarbeiten und Erwerb der unbewohnbaren Landflächen in der Evakuierungszone sowie entsprechender zusätzlicher Kompensationszahlungen an die bisherigen Nutzer lassen eine Schadenssumme des Reaktorunfalls in einer Bandbreite von 60 bis 180 Mrd. € erwarten.



    Zum Vergleich: Könnten in Deutschland die 17 noch vorhandenen Kernkraftwerke auch die zweite Hälfte ihrer technischen Mindestlebensdauer von 60 Jahren ausnutzen, so würden durch den Produktionskostenvorteil von etwa 4 Ct/kWh (wegfallende Abschreibungen plus steigende Marktpreise durch den Emissionshandel in der EU) rechnerisch 180 Mrd. € in heutigem Geldwert eingespart. Durch den Verzicht auf diesen volkswirtschaftlichen Kostenvorteil könnten die ökonomischen Folgen des Fukushima-Unfalls hier zu Lande größer werden als in Japan, sie liegen jedoch zumindest in einer vergleichbaren Größenordnung.


    Dr.-Ing. Ludger Mohrbach, Dr.-Ing. Bernhard Kuczera,
    Dr. Th. Walter Tromm, Dr.-Ing. Joachim Knebel

  • Welche Schäden verursachte das Erdbeben?

    11.08.2011, Guido Carl, Lorsch
    In der Analyse schreiben die Autoren, alle betroffenen Reaktoren seien "nach dem Erdbeben zunächst in einen stabilen Zustand überführt worden." Es gibt jedoch Hinweise darauf, dass bereits das Erdbeben erhebliche Schäden an den Reaktoren zur Folge hatte, also noch bevor die Flutwelle den Standort erreichte.

    - Bruch von Wasserleitungen im Reaktor 1: www.webcitation.org/5ygMQfEn5
    - Schädigung des Notkühlsystems im Reaktor 3: www.webcitation.org/5ytvAtYHZ
    - Auch soll es schon sehr frühzeitig Messungen radioaktiver Teilchen gegeben haben, was auf eine Beschädigung des Containments schließen ließe.

    Es verwundert doch sehr, dass die Autoren solche Hinweise außer Acht lassen, denn sie verändern die Sachlage von Grund auf. Gerade bei einer so heftig umstrittenen Technologie dürfen solche Fehler nicht vorkommen, denn sie untergraben die Glaubwürdigkeit der gesamten Untersuchung.

    eingegangen bei spektrumdirekt am 26.7.2011
    Stellungnahme der Redaktion

    Diese Hinweise sind in den genannten Quellen nicht zu finden. In der ersten wird ein Augenzeuge zitiert,
    der sich zum Zeitpunkt des Erdbebens im Reaktorgebäude von Block 1 in einem Bereich befindet, in dem gewöhnlich keine radioaktive Kontamination zu befürchten und keine Schutzkleidung zu tragen ist. Er berichtet von metallischen Leitungen, deren Schweißnähte aufbrechen, von austretendem Wasser und der Unsicherheit, ob es sich um kontaminiertes Wasser handelt. Stichhaltige Belege für die Behauptung, es habe sich tatsächlich um sicherheitstechnisch relevante Leitungen des Reaktors gehandelt, gibt der Augenzeugenbericht nicht her.



    In der zweiten Quelle, einem Bericht des Verbandes der japanischen Atomwirtschaft, sind keine Aussagen zur Beschädigung des Notkühlsystems im Block 3 vor dem Eintreffen des Tsunamis enthalten. Dort heißt es jedoch: "Quake caused no major damage to reactors. Tokyo Electric Power Company has found from its data that the March 11th erarthquake caused no safety abnormalities at the Fukushima Daiichi nuclear plant until the tsunami came." Ihre Behauptung, es habe frühzeitig vor dem Tsunami Beschädigungen am Sicherheitsbehälter und dadurch Radioaktivitätsfreisetzungen gegeben, bleibt unbelegt. Aus den veröffentlichten Daten gemessener Ortsdosisleistungen lässt sich die Aussage nicht ableiten.



    Fukushima ist keine Frage des Restrisikos. Hauptursache für diesen Unfall war die unzureichende Auslegung gegen Tsunamis bei gleichzeitigem Versagen der Aufsichtsbehörden. Stichhaltige Belege für anderslautende Behauptungen, wonach schon das Erdbeben vor dem Auftreffen des Tsunamis auslegungsüberschreitende sicherheitsrelevante Schäden an den Reaktoren verursacht habe, so dass der Unfall als Restrisiko-Ereignis eingestuft werden müsse, sind bisher nicht bekannt geworden.



    Mehr als 10 Meter hohe Tsunamiwellen sind an japanischen Küsten etwa alle 30 Jahre zu erwarten und an einzelnen Küstenstandorten etwa alle 100 bis 1000 Jahre. Dies ist bei Weitem nicht so selten, wie es für den Restrisikobereich gefordert wird: ein Ereignis in weniger als 100.000 bis über 1 Million Jahren.



    Premierminister Naoto Kan hat am 18. Mai 2011 bestätigt, dass die Aufsichtsbehörde nicht unabhängig war, Strukturänderungen angekündigt und am 4. August personelle Konsequenzen gezogen. Die Behörde hat es über Jahrzehnte versäumt, selbst nach neuen wissenschaftlichen Erkenntnissen zum Tsunamirisiko einen geeigneten baulichen Schutz durchzusetzen (z.B. wasserdichte Türen in den Maschinenhäusern oder auch verbunkerte Notstromdiesel mit gesicherten Treibstoffvorräten).



    Dr.-Ing. Ludger Mohrbach, Dr.-Ing. Bernhard Kuczera,
    Dr. Th. Walter Tromm, Dr.-Ing. Joachim Knebel

  • Wie geht das?

    10.08.2011, Liane Mayer, Wien
    Warum drehen sich diese Windräder überhaupt? Warum bleiben sie nicht stehen, sobald sie dem Wind symmetrisch gegenüberstehen? Ohne zyklische Verstellung der Rotorblätter kann ich mir das nicht vorstellen, oder gibt es noch einen anderen Trick?
    Stellungnahme der Redaktion

    Sehr geehrte Frau Mayer,



    die Rotorblätter sind so geformt, dass der Wind stets eine Angriffsfläche findet. Zudem bestehen sie wie "normale" Windräder aus mehreren Rotorblättern, so dass immer ein Blatt eben nicht symmmetrisch zur Windrichtung steht. Und zusätzlich schalteten die Ingenieure in ihrer Testanlage die Paare so, dass sich jeweils eine Windmühle entgegengesetzt zu ihrer Partnerin bewegte. Ich hoffe, diese Angaben helfen Ihnen weiter.



    Mit freundlichen Grüßen

    Daniel Lingenhöhl

  • Fehlende Systematik

    10.08.2011, Walter Weiss, Kassel
    Ein wenig Systematik würde die Fragestellung merklich erleichtern:

    (1) Das Dreigestirn 'Demokratie / Gleichberechtigung / Menschenrechte' ist die größte und wichtigste menschliche Erfindung der letzten 2.000 Jahre, denn es beendet endlich die unheilvolle und menschenverachtende Rolle und Bedeutung der Religionen. Dieses Dreigestirn ist keine Entdeckung (wie die in den Naturwissenschaften gefundenen Gesetze), erst recht nicht gottgegeben oder genetisch angelegt. Diese Erfindung wurde erforderlich, als die Menschheit sich in den letzten 5.000 Jahren immer schneller vermehrte und Regeln gefunden werden mussten, die ein friedvolles Zusammenleben vieler Menschen ermöglichen sollten.

    (2) Wie alle menschlichen Erfindungen müssen auch diese - zunächst schlagwortartig und grob umrissen genannt - ständig konkretisiert, verfeinert, an den Einzelfall oder einzelne Fallgruppen angepasst, justiert und maßvoll erweitert werden, wie wir das in den westlichen Demokratien ja täglich durch die Tätigkeit der Parlamente, der Gerichte, durch Volksentscheide und Diskussionen auf allen möglichen Ebenen erleben. Dabei können umfassende 'Theorien' jedweder Art erkennbar nur schaden. Die große Linie ist ja bekannt.

    (3) Eine ganz neue Dimension der genannten Erfindung ist die Überlegung in den westlichen Demokratien gewesen, die objektiv bestehenden Vorteile für die überwältigende Mehrzahl der Bürger in diesen Demokratien auch denjenigen Menschen zu geben, die das Pech haben, nicht in geordneten Demokratien nach diesem Muster zu leben. Diese Überlegung bedeutete einmal, alles in friedlicher Weise zu tun, um zu erreichen, dass auch diese Menschen eine solche demokratische Staatsform erhalten. Das bedeutete darüberhinaus, Personen aus derartigen undemokratischen Staaten zur Verantwortung zu ziehen, die die Einführung demokratischer Regeln im Sinne der oben genannten Erfindung verhinderten.

    Der Einwand bei dieser Ausweitung der genannten Erfindung auf nichtdemokratische Staaten, man missioniere da wie eine Religion und man setze außerhalb des undemokratischen Staates geltendes Recht - auch noch nachträglich - an die Stelle des in diesen undemokratischen Staaten geltenden Rechts ('Es kann heute nicht Unrecht sein, was gestern Recht war'), ist spätestens seit den Nürnberger Prozessen entkräftet. Vorrangig ist der Schutz der leidenden Menschen.

    Alles das ist übrigens ebenfalls von Menschen erdacht und gesetzt, also weder gottgegeben, noch irgendwie angeboren.
  • Ein ausführlicher und verständlicher Überblicksartikel

    10.08.2011, Walter Weiss, Kassel
    Das ist der erste Beitrag in der Serie Philosophie, der diese Bezeichnung verdient: ein ausführlicher und verständlicher Überblick über die Philosophiegeschichte zum Begriff 'Gerechtigkeit'.

    Trotzdem habe ich am Schluß eine schlagwortartige Zusammenfassung der Ansichten des Verfassers vermisst, die im Text nur andeutungsweise und versteckt zum Ausdruck gekommen sind (doch wohl mit Bedacht, wie ich voraussetzen möchte) - warum verhält sich der Verfasser insofern so zurückhaltend und zögerlich? Ich denke mir eine solche schlagwortartige Zusammenfassung so:

    (1) Der Begriff 'Gerechtigkeit' wird erst akut, als es größere Menschenmengen gab, die ihr Zusammenleben regeln mußten. Da es derartige größere Menschenansammlungen erst in den letzten rund 10.000 Jahren - allmählich, dann immer schneller wachsend - gegeben hat, war die Zeit zur entwicklungsgeschichtlichen Entstehung eines 'Gerechtigkeits-Gens' viel zu kurz. Mit anderen Worten: alles das, was Gerechtigkeit betrifft, ist weder gottgewollt, noch angeboren, sondern nichts weiter als menschliche Erfindung.

    (2) Die größte menschliche Erfindung der letzten 2.000 Jahre ist das - in sich vernetzte - Dreigestirn 'Demokratie / Menschenrechte / Gleichberechtigung', im westlichen Europa erdacht und eherner unveränderterer Rahmen für alle Gerechtigkeits-Regelungen (sei es durch Gesetz, Richterspruch oder Verfassung). Diese Erfindung hat nun endlich die unheilvolle Rolle aller Religionen abgelöst - wie gesagt: zunächst nur im Bereich der demokratisch gewordenen Staaten.

    (3) Was im jeweiligen Einzelfall in diesem ehernen Rahmen als gerecht empfunden und festgelegt wird, ist je nach den Zeitumständen, die herrschen, zu entscheiden. So kann ja beispielsweise der Bundesgerichtshof oder ein sonstiges oberstes Gericht durchaus eine bisherige Rechtsprechung aufgeben, wenn sich die Zeitumstände geändert haben. Auch kann zB der Bundestag Gesetze aufheben, die nicht mehr den geänderten Zeitumständen entsprechen, und durch neue ersetzen.

    (4) Eine 'Theorie der Gerechtigkeit' ist, da es sich (s.o.) um eine reine Menschenerfindung und nichts Gottgegebenes oder gar
    in der Natur Angelegtes handelt, schon vom systematischen Ausgangspunkt aus ein Unding.
  • Hausgemachte Hungersnot

    10.08.2011, Wolfgang Bieber, Berlin
    Neunzig Prozent der weltweit hungernden Menschen sind nicht von Naturkatastrophen betroffen. Die Gründe für Nahrungsmangel liegen woanders: In der Spekulation mit Land und dem Boom der Öko-Kraftstoffe. Und die EU macht fleißig mit:
    http://bit.ly/rs18ld
  • Einstein und das zyklische Universum

    09.08.2011, Karl-Heinz Volpert, Plettenberg
    Auf einen Artikel mit solch einer Aussage habe ich schon lange gewartet. Hauptsächlich deswegen, weil mir nie aus dem Kopf gegangen ist, in den 1950er Jahren in einem Taschenbuch über Einstein gelesen habe, dass dieser mutmaßte, das Universum könne sich möglicherweise zyklisch ausdehnen und zusammenziehen. Leider weiß ich aber nicht mehr genau, wie das Buch damals hieß; vielleicht „Einstein und das Universum“ oder so ähnlich. Auch weiß ich den Verlag nicht mehr. Hat Einstein diese Vermutung wirklich geäußert? Wenn das so wäre, dann wäre das wieder ein Hinweis auf seine intuitiv vorausschauende Genialität.
    Stellungnahme der Redaktion

    „Einstein und das Universum“ von Lincoln Barnett, auf Deutsch 1952 als Fischer-Taschenbuch erschienen, hat so manchen zur Physik verführt. Dort wird die Idee eines zyklisch expandierenden und kontrahierenden Universums dem amerikanischen Theoretiker Richard Chase Tolman (1881–1948) zugeschrieben. Einstein selbst favorisierte zunächst ein statisches Universum und führte dafür eigens eine kosmologische Konstante ein. Als dann der US-Astronom Edwin Hubble (1889–1953) die kosmische Expansion entdeckte, bezeichnete Einstein die Einführung der kosmologischen Konstante als „die größte Eselei meines Lebens“. Über ein zyklisches Universum spekulierte Einstein nicht.

  • Haben die Naturalisten Angst?

    08.08.2011, Paul Kalbhen, Gummersbach
    Mich amüsiert immer wieder, wie viele Evolutionsbiologen und -philosophen das Entstehen von Religion allein durch genetische Mutation und Selektion erklären wollen. Solche Verfechter einer rein materialistisch-naturalistischen Funktionsweise biologischer Prozesse scheinen die Möglichkeit eines geistigen Hintergrundes dafür zu fürchten wie "der Teufel das Weihwasser".
  • Küchenphilosophie in der Sackgasse

    08.08.2011, Rainer Schimming, Potsdam
    Der Autor fragt, ob die Naturwissenschaften noch Wesentliches entdecken können. Eine definitive Antwort gibt er nicht; Fragezeichen durchsetzen den Artikel. Der Grundton ist pessimistisch. Die Frage ist nicht rein akademisch; der Steuerzahler möchte ja wissen, ob sein Geld sinnvoll angelegt wird. Die faktische Situation erlaubt, so meinen wir, ebenso gut eine optimistische Wertung. Betrachten wir etwa den Forschungsgegenstand des Autors, den Makrokosmos: Es ist faszinierend, wie neue Beobachtungsmöglichkeiten aktuell eine Revolution des astronomischen Weltbilds ausgelöst haben (Stichpunkte: Dunkle Materie, Dunkle Energie, Physik exotischer Objekte, Teilchenastronomie ...). Oder was den Mikrokosmos betrifft: Wir halten zum Beispiel den Aufwand für den Large Hadron Collider angesichts der spannenden Problemstellungen, für die er gebaut wurde, durchaus für gerechtfertigt.
    Ohne philosophische Vertiefung kommt man der aufgeworfenen Frage nicht bei. Hegel unterscheidet die beiden Möglichkeiten schlechte Unendlichkeit, das heißt Wiederholung stets gleicher Muster, und wahrhafte Unendlichkeit, das heißt Unerschöpflichkeit der Strukturen und Prozesse. Folgt man Hegel in der Annahme, dass die Welt wahrhaft unendlich ist, so kann man immer wieder Neues erwarten, aber eine abschließende Weltformel wird es nicht geben. Freilich steigt der Forschungsaufwand stetig an, denn die relativ einfach zu habenden Wahrheiten wurden zuerst gefunden.
  • Eurozentristisch

    08.08.2011, Dr. Peter Döge, Kassel
    Der Beitrag von Julia Nida-Rümelin mit dem Titel „Was ist gerecht“ ist ein sehr ausgezeichnetes Beispiel für den Eurozentrismus der deutschen Philosophie im Allgemeinen und – aus meiner Sicht als Politikwissenschaftler – der deutschen politischen Philosophie im Besonderen. Besonders bedenklich wird das Ganze, weil der Artikel in Anspruch nimmt, für „die Menschen“ und „die Philosophie“ zu sprechen – oder wie im ersten Satz formuliert: „Die Frage nach der Gerechtigkeit stellt sich, seit Menschen über ihr Zusammenleben nachdenken. Entsprechend nimmt das Thema auch seit jeher einen zentralen Platz in der Philosophie ein.“ Die Philosophie ist dann eine europäische und die Menschen sind fast ausschließlich Europäer, denn es folgen in der Abhandlung dann nur die allseits bekannten europäischen Theoretiker von Platon bis zu den so genannten Vertragstheoretikern. Zum Schluss des Artikels kommt gerade noch ein (westlich sozialisierter) Inder zu Wort.

    Mit einem solchen inhaltlichen Zuschnitt, der in Zeiten eines auch globalisierten (Denk-)Raums eigentlich nicht mehr zu rechtfertigen ist, wird meines Erachtens zwischen den Zeilen unterstellt, der Rest der Welt habe niemals über die zentralen Fragen des menschlichen Zusammenlebens nachgedacht. So, als hätte es einen Konfuzius, der schon im 5. Jahrhundert vor Christus die goldene Regel formuliert hat, und dessen Ansätze von Menzius, der etwa zu Zeiten des Aristoteles lebte, weiterentwickelt wurden, oder einen Mo-Ti, der schon im 4. Jahrhundert vor Christus eine Art utilitaristischer Gerechtigkeitsethik entwarf, niemals gegeben. Ganz abgesehen von taoistischen Ethiken oder der buddhistischen Ethik sowie der Ethik des Zen&nsp;- wie sie etwa von Dogen Zenji im 12. Jahrhundert formuliert wurde – und die jeweils die Grundlage für eine zeitgemäße universalistische Ethik, für einen gerechten Umgang mit allen (Lebe-)Wesen legten. Eine Perspektive, die westlichen Gerechtigkeitsethiken bis heute weit gehend fehlt.

    Hier zeigt sich einmal mehr, dass eine Öffnung nach Osten der hiesigen Philosophie und politischen Ethik sehr gut tun würde, zeichnet sich die asiatische Denkweise doch viel stärker durch ein systemisches Denken vom Leben her aus, als die abstrakte, in dualistischen Denkmustern gefangene europäische Philosophie. Der indische Literaturnobelpreisträger von 1913 Rabindranath Tagore erklärte dies sehr aufschlussreich damit, dass die philosophischen Systeme des Westens weitestgehend zwischen Stadtmauern in Abgrenzung zum Lebendigen entwickelt wurden, während die asiatischen Philosophien in den Wäldern entstanden sind – also immer mit einem Bezug zur „Natur“. Kein Wunder, dass die Europäer sich dann an so kruden und alltagsfernen Gerechtigkeitskonzepten wie denen eines John Rawls ergötzen und Gerechtigkeit nicht von den lebenden Menschen und von menschlichen Empfindungen her konzipieren. Aber selbst europäische Denker, die wie etwa David Hume oder Arthur Schopenhauer, der seinerseits die Upanischaden gelesen hatte, oder wie die US-amerikanischen Transzendentalisten einen solchen Denkweg eingeschlagen haben, fehlen in dem Beitrag von Nida-Rümelin.


  • Hervorragend

    08.08.2011, Wilfried Schad, Tuttlingen
    Solch eine Rezension habe ich noch nie gelesen. Sie scheint den Inhalt des Buches komplett in komprimierter Form vorweg zu nehmen. Hervorragend.
  • Paradigmenwechsel gesucht

    07.08.2011, Jens Philip Höhmann
    Sehr geehrter Herr Scheunemann,
    in Ihrer Replik auf Walter Pfohl schreiben Sie unter Anderem:

    >>Sie müssen das System, also etwa Ihren Beobachter, nur lange genug (in getrennten Experimenten natürlich) beiden Kräften aussetzen, dann werden Sie einen großen Unterschied feststellen: Wenn das System „in einem gravitationsfreien Raum durch eine äußere Kraft eine konstante Beschleunigung erfährt“, die etwa g, der Erdbeschleunigung, entspricht, würde es in absehbarer (und ausrechenbarer) Zeit die Lichtgeschwindigkeit erreichen – was natürlich nicht geht.<<

    Die Lichtgeschwindigkeit zu erreichen/überschreiten, das geht nur nicht, wenn die SRT stimmt.
    Oder, alternativ dazu, die Lorentzsche Äthertheorie, die zwar an einem absolut ruhenden Äther festhält, sich aber von der SRT hinsichtlich der praktischen Voraussagen überhaupt nicht unterscheidet.
    Natürlich haben Sie Recht, wenn Sie mit der Beschleunigung die meinen, die ein NICHT mitbeschleunigter Beobachters B misst bzw. berechnet.
    Dennoch unterliegen Sie einem Fehlschluss: Die Beschleunigung, die der hypothetische Astronaut A spürt, hat einen anderen (nämlich größeren) Wert, da sowohl seine Uhren anders laufen als auch seine Längenmaßstäbe andere sind. Der Unterschied wird mit wachsender Geschwindigkeit immer extremer.
    Fordern Sie, dass die Beschleunigung im Ruhesystem von A konstant bleibt, wird sie im System von B mit wachsender Geschwindigkeit abnehmen.
    Zeichnet man ein Weg-Zeit-Diagramm, so sieht das bei kleinen Geschwindigkeiten noch wie eine Parabel aus (wie nach Newton mit s=(a/2)t2 zu erwarten), erweist sich aber schließlich als Hyperbel mit einer Geraden v=c als Asymptote. Diese Gerade markiert zugleich einen Ereignishorizont: Solange A seinen beschleunigten Flug fortsetzt, bleibt er für alle Signale unerreichbar, die jenseits dieses Horizontes liegen oder auf ihm. In diesem Fall ist der Ereignishorizont ein Artefakt, denn sobald A aufhört, zu beschleunigen, ist seine Geschwindigkeit konstant kleiner als c und seine "Weltlinie" (sozusagen seine Flugbahn durch Raum UND Zeit) eine Gerade, die früher oder später von allen Licht-Geraden geschnitten wird.
    Noch eine Anmerkung: Es gibt eine physikalische Größe, die aufgrund der aus der Sicht von A konstanten Beschleunigung linear wächst: die so genannte Rapidität. Ihr Cosinus Hyperbolicus ist der so genannte Lorentz-Faktor (um den die Uhren langsamer gehen und die Maßstäbe in Bewegungsrichtung verkürzt sind), und ihr Sinus Hyperbolicus ist ebendieser Lorentzfaktor mal v/c, so dass v/c selbst der Tangens Hyperbolicus der Rapidität ist. Für v<<c sind beide noch so gut wie proportional, doch für größere Werte weicht der Tangens Hyperbolicus nach unten ab und nähert sich schließlich asymptotisch dem Wert 1.
    Die Hyperbelfunktionen bei einer Lorentz-Transformation (Umrechnung zwischen zwei relativ zueinander bewegten Koordinatensystemen) entsprechen den trigonometrischen Funktionen bei einer Drehung und die Rapidität einem Winkel (nämlich zwischen den Weltlinien von A und B).
    Der Grund dafür, dass die Hyperbelfunktionen an die Stelle der trigonomentrischen Funktionen treten, besteht darin, dass in der Raumzeit anstelle der Summe die Differenz der Kathetenquadrate in einem rechtwinkligen Dreieck das Hypothenusenquadrat ist, wenn eine der Katheten ct ist. Die Variante mit dem Pluszeichen wäre physikalisch sinnfrei.
  • 92 Aststücke

    06.08.2011, Torsten Becker
    Wie man mit so wenigen Samples zu derartigen Aussagen kommt ist mir ein Rätsel. 'Notorisch instabil', klingt als gehört ein Meereisrückgang von 40% in wenigen Jahrzehnten in der Arktis zur Tagesordnung. Das Gegenteil ist der Fall: über die letzten Jahrtausende gibt es keinen einzigen Beleg für ähnliche Schmelzattacken. Es lohnt sich ein Blick auf den Globus, ein paar Millionen Quadratkilometer glitzernde Eisfläche werden im Sommer bald durch dunklen Ozean ersetzt. Der Sonnenschutzfaktor der Arktis ist dann weg. Hat natürlich keinen Einfluss auf das Wetter in Europa...
Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.