Direkt zum Inhalt

Kommentare - - Seite 999

Ihre Beiträge sind uns willkommen! Schreiben Sie uns Ihre Fragen und Anregungen, Ihre Kritik oder Zustimmung. Wir veröffentlichen hier laufend Ihre aktuellen Zuschriften.
  • Eisverlust mal nachgerechnet

    13.11.2009, Josef Raddy
    Es mag sich dramatisch anhören, dass Grönland rund 150 Gigatonnen Eis pro Jahr verliert, aber Grönland hat rund 2,5 Millionen Gigatonnen Eis. Folglich wird das Abschmelzen noch rund 16 000 Jahre dauern. Dies bestätigt auch eine Kontrollrechnung: Das Meer soll um sieben Meter steigen, wenn Grönlands Eis schmilzt. Doch im Augenblick steigt es um 0,5 Millimeter, also 0,0005 Meter - bis zum Sieben-Meter-Anstieg würde es also 14 000 Jahre dauern. Dummerweise haben wir aber alle 1000 Jahre eine kleine Eiszeit, die das Abschmelzen rückgängig macht. Dank der Panikmache bekommt England aber nun zehn neue Atomkraftwerke. Wer mag solche Studien wohl finanzieren?
  • Quantenverschränkung - eine Vertiefung

    13.11.2009, Walter Pfohl, München
    Habe die Leserbriefe zum Artikel über Quantenverschränkung & Relativitätstheorie in SdW Bd. 9/09 mal durchgesehen und denke mir, zur Vertiefung der einen oder anderen Verständnisschwierigkeit mein Scherflein beitragen zu können.

    Grundsätzlich geht es um Probleme eines konsistenten Vorstellungsbildes dessen, was an der funktionalen Basis an Wirklichkeitsstrukturen gegeben ist, das mit der Logik der formalen Prinzipien sowohl der Quantentheorie als auch der Relativitätstheorie zu vereinbaren wäre. Der Formalismus suggeriert, die quantenmechanischen Zustandsfunktionen wären direkte Repräsentationen konkreter Realitätsgegebenheiten. Im Sinne der Information (über Erwartungswerte und korrelative Vernetzungen der möglichen Messwerte), die in Form der Funktion kodiert ist, bedeuten diese auch tatsächlich Beschreibungen gegebener Strukturen der Realität, doch wäre es naiv, die formale Darstellung mit einer in allen Aspekten orignalgetreuen Abbildung der Wirklichkeit gleichzusetzen. Zwar ist diese unter informationstheoretischen Aspekten zweifellos originalgetreu genug, um damit korrekte Berechnungen anstellen und Vorhersagen treffen zu können, doch speziell der Ansatz einer Funktion mit prinzipiell wohlbestimmten Werten an ebenso wohlbestimmten Punkten in Raum & Zeit mag vielleicht mehr durch die Bedürfnisse des menschlichen Vorstellungsvermögens begründet sein als durch die eigentliche Natur der Sache. Ich würde davon ausgehen, dass die Natur ihre strukturellen Informationen nicht notwendig nach solchen Formprinzipien verkörpert, die sich mit den Mitteln menschlicher Vorstellungsmöglichkeiten, formaler Sprachen und Mathematik einfach beschreiben ließen, und die Zustandsfunktion für nicht mehr nehmen als eine konstruierte formale Kodierung von Information, die für die Statistik des Beobachtbaren von Relevanz ist.

    Insbesondere betrifft die fragliche Information die Muster der Korrelation in den möglichen Ergebnissen von Messungen an verschiedenen Punkten in Raum & Zeit. Bereits bei der Repräsentation eines unverschränkten einzelnen Teilchens stellt sich das Problem der Interpretation des Umstandes, dass diesem eine beliebig großräumig ausgedehnte Zustandsfunktion entsprechen kann, die die Wahrscheinlichkeit beschreibt, das Teilchen an verschiedenen Orten vorzufinden, sofern man dort eine einschlägige Messung vornimmt, aber bei gleichzeitigen Messungen an auseinanderliegenden Orten ausgeschlossen ist, das Teilchen mehrfach nachweisen zu können. Im direkt genommenen Bild der formalen Repräsentation würde dies einen instantanen „Kollaps“ der Funktion ohne Beschränkung durch die Lichtgeschwindigkeitsgrenze erfordern, sobald für einen Ort ein positiver Nachweis vorliegt.

    Der relativitätstheoretische Begriff von „Gleichzeitigkeit“ beruht auf der vorausgesetzten Konstanz der Lichtgeschwindigkeit in allen Inertialsystemen und demzufolge auch einer gleichen Laufzeit eines Lichtpulses für hin und zurück zwischen zwei kräftefrei treibenden Beobachtern mit ihren jeweiligen Bezugssystemen. Daraus leiten sich die bekannten Lorentz-Transformationen für die Raum- und Zeitkoordinaten ab, welche verschiedene Beobachter den gleichen Ereignissen zuzuordnen haben. Dies hat insbesondere zur Konsequenz, dass nicht für jeden Beobachter dasselbe „gleichzeitig“ ist, sondern dass sich die Ebene der Gleichzeitigkeit im Raum-Zeit-Diagramm für einen zweiten Beobachter, der sich gegenüber einem ersten Ruhesystem bewegt, entsprechend einer Spiegelung von dessen Weltlinie an der 45°-Linie (welche die Lichtgeschwindigkeit repräsentiert) verkippt, so dass das Vorher oder Nachher von Ereignissen im Bereich außerhalb des jeweiligen Lichtkegels eine relative Frage des Bezugssystems bedeutet, aus welchem man die Ereignisse betrachtet.

    Unabhängig vom jeweiligen Bezugssystem und unter Lorentztransformationen invariant ist jedoch das Raum-Zeit-Abstandsmaß t2-x2, dessen Vorzeichen angibt, ob der Abstand zwischen zwei Punkten in Raum & Zeit ein raumartiger oder zeitartiger ist, d.h., ob sich die Punkte innerhalb des Lichtkegels des jeweils anderen befinden oder nicht. Kausale Abhängigkeiten zwischen den Ereignissen an den verschiedenen Orten sollten im Rahmen der relativitätstheoretischen Vorstellungen auf den Fall zeitartiger Abstände beschränkt sein.

    Somit stellt sich nun das Problem, wie dies mit der Beobachtung zu vereinbaren sein soll, dass die Ergebnisse von Messungen an verschiedenen Orten anscheinend ohne Zeitverzug miteinander korreliert sind, ohne dass eine Ursache für die konkreten Messergebnisse im Einzelfall im bereits gegebenen Zustand vor der Messung auszumachen wäre (wie das im Gegensatz dazu bei dem in einem anderen Leserbrief erwähnten Beispiel mit dem roten und dem blauen Ball in einer „Blackbox“ der Fall ist).

    Wenn nämlich prinipiell ein Zustand vorläge, wo von vornherein feststeht, ob sich ein Teilchen am einen oder anderen Ort bzw. in diesem oder jenem Zustand einer Messgrößenverteilung befindet, wären diverse Interferenzerscheinungen schwer zu erklären, die sich daraus ergeben, dass eben keine Bestimmung der fraglichen Parameter vorgenommen wird und sich die offengebliebenen Möglichkeiten alle gleichermaßen zur Statistik der im weiteren Verlauf beobachtbaren Ereignisse überlagern.

    Wenn also, wie die Befunde nahelegen, nicht davon ausgegangen werden kann, dass beispielsweise vor einer Spinmessung verschränkter Teilchen schon ein Zustand vorliegt, der auf eine bestimmte Messachse hin ausgerichtet oder gar auf ein bestimmtes Messergebnis festgelegt wäre, stellt sich neben der Frage, was nun als erste oder als zweite Messung zu nehmen wäre, insbesondere auch die, wie das eine Teilchen so schnell davon erfahren sollte, was nun am anderen gemessen wurde, um sein eigenes Messverhalten im Rahmen der quantenmechanischen Erwartung mit dem des Verschränkungspartners zu korrelieren, ohne dazu eine überlichtschnelle Informationsübertragung zu erfordern. Wobei aber unser Bild des Einzelfalls auf der Beobachtung vieler Einzelfälle basiert, in deren Ergebnissen insgesamt sich die statistischen Zusammenhänge offenbaren, deren logische Strukturen schwierig mit der Annahme relativistischer Lokalität des physikalischen Geschehens vereinbar scheinen.

    Vorausgesetzt wird allerdings, dass dabei unabhängig von den jeweils vorgenommenen Messungen gleichartige Ausgangszustände oder zumindest gleichartige statistische Verteilungen möglicher Ausgangszustände angenommen werden dürfen, die Rückschlüsse aus den Beobachtungen vieler Versuchsdurchläufe auf die Gegebenheiten im Einzelfall erlauben. Die Annahme findet ihre solide Stütze erstens in der unmittelbaren Plausibilität des Grundsatzes, daß das zu messende System nicht vorher wissen wird, welche Messvorgänge später an ihm durchgeführt werden, und zweitens in den Vorhersagen der bewährten Quantentheorie, wonach die Übergangswahrscheinlichkeiten direkt mit der Zahl der möglichen Zustände verknüpft sind, in welche überhaupt übergegangen werden kann. Wenn also mehr als die theoriegemäßen Festlegungsparameter gegeben wären, sollten mehr Zustandsvariationsmöglichkeiten bestehen und man somit eine andere als die beobachtbare Statistik des Übergangsverhaltens erwarten.

    Nun mögen in der Argumentation jedoch die üblichen Fallstricke eines geschlossenen Denksystems lauern, das sich im Wesentlichen selbst erklärt und so die Sicht auf andersartige Möglichkeiten zu verbauen neigt. Da wir ja nur die eine Wirklichkeit als Studienobjekt haben und keine identischen Zustände des gesamten Universums und seiner potentiellen Ursächlichkeiten reproduzieren können, können wir unter erkenntnistheoretischen Aspekten natürlich auch niemals wirklich sicher wissen, ob denn tatsächlich andere Möglichkeiten als die eingetroffenen bestanden hätten und ob die Muster, die nach statistischen Korrelationsprinzipien aussehen, nun wirklich auf statistichen Gesetzlichkeiten beruhen oder auf anderer funktionaler Basis zu ihren beobachtbaren Formen kommen. Natürlich kann man sich auch Mechanismen vorstellen, die solche Formen in letztlich deterministischer Weise produzieren, und dazu braucht´s noch nichtmal unbedingt welche nichtlokalen oder über die Prinzipien der Quantentheorie hinausgehenden Charakters, etwa im Rahmen der Theorie der vielen Welten, wonach jede (lokale) Quantenmöglichkeit auch in ihrem eigenen Wirklichkeitszweig realisiert wird, wobei die Aufspaltung der umgebenden Realität sich nicht schneller als mit Lichtgeschwindigkeit ausbreitet und sich inkompatible Zweige, die von verschiedenen Orten ausgehen, bei Aufeinandertreffen negativ überlagern und wechselseitig auslöschen, so dass nur die mit den theoriegemäß korrelierten Ereignissen als in sich gegebene Wirklichkeiten verbleiben.

    Da dies das Vorstellungsvermögen strapaziert und ohnehin aus prinzipiellen Gründen eine Frage des persönlichen Glaubens bleiben muss, wäre es natürlich befriedigender, Vorstellungen zu entwickeln, die sich auf die beobachtbare Wirklichkeit und deren konkretes Funktionieren beschränken, ohne unnötig über nicht Verifizierbares zu spekulieren. Zu dem Zweck würde die Annahme einer absoluten globalen Zeit als physikalisch wirksamer Parameter mancherlei Komplikationen von etwaigen zeitlichen Rückwirkungen über mehrere Stufen und nachträglicher Verengung von vorangegangenen Realitätszuständen vermeiden, die einige Zweifel an der Vorstellung einer grundsätzlichen Wohlbestimmtheit der Gegebenheiten unserer Realität in Vergangenheit & Gegenwart aufwerfen würden. Das physikalische Opfer, das dafür zu bringen wäre, wäre eine Relativierung der Relativitätstheorie, dass nämlich unterhalb der Ebene des Manifesten und direkt Beobachtbaren durchaus Informationsflüsse mit Überlichtgeschwindigkeit erfolgen können sollten.

    Zur Veranschaulichung stellen wir uns zwei verschränkte Teilchen mit Ruhemasse vor, die sich nach ihrer Erzeugung langsamer als mit Lichtgeschwindigkeit voneinander entfernen. Wird nun zum Beispiel eine Spinmessung an einem davon vorgenommen, legt dies „zugleich“ den Spinzustand des anderen fest, was logischerweise auch mit einer entsprechenden Änderung der Zustandsparameter am Ort des zweiten Teilchens verbunden sein sollte. Die Frage ist, ab welchem Zeitpunkt von einer erfolgten Änderung des Zustandes am zweiten Ort auszugehen wäre. Im relativitätstheoretischen Bild von Raum & Zeit wäre der Schnittpunkt der Weltlinie des zweiten Teilchens mit der Wand des vom Punkt der Messung am ersten Teilchen ausgehenden Rückwärtslichtkegels der einzig sinnvolle Kandidat, da aus Sicht des ersten Teilchens für jeden früheren Zeitpunkt bereits feststeht, dass am zweiten noch keine zustandsverändernde Messung vorgenommen wurde, und für jeden späteren bereits festgeschrieben ist, in welchem konkreten Spin-Eigenzustand sich das andere Teilchen zu befinden hat, um im Fall einer Messung daran ein mit der ersten Messung verträgliches Ergebnis zu produzieren. Wenn wir die Situation nun aber aus der Perspektive des zweiten Teilchens betrachten, das an besagtem Punkt eine korrelative Änderung seiner lokalen Zustandsparameter erfährt, und wir für dieses analog argumentieren, müsste demgemäß wiederum der Zustand des ersten Teilchens auf zweiter Stufe des „Kollapses“ schon an der Schnittstelle von dessen Weltlinie mit dem Rückwärtslichtkegel, der vom Punkt der Änderung des Zustandes des zweiten Teilchens ausgeht, auf den später gemessenen Eigenzustand reduziert werden, und somit im absoluten Sinne eines invariant zeitartigen Abstands zum Punkt der nachfolgenden kollapsauslösenden Messung. Wenn wir das Spielchen weitertreiben, müsste sich der Zustand der beiden Teilchen letztlich bereits bei deren Erzeugung auf die später erfolgenden Messungen einstellen, was unter kausalen Aspekten einer zeitlichen Rückwirkung bzw. einer Abtastung der Zukunft gleichkäme. Solche Abstrusitäten im Modell wären indes zu vermeiden, wenn man eine absolute globale Gleichzeitigkeit postuliert, auf deren Ebene die korrelativen Zustandsänderungen des fernen Verschränkungspartners erfolgen.

    Ob es mit weniger gewagten Vorstellungen geht, die Formen des Beobachtbaren zu erklären, weiß ich nicht, was wesentlich Eingängigeres ist mir bislang nicht untergekommen an logisch konsistenten Interpretationsmodellen. Wie´s ausschaut, hat man wohl im Wesentlichen die Wahl zwischen Pest & Cholera im Philosophischen. Wenn wir von einer einzigen und unteilbaren Wirklichkeit ausgehen, scheint mir die Annahme nichtlokaler Funktionsprinzipien unvermeidlich, will heißen, weniger absurd als alternative Modellierungsmöglichkeiten. Nun ist zwar Raum nicht dasselbe wie Zeit, sonst könnten wir´s nicht unterscheiden, doch strukturell so eng damit verbunden, dass in dem Falle zu erwarten wäre, dass solche Prinzipien dann auch über die zeitliche Kausalitätsordnung der Relativitätstheorie hinausgehen sollten - woraus ich allerdings kein sinnvoll oder vielversprechend erscheinendes Bild des Funktionierens von Wirklichkeit zu ziehen wüsste. Mit Spekulationen über kausale Rückwirkungen oder zusätzliche Dimensionen der Zeit habe ich mich selber lange genug gespielt, um dies nunmehr für fruchtlose Ansätze zu halten, die nichts als Widersinn gebären.

    Ich persönlich habe mich daran gewöhnt, in meiner Anschauung mit dem Modell der vielen Welten unter Wahrung der Lichtgeschwindigkeitsgrenze zu operieren und die Frage offenzulassen, ob da nun durch ein unbekanntes Ordnungsprinzip eine Auswahl unter den theoretischen Möglichkeiten (des globalen Realitätszusammenhangs) getroffen und nur eine verwirklicht wird oder ob tatsächlich alle nebeneinander. Konsequenzen fürs Beobachtbare hätte dies ohnehin nicht, aber die letztere Vorstellung ist eben die einfachste mit einem Minimum an fragwürdigem Hypotheseninput. Obgleich mich die Idee erschauern lässt, dass mir dann zwangsläufig auch nichts an möglichen Gräueln zu erleben erspart bliebe und alles, was mir überhaupt nur passieren kann, auch tatsächlich auf irgendeinem Wirklichkeitszweig widerfahren würde. Ja nun, das wäre wohl der Preis dafür, dass ich auf einem anderen Zweige König würde, obgleich mir das in unerfreulicheren Wirklichkeiten nun auch keinen nennenswerten Trost vermitteln könnte.

    Doch könnte ich mir schon vorstellen, dass die Schwierigkeiten, fundamentale Prinzipien von Quanten- und allgemeiner Relativitätstheorie in logisch konsistenter Weise zu vereinen, letztlich darauf zurückzuführen sein mögen, dass eine korrekte quantenmechanische Repräsentation der Gravitationsvorgänge infolge der rückkoppelnden Wirkungen auf die Geometrie der Raumzeit, die wiederum die Quantenzustände trägt, eine grundsätzlich andere algebraische Struktur als andere Wechselwirkungen erfordern würde und womöglich auch mit nichtlinearen Beiträgen zum Hamilton-Operator verbunden wäre, worauf ggf. Auswahlmechanismen bzw. Kausalitätsprinzipien basieren könnten, die die Entwicklungsmuster unserer einen sichtbaren Wirklichkeit befriedigend zu begründen vermögen, ohne ursachenlose Zufallsentscheidungen, überlichtschnelle Informationsflüsse, zeitlich rückwärts laufende Kausalitäten oder hypothetische Parallelwelten ins Spiel bringen zu müssen.

    Bleibt bis auf weiteres eine spannende Frage, ob es gelingt, ein solches Modell zu entwickeln, und eine harte Nuss für helle Köpfe. Und wie gesagt, würde ich mich dabei nicht an die Vorstellung einer direkten Realität der Zustandsfunktionen als konkret gegebene Gebilde in Raum & Zeit klammern, sondern die lediglich als formales Hilfsmittel zu einer einfach handhabbaren Repräsentation von Informationen über die zu erwartende Messwertsverteilung bei gegebener Systemzustandspräparation auffassen.

    Zur Frage eines Leserbriefs über die Sicht aufs Universum aus dem Bezugssystem eines Photons sei noch bemerkt, dass ein Photon in seinem eigenen Bezugssystem gar nicht existieren würde, weil´s darin keine Energie mehr hätte. Es hängt im übrigen auch nicht vom Stillstand der Eigenzeit lichtschneller Teilchen ab, dass deren Verhalten in nichtlokaler Weise korreliert sein kann, das funktioniert bei weniger schnellen ganz genauso.

    In der Hoffnung, nunmehr auch die letzten vermeintlichen Klarheiten zufriedenstellend ausgeräumt und zur Belebung der Debatte beigetragen zu haben, verbleibe ich mit philosophischen Bauchschmerzen,

    Walter Pfohl,
    technischer Übersetzer,
    München
  • Meerwasser statt Trinkwasser?

    13.11.2009, Gerhard Zetzsche
    Könnte man nicht statt des kostbaren Grundwassers Meerwasser nehmen?
    Stellungnahme der Redaktion

    Ja und nein. Wasser kommt in solarthermischen Kraftwerken an verschiedenen Stellen zum Einsatz. Zum einen im Dampfkreislauf selbst. Hier kommt Meerwasser wegen der darin gelösten Stoffe nicht in Frage, allerdings sind die benötigten Wassermengen gering. Deutlich mehr Wasser benötigen die Verfahren zur Reinigung der Spiegel (an Trockenreinigungsverfahren wird noch geforscht), auch hier lässt sich kein Meerwasser einsetzen. Und schließlich wird sehr viel Wasser für die Kühlung am Ende des Dampfkreislaufs benötigt. Hier könnte tatsächlich Meerwasser genutzt werden. Alternativ existiert die Möglichkeit der Trockenkühlung.



    Würde man nun allerdings Meerwasser per Pipeline in die Sahara transportieren? Eher nicht, auch die Desertec-Planer rechnen mit spitzem Bleistift, obwohl der Rohstoff Sonne kostenlos ist. Nahe der Küste wäre dies allerdings möglich (hier wäre dafür wieder auf Bewölkungsgrad etc. zu achten). Also bleibt in der Regel die Trockenkühlung, die mit einem Wirkungsgradverlust von bis zu zehn Prozent behaftet ist, und höhere Investitionen verursacht. Wasser braucht sie allerdings auch. In der WRI-Studie "Juice from Concentrate" heißt es zum Beispiel: "Dry cooling systems—where exhaust steam is cooled using ambient air rather than water—reduce water usage by 90 percent, but can add 2–10 percent to levelized costs and reduce the plant’s efficiency by up to 5 percent. A variety of wet/dry hybrid cooling systems offer up to an 80 percent reduction in water usage with more modest cost and efficiency penalties."

  • Wird in der Praxis bereits erfolgreich angewandt

    11.11.2009, R. Sanderson, Berlin
    Ich unterrichte an einer Sprachschule Englisch - vor allem Business Englisch - und nutze bereits seit Jahren Filme im Original mit Untertitel.

    Leider gab es bisher nicht viel geeignetes Material. Seit ein paar Monaten nutze ich nun die untertitelten Online-Videos von LinguaTV, die speziell für den Fremdsprachenunterricht produziert werden. Es handelt sich um kurze und authentische Situationen aus dem privaten und beruflichen Alltag, die von Muttersprachlern gespielt und teilweise sehr unterhaltsam sind. Meine Kursteilnehmer lernen dadurch praxisrelevantes Vokabular und natürlich die Aussprache. Im Anschluss diskutieren und vertiefen wir einzelne Themen.

    Ich kann also den Lernerfolg, der in Ihrem Artikel beschrieben wird, nur bestätigen: Bei uns funktioniert es auch in der Praxis sehr gut. Die Fähigkeit der Kursteilnehmer, sich in Gesprächssituationen zu artikulieren, hat sich erheblich gesteigert.
  • Argumente der Ewiggestrigen

    03.11.2009, Prof. Dr. Fritz-Dieter Doenitz, 92718 Schirmitz
    "Wüste Beschimpfungen" wäre wohl der angemessenere Tittel für diesen Beitrag gewesen. Da dem Autor offensichtlich die Sachkenntnis und damit die sachlichen Argumente fehlen, hat er einen Schreckenskatalog aus Fehlschlägen und gigantismen der Vergangenheit zusammengestellt, um das Desertec-Projekt und mit ihm die Solarthermische Kraftwerkstechnik (STKT) zu diskreditieren. Was hat sie mit Atomenergie, "Rohstofffluch" und dem Scheitern technischer Großprojekte im vergangenen Jahrhundert zu tun? Es sind die sattsam bekannten Argumente der Ewiggestrigen, die sie auf ihren Rückugsgefechten seit Jahren wie eine Monstranz vor sich her tragen und eines nach dem anderen beerdigen müssen. Die Zeit wird über diesen Artikel hinweggehen, doch es tut weh zu sehen, wie die Meinungsfreiheit durch eine derartige (gezielte?) Desinformation missbraucht wird.

    Weiß der Autor nicht oder will er es nicht wissen, dass die STKT seit zwanzig Jahren höchst erfolgreich in Kalifornien läuft und darüber hinaus mittlerweile 50 Kraftwerke in Spanien mit einem Investitionsvolumen von rund 15 Milliarden Euro am Netz, im Bau oder in der Planung sind? Wo bleibt da das "unkalkulierbare Novum"? Weiß er wirklich nicht, dass es in der Kraftwerkstechnik anstelle der Wasserkühlung auch eine Trockenkühlung gibt, die selbstverständlich dort eingesetzt wird, wo das verfügbare Wasser nicht ausreicht? Die Effizienz der Stromproduktion wird dadurch zwar um circa 8 Prozent vermindert, doch durch die gegenüber Spanien um 30 Prozent stärkere Einstrahlung in der Sahara überkompensiert. Glaubt der Autor ernsthaft, wir könnten mit dezentraler Stromproduktion, vornehmlich über Photovoltaik, unseren Elektrizitätsbedarf decken, der sich in den kommenden Dekaden durch das Aufkommen des Elektroautos verdoppeln wird? Eine einfache Abschätzung zeigt, dass man durch Belegen der einigermaßen geeigneten Dächer in Deutschland bestenfalls einen einstelligen prozentbeitrag zu unserer Stromversorgung leisten kann. Oder will er etwa unsere Grünflächen zupflastern? Eine Schreckensvision!

    Woher schließlich nimmt dieser technisch Uninformierte die Behauptung, die STKT könne "in 40 Jahren technisch längst marginalisiert sein"? Im Gegenteil: die STKT wird 2050 dank ihrer Zuverlässigkeit, ihrer Fähigkeit zur Stromproduktion rund um die Uhr und der ihr zur Verfügung stehenden, unerschöpflichen Ressourcen das Rückgrat einer europäischen Stromversorgung bilden, die durch Hochspannungsgleichstromleitungen sämtliche erneuerbaren Stromquellen in Europa vernetzt und die konventionellen Kraftwerkstechniken abgelöst haben wird. Das ist die Wahrheit, und es wäre einer wissenschaftlichen Zeitschrift wie der Ihren angemessen, statt einer untragbaren, "wüsten" Polemik der sachlichen Information Raum zu geben.

    Vergeblich suche ich im Spektrum der Wissenschaft einen sachlich fundierten Bericht über die STKT, von dem bemerkenswerten Interview mit Herrn Müller-Steinhagen in Heft 9/09 einmal abgesehen. Dann würde vielleicht Ihr Autor wenigstens die Grundprinzipien dieser Technik verstanden haben.
  • ... mehr als ein Jahrzehnt können wir bislang nicht ....

    03.11.2009, Edy AHNEN, Luxemburg-Bereldange
    Es wird immer abstruser: Wenn es stimmt dass wir nicht mehr als ein Jahrzehnt in die Zukunft blicken können, wieso hat man dann für die letzten zehn Jahre apokalyptische Vorhersagen gemacht? Die Klimatologen haben sich ja gegenseitig übertroffen mit Vorhersagen wie "schneller, stärker, dramatischer als erwartet".

    Dieses Zurückrudern könnte man als Anpassung an die Realität ansehen, würde Herr Latif nicht schon wieder skandieren: "Danach wird sie (die Erwärmung) dafür wohl umso schneller weitergehen."

    Bevor man solche Vorhersagen macht, sollte man sich da nicht zuerst einmal fragen, wieso die letzten Vorhersagen nicht eingetroffen sind? Es gibt ja sogar Klimatologen, die behaupten, das Klima könnte erst einmal 25 Jahre lang "Pause machen", um das Versäumte dann wieder aufzuholen.

    Man fragt sich was mit den Prognosen geschehen ist, die man vor 10 oder 20 Jahren machte beziehungsweise mit den das Netz füllenden Untergangsprophezeiungen der letzten drei Jahre. Immerhin hat Sven Titz in seinem Artikel " Kalt Erwischt" https://www.spektrum.de/artikel/979390&_z=798888 deutlich auf diesen Sachverhalt hingewiesen.

    Wenn das Klima sich auf natürliche Weise so verändern kann wie die letzten 60 Jahre, wie kann man dann in den letzten 100 Jahren mit 99,999-prozentiger Wahrscheinlichkeit den Einfluss des Menschen herauslesen? Wer bei den hin- und zurückrudernden Aussagen der Klimatologen nicht skeptisch wird, ist selbst schuld, mit Verlaub.

    Freundliche Grüsse aus Luxemburg
  • Einfluß der Erdgravitation?

    02.11.2009, Dr. med. Stephan Zschocke, 25469 Halstenbek
    In Ihrem ausgezeichneten Artikel vermisse ich eine Diskussion des möglichen Effektes der Gravitationswirkung der Erde auf den Mond. Da die gebundene Rotation des Mondes, wie in dem Aufsatz erwähnt, schon sehr früh begann und anfangs der Mond der Erde auch noch viel näher war, könnte die - bei gebundener Mondrotation - gleichförmig auf den Mond einwirkende erhebliche Gravitationskraft der Erde doch ebenfalls einen differenzierenden Einfluß auf die Magmabewegungen und die Krustenbildung von Vorder- und Rückseite des Mondes gehabt haben.
  • Warum ist Wirtschaftswissenschaft rational?

    31.10.2009, Dr. C. Monnerjahn, Magdeburg
    Es ist schon erstaunlich, wie in den klassischen Wirtschafts-Wissenschaften der "homo oeconomicus" konsequent von aller Menschlichkeit befreit wurde- er ist ohne jede Emotion und frei aller "Triebe" eines eben biologischen Wesens. Wie auf dieser Grundlage verläßliche Schlüsse über das Funktionieren von Wirtschaft gezogen werden können, bleibt ein Rätsel - und funktioniert nicht. "Blasen" und "Crashs" laufen unter rein emotionalen Kriterien, wie der Beitrag herausstellt. Sei es beim "Tulpen-Hype" oder der Finanzblase der 1920ger Jahre, die dann Ende 1929 platzt- oder in der aktuellen Finanzkrise bei der Frage, Lehman-Brothers zu retten oder nicht. Glaubt man einer Fernsehdokumentation die u.a. auf Phoenix lief, war die Entscheidung hier stark von der Antipathie zwischen dem US-Finanzminister und dem CEO von Lehman bestimmt- keine Spur des emotionsfreien "homo oeconomicus". Nicht zuletzt führten eigentlich irrsinnige Versprechungen zu der US-Immobilienkriese ("Du kannt ein Haus kaufen, auch wenn Du kein Grundkapital hast"), die rein emotionale Wünsche erfüllten (zu erfüllen schienen). Da ist es höchste Zeit, daß die Wirtschaftswissenschaft den Elfenbeinturm der "reinen Rationalität" verläßt.
  • Eine überraschende Erklärung

    29.10.2009, Wolfgang Gahr, Berlin
    Die Frage, warum die Kruste des Mondex auf der erdabgewandten Seite 100..110 km dick ist, während ihre Dicke auf der erdzugewandten Seite nur 20..30 km beträgt, läßt sich vielleicht auf eine einfache Weise erklären:
    Zum Zeitpunkt der Entstehung des Mondes vor 4527 Millionen Jahren war auch die nahegelegene Erde flüssig und strahlte Wärme ab. Ihr damaliger Abstand zum Mond soll damals lediglich 20.000 bis 30.000 km betragen haben. Vom Mond aus hatte sie demnach einen Durchmesser von 24 bis 35.4 grad. Eine glühende Scheibe am Himmel mit einer Oberflächentemperatur von auch nur 1000 grad muss die der Erde zugewandte Seite des Mondes erheblich erwärmt haben, und hat ganz sicher die Abkühlung auf dieser Seite verlangsamt. So ist es ganz natürlich, dass sich zuerst auf der erdabgewandten Seite des Mondes feste Kruste gebildet hat. Da von diesem Material nicht beliebig viel zur Verfügung stand, blieb für die spätere Krustenbildung auf der erdzugewandten Seite weniger Material übrig, so dass die Kruste hier dünner gebildet wurde.
    Stellungnahme der Redaktion

    Wir haben Ihren Vorschlag an den Autor weitergeleitet. P. Surdas Mohit antwortete:



    "That's a good question. It's certainly possible that energy from the Earth may have warmed the nearside of the Moon early on, and that this may have had an effect. However, the problem is that this would have produced a relatively small temperature difference between the two sides, so it's not clear whether that would be enough to produce the asymmetry that is observed.



    The model of Loper and Werner that I mention in the article is an attempt to use this small temperature difference to produce a large-scale effect."

  • Ziemlich gefährlich

    28.10.2009, Lukas John, Nürnberg
    Ich glaube durchaus, dass es vorkommen kann, dass sich verschiedene Gene von Population zu Population unterscheiden, allerdings sollte man meiner Meinung nach trotzdem auf die Wertung solcher Ergebnisse achten. Der Unterschied zwischen "ängstlicheren, leichter negativ beeinflussbaren" Asiaten und "psychisch belastbareren" Europäern hat einen stark anrüchigen Anklang an die nationalsozialistische Rassenlehre.

    Wenn dieser Zusammenhang stimmen sollte, wäre es vielleicht eher ratsam darüber nachzudenken ob es einen Grund im Sinne eines bisher unbekannten evolutiven Vorteils für einen derartigen Unterschied geben könnte.
    Stellungnahme der Redaktion

    Sehr geehrter Herr John,



    Vielen Dank für Ihre Zuschrift. Die Studie der beiden Forscherinnen kommt ja genau zu einem anderen Schluss. Zwar haben verschiedene Untersuchungen einen Zusammenhang zwischen dem Vorhandensein des S-Allels und erhöhtem Risiko für Depressionen oder Angstzustände hergestellt. Dennoch scheinen sie Völker kaum zu treffen, in denen die S-Variante häufiger vorkommt.



    Im Laufe ihrer Entwicklung haben sie offensichtlich Mechanismen entwickelt, die so vor der Ausbildung solcher Krankheitsbilder schützen (so wie diese laut Aussage der beiden Wissenschaftlerinnen sie bereits früher bis zu einem gewissen Grad vor Seuchen bewahrt haben könnten). So gesehen, wären diese asiatischen Völker uns Europäern oder Amerikanern "überlegen", weil unser Gesellschaftsmodell eben nicht über diese Schutz"strategie" verfügt.



    Noch direkt zum Thema "nationalsozialistische Rassenlehre": Auch wenn die Nazis dies damals pervertiert haben, dürfen wissenschaftliche Untersuchungen zu genetischen Unterschieden heute nicht verboten sein. Problematisch ist ein politischer Missbrauch solcher Ergebnisse.



    Mit freundlichen Grüßen


    Daniel Lingenhöhl


    Redaktion spektrumdirekt

  • Die Ressource der "Großelternschaft"

    28.10.2009, Christian Krippenstapel, Hildesheim
    Interessante Hypothese, daß wir die Neandertaler auskonkurriert haben, weil uns plötzlich die Ressource der „Großelternschaft“ zuwuchs, was im Artikel fast nur beiläufig erwähnt wird. Natürlich! Dadurch konnten plötzlich beide Geschlechter aktiv zum Nahrungserwerb des Stammes beitragen, nicht nur die Männer durch die Jagd, sondern in viel größerem Umfange als vordem auch die Frauen durch Sammeln, während die Großeltern den Nachwuchs betreuten und wichtiges Wissen tradierten. Die durchschnittliche Neandertalerin dagegen dürfte durch die Brutpflege ungleich stärker gehandicapt gewesen sein. Darüberhinaus starb sie sehr bald nach dem Ende ihrer fertilen Lebensphase und nahm wertvolle Kenntnisse und Fähigkeiten mit ins Grab, während Homo sapiens eine dritte Lebensphase hinzugewann, die im Tierreich einzigartig ist und über deren Bedeutung wir bislang gerätselt haben.

    Damit bekommt die Hypothese beinahe tagespolitische Aktualität. Oftmals wird ja die Frage, ob Kinder nun eher zur Mutter oder eher zum Vater gehören, recht lautstark diskutiert. Vielleicht können die Anthropologen diesen Streit entschärfen, indem sie anmerken: „Möglicherweise weder - noch! Sie gehören eher zu den Großeltern.“
  • Von "Rassen" und "Geschlechtern"

    27.10.2009, U. Elsaesser
    Seit "Lewontin, R The Apportionment of Human Diversity, Evolutionary Biology, vol. 6 (1972) pp. 391-398" wissen wir als statistisches Dogma, dass es Rassen nicht gibt: Die größte Variation (80 - 85%) innerhalb der Menschheit liegt innerhalb von geschlossenen lokalen geographischen Gruppen, und Unterschiede, die man "Rassen" zuschreiben kann, haben nur eine Variabiltät von 1 - 15%.

    Außerdem vermutete man lange, dass es zwei Arten von Menschen (so genannte Geschlechter) gibt, die sich jedoch nur durch ein sogenanntes Y-Chromosom unterscheiden. Dieses Y-Chromosom (mit seinen 58 Millionen Basenpaaren) trägt aber nur zu 0,38% der gesamten DNA einer menschlichen Zelle bei (siehe wikipedia). Offensichtlich macht es keinen Sinn, von zwei verschiedenen Geschlechtern innerhalb der Menschheit zu reden, wenn es nur um ein drittel Promille und nicht wie bei den (nicht existenten) Rassen um 15 Prozent geht.

    Mir ist klar, dass der kleine Unterschied zwischen den Beinen wesentlich länger zurückliegt als der in der Hautfarbe oder den Augenlidern, aber ich glaube dennoch, die biologischen Dogmatiker müssen nochmals in sich gehen.
    Stellungnahme der Redaktion

    Sehr geehrter Herr Elsaesser,

    das Merkwürdige ist doch, dass die beiden Geschlechter zusammenwirken müssen, damit Fortpflanzung erfolgt – ein grundlegendes Faktum für die Evolution.

    Viele Grüße
    Dr. Adelheid Stahnke

  • Weiteres Vorkommen der größten Radnetzspinne

    26.10.2009, Suzanne van de Graaff
    Ich denke, dass ich Ihnen einen weiteren Ort nennen kann, an dem die Spinne vorkommt: die Insel Rodrigues im Indopazifik. Ich bekam dort persönlich einige Exemplare zu sehen. Die Netze hängen so zum Wind, dass sich alles unweigerlich darin verfängt. Äußerst geschickt!
  • Marokko stabil?

    25.10.2009, Paul R. Woods, Neumagen-Dhron
    Abgesehen davon, dass Marokko so seine Probleme mit Demokratie und Menschenrechten einerseits und mit Gruppen, die einer extremen Auslegung des Islam anhängen, anderseits hat, ist auch sein Anspruch auf die Phosphatvorkommen illegal. Die Lagerstätten liegen in der West-Sahara, einem Gebiet, das Marokko nach Ansicht der UN widerrechtlich besetzt hält und in dem es eine Mischung aus ethnischer Säuberung und militärischer Unterdrückung unterhält.
    Eine solche Nation als stabil zu bezeichnen halte ich für übertrieben. Wir sollten uns eine Menge Gedanken zur Minderung des Phosphateinsatzes machen, damit wir nicht auf Länder wie Marokko angewiesen sind.
  • Vermenschlichung der Wissenschaft

    24.10.2009, Rolf Schauder, Frankfurt
    Die Menschen scheinen immer noch zu glauben, sie seien der Mittelpunkt der Welt.

    "Schlüsselmikrobe beherrscht marine Todeszone" - so der Titel. Beschrieben wird ein Forschungsergebnis, demzufolge ein offenbar sulfidoxidierendes, nitratreduzierendes autotrophes Bakterium der vorherrschende Mikroorganismus in einem sauerstofffreien marinen Lebensraum sei. Schön, das finde ich ja interessant - wenn es denn auch so beschrieben wäre. Nein: Der Fokus liegt in dem Bericht auf den "Todeszonen". Bereiche, die offenbar kein Leben enthalten, da dort der Sauerstoff fehlt. Richtig ist, dass ich als Mensch dort nicht überleben könnte. Was aber ist das Besondere für die vielen Bakterien, die gerade dort ihr Auskommen finden? So wie bei der Herstellung von Joghurt, Käse, Wein? Oder bei Biogas? Ist die Abwesenheit von Sauerstoff grundsätzlich tödlich? Nein. Es schwimmen in solchen Bereichen nur keine Fische rum, oder andere so genannte "höhere" Lebewesen. Aber das bedeutet nicht, dass diese Biotope tot seien. Ganz im Gegenteil.

    In die gleiche Richtung zielt die Bemerkung, die Bakterien würden "schädliches Sulfid" entfernen, aber im Gegenzug "schädliches Lachgas" bilden - nun: für den Menschen schädlich. Viele Bakterien freuen sich über diese Substanzen.

    Bakterien sind faszinierende Organismen. Sie können in ihrer Gesamtheit so viel mehr als die "höheren" Lebewesen. Sie würden es wahrscheinlich (wiederum als Gesamtheit) nicht merken, wenn alle Eukaryonten von der Erde verschwänden. Wir aber (ebenfalls Eukaryonten) können ohne Bakterien nicht überleben.

    Ich würde mich freuen, weitere Bakterien mit spannenden Stoffwechseleigenschaften kennenzulernen, als neue Facetten in der immensen Vielfalt der biologischen und chemischen Umwelt.
Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.