Direkt zum Inhalt

Kommentare - - Seite 1030

Ihre Beiträge sind uns willkommen! Schreiben Sie uns Ihre Fragen und Anregungen, Ihre Kritik oder Zustimmung. Wir veröffentlichen hier laufend Ihre aktuellen Zuschriften.
  • Hirnaktivität auslesen und beeinflussen

    09.04.2009, Stefan Pschera
    In Ihrem Leitartikel beschreiben Sie die Forschung, Hirnaktivität mittels technischer Hilfsmittel auszulesen bzw. zu beeinflussen. Es wäre ein Horror, wenn dies bald möglich wäre. Dazu möchte ich auf die Bemühungen der DARPA (http://de.wikipedia.org/wiki/Defense_Advanced_Research_Projects_Agency) und das geförderten Projekt der "Brain Machine Interfaces" verweisen. Alles wäre manipulier- und selektierbar. Es wäre naiv zu glauben, dies würde nicht von Firmen, der Politik und der Pharma ausgenutzt. Die Menschheit ist nicht reif für diese Technologie. Also ist es gut, das sich das Gehirn gegen diese Forschung sperrt. Was sind die Probleme?


    Gedanken sind aus Aktivitätsmustern erkennbar. Engramme sind in Erregungsleitungen abgelegt. Jedes Gehirn ist unterschiedlich und verändert sich ständig. Heute benutzt das Engramm jene Synapsen und Neuronen, morgen tun dies benachbarte Neuronen. Ein Engramm ist nicht lokal zu finden (Stichwort: Großmutterneuron). Um also ein Engramm auszulesen, müssen alle Synapsen entlang der Erregungsleitung angezapft werden. Aber dies reicht nicht. Am Neuron docken bis 20 000 Synapsen an und werden ganz spezifisch zum Axon geleitet. Also bedarf es 20 000 Kontakte am einzelnen Neuron. Ansonsten sind Gedanken nur grob und nach zeitlich kurzer Wiederholung zu erkennen.


    Genauso der Input. Um ein Engramm korrekt zu platzieren, bedarf es Wissen um den Istzustand. Und dann müssen viele Synapsen verändert werden. Diese sind keine Flipflops (http://de.wikipedia.org/wiki/Flipflop), sondern Materie. Es bedarf der Mithilfe des Stoffwechsels und der ist träge.


    Also, mit dem Technikansatz wird dies nichts. Wenn ein Zug in Rostock auf Gleis 4 steht, so fragen wir die Auskunft nach dem Ziel. Oder wir erkunden alle Weichen auf der Strecke. Es reicht nicht die Weichen eines Zentrums, z.B. des Bahnhofs Leipzig, zu kennen. Eine Auskunft hat das Gehirn nicht. Also sind alle Weichen zu erkunden. Oder: Das Gehirn hilft selbst, eine Auskunft zu generieren. Bekannt ist, Astrozyten geben die Befehle zum Verändern. Also bedarf es des Wissens, wie die Astrozyten funktionell wirken. Dann aber braucht die Medizin die technische Schnittstelle nicht mehr. Gut, wenn die DARPA erfolglos bleibt.



  • Hammerzehe bei Homo erectus?

    08.04.2009, Medizinalrat Dr. Gerhard Struhal, Wien
    Das Bild zeigt den Abdruck eines linken Vorfußes mit typischer Hammerzehe (digitus malleus) der zweiten Zehe: fixierte krallenartige Beugung der Zehe, beim modernen Menschen meist durch insuffizientes Schuhwerk ausgelöst.
    Aprilscherz? Oder hat es vor 1,5 Mio Jahren bereits zu enge Schuhe gegeben?
    Stellungnahme der Redaktion

    Antwort von Prof. Dr. Winfried Henke, Anthropologisches Institut der Universität Mainz:



    Untersuchungen der Fuß- und Zehenform haben in der Paläoanthropologie eine lange Tradition. Nicht nur die Laetoli-Fußspuren (A. afarensis) sind in diesem Kontext (Arbeiten von Tim White, C. Berghe u.a.) zu nennen, sondern auch solche zum Neandertaler-Fuß und dem anderer Homininen. Der enge Zusammenhang von Aufrichtung und Bipedie und die spezifische Fortbewegung der Homininen haben immer wieder Interesse am Fußgewölbe, den Ballen (Großzehenballen und Kleinzehenballen) sowie der Ferse geweckt - und vornehmlich der Ausrichtung der Zehen. Das gilt für den von Ron Clarke beschriebenen Little Foot, einen Australopithecus (http://www.talkorigins.org/faqs/homs/littlefoot.html,http://en.wikipedia.org/wiki/Ronald_J._Clarke) sowie auch für die Neandertaler.



    Der in diesem Kontext von Matthew Bennett beschriebene Fußabdruck eines Homo erectus ist sicherlich keine Fälschung. Die geraden, nach vorne ausgerichteten Großzehen liefern ein deutliches Indiz für ein unserem Gang entsprechendes Schreiten und Laufen. Was die Länge und Krümmung der Zehen betrifft, so stellt sich die Frage, ob diese unserer Anatomie schon völlig entsprechen, aber die Diagnose von Herrn Struhal, wonach es sich um eine pathologische Form handeln soll, halte ich für falsch. Dass die Abdrücke nicht optimal und interpretationsbedürftig sind, ist klar. Das aber trifft für alle "Verhaltensfossilien" zu.

  • Frieren in Elektroautos?

    08.04.2009, Dr. Hans-Malte Rombrecht, 49448 Quernheim
    Mit Interesse habe ich Ihren Artikel über Elektroautos gelesen und dabei eine Kleinigkeit vermisst: Nirgendwo - weder in Ihrem Artikel noch in anderen Publikationen zu diesem Thema - findet sich ein Hinweis, wie die Beheizung des Fahrgastraums erfolgen soll. Die reichliche Abwärme des Verbrennungsmotors steht ja hier nicht zur Verfügung. Ausreichend Verlustwärme aus dem Elektroantrieb würde ich bei dem immer wieder hervorgehobenen guten Wirkungsgrad vom Akkumulatoren kaum erwarten.

    Autos vom Typ des "Opel Ampera", bei Ihnen als "Range Extender" bezeichnet, würden sich wegen des ständig und gleichmäßig arbeitenden Nachlademotors gut zur Abwärmenutzung für die Fahrgastzelle eignen, aber seltsamerweise fehlt immer ein Hinweis auf diese Möglichkeit. Und die Heizenergie zusätzlich aus der Batterie zu ziehen und dadurch die ohnehin begrenzte Reichweite der Elektroautos noch weiter zu vermindern, das dürfte wohl auch nicht erstrebenswert sein. Was also soll geschehen, damit wir im Elektroauto zur Winterszeit nicht frieren müssen?
  • Kein Wald - kein Regen

    06.04.2009, Paul R. Woods, Neumagen-Dhron
    "Tidak ada hutan - tidak ada hujan" sagten mir in den 1980er Jahren Bauern in Westsumatra (auf Deutsch: Wenn der Wald nicht da ist, dann gibt es auch keinen Regen).

    Sie stützten ihre Beobachtung auf das Klimaxstadium der Vegetation, das nach zu häufiger Brandrodung eintritt - der Grassteppe mit Alang-Alang (Imperata cylindrica), deren Fläche auf Sumatra bereits 1984 auf mehr als 20 Millionen Hektar geschätzt wurde. Über diesen Grasflächen regne es deutlich weniger, wurde uns gesagt, als wir Sekundarwälder rodeten, um Flächen für Kautschukanpflanzungen freizumachen.
  • Wissenschaftliche Theorien trennen in falsifizierbare und nicht falsifizierbare

    06.04.2009, Prof. Dr. Klaus von der Heide, Güster
    So wie Informatiker den Berechnungsaufwand von Algorithmen in polynomial und nichtpolynomial einteilen oder Probleme in entscheidbar und nichtentscheidbar klassifizieren, so gibt es bei wissenschaftlichen Theorien die Trennung in falsifizierbare und nichtfalsifizierbare. Dabei mag es auch Fälle geben, die man noch nicht zuordnen kann. Die Einteilung an sich klassifiziert die Theorien. Sie steht nicht zur Disposition. Dies ist eben nicht "Poppers vermeintlich unumstößliches Kriterium" sondern die Grundlage der empirischen Wissenschaften überhaupt und damit der gesamten Technik. Möchte sich Robert Matthews wirklich Brücken, Flugzeugen und Kraftwerken anvertrauen, die nach Theorien entworfen wurden, die sich nicht im Prozess der Auslese durch Falsifikation bewähren mussten? Es steht jedem Wissenschaftler frei, seine Theorien falsifizierbar zu formulieren.


    Alle vorgebrachten Einwände gegen die Forderung nach Falsifizierbarkeit erweisen sich als Scheineinwände, die auf sehr leichtfertiger Interpretation von Poppers überaus klar formulierten Schriften beruhen. Das Beispiel der newtonschen Gravitationstheorie fußt auf einer bedauerlichen Vermengung von Begriffen. Diese Theorie ist falsifiziert und gehört damit nicht mehr zum Grundgerüst der Physik. Sie ist von einer Basistheorie degradiert zu einer mathematischen Approximation. Auch wird die Wissenschaft mehrfach mit dem Individuum verwechselt, das zum Fortschritt dieser Wissenschaft beiträgt, oder an anderer Stelle mit dessen persönlichem Vorgehen zum Auffinden möglicher Zusammenhänge. Gleich doppelt bösartig ist dabei die Unterstellung "Er (Einstein) war sicherlich nicht der letzte Wissenschaftler, der unpassende Resultate einfach verwarf - wie Popper zugeben musste". Einstein hatte schwerwiegende Gründe, weshalb er einigen Messungen nicht traute. Die Formulierung "unpassende Resultate verwerfen" wird sonst nur im Zusammenhang mit geschönten Statistiken eigener Messungen verwendet (eine wissenschaftliche Straftat). Und Popper wurde nicht zu einem "Zugeben" gezwungen. Vielmehr hat er den Fortschritt der Wissenschaft als Prozess innerhalb einer Gemeinschaft beschrieben, deren Individuen durchaus fehlbar sind.


    "Wenn die trügerisch einfache Falsifikation in die Irre führt, was dann?" fragt Matthews. Was ist an einer Definition trügerisch, was meint er mit Irre, wie sollte die abstrakte Einteilung wissenschaftlicher Theorien überhaupt Wirkung in der realen Welt zeigen? Doch allenfalls über menschliche Entscheidungen. Die Freiheit des Wissenschaftlers wird durch die Klassifikation gar nicht angetastet. Wissenschaftlich fragwürdig ist auch das Vorgehen dieser Arbeit, die bayessche Methode so ausführlich darzustellen ohne Poppers Beweise, dass es eine probabilistische Induktion gar nicht geben kann, überhaupt zu erwähnen - geschweige denn Fehler in ihnen aufzuzeigen. Beweise ignorieren und Nichtfalsifizierbares für empirische Wissenschaft halten, das passt zusammen. Doch Nichtfalsifizierbares gehört wie Ethik, Kunst und Religion in eine andere Kategorie. Es hat Zeiten gegeben, in denen diese Trennung nicht klar war. Danach sollten wir uns nicht zurücksehnen.

  • Poppers Beispiel zu ungenau

    06.04.2009, Dr. Robert Riedl, Wien
    Auch wenn es am Kern der Aussage dieses Artikels nichts ändert, möchte ich darauf hinweisen, dass das von Popper selbst stammende Theorie-Beispiel "Alle Schwäne sind weiß" ein schlechtes ist. Es beinhaltet nämlich mehrfache Ungenauigkeiten und suggeriert eine allgemeine Aussage, die leider auch einigen ernst gemeinten Theorien immanent ist (gemeint sind sie oft anders als sie formuliert sind):

    1. Da es auch Schwanarten gibt, die schwarz sind, wie zum Beispiel der Schwarzschwan/Trauerschwan (Cygnus atratus), ist - obwohl nicht gesagt - augenscheinlich nur der Höckerschwan (Cygnus olor) gemeint.

    2. Da Jungvögel des Höckerschwans generell grau sind, sind - obwohl nicht gesagt - offensichtlich nur erwachsene Individuen gemeint.

    3. Da die Aussage "der Schwan ist weiß" nur für das Federkleid zutrifft (der Schnabel ist zum Beispiel leuchtend orange/schwarz, Schnabelhöcker und Füße/Beine sind schwarz), dürfte - obwohl nicht zum Ausdruck gebracht - nicht der ganze Vogel gemeint sein, sondern nur das Federkleid.

    Die Theorie müsste daher "Das Federkleid aller erwachsenen Höckerschwäne ist weiß" lauten. Sonst stimmt die Theorie, streng genommen, nicht einmal für einen einzigen Schwan. So betrachtet, könnte durchaus über die Brauchbarkeit dieses Beispiels für den Artikel, diskutiert werden.
  • Verleumdungen und Verdrehungen

    03.04.2009, Dr. Alfons Hack, 85567 Grafing
    Erstaunlich, wie Theologen immer wieder irgendjemanden, irgendetwas aus dem Hut zaubern, das den verblüfften Zuschauer die fatale Rolle vergessen lassen soll, die die christlichen Kirchen in der Geschichte, auch in der Geschichte der Naturwissenschaften gespielt haben. Was ist mit all den Verleumdungen und Verdrehungen der Darwin'schen Evolutionstheorie, die Theologen in den letzten 150 Jahren von sich gaben und immer noch von sich geben?

    Da glaubte ein längst in Vergessenheit geratener Zoologe und Kleiderfabrikant des 19. Jahrhunderts in angeblicher Anlehnung an Darwin, in der Geschichte der Weltreligionen eine Entwicklung zu erkennen, an deren Gipfel – wen wundert’s - das Christentum stehen soll. Und schon sollen christlicher Glaube und Evolutionslehre miteinander im Einklang sein? Geht´s noch simpler?

    Anscheinend ja, wenn man uns nämlich William Paley, der mit seinem Gottesbeweis vom Uhrmachergott zum geistigen Stammvater aller "Intelligent Design"-Anhänger wurde, als Konzeptgeber für die Evolutionslehre verkaufen will. Eine der großen intellektuellen Leistungen Darwins bestand sicher darin, sich von der statischen Natursicht Paleys los zu lösen. Erst dadurch wurde sein Blick frei, um das Evolutionsgeschehen wahrzunehmen.


  • CO2

    02.04.2009, O. Meckes, Reutlingen
    Wollen wir wirklich- wie schon mit den Atommüll - nun auch das CO2 als Abfall unserer Energieverschwendung irgendwo vergraben?
    Dies wäre obendrein mit noch mehr CO2-Ausstoß verbunden, denn das Gas muss abgeschieden, komprimiert (worin?) und transportiert werden, bis es schließlich unter die Erde gepumpt wird.
    Wäre es nicht einfacher, konsequent zu sparen und an neuen Energiequellen zu forschen, anstatt derart mit unseren Ressourcen umzugehen?
    Auf jeden Fall wäre es nachhaltiger und nicht zu Lasten unserer Kinder und Enkel!
  • Ungeeignete Methode

    01.04.2009, Marcel Hänggi, Wissenschaftsjournalist und Buchautor (»Wir S
    Der Beitrag von John Broome enthält interessante Überlegungen. Anders als der Titel behauptet, geht es darin allerdings nicht um die »Ethik des Klimawandels«, sondern lediglich um die Ethik der Kosten-Nutzen-Analysen. Diese sind eine etablierte Methode, die indes auf globale ökologische Probleme wie den Klimawandel oder den Biodiversitätsverlust kaum sinnvoll anwendbar ist:
    - Kosten-Nutzen-Analysen rechnen einen Verlust hier durch einen Gewinn da auf. Die Natur funktioniert aber nicht nach dieser Logik der Substituierbarkeit – ein an Phosphor verarmter Boden wird nicht wieder fruchtbar, wenn er im Übermaß mit Stickstoff gedüngt wird.
    - Kosten-Nutzen-Analysen nehmen an, dass mehr materieller Wohlstand zu mehr Wohlergehen der Menschen führt. Bis zu einem gewissen Wohlstandsniveau ist das zweifellos richtig; darüber hinaus aber geht es den Menschen nicht mehr besser, wenn sie mehr besitzen. Der Ökonom William Easterlin hat das in den siebziger Jahren erstmals nachgewiesen (Easterlin-Paradox).
    - Kosten-Nutzen-Analytiker gehen davon aus, dass die Weltwirtschaft wächst, weshalb sie die Zukunft diskontieren. William Nordhaus etwa rechnet in seinen Szenarien bis ins Jahr 2200 (!) mit einem durchschnittlichen Wachstum von 4 Prozent. Das ist eine abenteuerliche, spekulative Annahme, gibt es doch überhaupt erst seit etwas mehr als hundert Jahren ein globales Wirtschaftswachstum von mehr als 1 Prozent.
    - Die Notwendigkeit, den Wert eines Menschenlebens zu schätzen, führt zu ethisch nicht haltbaren Resultaten: Man misst diesen Wert beispielsweise, indem man betrachtet, für wie viel mehr Lohn jemand bereit ist, eine Arbeit anzunehmen, die seine statistische Lebenserwartung um ein Jahr senkt. Arme Menschen, die noch dazu eine Familie ernähren müssen, sind leicht bereit (resp. gezwungen), ein Jahr ihres Lebens zu «verkaufen». Das hat 1995 zum bisher heftigsten Streit im Intergovernmental Panel for Climate Change (IPCC) geführt, weil die Autoren im Entwurf zum IPCC-Bericht vorgeschlagen hatten, ein Menschenleben in einem Industrieland mit 1,5 Millionen Dollar, eines in einem Entwicklungsland mit 150000 Dollar zu bewerten.
    Als Alternative zu den Kosten-Nutzen-Analysen geht das Vorsorgeprinzip davon aus, dass gewisse Risiken unbedingt zu vermeiden sind. Das Vorsorgeprinzip ist im Zusammenhang mit dem Klimawandel umso mehr angebracht, als viele Risiken gar nicht abschätzbar und die Prozesse des Klimasystems irreversibel sind.
  • Vokaltrakt bringt nicht jeden Oberton hervor

    01.04.2009, Helmut Vetter, Schorndorf
    Vielen Dank für den interessanten Artikel.

    Auf S. 59, Spalte 2, steht:

    "Weil unser Vokaltrakt einer am unteren Ende verschlossenen Röhre entspricht, bringt sie überdies nicht jeden Oberton hervor, sondern den Gesetzen der Physik folgend nur die geraden Vielfachen der jeweiligen Grundfrequenz."

    Liegt hier ein Druckfehler vor? Geht man nämlich von einem Wellenträger mit festem und losem Ende aus, so erhält man die ungeraden Vielfachen der Grundfrequenz.

    Stimmt meine Vermutung oder habe ich einen entscheidenden Sachverhalt übersehen?

    Stellungnahme der Redaktion

    Der Vokaltrakt bringt nicht jeden Oberton hervor, sondern nur die ganzzahligen Vielfachen der jeweiligen Grundfrequenz, nicht, wie im Artikel auf S. 59 angegeben, die geraden Vielfachen.

  • Unglaubwürdige Riesenschlangen

    31.03.2009, Philipp Wabnitz, Lieskau
    Trotz der sicherlich immer sehr guten Recherche ist selbst ein Redakteur von "Spektrum" nicht davor gefeit, mal eine Fehlannahme zu machen.
    Luis Llosa brachte im Jahre 1997 mit "Anaconda" einen Film auf die Leinwand, der eine Schlange mit solchen Ausmaßen in Aktion zeigte.
    Wie glaubwürdig dies nun ist, sei einmal dahingestellt. Mehr Informationen zu Schlangen in Filmen findet man auf dieser Internetseite:

    http://www.tierhorror.de/tierhorror/modules/tierhorror/kunde/subgenrefilmliste.csp?id=11&name=Schlangen%20&%20Echsen
  • Flussbautechnisches

    31.03.2009, Dipl-Ing. Michael Schindler
    Ich habe den Artikel mit Interesse gelesen. Einige Dinge sind mir aber aufgefallen.

    Bei der Blockade des Rheintals dürfte es sich als Ablagerung eines pyroklastischen Stromes eher um einen Hügel als um einen steilen Damm (wie er etwa in der Hochwasserverbauung oder bei ehemaligen Endmorenen von Gletschern auftritt) gehandelt haben.

    Deshalb ist völlig klar, dass der See noch lange bestehen bleibt, denn das beim Dammbruch (verursacht vermutlich durch Überlauf an der unbefestigten Dammkrone) bewegte Dammmaterial kann aufgrund des geringen Gefälles nicht sofort abtransportiert werden. Es ist daher zu erwarten, dass der Ablaufkanal durch Ansammlung abgetragenen Materials unterhalb des Dammes schnell so flach wird, dass ein weiterer Materialabtrag nicht möglich ist.

    Bei Bims wird aufgrund des geringeren spezifischen Gewichtes der Schuttkegel etwas flacher sein als die alpinen Bachschuttkegel (z.b. die beiden Halbinseln des Wolfgangsees in Österreich). Bis zu dieser Neigung wird ein Damm schnell abgetragen, danach langsam.

    Selbst ein Dammbruch bei einem Gletschersee, bei dem oft ein sehr steiler Abfluss hinter dem Damm liegt, so dass das Dammmaterial weit verfrachtet wird, verläuft flussab nicht plötzlich wie ein Tsunami sondern eher wie ein schnell steigendes Hochwasser.

    Die Autoren erwähnen auch hohe Fließgeschwindigkeiten. Bei flachen Gewässern findet – speziell in Schuttablagerungen - oft eine Verlagerung des Flussbettes statt. Dadurch ist die Fließgeschwindigkeit im gerade nassen Teil des Tales hoch, ohne dass riesige Wasservolumen nötig sind. Siehe z.B. die norditalienischen Flüsse aus den Alpentälern wie dem Tagliamento oder Livenza.

    Weil ich gerade das Wasservolumen erwähne: Auf S. 85 am Anfang steht: “Aber während der Laacher-See-Eruption wurde ja nicht mehr Wasser aus dem Oberlauf angeliefert”. Die Eruption war im Frühjahr und die Ascheablagerungen gingen Richtung Turin (Grafik Seite 82). Wenn man einige Millimeter Asche auf die im Frühjahr um diese Zeit noch großen schneebedeckten Gebiete der Alpen im Oberlauf streut, hat das sicher Auswirkungen auf die Abschmelzrate.

    Zur Schichtenfolge auf S. 83 ist mir eingefallen, dass die mit ULST-A bezeichnete Schicht unterhalb des Bimsfloßes wahrscheinlich beim gleichen Auswurf entstanden ist wie das Bimsfloß. Der See hat nur einfach den schwimmfähigen Bims von den nicht schwimmfähigen Anteilen getrennt.

    Einzelne Flutwellen könnten aufgrund des Bimsfloßes entstanden sein. Ich möchte nur den Begriff “Eisstoß” (http://de.wikipedia.org/wiki/Eissto%C3%9F) erwähnen; andere schwimmende Festkörper können das sicher auch.
    Stellungnahme der Redaktion

    Antwort der Autoren


    Zur Dammform:

    Es stimmt, dass die durch die pyroklastischen Ströme hervorgerufene Blockade des Rheins eher einem Hügel ähnelte. In den abstrahierenden Abbildungen haben wir der leichteren Erkennbarkeit wegen das Symbol eines technischen Dammes gewählt.



    Zum Ablauf des Dammbruchs:

    Wir können nachweisen, dass der Damm plötzlich gebrochen ist, vermutlich ausgelöst durch ein Erdbeben und dadurch getriggerte massive Wellenbewegung auf dem See. Sowohl anbrandende Wellen als auch das massive Rütteln könnten zu einer schnellen Korrosion des oberen Dammabschnitts beigetragen haben – also vermutlich wesentlich schneller, als man das von aufgestauten Gletscherseen kennt. Das Material ist ja auch viel leichter transportierbar. Der Damm wurde von den pyroklastischen Strömen so schnell aufgeschüttet, dass er sicher schlecht konsolidiert war. Der Einwand, dass die Flutwelle rheinabwärts wohl eher einem schnell steigenden Hochwasser geähnelt habe als einem Tsunami ist interessant. Wir werden diese Idee nochmals anhand des Sedimentberichts prüfen.



    Zu Wasservolumen und Fließgeschwindigkeiten bzw. Steigerung des Rheinabflusses durch verstärkte Schneeschmelze in den Alpen:

    Selbst ein sehr starkes natürliches Hochwasser hätte niemals diese weitflächige Überflutung hervorrufen können. Praktisch alle Fließrinnen auf der Aue des tieferen Neuwieder Beckens wurden von sehr schnell fließendem Wasser überflutet - nicht nur der aktive Hauptarm, sondern auch schon lange zuvor trocken gefallene (Vegetation!) Alt- und untergeordnete Seitenarme. Die Sedimentstrukturen der Flutablagerungen zeigen selbst in den zuvor trocknen Altarmen Überflutungshöhen von 2 Meter an. Das erfordert enorme Wassermengen.

    Wir benutzen das kontinuierliche Vollaufen des Stausees als „Wasseruhr“, um damit die Dauer einzelner Eruptionsereignisse, deren Ablagerungen mit den Überflutungssedimenten verzahnt sind, zu berechnen. Bisher gingen wir von einem konstanten Wasserinput durch den Rhein aus. Vermutlich erfuhr der Rheinzufluss in den See aufgrund des vom Leser genannten Effekts eine Steigerung, die wir berücksichtigen könnten. Anhand gewässerkundlicher Jahrbücher lässt sich sicher nachvollziehen, in welchem Umfang eine in neuerer Zeit plötzlich eingetretene Schneeschmelze in den Alpen den Abfluss des Rheins erhöht hat. Man müsste außerdem prüfen, mit welcher Zeitverzögerung dieser erhöhte Abfluss dann im Bereich des Neuwieder Beckens ankam. Außerdem gibt es sicher Studien darüber, im welchem Umfang eine Aschenlage die Schneeschmelze beschleunigen kann.



    Zur Entstehungsschichte der Bimsflöße:

    Das Magma hatte sich in der Magmakammer vor der Eruption chemisch differenziert. Das heißt, dass bereits in der Schmelze schwebende Kristalle zum Boden des Magmareservoirs abgesunken sind, während sich Gase und leichte Elemente oben anreicherten. Bei der Eruption wurde das Reservoir sukzessive von oben nach unten entleert. Das hatte zur Folge, dass die zuerst eruptierten Bimspartikel fast kristallfrei und wegen des hohen Gasgehalts des Magmas hochporös sind. Die Bimspartikel nachfolgender Eruptionsintervalle werden zunehmend dunkler (aufgrund des zunehmenden Gehalts schwerer Elemente wie z. B. Eisen) und kristallreicher und ihre Porosität nimmt aufgrund der abnehmenden Gasmenge im Magma ab. Das heißt, die Schwimmfähigkeit der Bimspartikel nimmt innerhalb der Bimslagerungen von unten nach oben ab. Die Bimse in ULST-A sind überwiegend so kristallreich und dicht, dass sie nicht mehr schwimmen können. (Die chemisch bedingte Erhöhung der Partikeldichte wurde noch verstärkt, indem es zum Schluss der Eruption zunehmend zu einem Kontakt des Magmas mit Wasser kam. Die extrem schnelle Abkühlung verhinderte das Entweichen der Gase.) Die Bimsflöße setzen sich daher ausschließlich aus Bimspartikeln der Eruptionsphasen LLST und MLST zusammen. Die Bimse wurden bei den stürmischen Überflutungswellen, die durch den mehrfachen Bruch der Dämme bei Koblenz hervorgerufen wurden, aus den Falloutablagerungen in den Rinnen und vom Rand der Rinnen mobilisiert. Nach dem Fall von ULST-A konnte kaum mehr Material für die Bimsflöße erodiert werden, da die sehr schweren ULST-A Sedimente als schützende Decke über allem lagen.

  • Typische und völlig falsche Analogie

    30.03.2009, Andreas Debus, Berlin
    Lieber Heinrich Nickel, leider hinkt dieses Gleichnis nicht nur, sondern ist eine Totgeburt. Es zeigt aber, dass Sie versuchen, Glaube und Wissenschaft in eins zusammenzufassen.

    Das Netz des Ichtyologen ist eine Messapparatur. Die Einschränkungen jeglicher Messgeräte sind Wissenschftlern schmerzhaft bewußt. Sie sind auch bei jeder experimentellen Arbeit Teil deren Beschreibung, um die Grenzen der Messung in die Wertung der Messergebnisse einzubeziehen. Wer die Messgrenzen in eine Arbeit nicht einfügt, begeht einen großen Fehler und wird vom Professor gerügt.

    Bei Religionen handelt es sich aber vom Prinzip her um etwas, das als nicht messbar definiert wird - jedenfalls heutzutage, damit es nicht von Wissenschaftlern widerlegt werden kann.

    Unsere Messapparaturen werden immer feiner und die Theorien, die ihnen zugrundeliegen, werden eines Tages die Welt fast gänzlich erklären. Was dann noch übrigbleibt kann ja die Religion für sich beanspruchen. Ich werde es Ihnen gönnen. Aber stehen Sie bitte der Aufklärung mit dem Glauben nicht im Weg.
  • Energie und Leistung

    30.03.2009, Reinhard Funk, 82178 Puchheim
    Leider begeht der Autor einen inzwischen üblichen Fehler und wirft Energie und Leistung durcheinander. Dadurch werden manche Aussagen unverständlich und werfen dann auch Zweifel zur physikalischen Kompetenz des Autors auf.

    In dem Satz "Gemeint ist damit die Vision, dass jeder Mensch auf der Welt nur mehr 2000 Watt (65 Gigajoule) an Primärenergie im Jahr benötigt." sollte es wohl besser heißen: Gemeint ist damit die Vision, dass jeder Mensch auf der Welt nur mehr eine ständige Leistung von 2000 Watt benötigt. Dies ergibt insgesamt 65 Gigajoule an Primärenergie im Jahr. (2 kW/s * 1 a = 2 kW/s * 31557600 s = 63,1 GJ). Erwähnt sollte dabei auch werden, daß diese 2000 Watt durchschnittlich zu verstehen sind und tagsüber ca. 3000 Watt gegenüber einer geringeren nächtlichen Leistung anfallen.
    Stellungnahme der Redaktion

    Genau so ist es tatsächlich gemeint. Im Internet finden sich detailliertere Informationen zur 2000-Watt-Gesellschaft, insbesondere in den auf dieser Seite angegebenen Links zu pdf-Dateien.

  • Die Nonnenstudie

    27.03.2009, Hannah Burkhardt, Martinroda
    Prof. David Snowdon, Leiter des Sanders-Brown-Zentrums für Altersforschung in Lexington, Kentucky, führte eine Studie durch, die möglicherweise beweist, dass die Plaques nicht die Ursache von Alzheimer sind. In der Studie wurden unter gleichen Bedingungen lebende Nonnen über mehrere Jahre hinweg regelmäßig auf ihre geistige Leistung getestet, bis hin zu ihrem Tod. In den Gehirnen der Nonnen fand man die bei Alzheimer üblichen Plaques (Eiweißablagerungen), die Nonnen hatten aber vor ihrem Tod keinerlei Alzheimersymptome gezeigt. Sie waren trotz Plaques nicht erkrankt, weil sie ein intellektuell anspruchsvolles Leben führten.
    Es wird vermutet, dass Alzheimer viel mehr eine Entzündung im Gehirn ist, die durch bereits verfügbare Mittel gehemmt werden kann. So wurde weiterhin statistisch erfasst, dass Rheuma-Patienten, die entzündungshemmende Mittel einnehmen, nur in einem Bruchteil der Fälle auch an Alzheimer erkranken.
    Man munkelt, die Forschung in dieser Richtung wird nicht weitergeführt, weil damit der Pharmaindustrie hohe Gewinne verloren gingen, immerhin sind entzündungshemmende Medikamente schon zur Genüge auf dem Markt.
    (Quelle: wissen aktuell: Schaltzentrale Gehirn. 3sat, 18.3.2009)
Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.