Lesermeinung - Spektrum der Wissenschaft

Ihre Beiträge sind uns willkommen! Schreiben Sie uns Ihre Fragen und Anregungen, Ihre Kritik oder Zustimmung. Wir veröffentlichen hier laufend Ihre aktuellen Zuschriften.
  • Aufladen an der Steckdosee

    27.12.2006, Hanspeter Maier, Mörfelden
    Immer wieder vermisse ich bei den Stromquellen zur Wiederaufladung von multivalenten Energiespeichern die Erwähnung von Überschüssen aus Windkraftwerken. Die Stromverkäufer führen an, sie hätten dafür keine Verwendung. So, wie die Überschüsse aus den Atomkraftwerken nachts über Grundstromempfänger in die Niedertarifverbraucher geleitet werden, könnte man über eine zweite Frequenz einen noch darunterliegenden Tarif anbieten- zum Aufladen von Autos, Speichern von Solarheizungen, Hochpumpen in die Speicher von Wasserkraftwerken...Ich wette, wenn ein solcher Tarif einigermaßen attraktiv gestaltet wird, fällt unserer Wirtschaft noch ein Haufen weiterer Möglichkeiten ein. Denken Sie nur, wie schnell die Prozesse umgebaut wurden, als das Beseitigen von Giftmüll nicht mehr kostenlos war. Das Gewinnstreben folgt den Rahmenbedingungen, und die müssen eben richtig gesetzt werden.
    Antwort der Redaktion:
    Antwort des Koautors Dr. Reinhard Löser:
    Im Prinzip haben Sie Recht, wenngleich in Ihrer Argumentation einiges durcheinander purzelt: „Stromverkäufer“ sind nicht allein die überregionalen Energieunternehmen, sondern auch die Windmüller, die auf Basis der Einspeiseverordnung (Gesetz zur Vergütung erneuerbarer Energien von 2004) ihren Strom abgenommen bekommen. In Spitzenzeiten ist jeder Energiebeitrag willkommen, auch der aus Windkraft. Problematisch wird es dann, wenn dieser Beitrag nicht planbar ist.
    Der in großen Kohle- und Kernkraftwerken anfallende Grundstrom versorgt vor allem nachts zum einen die unternehmenseigenen Pumpspeicher¬werke, damit diese für Spitzenbelastungen zusätzliche Energie bereithalten, und zum anderen Privat- und Geschäftskunden zum Nachtstromtarif (seit 1.1.2007 ist mit rund 10 ct/kWh der Kostenunterschied zum Tagstrom allerdings nicht mehr so groß). Der in unserem Spektrum-Beitrag vorgebrachte Vorschlag, Hybridfahrzeuge als Puffer am Netz zu lassen, um dessen Speicherkapazität zu erhöhen, deckt sich mit Ihrem Vorschlag. Im Übrigen liegen Sie mit Ihrer Forderung nach optimalen und verlässlichen Rahmenbedingungen goldrichtig.
  • Domäne des Geistigen

    27.12.2006, Paul Kalbhen, Gummersbach
    Im Essay Michael Springers finde ich besonders bemerkenswert, dass er - wenn schon nicht den Primat des Geistes - die "Domäne des Geistigen" im Dialog zwischen Glaube und Wissen, zwischen Religion und Naturwissenschaft betont, eine Perspektive, die bei empirischen Forschern oft zu kurz kommt. Meiner Meinung nach muss man die Möglichkeit eines geistigen - schöpferischen - Prinzips hinter den Prozessen, Codierungen und Gesetzmäßigkeiten des kosmologischen und biologischen Evolutionsgeschehens anerkennen, das sich in mathematischen Algorithmen kundtut.
  • Gern ignorierte unbequeme Fakten

    27.12.2006, Prof. Dr. K. Dose, Uni Mainz
    Im Aufsatz von Michael Russels bleiben einige entscheidende Fragen leider unberücksichtigt.

    1. Wie verhält es sich mit Ursprung und Auswahl asymmetrisch gebauter (chiraler) Lebensbausteine? Ohne deren hochspezifische Struktur ist der Ablauf biochemischer Vorgänge in heutigen Lebewesen nicht möglich. Bei Temperaturen um 80°C würden, wie auch immer angereicherte chirale Strukturen, innerhalb kurzer Zeit (Stunden oder Tage) wieder razemisieren.
    2. Wie verhält es sich mit der Bildung der Nucleinsäure-Bausteine? Hier tritt zu dem Problem der chiralen Selektion noch das Problem der korrekten Verknüpfung der Basen, Zucker- und Phospatreste zu Nucleotiden und Poylnucleotiden.
    3. Proteine (oder Proteinoide) und selbst bestimmte Mineralstoffe können zwar unter günstigen Bedingungen zu zellmembran-ähnlichen Hüllen aggregieren, aber ein dauerhaftes elektrochemisches Potential lässt sich an diesen „Membranen“ nicht aufbauen, weil sie zu porös sind. Erst durch den zusätzlichen Einbau geeigneter Lipide können funktionsfähige Membranen, entsprechend dem Vorbild der biologischen Proteolipid-Membranen, erhalten werden.

    Insbesondere die unter 1. und 2. genannten Probleme sind schon sehr lange bekannt: R. Shapiro: „The improbability of nucleic acid synthesis“, Origins of Life, 14, 565 (1984); K. Dose: „Präbiotische Evolution und der Ursprung des Lebens“ Chemie in unserer Zeit, 21, 177 (1987). Leider werden diese für viele Evolutionstheoretiker sehr unbequemen Fakten gern ignoriert.
    Antwort der Redaktion:
    Antwort des Autors Michael Russell



    zu 1.

    Diese Frage ist aus zwei Gründen für die von Allan J. Hall und mir aufgestellte Hypothese nicht von Bedeutung. Erstens hat sich das Leben unseres Erachtens bei etwa 40 und nicht 80 Grad Celsius entwickelt (Russell & Hall, 2006, S. 21, Abb. 14). Zweitens ist es sogar von Vorteil, dass im Cytoplasma der ersten zellartigen Strukturen Razemate (heterochirale Polymere) die Regel waren – sie bieten genau die nötigen Bedingungen für das In-Gang-Kommen des Stoffwechsels. Betrachten wir zum Beispiel ein heterochirales Peptid aus drei bis sechs Aminosäuren. Es kann sich zu einer parziellen Schleife verbiegen und tendiert dank der schwach positiven Ladung auf den regelmäßig aufeinanderfolgenden NH-Gruppen in seinem Rückgrat dazu, ein „Nest“ für ein anionisches, negativ geladenes „Ei“ zu bilden. So konnten anorganische Anionen wie Thiolate (z. B. [Fe3S4][CH3S]4–) und Phosphate (z. B. HP2O73–), die für den Elektronentransfer und die Biosynthese eine wichtige Rolle spielen, in katalytischen Komplexen eingeschlossen werden (Milner-White & Russell, 2005; Russell & Hall, 2006, S. 16-17 & Abb. 17; Pal et al., 2002). Tatsächlich sitzen Phosphate immer noch in genau einem solchen „Nest“, das gemeinhin als P-Schleife bekannt ist und ausnahmslos mindestens ein nichtchirales Glycin enthält.



    zu 2.

    Nach unserer Hypothese bilden und arrangieren sich Nucleotide auf der Oberfläche von Mineralen innerhalb des submarinen hydrothermalen Hügels und werden dort stabilisiert. Dabei stellen sie die äußerste, wenngleich kurzlebige Schicht auf dem Nanokristall. RNA-Moleküle dort hätten die Tendenz, sich zu verlängern und dabei vorzugsweise Bausteine gleicher Chiralität anzulagern. Würde ein Monomer entgegengesetzter Stereochemie angehängt, bräche das Wachstum ab. Unter diesen Bedingungen hinge es von der zufälligen Stereochemie des kurzen RNA-Polymers ab, ob es die Polymerisation von D- oder L-Aminosäuren zu Peptiden katalysiert (Russell & Hall, 2006, S. 20). Dieser Filter wäre ausreichend, die Chiralitäts-Waage nach einer Seite ausschlagen zu lassen und so zur Homochiralität zu führen: Obwohl in der anorganischen Blase zunächst ein heterochirales Gemisch vorliegt, würden Aminosäuren mit derselben Konfiguration am Alpha-Kohlenstoffatom und damit ähnlicher Stereochemie bevorzugt polymerisiert, so dass schließlich eine Population einheitlicher Händigkeit entstünde (Martin & Russell, 2003). Der Ursprung der Bausteine der Basen ist in Martin und Russell (2007) besprochen. Kohlendioxid und Formylphosphat sind an der Synthese von Purin und Carbamoylphosphat beteiligt. Glycin, Aspartat und Glutamin, die ebenfalls zur Synthese der Basen beitragen, sind Produkte von Transaminasereaktionen im hydrothermalen Reaktor (vgl. Huber und Wächtershäuser, 2003; Marin & Russell, 2007; Berg et al. 2007).



    zu 3.

    Auch wenn die Membran zu durchlässig sein mag, um ein „dauerhaftes elektrochemisches Potenzial“ zu ermöglichen, haben wir schon vor einiger Zeit nachgewiesen, dass sie dicht genug ist, um unter den Bedingungen auf der primitiven Erde mindestens 45 Minuten lang eine Spannung von 600 Millivolt aufrecht zu erhalten (Russell & Hall, 2006, Abb. 15). In neueren Untersuchungen blieb die Spannung sogar mehrere Stunden verlustfrei bestehen. Der Hintergrund der Frage ist natürlich, dass es einen starken evolutionären Druck zur Entwicklung hydrophober Polymere gab. Es ist jedoch ein „vivozentristischer“ Fehlschluss, aus Annahmen über die präbiotische Chemie abzuleiten, dass Lipide die ersten Membranen gebildet haben müssen. So unterscheiden sich die Lipide von Eu- und Archaebakterien in Zusammesetzung und Stereochemie der Gruppen am Glycerin: Erstere enthalten Fettsäureester, letztere Isoprenoidäther. Das aber bedeutet, dass sich diese in den Genen codierten Eigenschaften der Lipide erst nach dem Beginn des Lebens in unabhängigen Abstammungslinien entwickelt haben müssen (Martin & Russell, 2003).



    Literatur

    Berg, J.M., J.L. Tymoczko and L. Stryer (2007). Biochemistry, W.H. Freeman, New York

    Huber, C. and G. Wächtershäuser, (2003). Primordial reductive amination revisited: Tetrahedron Letters 44: 1695–1697

    Martin, W. and M.J. Russell (2003). On the origin of cells: An hypothesis for the evolutionary transitions from abiotic geochemistry to chemoautotrophic prokaryotes, and from prokaryotes to nucleated cells. Philosophical Transactions of the Royal Society of London, series B 358: 27-85

    Martin, W. and M.J. Russell (2007). On the origin of biochemistry at an alkaline hydrothermal vent. Philosophical Transactions of the Royal Society of London (Ser.B) DOI 10.1098/rstb.2002.1183

    Milner-White, E.J. and M.J. Russell (2005). Nests as sites for phosphates and iron-sulfur thiolates in the first membranes: 3 to 6 residue anion-binding motifs. Origins of Life and Evolution of the Biosphere 35: 19-27

    Pal, D., Suehnel, J., and Weiss, M. (2002). New principles of protein structure: nests, eggs and what next? Angewandte Chemie 41: 4663-4665

    Russell, M.J. and A.J. Hall (2006). The onset and early evolution of life. In S.E. Kesler and H. Ohmoto Eds., Evolution of Early Earth’s Atmosphere, Hydrosphere, and Biosphere—Constraints from Ore Deposits, Geological Society of America, Memoir 198, p. 1-32
  • Schlummernde Begabungen

    27.12.2006, Roland Maier, Riemerling
    Kim Peek ist ein "Inselbegabter" mit herausragenden Gedächtnisleistungen einerseits und mit gewissen Defiziten in der Bewältigung des Alltags andererseits.
    Offensichtlich kommt es immer wieder vor, dass durch Entwicklungsstörungen und Schädigungen des Gehirns beziehungsweise dessen linker Hälfte Spitzenbegabungen in Erscheinung treten.
    Entgleisungen in der embryonalen Entwicklung und Verletzungen des Gehirns sind von Natur aus ein zufälliges Ereignis. Auch wenn in Folge eines solchen Ereignisses eine Reihe von durchaus geordneten Reparaturmechanismen ablaufen, so bleibt die eigentliche Ursache doch von statistischer Natur.
    Hier stellt sich zwangsläufig die Frage, wie ausgerechnet so ein kompliziertes Organ wie das menschliche Gehirn durch zufällige Beeinflussung Spitzenleistungen hervorbringen kann. Es gibt sonst weder in der belebten noch in der unbelebten Natur Beispiele, in denen sich komplizierte (und nützliche) Systeme nach Schädigungen verbessern.
    D.A. Treffert und D.D. Christensen schreiben: "... die rechte Hemisphäre ist nun vom Joch der linken Hirnseite befreit, die in der Regel als dominant gilt und in manchem über die rechte Seite bestimmt. Deswegen vermag die rechte Hemisphäre nun einige ihr innewohnende Fähigkeiten hervorzubringen, die sonst schlummern."
    Allgemein würde das Folgendes bedeuten:
    1. Der normale Mensch hat wesentlich mehr Intelligenz als er nutzen kann.
    2. Es birgt Bereiche im Gehirn, die Intelligenz unterdrücken.
    Damit ließe sich die obige Frage beantworten. Wenn die Verletzungen oder Störungen den Bereich betreffen, der Intelligenz unterdrückt, so können mehr vorhandene Fähigkeiten genutzt werden. Es wurde eine Störung gestört und dadurch eine Verbesserung erzielt. Vermutlich werden je nach Betroffenheit der Störbereiche unterschiedliche Begabungen "befreit".
    Seitens der Medizin wird versucht, den Mechanismus dieser Unterdrückung zu verstehen. Es handelt sich jedoch nicht nur um ein medizinisches Problem. Viel wichtiger erscheint mir die Frage, wie sich so etwas überhaupt entwicklungsgeschichtlich bilden konnte. Es ist nicht vorstellbar, dass Fähigkeiten und deren komplette Unterdrückung gleichzeitig entstehen können, denn die Evolution selbst ist nicht schizophren.
    Die Begabungen einerseits und deren Gegenspieler andererseits müssen also nacheinander entstanden sein - die Begabung zuerst.
    Üblicherweise entwickeln Organismen nur dann Fähigkeiten, wenn ein Selektionsdruck vorhanden ist. Auch die Begabungen von Savants können ursprünglich nur dadurch entstanden sein, dass es Vorfahren gab, die diese unter einem entsprechenden Selektionsdruck ausbildeten. Das würde aber bedeuten, dass es früher Menschen gab, die mit einem besseren Intellekt ausgestattet waren als die heutigen. Aus Schädelfunden weiß man, dass das durchschnittliche Gehirnvolumen der Europäer in den letzten Jahrtausenden ständig abgenommen hat (SdW 9/1995). Reste der frühen Fähigkeiten würden heutzutage als Inselbegabung in Erscheinung treten. Ein Puzzle dieser Reste könnte den Horizont dieser früher lebenden Menschen ergeben, den ich als Frühintelligenz bezeichnen möchte.
    Warum aber unterdrückt das Gehirn seine eigenen Fähigkeiten? Wozu bildet das Gehirn Bereiche aus, die andere Teile lahm legen? Ich denke, dass man diese Frage durchaus kontrovers diskutieren könnte. Hier ein paar Ansätze:
    - Die Intelligenz des Einzelnen wurde mit der Änderung der Lebensform immer weniger lebensnotwendig. Fehlender Selektionsdruck führte zu Rückbildungen.
    - Die in SdW 9/1995 beschriebenen "Energiesparmaßnahmen" begünstigten Rückbildungen.
    - Die entsprechenden Bereiche des Gehirns wurden für andere Aufgaben benötigt.
    - Soziale Strukturen bevorzugten (beziehungsweise erzwangen?) angepasste und weniger intelligente Individuen. Man denke an tragische Schicksale großer Erfinder.
    Die menschliche Intelligenz spielt in unserem Dasein immer noch die zentrale Rolle. Insofern dürfte es für eine Reihe von Disziplinen höchst interessant sein, sich mit der historischen Entwicklung der Leistungsfähigkeit dieses Organs zu befassen.
  • Keine plausiblen und überzeugenden Alternativtheorien

    27.12.2006, Reiner Vogels, Swisttal-Odendorf
    Sowohl beim Lesen des Editorials von Reinhard Breuer als auch beim Lesen des Essays von Michael Springer ist es mir erneut gegangen wie so oft, wenn ich Texte lesen, in denen sich Naturwissenschaftler über das Verhältnis von Glaube und Vernunft äußern. Immer wieder bin ich erstaunt, mit welcher Selbstsicherheit und welcher Unangefochtenheit Naturwissenschaftler den Anspruch zu erheben scheinen, sie hätten die Grundfragen der Wirklichkeit gelöst oder sie verfügten doch zumindest über die Methoden, mit denen die Antwort auf diese Fragen gefunden werden könne. Immer wieder bin ich erstaunt, dass manche der Naturwissenschaftler dann sogar zur Haltung einer gewissen Indolenz gegenüber den Vetretern des Glaubens zu neigen scheinen.

    Dabei sind die Ansprüche der Naturwissenschaftler in gar keiner Weise durch die Fakten gedeckt. Es ist nun einmal bis auf den heutigen Tag so, dass die Naturwissenschaft, was die Grundfragen des Seins und des Lebens betrifft, den Schöpfungsmythen des Glaubens keine plausiblen und überzeugenden Alternativtheorien hat entgegenstellen können.

    Das gilt ja schon auf dem ureigensten Gebiet der Naturwissenschaft selbst, auf dem Gebiet also, auf dem es eigentlich keinen Konkurrenzkampf zwischen Vernunft und Glaube geben sollte:
  • Bitte nicht nochmal

    26.12.2006, Heiner Schilling, Darmstadt
    Selten habe ich mich als langjähriger Abonnent über einen Spektrum-Artikel so geärgert. Da wird kostbarer Raum für die epische Darstellung verschwendet, daß Genie zu 90 % aus Transpiration und zu 10 % aus Inspiration besteht. Na ja, vielleicht nicht Spektrum-Stil, kann aber passieren. DARF ABER NICHT ALS AUFMACHER PASSIEREN!

    Die Behauptung, daß Anlagen, Talent im Vergleich zur Motivation nur eine untergeordnete Rolle spielen, die man nur - möglichst bereits pränatal - kräftig drillen müsse, kommt einer Arbeitsgarantie für Familientherapeuten nahe, die sich bereits kräftig über volle Praxen mit am Ehrgeiz der Eltern gescheiterter Kinder freuen dürfen.

    Ich wäre gespannt über die Ergebnisse einer vergleichenden Studie über Alkoholismus von Q1-Fussballern, die es trotz brennender Motivation nicht geschafft haben.

    Kleiner Tipp: Der Farbenblinde wird kein Maler, der Zwergwüchsige scheitert im Basketball, wem Gott - an den ich nicht glaube - kein gutes Gehör geschenkt hat, der sollte besser seinen Ehrgeiz nicht auf Musik lenken.

    Förderung - auch früh: Ja bitte! Rücksichtsloser Drill, nein Danke.
  • Funktionsweise Atkinson-Motor fehlerhaft beschrieben

    25.12.2006, Martin Schlöter, Reichensachsen
    (Die erwähnte Antwort des Autors Reinhard Löser finden Sie in den Leserbriefen Heft 1/07. Die Red.)

    Ich bin der Meinung, dass die Beschreibung der Funktionsweise des Atkinson-Motors durch Herrn Löser als Antwort auf den Leserbrief von Dr.-Ing. H.-W. Lorch nicht korrekt ist.
    Generell geht es beim Atkinson-Motor darum, das Verhältnis zwischen dem Zündvolumen des Gasgemisches und der Ausdehnung im Arbeitstakt zu maximieren, um den thermodynamischen Wirkungsgrad zu verbessern. Im Idealfall wäre es wünschenswert, den Kolben bis ins Unendliche arbeiten zu lassen, das Abgas hätte dann Umgebungstemperatur, alle Energie des Verbrennungsvorgangs wäre ausgeschöpft, was aber praktisch natürlich nicht umsetzbar ist.
    Der Original-Atkinson-Motor 1886 hatte eben keine spezielle Ventilsteuerung, sondern verlängerte über eine komplexe Hebelmechanik den Arbeitshub des Motors, um dieses Ziel zu erreichen. Dieses Bauprinzip war aber sowohl wegen des Volumens als auch wegen der bewegten Massen ungeeignet für kompakte, hochdrehende Motoren.
    Moderne Konstruktionen nach dem Atkinson-Prinzip erhöhen stattdessen das rechnerische Kompressionsverhältnis des Motors, ähnlich wie bei einem Diesel. Um aber Selbstzündung des Gemisches zu verhindern, werden die Einlassventile spät geschlossen, ein Teil des Gemisches weicht im Kompressionstakt zurück in den Einlassbereich, die effektive Kompression wird dadurch niedriger und Selbstzündung verhindert.
    Es wird im Prinzip also Füllungsgrad und damit Leistung gegen Wirkungsgrad und damit Ökonomie getauscht.
    Leistungssteigerung ist genau nicht der Punkt bei diesem Bauprinzip.

  • Ist Hirnforschung geistfeindlich?

    23.12.2006, Dr. Armin Tippe 85247 Schwabhausen
    Bei dem von Michael Springer betonten besonderen Widerstand gegen die Hirnforschung wird stets die angebliche Inkompetenz von Naturwissenschaftlern in Fragen des Leib/Seele-Problems behauptet. Der "Leib-Anteil" dieses Problemkomplexes (z.B. Struktur und Funktionsweise des Gehirns) erhält aber erst jetzt mit der modernen Neurobiologie einen kompetenten Sachvertreter - er war davor völlig unbekannt. Das hinderte bekanntlich nicht, diesen Anteil als nur materiell und daher ontologisch unwesentlich zu disqualifizieren. Heute kann das Problem neu diskutiert werden und die Naturwissenschaft muss dabei als Anwalt für den bisher so verteufelten Leib auftreten dürfen.
  • Die wahren Ursachen der Arbeitslosigkeit

    23.12.2006, Dr. Bernd Lehnemann, Frankfurt am Main
    Die hauptsächliche Erklärung der anhaltend hohen Arbeitslosigkeit in den Volkswirtschaften Europas ist meines Erachtens keine der im Artikel angegebenen. Die Feststellung, der Arbeitsmarkt sei kein Markt wie jeder andere, ist sicherlich zutreffend, wie auch die genannte "Friktionsarbeitslosigkeit" einen Teil des Problems erklärt. Wesentlich stärker dürfte jedoch in den Ländern Europas der Einfluss staatlicher Alimentation nichtarbeitender Bevölkerungsteile sein – der Status als "Arbeitsloser" - genauer: "Arbeitssuchender" – ist in vielen Ländern Voraussetzung für die Berechtigung, staatliche Unterstützungszahlungen zu empfangen. Infolgedessen sind viele "arbeitslos" gemeldete Personen nicht arbeitssuchend, sondern lediglich deswegen "arbeitslos" gemeldet, um die damit verbundenen Unterhaltszahlungen zu erhalten (auf die im Allgemeinen ja auch ein Rechtsanspruch besteht).


    Insbesondere im Bereich niedriger Lohnniveaus spielt auch die Höhe dieser Transferzahlungen eine Rolle: Wenn ein Arbeitsloser Unterstützungszahlungen im Gegenwert von 800 Euro bezieht, lohnt es für diesen nicht, eine mit 900 Euro netto dotierte Stelle anzunehmen, da er damit lediglich einen effektiven Lohn von 100 Euro pro Monat bezieht. Dieses Argument für die Nichtannahme einer vorhandenen Arbeitsstelle wiegt umso stärker, je höher das Unterstützungsniveau und je niedriger das mit der vorhandenen Qualifikation erreichbare Lohnniveau liegt, erklärt also einen großen Teil der Sockelarbeitslosigkeit in minderqualifizierten Bevölkerungsteilen.


    Sicherlich geringer, aber durchaus vorhanden ist auch ein "motivationsdeckelnder" Effekt der Steuerprogression. Viele hoch qualifizierte Beschäftigte arbeiten lieber weniger und nehmen dafür einen geringeren Bruttolohn in Kauf, als ihnen potenziell offenstände, da die Progression der Einkommensteuer dazu führt, dass eine vergleichsweise starke Zusatzanstrengung lediglich zu einem unterproportional starken Anstieg des verfügbaren Nettogehalts führt. Gesellschaftlich gesehen führt dies dazu, dass an sich überqualifizierte Arbeitnehmer Stellen besetzen, die auch mit etwas geringer Qualifizierten besetzt werden könnten, wenn die augenblicklichen Stelleninhaber zu höherer Wertschöpfung bereit wären (und die Möglichkeit dazu hätten, was natürlich oft nicht gegeben ist, da wenige entsprechende Stellen vorhanden sind, wie zum Beispiel für akademisch gebildete Gesellschaftswissenschaftler – Fehlallokation von Bildungsressourcen ist jedoch ein anderes Thema).


    Zusammenfassend läßt sich feststellen, dass die finanzielle Unterstützung von Nichtarbeit und die progressive Belastung von Arbeit das Produktivitätsgefüge einer Volkswirtschaft insgesamt zu geringerer Wertschöpfung verschieben und die ohnehin nur zu geringer Wertschöpfung Befähigten überwiegend aus produktiver Tätigkeit herausdrängen.

  • Nicht zu optimistisch werden!

    21.12.2006, Jürgen Busch, Limburg
    Der Artikel war sehr interessant. Allerdings fand ich die (bei genauem Lesen vorhandenen) Warnungen vor übertriebenen Hoffnungen auf fehlerfreie Software durch den Einsatz automatischer Prüfsoftware für zu schwach. Es wurde eher das Gegenteil der Erwartung der Utopie von möglicher Null-Fehler-Software erzeugt.

    Software wie Alloy einzusetzen halte ich für grundsätzlich wichtig, um die Fehlerzahl zu reduzieren! Und ich bezweifle in keiner Weise die Fähigkeit von Alloy und anderen Tools, Fehler zu finden. Ich bezweifle nur die Fähigkeit, alle Fehler (im Design) zu finden, wenn das Projekt hinreichend groß wird.

    Software-Designs werden auch so nicht 100-ig fehlerfrei werden. Schließlich sind auch Alloy und Co. nur Programme, die selbst der Unvollkommenheit unterliegen.

    Für den unverdaulichsten Brocken des Beitrags halte ich allerdings die Aussage, (heute bereits, oder auch nur in naher Zukunft) ein Googol (10^100) Zustände vollständig(!) testen zu können!

    Dazu eine Abschätzung: Wenn man ein ganzes Jahr Zeit hat und auch nur eine Yocto-Sekunde (10^-24 sec) benötigt, um einen Zustand zu verifizieren, muss man mehr als 3*10^68 Zustände gleichzeitig (!) bewerten.

    Mit welcher "einfallsreichen Codierungstechnik" kann man solch "große Sätze an Softwarezuständen kompakt darstellen und simultan betrachten"?

    Selbst wenn ich 10^23 Zustände in einem einzelnen Atom gleichzeitig darstellen könnte, wäre immer noch ein (1-Atom-RAM) Speicher mit einer Teilchenzahl in der Größenordnung mehr als 5*10^21 Mol notwendig.

    Und das alles selbst dann noch, wenn ich mir ein Jahr Zeit lasse und jede simultane Bewertung der mehr als 3*10^68 Zustände mehr als 33000mal schneller abläuft, als ein Photon braucht, die Strecke von einem Angstroem zu durchqueren.

    Eine Codierungstechnik, die das kann, würde übertragen (fast) alle meine Probleme lösen.
  • Genie ist Fleiß

    21.12.2006, Prof. Dr. Hans Schulte, Karlsruhe
    Wenig Neues in Ihrem Artikel: "Genie ist Fleiß" hat schließlich schon Fontane gewusst. Aber das Phänomen der Polgar-Schwestern, die immer frühere Großmeister-Reife und das in Schachkreisen schon lange unstreitige "je früher desto besser" hätten Ihren Autor zu Erkenntnissen der Hirnforschung bringen müssen: "Das Gehirn erwirbt also während seiner Entwicklung zusätzliches Wissen. Es gilt heute als erwiesen, dass das sich entwickelnde Gehirn dieser Wechselwirkung mit der Umwelt bedarf, um die in seiner Architektur angelegten Funktionen zu entfalten" (Wolf Singer).
  • Gerade nicht!

    21.12.2006, Andrea Hoberg
    Guten Tag,

    in ihrem Artikel zum Drachen-Christkind nannten Sie den Umstand, dass Flora noch Jungfrau ist, einen Fall von unbefleckter Empfängnis. Da sich die Formulierung in diesem Zusammenhang unmissverständlich auf ein Dogma der römisch-katholischen Kirche bezieht, möchte ich darauf hinweisen, dass damit nicht die Empfängnis Jesu durch seine Mutter Maria gemeint ist, sondern die Empfängnis Mariens durch ihre Mutter Anna (DH 2803).

    Leider ist dieses Missverständnis so tief in den Köpfen verwurzelt, dass man das auch schon in einer so genannten Wissenschaftszeitung lesen muss. Bei Dan Brown wäre das normal, hier hätte ich doch mehr Unterscheidungsvermögen erwartet.
    Antwort der Redaktion:
    Sehr geehrte Frau Hoberg,



    wie Sie ganz richtig sagen, stellte Papst Pius IX in seiner Bulle von 1854 fest: "Die seligste Jungfrau Maria wurde im ersten Augenblick ihrer Empfängnis durch ein einzigartiges Gnadengeschenk und Vorrecht des allmächtigen Gottes im Hinblick auf die Verdienste Christi Jesu, des Erlösers des Menschengeschlechtes, rein und von jeder Makel der Erbschuld bewahrt." - Diese Empfängnis ohne Erbsünde wird als "unbefleckte Empfängnis der Maria" bezeichnet - wobei Anna, die Mutter Marias, keineswegs als Jungfrau gilt, als sie schwanger wird - Maria soll auf ganz normalem biologischem Weg gezeugt worden sein.



    Trotzdem wird der Begriff auch für die Empfängnis von Jesu durch Maria verwendet - ich zitiere die Diözese Eisenstadt:

    "1854 verkündete Papst Pius IX. das Dogma von der Unbefleckten Empfängnis nicht nur des Gottessohnes Jesus durch Maria, sondern auch der Maria durch Anna."



    Die Vermischung von unbefleckter Empfängnis - also Freiheit von Erbsünde - mit der Jungfrauengeburt ist also tatsächlich missverständlich, aber durchaus üblich.



    Mit freundlichen Grüßen

    Antje Findeklee
  • Serielle und parallele Hybride

    19.12.2006, Christoph Stoll, Kirchberg, Schweiz
    Weshalb gibt es praktisch keine seriell-hybriden Antriebe für Fahrzeuge? Der elektrische Antriebsstrang ist doch mechanisch viel einfacher (kein Getriebe, keine Kardanwellen oder Differentialgetriebe bei Nabenmotoren?

    Antwort der Redaktion:
    Antwort des Autors Reinhard Löser:
    Man unterscheidet je nach Anordnung und Funktion des zusätzlichen Elektromotors bei Hybridfahrzeugen zwischen seriellen und parallelen Hybriden; auch (leistungsverzweigte) Mischhybride sind darstellbar. Bei serieller Konfiguration lädt die Verbrennungskraftmaschine nur den elektrischen Energiespeicher. Beim Parallelantrieb ist der E-Motor mechanisch direkt mit der oder den Antriebswellen gekoppelt, wobei dann tatsächlich eine weitere elektrische Maschine notwendig wird.
    Im seriellen Betrieb muss der E-Motor in der Lage sein, die gesamte Leistung bereitzustellen, die für die gewünschte Beschleunigung oder Steigfähigkeit benötigt wird. Das erklärt, warum vornehmlich parallele Hybridantriebe realisiert werden. Die beim Parallelbetrieb eingesetzten Elektromotoren können nämlich geringer dimensioniert sein. Ein weiterer Nachteil bei seriellen Hybridantrieben ist die doppelte Energiewandlung von mechanischer zu elektrischer Energie und wieder zurück, eventuell noch verbunden mit einer (längeren) Speicherung. Insgesamt ergibt sich daraus ein ungünstiger Wirkungsgrad. Bei begrenzter Leistungsfähigkeit der Batterie muss man den Verbrennungsmotor zwangsweise betreiben, um Leistungsspitzen bei Bergfahrt oder Beschleunigungen abzudecken. Dies kann den Verbrauchs- und Emissionsvorteil einschränken und den Betrieb des Verbrennungsmotors im günstigen stationären Betrieb vereiteln.
    Die Vorteile des parallelen Hybrids bestehen in der Möglichkeit, beide Motoren sowohl einzeln als auch gleichzeitig zum Vortrieb des Fahrzeugs zu nutzen. Dabei können Drehzahl, Leistung oder Drehmoment direkt gekoppelt werden. Aufgrund der Leistungsaddition können beide Motoren relativ klein ausgelegt werden, ohne dass Einbußen beim Beschleunigen hingenommen werden müssen. Das führt zu deutlicher Einsparung an Kraftstoff und Emissionen oder auch zu gesteigerter und vom Fahrer direkt wahrnehmbarer Performance und Agilität.
  • Es muss kein Größenfehler sein

    12.12.2006, Dr. Frank Subke, Mehlingen
    Die Autorin führt das frühkindliche Verhalten, mit Abbildern von Alltagsdingen nicht adäquat umgehen zu können, auf eine entwicklungsbedingte Missachtung der Größenverhältnisse zurück („Größenfehler“, „scale errors“) bzw. erkennt darin eine Überforderung der kindlichen Kognition bei der Symbolerkennung.

    Bedenkt man, dass das richtige Einschätzen bzw. das korrekte Wahrnehmen von Größenverhältnissen in der freien Natur überlebenswichtig sein kann, also bereits angelegt sein sollte, erscheint ein nachträgliches Lernverständnis bzw. ein Verarbeiten von visueller und motorischer Informationen eher nachgeordnet.

    Das geschilderte Verhalten der Kinder lässt auch eine andere Deutung im Sinne eines hauptsächlichen Explorationsverhaltens zu, gemäß dem Prinzip von "Trial und Error" im Zuge von Spieltrieb und Neugierde.

  • Einzig gemeinsam die Abneigung?

    12.12.2006, C. Schreiber, Leipzig
    „Das einzige Gemeinsame, das sie hatten, war die gemeinsame Abneigung gegen alles Gemeinsame.“ (Werner Mitsch)

    Dies scheint das Motto der postmodernen Geschlechterbeziehung zu sein. Das ist jedoch völlig unnötig, kontraproduktiv und hat keinen wissenschaftlichen Eros. Wie schön wäre es doch, sich zu ergänzen – wörtlich: zusammen ein Ganzes zu bilden. Natürlich kann ich mit Neid das Wenige erblicken, was ich habe (ich schreibe als Mann, damit keine Missverständnisse über das „Wenige“ aufkommen). Aber gemeinsam hätten wir mehr. So trifft der Komparativ „intelligenter“ den Puls der Zeit: höher, schneller, weiter – und intelligenter ist eben nicht genug.

    Wie wäre es stattdessen mit einer neuen Aufgeklärtheit in einer doch so unaufgeklärten Zeit? Sind denn Unfreiheit (sozial wie beruflich), Ungleichheit (der Geschlechter und in der Bildung) und mangelnde Geschwisterlichkeit nötig? Und wenn ja, wem nützen sie? Da gibt es für uns alle noch viel zu tun.