Direkt zum Inhalt

Kommentare - - Seite 1090

Ihre Beiträge sind uns willkommen! Schreiben Sie uns Ihre Fragen und Anregungen, Ihre Kritik oder Zustimmung. Wir veröffentlichen hier laufend Ihre aktuellen Zuschriften.
  • Vorhersagbarkeit

    02.01.2007, H. Schiller / Hannover
    Es wirkt doch irgendwie hochmütig, wenn in dem Artikel bzw. in den ihm zu Grunde liegenden Quellen mit Penetranz und wider direkt thematisiertes besseres Wissen von "unvorhersehbarem" Nahrungsreichtum gesprochen wird.

    Das Verhalten der "Hörnchen mit Weitblick" zeigt, dass es Anzeichen für reiche Ernten geben muss. Nur weil Homo sapiens sapiens diese noch nicht wissenschaftlich isoliert hat, wird die Vorhersagbarkeit zumindest verbal schlichtweg geleugnet.

    Könnten manche der geheimnisvollen Anzeichen evtl. darin bestehen, dass einer großen Ernte zum Beispiel eine große Blütenfülle und/oder ein dem Insektenflug förderliches Klima vorausgeht?
  • Köpfchen anstatt Gigaflops

    30.12.2006, R. Marti , Arlesheim CH
    Beim Lesen des Abschnitts "Zu Tisch mit Romeo und Julia" ist mir bewusst geworden, dass offenbar bei heutigen Dozenten der Informatik nicht mehr davon ausgegangen werden kann, dass sie ausreichende Kenntnisse der Kombinatorik haben. Die Schwindel erregende Zahl von 10^20 möglichen Sitzordnungen kann man nämlich von vornherein auf höchstens 20! reduzieren (also immerhin um einen Faktor von 41). Weitere Nebenbedingungen kann man ebenfalls durch recht elementare Kombinatorik berücksichtigen. Es braucht nicht immer revolutionär neue Software-Design-Techniken, um Rechenzeiten drastisch zu reduzieren - oft würde wohl ein Blick in die Schulbücher der Mutter oder des Grossvaters genügen!
  • Welch falscher Schluss!

    29.12.2006, Hauke Peters
    Die obige Aussage zeigt nur, dass man mit statistischem Material umgehen können muss. Die Aussage "Haustiere fördern nicht die Gesundheit" kann man so nicht aus der Studie lesen. Dazu hätte untersucht werden müssen, wie diese "wenig gebildete Landbevölkerung" ohne Haustier dastehen würde! Einzig die Bewertung, welche Bevölkerungsgruppen Haustiere besitzen, lässt sich noch analysieren.
  • Anmerkungen

    28.12.2006, Florian Fruth, Heidelberg
    Ich habe den Artikel mit großem Interesse gelesen und möchte ein paar Anmerkungen dazu anbringen: Auf Seite 42 liegt m.E. ein Fehler vor: "es läge nur bei 2100 Punkten - hundert unter Großmeisterniveau." Großmeister haben ein Elo-Niveau von deutlich über 2200 Punkten.

    Außerdem sollte man erwähnen, dass es heutzutage einfacher ist, einen Großmeistertitel zu erlangen, als dies noch zu Zeiten Robert Fischers der Fall war, da das System damals ein anderes war und es zweitens eine Art Inflation der Elo-Zahl gibt (auch wenn man vielleicht den Flynn-Effekt wieder herausrechnen müsste).

    Drittens wollte ich unterstreichen, dass es natürlich auch in der Mathematik notwendig ist, viel "geübt" zu haben, um brillant zu werden. Doch reicht das keinesfalls aus, was Sie in dem Artikel nicht explizit so formulieren, es aber durch das Gauß-Beispiel latent mitschwingen lassen.

    In dem Beitrag wird weiter dargelegt, warum Übung wichtiger ist als Talent. Das heißt aber nicht, dass absloute Spitzenkönner (wie Mozart) produzierbar sind (so wie Judit Polgar auch wesentlich schwächer als Kasparow ist). Mit der richtigen Erziehung allein kann man nicht aus jedem einen Mozart machen. Talent bzw. Lernschnelligkeit spielt sicher auch eine Rolle. Ich will nur betonen, dass es sich nicht ganz so einseitig verhält wie in Ihrer bewusst überspitzten Formulierung. Sicherlich wird die Übung zurzeit noch unterschätzt.
    Stellungnahme der Redaktion

    Was die Elo-Zahl von Großmeistern angeht hat, Herr Fruth Recht. Richtig hätte es in dem Artikel heißen müssen: "400 Punkte unter Großmeisterniveau".



    Die Redaktion

  • Wissen und Werte

    27.12.2006, Dr. Torsten Müller, 12439 Berlin
    Sehr gut, dass Spektrum die Regensburger Rede aufgegriffen hat. Sie war ein Schlag ins Gesicht des wissenschaftlichen Denkens und der Aufklärung. Denken und humanistische Werte bedingen sich mehr als Glauben Bescheidenheit vor der Schöpfung.
  • Aufladen an der Steckdosee

    27.12.2006, Hanspeter Maier, Mörfelden
    Immer wieder vermisse ich bei den Stromquellen zur Wiederaufladung von multivalenten Energiespeichern die Erwähnung von Überschüssen aus Windkraftwerken. Die Stromverkäufer führen an, sie hätten dafür keine Verwendung. So, wie die Überschüsse aus den Atomkraftwerken nachts über Grundstromempfänger in die Niedertarifverbraucher geleitet werden, könnte man über eine zweite Frequenz einen noch darunterliegenden Tarif anbieten- zum Aufladen von Autos, Speichern von Solarheizungen, Hochpumpen in die Speicher von Wasserkraftwerken...Ich wette, wenn ein solcher Tarif einigermaßen attraktiv gestaltet wird, fällt unserer Wirtschaft noch ein Haufen weiterer Möglichkeiten ein. Denken Sie nur, wie schnell die Prozesse umgebaut wurden, als das Beseitigen von Giftmüll nicht mehr kostenlos war. Das Gewinnstreben folgt den Rahmenbedingungen, und die müssen eben richtig gesetzt werden.
    Stellungnahme der Redaktion

    Antwort des Koautors Dr. Reinhard Löser:
    Im Prinzip haben Sie Recht, wenngleich in Ihrer Argumentation einiges durcheinander purzelt: „Stromverkäufer“ sind nicht allein die überregionalen Energieunternehmen, sondern auch die Windmüller, die auf Basis der Einspeiseverordnung (Gesetz zur Vergütung erneuerbarer Energien von 2004) ihren Strom abgenommen bekommen. In Spitzenzeiten ist jeder Energiebeitrag willkommen, auch der aus Windkraft. Problematisch wird es dann, wenn dieser Beitrag nicht planbar ist.
    Der in großen Kohle- und Kernkraftwerken anfallende Grundstrom versorgt vor allem nachts zum einen die unternehmenseigenen Pumpspeicher¬werke, damit diese für Spitzenbelastungen zusätzliche Energie bereithalten, und zum anderen Privat- und Geschäftskunden zum Nachtstromtarif (seit 1.1.2007 ist mit rund 10 ct/kWh der Kostenunterschied zum Tagstrom allerdings nicht mehr so groß). Der in unserem Spektrum-Beitrag vorgebrachte Vorschlag, Hybridfahrzeuge als Puffer am Netz zu lassen, um dessen Speicherkapazität zu erhöhen, deckt sich mit Ihrem Vorschlag. Im Übrigen liegen Sie mit Ihrer Forderung nach optimalen und verlässlichen Rahmenbedingungen goldrichtig.

  • Domäne des Geistigen

    27.12.2006, Paul Kalbhen, Gummersbach
    Im Essay Michael Springers finde ich besonders bemerkenswert, dass er - wenn schon nicht den Primat des Geistes - die "Domäne des Geistigen" im Dialog zwischen Glaube und Wissen, zwischen Religion und Naturwissenschaft betont, eine Perspektive, die bei empirischen Forschern oft zu kurz kommt. Meiner Meinung nach muss man die Möglichkeit eines geistigen - schöpferischen - Prinzips hinter den Prozessen, Codierungen und Gesetzmäßigkeiten des kosmologischen und biologischen Evolutionsgeschehens anerkennen, das sich in mathematischen Algorithmen kundtut.
  • Gern ignorierte unbequeme Fakten

    27.12.2006, Prof. Dr. K. Dose, Uni Mainz
    Im Aufsatz von Michael Russels bleiben einige entscheidende Fragen leider unberücksichtigt.

    1. Wie verhält es sich mit Ursprung und Auswahl asymmetrisch gebauter (chiraler) Lebensbausteine? Ohne deren hochspezifische Struktur ist der Ablauf biochemischer Vorgänge in heutigen Lebewesen nicht möglich. Bei Temperaturen um 80°C würden, wie auch immer angereicherte chirale Strukturen, innerhalb kurzer Zeit (Stunden oder Tage) wieder razemisieren.
    2. Wie verhält es sich mit der Bildung der Nucleinsäure-Bausteine? Hier tritt zu dem Problem der chiralen Selektion noch das Problem der korrekten Verknüpfung der Basen, Zucker- und Phospatreste zu Nucleotiden und Poylnucleotiden.
    3. Proteine (oder Proteinoide) und selbst bestimmte Mineralstoffe können zwar unter günstigen Bedingungen zu zellmembran-ähnlichen Hüllen aggregieren, aber ein dauerhaftes elektrochemisches Potential lässt sich an diesen „Membranen“ nicht aufbauen, weil sie zu porös sind. Erst durch den zusätzlichen Einbau geeigneter Lipide können funktionsfähige Membranen, entsprechend dem Vorbild der biologischen Proteolipid-Membranen, erhalten werden.

    Insbesondere die unter 1. und 2. genannten Probleme sind schon sehr lange bekannt: R. Shapiro: „The improbability of nucleic acid synthesis“, Origins of Life, 14, 565 (1984); K. Dose: „Präbiotische Evolution und der Ursprung des Lebens“ Chemie in unserer Zeit, 21, 177 (1987). Leider werden diese für viele Evolutionstheoretiker sehr unbequemen Fakten gern ignoriert.
    Stellungnahme der Redaktion

    Antwort des Autors Michael Russell



    zu 1.

    Diese Frage ist aus zwei Gründen für die von Allan J. Hall und mir aufgestellte Hypothese nicht von Bedeutung. Erstens hat sich das Leben unseres Erachtens bei etwa 40 und nicht 80 Grad Celsius entwickelt (Russell & Hall, 2006, S. 21, Abb. 14). Zweitens ist es sogar von Vorteil, dass im Cytoplasma der ersten zellartigen Strukturen Razemate (heterochirale Polymere) die Regel waren – sie bieten genau die nötigen Bedingungen für das In-Gang-Kommen des Stoffwechsels. Betrachten wir zum Beispiel ein heterochirales Peptid aus drei bis sechs Aminosäuren. Es kann sich zu einer parziellen Schleife verbiegen und tendiert dank der schwach positiven Ladung auf den regelmäßig aufeinanderfolgenden NH-Gruppen in seinem Rückgrat dazu, ein „Nest“ für ein anionisches, negativ geladenes „Ei“ zu bilden. So konnten anorganische Anionen wie Thiolate (z. B. [Fe3S4][CH3S]4–) und Phosphate (z. B. HP2O73–), die für den Elektronentransfer und die Biosynthese eine wichtige Rolle spielen, in katalytischen Komplexen eingeschlossen werden (Milner-White & Russell, 2005; Russell & Hall, 2006, S. 16-17 & Abb. 17; Pal et al., 2002). Tatsächlich sitzen Phosphate immer noch in genau einem solchen „Nest“, das gemeinhin als P-Schleife bekannt ist und ausnahmslos mindestens ein nichtchirales Glycin enthält.



    zu 2.

    Nach unserer Hypothese bilden und arrangieren sich Nucleotide auf der Oberfläche von Mineralen innerhalb des submarinen hydrothermalen Hügels und werden dort stabilisiert. Dabei stellen sie die äußerste, wenngleich kurzlebige Schicht auf dem Nanokristall. RNA-Moleküle dort hätten die Tendenz, sich zu verlängern und dabei vorzugsweise Bausteine gleicher Chiralität anzulagern. Würde ein Monomer entgegengesetzter Stereochemie angehängt, bräche das Wachstum ab. Unter diesen Bedingungen hinge es von der zufälligen Stereochemie des kurzen RNA-Polymers ab, ob es die Polymerisation von D- oder L-Aminosäuren zu Peptiden katalysiert (Russell & Hall, 2006, S. 20). Dieser Filter wäre ausreichend, die Chiralitäts-Waage nach einer Seite ausschlagen zu lassen und so zur Homochiralität zu führen: Obwohl in der anorganischen Blase zunächst ein heterochirales Gemisch vorliegt, würden Aminosäuren mit derselben Konfiguration am Alpha-Kohlenstoffatom und damit ähnlicher Stereochemie bevorzugt polymerisiert, so dass schließlich eine Population einheitlicher Händigkeit entstünde (Martin & Russell, 2003). Der Ursprung der Bausteine der Basen ist in Martin und Russell (2007) besprochen. Kohlendioxid und Formylphosphat sind an der Synthese von Purin und Carbamoylphosphat beteiligt. Glycin, Aspartat und Glutamin, die ebenfalls zur Synthese der Basen beitragen, sind Produkte von Transaminasereaktionen im hydrothermalen Reaktor (vgl. Huber und Wächtershäuser, 2003; Marin & Russell, 2007; Berg et al. 2007).



    zu 3.

    Auch wenn die Membran zu durchlässig sein mag, um ein „dauerhaftes elektrochemisches Potenzial“ zu ermöglichen, haben wir schon vor einiger Zeit nachgewiesen, dass sie dicht genug ist, um unter den Bedingungen auf der primitiven Erde mindestens 45 Minuten lang eine Spannung von 600 Millivolt aufrecht zu erhalten (Russell & Hall, 2006, Abb. 15). In neueren Untersuchungen blieb die Spannung sogar mehrere Stunden verlustfrei bestehen. Der Hintergrund der Frage ist natürlich, dass es einen starken evolutionären Druck zur Entwicklung hydrophober Polymere gab. Es ist jedoch ein „vivozentristischer“ Fehlschluss, aus Annahmen über die präbiotische Chemie abzuleiten, dass Lipide die ersten Membranen gebildet haben müssen. So unterscheiden sich die Lipide von Eu- und Archaebakterien in Zusammesetzung und Stereochemie der Gruppen am Glycerin: Erstere enthalten Fettsäureester, letztere Isoprenoidäther. Das aber bedeutet, dass sich diese in den Genen codierten Eigenschaften der Lipide erst nach dem Beginn des Lebens in unabhängigen Abstammungslinien entwickelt haben müssen (Martin & Russell, 2003).



    Literatur

    Berg, J.M., J.L. Tymoczko and L. Stryer (2007). Biochemistry, W.H. Freeman, New York

    Huber, C. and G. Wächtershäuser, (2003). Primordial reductive amination revisited: Tetrahedron Letters 44: 1695–1697

    Martin, W. and M.J. Russell (2003). On the origin of cells: An hypothesis for the evolutionary transitions from abiotic geochemistry to chemoautotrophic prokaryotes, and from prokaryotes to nucleated cells. Philosophical Transactions of the Royal Society of London, series B 358: 27-85

    Martin, W. and M.J. Russell (2007). On the origin of biochemistry at an alkaline hydrothermal vent. Philosophical Transactions of the Royal Society of London (Ser.B) DOI 10.1098/rstb.2002.1183

    Milner-White, E.J. and M.J. Russell (2005). Nests as sites for phosphates and iron-sulfur thiolates in the first membranes: 3 to 6 residue anion-binding motifs. Origins of Life and Evolution of the Biosphere 35: 19-27

    Pal, D., Suehnel, J., and Weiss, M. (2002). New principles of protein structure: nests, eggs and what next? Angewandte Chemie 41: 4663-4665

    Russell, M.J. and A.J. Hall (2006). The onset and early evolution of life. In S.E. Kesler and H. Ohmoto Eds., Evolution of Early Earth’s Atmosphere, Hydrosphere, and Biosphere—Constraints from Ore Deposits, Geological Society of America, Memoir 198, p. 1-32

  • Schlummernde Begabungen

    27.12.2006, Roland Maier, Riemerling
    Kim Peek ist ein "Inselbegabter" mit herausragenden Gedächtnisleistungen einerseits und mit gewissen Defiziten in der Bewältigung des Alltags andererseits.
    Offensichtlich kommt es immer wieder vor, dass durch Entwicklungsstörungen und Schädigungen des Gehirns beziehungsweise dessen linker Hälfte Spitzenbegabungen in Erscheinung treten.
    Entgleisungen in der embryonalen Entwicklung und Verletzungen des Gehirns sind von Natur aus ein zufälliges Ereignis. Auch wenn in Folge eines solchen Ereignisses eine Reihe von durchaus geordneten Reparaturmechanismen ablaufen, so bleibt die eigentliche Ursache doch von statistischer Natur.
    Hier stellt sich zwangsläufig die Frage, wie ausgerechnet so ein kompliziertes Organ wie das menschliche Gehirn durch zufällige Beeinflussung Spitzenleistungen hervorbringen kann. Es gibt sonst weder in der belebten noch in der unbelebten Natur Beispiele, in denen sich komplizierte (und nützliche) Systeme nach Schädigungen verbessern.
    D.A. Treffert und D.D. Christensen schreiben: "... die rechte Hemisphäre ist nun vom Joch der linken Hirnseite befreit, die in der Regel als dominant gilt und in manchem über die rechte Seite bestimmt. Deswegen vermag die rechte Hemisphäre nun einige ihr innewohnende Fähigkeiten hervorzubringen, die sonst schlummern."
    Allgemein würde das Folgendes bedeuten:
    1. Der normale Mensch hat wesentlich mehr Intelligenz als er nutzen kann.
    2. Es birgt Bereiche im Gehirn, die Intelligenz unterdrücken.
    Damit ließe sich die obige Frage beantworten. Wenn die Verletzungen oder Störungen den Bereich betreffen, der Intelligenz unterdrückt, so können mehr vorhandene Fähigkeiten genutzt werden. Es wurde eine Störung gestört und dadurch eine Verbesserung erzielt. Vermutlich werden je nach Betroffenheit der Störbereiche unterschiedliche Begabungen "befreit".
    Seitens der Medizin wird versucht, den Mechanismus dieser Unterdrückung zu verstehen. Es handelt sich jedoch nicht nur um ein medizinisches Problem. Viel wichtiger erscheint mir die Frage, wie sich so etwas überhaupt entwicklungsgeschichtlich bilden konnte. Es ist nicht vorstellbar, dass Fähigkeiten und deren komplette Unterdrückung gleichzeitig entstehen können, denn die Evolution selbst ist nicht schizophren.
    Die Begabungen einerseits und deren Gegenspieler andererseits müssen also nacheinander entstanden sein - die Begabung zuerst.
    Üblicherweise entwickeln Organismen nur dann Fähigkeiten, wenn ein Selektionsdruck vorhanden ist. Auch die Begabungen von Savants können ursprünglich nur dadurch entstanden sein, dass es Vorfahren gab, die diese unter einem entsprechenden Selektionsdruck ausbildeten. Das würde aber bedeuten, dass es früher Menschen gab, die mit einem besseren Intellekt ausgestattet waren als die heutigen. Aus Schädelfunden weiß man, dass das durchschnittliche Gehirnvolumen der Europäer in den letzten Jahrtausenden ständig abgenommen hat (SdW 9/1995). Reste der frühen Fähigkeiten würden heutzutage als Inselbegabung in Erscheinung treten. Ein Puzzle dieser Reste könnte den Horizont dieser früher lebenden Menschen ergeben, den ich als Frühintelligenz bezeichnen möchte.
    Warum aber unterdrückt das Gehirn seine eigenen Fähigkeiten? Wozu bildet das Gehirn Bereiche aus, die andere Teile lahm legen? Ich denke, dass man diese Frage durchaus kontrovers diskutieren könnte. Hier ein paar Ansätze:
    - Die Intelligenz des Einzelnen wurde mit der Änderung der Lebensform immer weniger lebensnotwendig. Fehlender Selektionsdruck führte zu Rückbildungen.
    - Die in SdW 9/1995 beschriebenen "Energiesparmaßnahmen" begünstigten Rückbildungen.
    - Die entsprechenden Bereiche des Gehirns wurden für andere Aufgaben benötigt.
    - Soziale Strukturen bevorzugten (beziehungsweise erzwangen?) angepasste und weniger intelligente Individuen. Man denke an tragische Schicksale großer Erfinder.
    Die menschliche Intelligenz spielt in unserem Dasein immer noch die zentrale Rolle. Insofern dürfte es für eine Reihe von Disziplinen höchst interessant sein, sich mit der historischen Entwicklung der Leistungsfähigkeit dieses Organs zu befassen.
  • Keine plausiblen und überzeugenden Alternativtheorien

    27.12.2006, Reiner Vogels, Swisttal-Odendorf
    Sowohl beim Lesen des Editorials von Reinhard Breuer als auch beim Lesen des Essays von Michael Springer ist es mir erneut gegangen wie so oft, wenn ich Texte lesen, in denen sich Naturwissenschaftler über das Verhältnis von Glaube und Vernunft äußern. Immer wieder bin ich erstaunt, mit welcher Selbstsicherheit und welcher Unangefochtenheit Naturwissenschaftler den Anspruch zu erheben scheinen, sie hätten die Grundfragen der Wirklichkeit gelöst oder sie verfügten doch zumindest über die Methoden, mit denen die Antwort auf diese Fragen gefunden werden könne. Immer wieder bin ich erstaunt, dass manche der Naturwissenschaftler dann sogar zur Haltung einer gewissen Indolenz gegenüber den Vetretern des Glaubens zu neigen scheinen.

    Dabei sind die Ansprüche der Naturwissenschaftler in gar keiner Weise durch die Fakten gedeckt. Es ist nun einmal bis auf den heutigen Tag so, dass die Naturwissenschaft, was die Grundfragen des Seins und des Lebens betrifft, den Schöpfungsmythen des Glaubens keine plausiblen und überzeugenden Alternativtheorien hat entgegenstellen können.

    Das gilt ja schon auf dem ureigensten Gebiet der Naturwissenschaft selbst, auf dem Gebiet also, auf dem es eigentlich keinen Konkurrenzkampf zwischen Vernunft und Glaube geben sollte:
  • Bitte nicht nochmal

    26.12.2006, Heiner Schilling, Darmstadt
    Selten habe ich mich als langjähriger Abonnent über einen Spektrum-Artikel so geärgert. Da wird kostbarer Raum für die epische Darstellung verschwendet, daß Genie zu 90 % aus Transpiration und zu 10 % aus Inspiration besteht. Na ja, vielleicht nicht Spektrum-Stil, kann aber passieren. DARF ABER NICHT ALS AUFMACHER PASSIEREN!

    Die Behauptung, daß Anlagen, Talent im Vergleich zur Motivation nur eine untergeordnete Rolle spielen, die man nur - möglichst bereits pränatal - kräftig drillen müsse, kommt einer Arbeitsgarantie für Familientherapeuten nahe, die sich bereits kräftig über volle Praxen mit am Ehrgeiz der Eltern gescheiterter Kinder freuen dürfen.

    Ich wäre gespannt über die Ergebnisse einer vergleichenden Studie über Alkoholismus von Q1-Fussballern, die es trotz brennender Motivation nicht geschafft haben.

    Kleiner Tipp: Der Farbenblinde wird kein Maler, der Zwergwüchsige scheitert im Basketball, wem Gott - an den ich nicht glaube - kein gutes Gehör geschenkt hat, der sollte besser seinen Ehrgeiz nicht auf Musik lenken.

    Förderung - auch früh: Ja bitte! Rücksichtsloser Drill, nein Danke.
  • Funktionsweise Atkinson-Motor fehlerhaft beschrieben

    25.12.2006, Martin Schlöter, Reichensachsen
    (Die erwähnte Antwort des Autors Reinhard Löser finden Sie in den Leserbriefen Heft 1/07. Die Red.)

    Ich bin der Meinung, dass die Beschreibung der Funktionsweise des Atkinson-Motors durch Herrn Löser als Antwort auf den Leserbrief von Dr.-Ing. H.-W. Lorch nicht korrekt ist.
    Generell geht es beim Atkinson-Motor darum, das Verhältnis zwischen dem Zündvolumen des Gasgemisches und der Ausdehnung im Arbeitstakt zu maximieren, um den thermodynamischen Wirkungsgrad zu verbessern. Im Idealfall wäre es wünschenswert, den Kolben bis ins Unendliche arbeiten zu lassen, das Abgas hätte dann Umgebungstemperatur, alle Energie des Verbrennungsvorgangs wäre ausgeschöpft, was aber praktisch natürlich nicht umsetzbar ist.
    Der Original-Atkinson-Motor 1886 hatte eben keine spezielle Ventilsteuerung, sondern verlängerte über eine komplexe Hebelmechanik den Arbeitshub des Motors, um dieses Ziel zu erreichen. Dieses Bauprinzip war aber sowohl wegen des Volumens als auch wegen der bewegten Massen ungeeignet für kompakte, hochdrehende Motoren.
    Moderne Konstruktionen nach dem Atkinson-Prinzip erhöhen stattdessen das rechnerische Kompressionsverhältnis des Motors, ähnlich wie bei einem Diesel. Um aber Selbstzündung des Gemisches zu verhindern, werden die Einlassventile spät geschlossen, ein Teil des Gemisches weicht im Kompressionstakt zurück in den Einlassbereich, die effektive Kompression wird dadurch niedriger und Selbstzündung verhindert.
    Es wird im Prinzip also Füllungsgrad und damit Leistung gegen Wirkungsgrad und damit Ökonomie getauscht.
    Leistungssteigerung ist genau nicht der Punkt bei diesem Bauprinzip.

  • Ist Hirnforschung geistfeindlich?

    23.12.2006, Dr. Armin Tippe 85247 Schwabhausen
    Bei dem von Michael Springer betonten besonderen Widerstand gegen die Hirnforschung wird stets die angebliche Inkompetenz von Naturwissenschaftlern in Fragen des Leib/Seele-Problems behauptet. Der "Leib-Anteil" dieses Problemkomplexes (z.B. Struktur und Funktionsweise des Gehirns) erhält aber erst jetzt mit der modernen Neurobiologie einen kompetenten Sachvertreter - er war davor völlig unbekannt. Das hinderte bekanntlich nicht, diesen Anteil als nur materiell und daher ontologisch unwesentlich zu disqualifizieren. Heute kann das Problem neu diskutiert werden und die Naturwissenschaft muss dabei als Anwalt für den bisher so verteufelten Leib auftreten dürfen.
  • Die wahren Ursachen der Arbeitslosigkeit

    23.12.2006, Dr. Bernd Lehnemann, Frankfurt am Main
    Die hauptsächliche Erklärung der anhaltend hohen Arbeitslosigkeit in den Volkswirtschaften Europas ist meines Erachtens keine der im Artikel angegebenen. Die Feststellung, der Arbeitsmarkt sei kein Markt wie jeder andere, ist sicherlich zutreffend, wie auch die genannte "Friktionsarbeitslosigkeit" einen Teil des Problems erklärt. Wesentlich stärker dürfte jedoch in den Ländern Europas der Einfluss staatlicher Alimentation nichtarbeitender Bevölkerungsteile sein – der Status als "Arbeitsloser" - genauer: "Arbeitssuchender" – ist in vielen Ländern Voraussetzung für die Berechtigung, staatliche Unterstützungszahlungen zu empfangen. Infolgedessen sind viele "arbeitslos" gemeldete Personen nicht arbeitssuchend, sondern lediglich deswegen "arbeitslos" gemeldet, um die damit verbundenen Unterhaltszahlungen zu erhalten (auf die im Allgemeinen ja auch ein Rechtsanspruch besteht).


    Insbesondere im Bereich niedriger Lohnniveaus spielt auch die Höhe dieser Transferzahlungen eine Rolle: Wenn ein Arbeitsloser Unterstützungszahlungen im Gegenwert von 800 Euro bezieht, lohnt es für diesen nicht, eine mit 900 Euro netto dotierte Stelle anzunehmen, da er damit lediglich einen effektiven Lohn von 100 Euro pro Monat bezieht. Dieses Argument für die Nichtannahme einer vorhandenen Arbeitsstelle wiegt umso stärker, je höher das Unterstützungsniveau und je niedriger das mit der vorhandenen Qualifikation erreichbare Lohnniveau liegt, erklärt also einen großen Teil der Sockelarbeitslosigkeit in minderqualifizierten Bevölkerungsteilen.


    Sicherlich geringer, aber durchaus vorhanden ist auch ein "motivationsdeckelnder" Effekt der Steuerprogression. Viele hoch qualifizierte Beschäftigte arbeiten lieber weniger und nehmen dafür einen geringeren Bruttolohn in Kauf, als ihnen potenziell offenstände, da die Progression der Einkommensteuer dazu führt, dass eine vergleichsweise starke Zusatzanstrengung lediglich zu einem unterproportional starken Anstieg des verfügbaren Nettogehalts führt. Gesellschaftlich gesehen führt dies dazu, dass an sich überqualifizierte Arbeitnehmer Stellen besetzen, die auch mit etwas geringer Qualifizierten besetzt werden könnten, wenn die augenblicklichen Stelleninhaber zu höherer Wertschöpfung bereit wären (und die Möglichkeit dazu hätten, was natürlich oft nicht gegeben ist, da wenige entsprechende Stellen vorhanden sind, wie zum Beispiel für akademisch gebildete Gesellschaftswissenschaftler – Fehlallokation von Bildungsressourcen ist jedoch ein anderes Thema).


    Zusammenfassend läßt sich feststellen, dass die finanzielle Unterstützung von Nichtarbeit und die progressive Belastung von Arbeit das Produktivitätsgefüge einer Volkswirtschaft insgesamt zu geringerer Wertschöpfung verschieben und die ohnehin nur zu geringer Wertschöpfung Befähigten überwiegend aus produktiver Tätigkeit herausdrängen.

  • Nicht zu optimistisch werden!

    21.12.2006, Jürgen Busch, Limburg
    Der Artikel war sehr interessant. Allerdings fand ich die (bei genauem Lesen vorhandenen) Warnungen vor übertriebenen Hoffnungen auf fehlerfreie Software durch den Einsatz automatischer Prüfsoftware für zu schwach. Es wurde eher das Gegenteil der Erwartung der Utopie von möglicher Null-Fehler-Software erzeugt.

    Software wie Alloy einzusetzen halte ich für grundsätzlich wichtig, um die Fehlerzahl zu reduzieren! Und ich bezweifle in keiner Weise die Fähigkeit von Alloy und anderen Tools, Fehler zu finden. Ich bezweifle nur die Fähigkeit, alle Fehler (im Design) zu finden, wenn das Projekt hinreichend groß wird.

    Software-Designs werden auch so nicht 100-ig fehlerfrei werden. Schließlich sind auch Alloy und Co. nur Programme, die selbst der Unvollkommenheit unterliegen.

    Für den unverdaulichsten Brocken des Beitrags halte ich allerdings die Aussage, (heute bereits, oder auch nur in naher Zukunft) ein Googol (10^100) Zustände vollständig(!) testen zu können!

    Dazu eine Abschätzung: Wenn man ein ganzes Jahr Zeit hat und auch nur eine Yocto-Sekunde (10^-24 sec) benötigt, um einen Zustand zu verifizieren, muss man mehr als 3*10^68 Zustände gleichzeitig (!) bewerten.

    Mit welcher "einfallsreichen Codierungstechnik" kann man solch "große Sätze an Softwarezuständen kompakt darstellen und simultan betrachten"?

    Selbst wenn ich 10^23 Zustände in einem einzelnen Atom gleichzeitig darstellen könnte, wäre immer noch ein (1-Atom-RAM) Speicher mit einer Teilchenzahl in der Größenordnung mehr als 5*10^21 Mol notwendig.

    Und das alles selbst dann noch, wenn ich mir ein Jahr Zeit lasse und jede simultane Bewertung der mehr als 3*10^68 Zustände mehr als 33000mal schneller abläuft, als ein Photon braucht, die Strecke von einem Angstroem zu durchqueren.

    Eine Codierungstechnik, die das kann, würde übertragen (fast) alle meine Probleme lösen.
Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.