Direkt zum Inhalt

Kommentare - - Seite 907

Ihre Beiträge sind uns willkommen! Schreiben Sie uns Ihre Fragen und Anregungen, Ihre Kritik oder Zustimmung. Wir veröffentlichen hier laufend Ihre aktuellen Zuschriften.
  • Sogar 9734 Lösungen ...

    21.03.2012, Klaus Rumrich
    ... hat das falsch abgedruckte Rätsel, wie eine erschöpfende Suche auf meinem nicht allzu schnellen Notebook innerhalb einer Sekunde ergab.
  • Instantan?

    21.03.2012, Dr. Michael Komma
    Eine Anmerkung zu der Textstelle: "fällt das Atom annähernd instantan wieder zurück":

    Sowohl die klassische Beschreibung als auch die quantenmechanische verwenden das Lorentz-Modell, in dem das Coulombpotential durch das Potential des harmonischen Oszillators ersetzt wird. Bei der klassischen Beschreibung ist dabei die Auslenkung des Elektrons frequenzabhängig (Lorentzlinie). Die quantenmechanische Beschreibung macht weder über die "Auslenkung eines Elektrons" noch über den zeitlichen Ablauf des Vorgangs eine Aussage, sondern nur über Wahrscheinlichkeiten (Streuquerschnitte). Die Aussage "fällt das Atom annähernd instantan wieder zurück in seinen Grundzustand und sendet dabei ein Photon aus" macht also keinen Sinn. Wie lange dauert "annähernd instantan" z.B. beim Durchgang von Licht durch Luft? Etwas ernsthafter und "in groben Zügen":

    Bei der quantentheoretischen Herleitung der Dispersionsformel (genauer des Streuquerschnitts) wird der Hamiltonoperator für die Wechselwirkung der Strahlung mit dem Elektron in zwei Anteile zerlegt: Erste Ordnung (linear im Vektorpotential A) und zweite Ordnung (quadratisch in A). Der Term zweiter Ordnung ist dispersionsfrei (Thomsonstreuung, "Resonanzfrequenz" des freien Elektrons gleich 0). Beim Term erster Ordnung muss über alle Zwischenzustände (bis ins Kontinuum) summiert werden. Dabei handelt es sich um virtuelle Zwischenzustände ohne Energieerhaltung.

    Aber es kommt noch schlimmer: Bei der Summation über die Zwischenzustände müssen auch Zustände berücksichtigt werden, in denen das "emittierte" Photon schon im Anfangszustand vorhanden ist und das "ankommende" Photon erst beim Übergang in den Endzustand absorbiert wird. Selbst wenn man die Reihenfolge, in der die Operatoren der Quantenmechanik angewendet werden, mit einer zeitlichen Abfolge verwechselt, mittelt sich "annähernd instantan" also heraus zu einer "simultanen Absorption und Emission".
  • Bilingual

    21.03.2012, Berry
    Bei bilingualen Personen "hängen sogar grundlegende Vorlieben und Abneigungen von der Sprache ab, in der danach gefragt wird." Ich kenne die Studien nicht, und vielleicht haben sie Folgendes auch ausschließen/berücksichtigen können, aber ich möchte gern ein Argument aus meiner Situation dagegen bringen: Ich bin die ersten 12 Jahre meines Lebens in den Niederlanden aufgewachsen, seit 11 Jahren wohne ich nun in Deutschland. Beim beschriebenen Effekt liegt das auch stark daran, auf welchen Lebensabschnitt ich die Frage beziehe. Selbstverständlich haben sich meine Interessen sehr gewandelt, gerade in dem jugendlichen Alter. Da spielen also weitaus mehr (auch kulturelle) Faktoren rein, als nur die Sprache selbst.
  • Das falsche Rätsel ist viel schwieriger als das richtige

    21.03.2012, Theodor Hatt
    Aus Anlass des Druckfehlers auf S. 18 habe ich eine überraschende Entdeckung gemacht: Im fehlerbehafteten Rätsel findet man mit den trivialen Strategien noch 15 Zahlen, nachher helfen auch die computergestützten höheren Strategien nicht mehr weiter. Ich habe nun erwartet, dass das richtige Rätsel einen "hohen" Schwierigkeitsgrad aufweist - aber nein, die trivialen Strategien, eben Papier und Bleistift, reichen vollständig aus. Im Originalartikel habe ich noch den Hinweis gefunden, dass es bis heute ca. 50000 bekannte Rätsel mit 17 Anfangszahlen gibt und dass diese publiziert sind. Ich habe noch 2 davon "geholt" und siehe da, auch diese sind einfach lösbar. Dies ganz im Gegensatz zum "Gefühl", dass ein Rätsel mit so wenig Zahlen doch sehr schwierig sein müsste ...
  • Denkvorhänge wirklich nicht durch Medikation beeinflußbar?

    20.03.2012, Thinker
    "Man glaubte, bestimmte Erkrankungen bald umfassend beheben zu können: Schizophrenie sei durch künstliche Ankurbelung des Dopaminsystems heilbar und Depression durch entsprechende Steigerung des Serotoninhaushalts. Nichts davon hat sich bewahrheitet. Vielmehr scheint mit diesen Hypothesen etwas grundlegend falsch zu sein. Kein Mittel, das auf ihrer Grundlage entwickelt wurde, ist von durchschlagendem Erfolg."

    Hier möchte ich aus eigener Erfahrung widersprechen. Aus dem engen Freundeskreis stellte uns eine Person vor großes Rätselraten und Erstaunen, nachdem diese immer mehr völlig realitätsferne Wahnvorstellungen entwickelte. Wir alle wären Teil eines Komplotts und würden die Person auch mit Kameras überwachen. Die Person verkroch sich voller Panik zu Hause, und man konnte kein normales Gespräch mit ihr führen - wirklich sehr unheimlich und verstörend. Denn zuvor war diese sehr umgänglich und unauffällig!

    Es stellte sich heraus, dass die Person über die Jahre regelmäßig eine gewisse Dosis Neuroleptika einnahm, welche sie eigenmächtig abzusetzen versuchte. Prompt glitt der Patient in eine immer abstrusere Psychose. Nachdem es der Familie gelungen war, die Person zur Wiederaufnahme der Medikamente zu bewegen, war sie wieder völlig "normal", und die Vorwürfe (etwa: wir hätten sie verfolgt, beobachtet und sogar Überwachungskameras in den Räumen installiert) waren ihr im Nachhinein sehr peinlich.

    Ich denke nicht, dass es sich um einen Einzelfall handelt und wüsste nicht, was - wenn nicht die Medikation - diese völlig drastische Wahrnehmungsveränderung und den völligen Verlust zur Realität ausgelöst und beeinflusst haben sollte!
  • Klimawandel - einseitige Darstellung und Rezension

    20.03.2012, Werner Kohl
    In Ihrer Artikelserie über die Folgen des Klimawandels (April-Heft 2012) wird der anthropogene Klimawandel in Richtung Katastrophe bis Ende dieses Jahrhunderts einfach als gegeben hingenommen und nicht hinterfragt. Passend dazu ist der Verriss des Buches „Kalte Sonne“ von Vahrenholt/Lüning durch Sven Titz.

    Das IPCC stellt in seinem 4. Report (2007) nicht nur Horrorprognosen für den Klimawandel bis 2100, sondern auch Kurzzeit-Prognosen (http://www.ipcc.ch/publications_and_data/ar4/wg1/en/spmsspm-projections-of.html) für die beiden folgenden Dekaden mit einer Temperaturerhöhung von jeweils 0,2°C pro Jahrzehnt. Letzteres steht im Widerspruch zum beobachteten Temperaturplateau, das sich seit fast 14 Jahren in praktisch allen offiziellen Datenreihen findet. Z.B. zeigt der globale HadCRUT3v-Datensatz (http://www.cru.uea.ac.uk/cru/data/temperature/) einen Temperaturrückgang zwischen 2002 und 2012 von 0,1°C. Im gleichen Zeitraum ist die CO2-Konzentration unverändert angestiegen.

    Dass die Hockeyschlägerkurve mit dem weitgehend konstanten Temperaturverlauf bis ins 19. Jahrhundert hinein mit anschließend steilem Anstieg Unsinn ist, muss ich nicht extra erwähnen. Während des gesamten bisherigen Holozän gab es ein Auf und Ab in den Temperaturverläufen, die sich im Verlauf der CO2-Konzentration (wird vor dem 19. Jahrhundert als weitgehend konstant angenommen) nirgendwo widerspiegeln. Beispielsweise zeigt die Temperaturanalyse des Eisbohrkerns "Greenland GISP2 Ice Core" von David Lappi (http://jonova.s3.amazonaws.com/graphs/lappi/gisp-last-10000-new.png) u.a. folgendes Bild:
    - Während der Mittelalterlichen Warmzeit lag die Eiskerntemperatur um ~1° C über der heutigen Temperatur.
    - Während des Römeroptimums war die Temperatur nochmals ~1°C höher.
    - Übertroffen wurde diese Eiskerntemperatur in der Minoischen Warmzeit um weitere ~0,9°C.
    Dies waren alles Zeiten ohne Erhöhung der CO2-Konzentration (übrigens auch Zeiten, in denen die Menschheit Zivilisationsschübe erlebte). Dieser Verlauf wird auch von anderen Temperaturreihen bestätigt, so dass für die vergangenen Warmphasen des Holozän ähnliche oder sogar leicht höhere Temperaturen im Vergleich zu heute angenommen werden.
    Auch nicht durch Änderungen der CO2-Konzentration erklärbar sind die Kaltzeiten (diese führten zur Verschlechterung der Lebensbedingungen) dazwischen wie beispielsweise die „Kleine Eiszeit“. Kürzlich geäußerte Vermutungen, dass diese Kaltzeiten durch gehäufte Vulkanaktivitäten verursacht sind, sind reine Spekulation, da sich diese Ausbrüche bisher nicht nachweisen ließen.

    Wenn lediglich für die letzten ~150 Jahre eine gewisse zeitliche Korrelation zwischen CO2- und Temperaturanstieg vorliegt, dann halte ich es für eine äußerst gewagte Hypothese, hier einen kausalen Zusammenhang zu sehen. CO2 hat als Treibhausgas sicher einen gewissen Einfluss auf die Temperatur. Dieser ist aber vermutlich nur von sekundärer Bedeutung - im Gegensatz zum weitgehend monokausalen Ansatz des IPCC. Die Temperaturabfälle zwischen 1880 und 1910 sowie zwischen den 40er und 70er Jahren des 20. Jahrhunderts können mit der CO2-Hypothese genausowenig erklärt werden wie das derzeitige Temperaturplateau. In den Zeiten vor ~1850 gab es sowieso keinerlei Korrelation.
    Ich frage mich, wie man Prognosen bis zum Jahr 2100 anstellen will (die Forscher sprechen übrigens von „Szenarien“), wenn der Verlauf im Holozän weitgehend nicht mit der CO2-Hypothese vereinbar ist.

    Vahrenholt/Lüning zeigen recht plausibel, dass andere Einflüsse wie z.B. der Svensmark-Effekt (dessen Mechanismus u.a. beim CLOUD-Experiment am CERN in ersten Tests verifiziert wurde) den Großteil des Temperaturverlaufs ziemlich zwanglos erklären können. Diese Mechanismen sollten endlich von Gremien wie dem IPCC gewürdigt werden. Svensmark ist übrigens der Rezension von Sven Titz zuvorgekommen, indem er eine Arbeit eingereicht hat (http://arxiv.org/abs/1202.5156v1), die den erfolgreichen experimentellen Nachweis der Akkretion der durch kosmische Strahlung gebildeten Aerosol-Partikel zu Kondensationskeimen für Wolkenbildung beschreibt.

    Der globale Temperaturanstieg um ~0,8°C seit 1850 erscheint schon allein deshalb nicht bedrohlich, da er durch den Übergang zwischen Kleiner Eiszeit und einer (Zwischen-) Warmzeit bedingt ist. Ob die derzeitige Warmzeit anhält, zu weiteren Temperaturerhöhungen führt oder wegen der derzeitigen Abschwächung der Sonnenaktivität in einen erneuten Temperaturabfall umschwenkt, lässt sich m.E. anhand der Datenlage nicht prognostizieren. Voreilige und aktionistische Maßnahmen zur Eindämmung eines angenommenen weiteren Temperaturanstiegs halte ich für sinnlos und wegen der ungeheuren Kosten und Einschnitten im privaten Leben für katastrophal. Ein Umbau der Energieversorgung ist langfristig notwendig - aber nicht aus Gründen des Klimawandels.
  • Das Übel ist nicht der Mensch an sich, es ist die Globale Gesellschaft

    20.03.2012, Pillon
    Das Problem ist Korruption, Gier, Geld und Macht.
    Nashornpulver können sich doch nur Menschen leisten, die diese vier Kriterien erfüllen. Die Wilderer, die die Nashörner ohne Gewissen töten und dafür sehr viel Geld bekommen, woher bekommen sie das Geld?
    China hat die meisten Millionäre auf der Welt, die können sich das leisten. Eigentlich denkt man das erfolgreiche Menschen einen doch hohen EQ besitzen, aber weit gefehlt.

    Das Geld kann man besser anlegen, aber dazu benötigt man auch Intelligenz. Korruption war schon immer ein Bestandteil des menschlichen Daseins. Wir können nur die Politik dazu anregen, endlich mit allen Mitteln dazu beizutragen und die korrupten Stellen zu bekämpfen, die dies möglich machen. Leider regiert aber die Wirtschaft die Politik und die, die Wirtschaft regieren, sind die korrupten Menschen.

    Was ist das Fazit? Ich kann mir kein Pulver leisten, egal was für eins und die meisten Menschen auf der Welt auch nicht. Also gegen wen muss man hier vorgehen? Leider sind es nicht die einzigen Tiere auf der geliebten Welt, die von uns bedroht sind. Ich bedanke mich für Ihr Nachdenken.




  • Erwärmungspause?

    19.03.2012, Jessy Parker
    Wie lange kann eine Erwärmungspause denn dauern? Nach jahrelangem Gezanke und Gekreische darf man jetzt endlich von "Erwärmungspause" reden, ohne gebrandmarkt zu werden.

    Ist die Klimatologie des katastrophalen menschgemachten Klimawandels überhaupt noch falsifizierbar? Ab wann darf man berechtigte Zweifel an der Theorie äußern?
  • Nur teilweise überzeugend

    19.03.2012, stefle
    Sehr interessanter Artikel. Bisher war ich immer sehr skeptisch gegenüber der These, dass Sprache das Denken in gewisser Weise vorherbestimmt. Man muss natürlich sorgfältig bloße Korrelationen von Kausalzusammenhängen unterscheiden, ein klassisches Problem (http://de.wikipedia.org/wiki/Korrelation#Korrelation_und_Kausalzusammenhang). Leider geht die Autorin erst sehr spät darauf ein. Wie die Kausalzusammenhänge aussehen sollen, wird im Einzelnen leider nicht analysiert, aber es dürfte selbstverständlich sein, dass Sprache nicht eine eigene, "wirkmächtige" Entität ist, die ein bestimmtes Verhalten "erzwingt".

    Ich würde dem Kommentar von Stephan Fröde unbedingt zustimmen. Auch ich sehe viele Einzelheiten kritisch. Wenn z.B. erklärt wird "Bringt man Menschen zum Beispiel neue Farbwörter bei, verändert dies ihre Fähigkeit, Farben zu unterscheiden." - soll ich dann davon ausgehen, dass ein Mensch, der diese neuen Farbwörter nicht kennt, zwei verschiedene, direkt nebeneinander gedruckte Farben möglicherweise als eine farbgleiche Fläche sieht? Es geht hier doch wohl eher um eine bestimmte Form der Wahrnehmung, die sehr viel mit Aufmerksamkeit zu tun hat. Wenn für eine bestimmte Kultur die Unterscheidung bestimmter Farbwerte eine wichtige Rolle spielt, ACHTET man eben mehr auf diese Unterscheidung. Ob das auch eine sprachliche Entsprechung hat, ist eher nachrangig (wenn auch wahrscheinlich). Aus diesem Grund überzeugt mich auch das Beispiel mit den Himmelsrichtungen überhaupt nicht.

    Manchmal drückt sich die Autorin so vage aus, dass es mich schüttelt:

    "Wir zum Beispiel betrachten die Zukunft als "vorn" und die Vergangenheit als "hinten"."

    - "hinten" kann aber sowohl hinter mir (hinter meinem Rücken) liegen, als auch vor mir - als synonym für "weit entfernt" - und das wiederum wäre selbstverständlich eine mögliche Metapher für die entfernt liegende Zukunft, ganz im Gegensatz zur Behauptung des Artikels.

    Ich verstehe auch nicht, welche Schlussfolgerungen das folgende Experiment erlauben soll:
    "Selbst wenn Menschen einfache Aufgaben lösen – etwa Farbflecken unterscheiden, Punkte auf einem Bildschirm zählen oder sich in einem kleinen Raum orientieren –, brauchen sie die Sprache. Wie meine Kollegen und ich herausgefunden haben, sinkt die Fähigkeit, solche Aufgaben auszuführen, wenn man den Zugriff auf die Sprachfertigkeit einschränkt. Dies lässt sich bewerkstelligen, indem man die Versuchsperson zugleich mit einer anspruchsvollen verbalen Aufgabe wie dem Wiederholen einer Nachrichtensendung konfrontiert."

    Die Autorin sollte wissen, dass Zählen größtenteils eine sprachliche Handlung ist (auswendiges Aufsagen einer Zahlenreihe), zumindest, wenn die Anzahl der zu zählenden Objekte größer ist, als dass man sie direkt auf einem Blick erfassen könnte.

    Ich glaube aber, dass die Autorin in einem gewissen Umfang recht hat. Sie sagt ja selbst, dass sowohl die Kultur auf die Sprache einwirkt als auch umgekehrt. Insofern ist Sprache konservativ, sie behindert Fortschritt. ("Lock-in-Effekt")

    Am meisten überzeugen mich Beispiele der folgenden Sorte:
    "Darüber hinaus beeinflusst die Struktur einer Sprache auch, wie leicht es ist, etwas Neues zu lernen. Zum Beispiel geben die Zahlwörter in manchen Sprachen die Dezimalstruktur eingängiger wieder als im Englischen, Deutschen oder Französischen; so gibt es im Mandarin keine Ausnahmen wie 11 oder Zifferndreher wie 13 oder 21. Darum lernen chinesische Kinder schneller, mit dem Dezimalsystem umzugehen. Und: Je nachdem, wie viele Silben die Zahlwörter haben, fällt es leichter oder schwerer, eine Telefonnummer zu behalten oder Kopfrechnungen auszuführen."
  • Nicht wirklich zufällig

    19.03.2012, Andreas Berg, Dipl.Inform. Berlin
    In dem Beitrag wird etwas missverständlich formuliert, dass Zufallszahlen nicht wirklich zufällig sind, wenn sie von Computern berechnet werden.

    Richtig müsste es dagegen heißen, dass durch arithmetische Methoden berechnete Zufallszahlen nicht wirklich zufällig sind. Heutzutage haben Computer vielfältige Möglichkeiten, unvorhersagbare Größen für die Erzeugung von Zufallszahlen heranzuziehen, z.B. Wärmesonden, Zeitgeber, Mausbewegungen oder Aktivitäten an den Netzwerkschnittstellen. Diese
    Möglichkeiten werden in der Praxis (z.B. Kryptografie) auch eingesetzt.

    Auch das Thema Korrelationen ist etwas komplexer als beschrieben, denn korreliert können nicht nur einzelne, aufeinander folgende Zufallszahlen sein, sondern in beliebig komplexer Weise beliebige Teilmengen der generierten Zufallszahlen. Die Korrelationen können so verdeckt sein, dass in der Praxis eine Beweisführung kaum möglich ist, ob es Korrelation gibt oder nicht - unabhängig davon ob die Zahlen analog oder digital erzeugt wurden.
  • Ungleicher Kampf gegen einen erfahrenen Gegner

    19.03.2012, Rudolf Mierau, Eschweiler
    Ein Grund für das Scheitern vieler Versuche zur Krebstherapie mit Hilfe des Immunsystems ist sicherlich, dass der Tumor sich bereits seit seiner Entstehung, von Patient und Arzt unbemerkt, mit seinem Feind Immunsystem auseinandergesetzt hat. Er weiß bereits, wie er trotz dieses Immunsystems wachsen und sich ausbreiten kann, wie er sich den T-Lymphocyten, die ihn bekämpfen wollen, entzieht. Der Krebs, dem der Arzt ja erst zu Leibe rücken will, wenn er seiner gewahr wird, ist bereits das erfolgreiche Produkt einer harten Selektion unter dem Druck des Immunsystems. Diese Waffe trotzdem erneut einzusetzen, ähnelt dem Versuch, eine bakterielle Infektion mit einem Antibiotikum zu bekämpfen, von dem man schon weiß, dass die Erreger dagegen bereits resistent sind. Die Erfolgsaussichten für den Autor und sein Unternehmen erscheinen deshalb eher düster.
  • Wie das Denken die Sprachen formt

    19.03.2012, Walter Weiss, Kassel
    Alle wissen es, selbst die Schriftsteller (die es gar nicht gern wahrhaben möchten): Gesprochenes macht keine Revolution, das DENKEN allein bewirkt sie. Nicht die Sprache formt das Denken, sondern genau umgekehrt: Das Denken formt die Sprache - mit dem modernen Werkzeug der Abbildung (im übertragenen Sinn) ausgedrückt: Die Sprache, das Sprechen ist die Abbildung des Denkens auf dem akustischen Medium. Schon das erste Beispiel der Verfasserin stimmt einfach nicht: Natürlich kann die kleine Tochter der australischen Aborigines (im Zweifel unter freiem Himmel gefragt!) auf Anhieb sofort sagen, wo Norden liegt: haben doch ihre Landsleute seit mindestens 1.000 Generationen mühsam lernen müssen, im australischen Busch zurechtzukommen. Dort war und ist es für sie überlebensnotwendig, sich jederzeit örtlich orientieren zu können, also zumindest die Himmelsrichtungen internalisiert zu haben. Und in Europa: auch ein Dummpatz wird es UNTER FREIEM HIMMEL (aber natürlich nicht im geschlossenen Hörsaal!) zuwegebringen, die richtige Himmelsrichtung zu bestimmen. Er sieht ja, wie die Sonne steht, und kennt nachts wahrscheinlich sogar den Nordstern - obwohl seine Vorfahren seit mindestens 2.000 Jahren absolut nicht mehr auf solche Kenntnisse angewiesen sind, um überleben zu können. In diesem Sinn geht es bei den weiteren Beispielen der Verfasserin leider weiter. Bedauerlich, dass ein so falsches Ziel (wenn der Absichtstenor des Artikels und die Überschrift stimmen) so aufwendig und teuer verfolgt wird. Insbesondere fällt auf, dass offenbar keinerlei Erkenntnisse aus der Sprachwissenschaft verwertet werden. Schade - mit genau dem entgegengesetzten Titel ('Wie das Denken die Sprache formt') oder noch präziser 'In welchen Punkten unterscheidet sich das Denken von seiner Abbildung auf das akustische Medium, der Sprache?' hätte es eine sehr interessante Forschung und dementsprechend auch eine sehr interessante Abhandlung geben können.
  • Das Herz liegt links

    19.03.2012, Friedrich Gebhardt
    Wie drückt man in Pormpuraaw "Das Herz des Menschen liegt links" oder "Auf der rechten Hand hat jemand eine Narbe" aus?
  • Zur Rezension „Selbst ist der Mensch“ von A. Damasio

    19.03.2012, H. F. Quackmann
    Sichtweisen und Methoden der Elektronik/Informatik dürften Erklärungen liefern, um die „harte Frage der Philosophie“: „Wie kann etwas Immaterielles wie Bewusstsein aus etwas Unbewusstem wie Materie entstanden sein?“ zu beantworten. Zumindest wenn man das Empfindungsphänomen (Lust, Schmerz) zunächst ausklammert.
    In der Elektronik/Informatik ist die Arbeit mit Beziehungsstrukturen mit oder ohne materiellen Träger (z. B. CD beziehungsweise Funkwellen) alltäglich. Beziehungsstrukturen ohne materiellen Träger (Nichts, Raum, Zeit, Energie …) und ohne Informationsgehalt wären ein Sonderfall im Status der Systementstehung.
    Zur Erklärung trägt eine Art „magisches Dreieck“, bestehend aus Prozessor, Prozess und Information, bei. Zwischen den 3 Eckpunkten können vielfältige Wechselbeziehungen auftreten und so aufeinander Einfluss nehmen. Information kann z. B. mittels (Produktions-)Prozessen und bestehenden Hardwarekomponenten neue Prozessoren generieren. In rascher Abfolge können immer mehr derartige universale „Grundeinheiten“ entstehen. Selbst Atome, Moleküle oder Neurone können als „Prozessoren“ betrachtet werden. Immer mehr neue Information, neue Prozessoren und Prozesse entstehen, die in komplexe Wechselwirkungen treten. Verknüpfen sich Prozessoren systematisch zu „Kettenstrukturen“ (z. B. DNA) oder „Baumstrukturen“ (neuronales Netz, Gehirn), so steigt die Komplexität und damit die Abbildungs- und Wirkungsmöglichkeiten der Verbände extremst an, letztlich bis hin zu Bewusstseinsfunktionen. Eingebundene Sensorik- und Motorikorgane ermöglichen ein erfolgreiches Zusammenwirken mit der Umwelt.
    Information kann aus toter Materie „abgeleitet“ werden (z. B. Musik von der CD), von Information gesteuerte Prozesse (die z. B. einen Roboter steuern) sind möglich und heutzutage alltäglich. Lange schon gibt es DNA und neuronal gesteuerte Systeme in der Biologie, und seit einigen Jahren künstliche, softwaregesteuerte Systeme in der Technik.
    Die Hirnforschung hat nicht nur die Möglichkeit, Aktivitäten im Gehirn zu messen, sondern wird zunehmend die Zusammenhänge der Informationsverarbeitung in neuronalen Systemen besser erkennen und verstehen, weil sie auf Methoden, Sicht- und Funktionsweisen in technischen informationsverarbeitenden Systemen zurückgreifen kann.
    Dies ist deshalb naheliegend, weil elektrische Schalt- und Ladungsprozesse sowohl in Computern als auch in neuronalen Systemen grundlegend für die informationsverarbeitenden Funktionen sind, trotz aller Verschiedenheiten. Man sollte davon ausgehen, dass die Neurophysik und die Neuroinformatik wesentlich zum Grundlagenverständnis in der Hirnforschung beitragen werden.
    Die Philosophen haben Probleme z. B. mit der Klärung der Frage nach dem „Selbst“. Dies ist vom Standpunkt der Informatik verständlich, weil Philosophen einen Dualismus, also die Trennung in Hard- und Software zum Zwecke der Systemanalyse, seit einiger Zeit grundsätzlich ablehnen.
    Es gibt im neuronalen System ein auf Neuronenverbänden abgebildetes „Selbstmodell“, das einerseits genetisch, andererseits von „Vorgängerprozessen“ (Erfahrung) gesteuert entstanden ist. Auf dieser „neuronalen Hardware“ laufen, teilweise vom Input gesteuert, Informationsverarbeitungsprozesse. Unter Einbindung von „Gefühlen“ abbildenden und auswertenden Strukturen wird auf so etwas wie „Ergebnisse“ abbildenden Strukturen („Parameterübergabestrukturen“ im Sinne der Informatik) das „Selbst“ generiert und abgebildet. Empfindungen sind als Antrieb für die selbständige Entwicklung wichtig. Komponenten der Abbildung des „Selbst“ werden auf so etwas wie „Bewusstseinsanzeigestrukturen“ („Felder“ im Sinne der Informatik) zur inneren Wahrnehmung gebracht, ähnlich wie Bilder oder Schrift zuerst auf der Netzhaut abgebildet und umgesetzt und in weiteren Prozessen interpretiert werden. Andere Komponenten können besonderen Output generieren, der ebenfalls vom „Selbst“ ausgeht und das „Selbstmodell“ erweitert. Das Empfindungsphänomen (z. B. Schmerzempfindung) entsteht in besonderen neuronal-elektrisch-chemischen Schaltkreisen. Schmerz kann auch selektiv (z. B. durch örtliche Betäubung) ausgeschaltet werden.
    Es gibt auch in neuronalen Systemen Hardware (Prozessoren) und Software (Prozesse und abstrakte Information) wie in der Informatik mit allen Implikationen. (Prozessoren können z. B. als Prozesse definiert und auf anderen Prozessoren „emuliert“ werden. Kann man sich vorstellen wie einen Kabarettisten, der z. B. Herrn Beckenbauer nachahmt.)
    Möglicherweise haben Denker und Theologen der Frühzeit ehemals, neuzeitlich formuliert, auf ein universales modernes Konzept des „Magischen Dreiecks“ - Prozessor, Prozess und Information – aufbauend, in der Sprache ihrer Zeit das „Trinitätsprinzip“ als allgemein gültig und grundlegend für die „Welterklärung“ eingeführt.
  • Geschichte der Physik

    18.03.2012, Gerhard Regling
    Herrvoragend, doch sicher wird es dafür nur sehr wenige Interessenten geben, denn eine Weiterentwicklung dieser Antriebskraft für Landfahrzeuge hat es nie gegeben - unabhängig davon, dass wir einer Energiekrise entgegensteuern und auch das Wasser knapp werden wird.
Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.