Ihre Beiträge sind uns willkommen! Schreiben Sie uns Ihre Fragen und Anregungen, Ihre Kritik oder Zustimmung. Wir veröffentlichen hier laufend Ihre aktuellen Zuschriften.
Es mag zwar sein, dass kleine Änderungen an Naturkonstanten die Entstehung des Lebens verhindert hätten. Daraus folgt jedoch nicht, dass dies auch für große Änderungen gilt. Wie ich schon von längerer Zeit in der Zeitschrift "New Scientist" gelesen habe, ist unser Universum nicht das einzige, in dem Leben möglich ist. Hierzu gibt es zwei Untersuchungen.
In der ersten wurde im Computer eine der vier Fundamentalkräfte, nämlich die schwache Wechselwirkung, "ausgeknipst". Dazu mussten gleich eine ganze Reihe von Naturkonstanten geändert werden. Das damit berechnete Universum sah deutlich anders aus als unseres, weil unter anderem bestimmte Sorten von Sternen nicht entstehen konnten. Der "ursprüngliche" Weg zur Entstehung des Lebens war ebenfalls "verbaut", aber es gab stattdessen andere Prozesse, die eine Entstehung des Lebens ermöglichten.
In der zweiten Simulation wurden einzelne Naturkonstanten nicht um kleine Beträge modifiziert, sondern beispielsweise gleich um den Faktor 10 geändert. Auch hierbei gab es eine Reihe von Konstellationen, bei denen die Entstehung des Lebens ebenfalls möglich war. Da in dieser Arbeit nur ein winzig kleiner Ausschnitt des Konfigurationsraums untersucht wurde, muss man damit rechnen, dass es noch weitere "Treffer" mit anderen Kombinationen gibt.
Die Frage danach, warum die beobachteten Naturkonstanten exakt die Werte haben, die wir kennen, wartet damit weiterhin auf eine Erklärung. Nach den oben genannten Untersuchungen reicht das von Herrn Lüst ins Spiel gebrachte anthropische Prinzip jedenfalls nicht als Erklärung aus.
Das Prinzip heißt anthropisches, nicht biologisches Prinzip. Das Argument des anthropischen Prinzips bezieht sich auf menschenähnliches - d.h. auf Kohlenstoffbasis mögliches intelligentes - Leben. Der Fantasie bezüglich ganz anderer Formen von Selbstorganisation auf Grund anderer Naturgesetze sind kaum Grenzen gesetzt.
Seit Jahrtausenden wird Ackerland gepflügt – in erster Linie um Unkräuter zu vernichten. Wird nicht gepflügt, so müssen Unkräuter auf andere Weise unter Kontrolle gebracht werden, sonst sind die Nutzpflanzen kaum in der Lage sich zu entwickeln. Ihr hervorragender Artikel vom Mai 2009 ("Bodenschutz durch Verzicht auf Pflügen") zeigt die Vorteile des pflugfreien Anbaus auf: weniger Erosion, Förderungen der Bodenlebewesen, besserer Rückhalt des Wassers, massiv weniger Aufwand für die Bodenbearbeitung usw.
Die Einführung dieser Anbautechnik ist daran, den Ackerbau zu revolutionieren: schon heute werden über 100 Millionen Hektar auf diese Weise bearbeitet. Allerdings geht das praktisch nur unter Einsatz chemischer Herbizide. Dazu sind Herbizid-tolerante Sorten von Mais, Soja und Raps mit gentechnischer Züchtung entwickelt worden, die insbesondere in Nord- und Südamerika von großem Nutzen sind, wo sie die empfindlicheren älteren Sorten weitgehend ersetzt haben.
Mit dem Aufkommen der Gentechnik-Pflanzen ab etwa 1998 hat sich der pflugfreie Anbau entsprechend stark ausgebreitet. Damit leistet die Gentechnik indirekt einen wichtigen Beitrag zu einer nachhaltigeren Landwirtschaft.
Ich nehme Bezug auf die Überlegungen von Robert Matthews in seinem Essay zur Frage der wissenschaftlichen Wahrheit im Spektrum 3/09. Grundsätzlich gefiel mir dieser Aufsatz. Ich möchte eine einzige Kritik anbringen, die auch Schank in seinem Leserbrief (gedruckt in Spektrum 5/09, online ebenfalls beim Artikel "Manche Schwäne sind grau") angeführt hat: Die Forderung von Popper nach Falsifizierbarkeit von Aussagen über die Beschaffenheit der Welt und das bayesische Vorgehen widersprechen einander nicht, sondern ergänzen sich. Dies möchte ich hier zeigen. Und ich möchte zeigen, dass die Annahme eines Multiversums den Anforderungen nach Falsifizierbarkeit durchaus gerecht werden kann.
Eine erste Klarstellung: An Poppers Forderung nach Falsifizierbarkeit ist tatsächlich unbedingt festzuhalten. Aussagen über die Welt, überhaupt über irgend etwas, die grundsätzlich nicht falsifiziert werden können, die sich in unserer Welt also nie als erfüllt oder nicht erfüllt äussern, sind für uns in jedem Falle ohne Belang. Sie vermitteln uns nie irgendwelche brauchbare Information über unsere Welt.
Folgendes ist zu ergänzen: Schon Descartes hatte festgestellt, dass wir uns in unseren Ansichten über unsere Eindrücke immer irren können. Hume hatte später erwähnt, dass wir aus der Tatsache, dass sich die Welt immer an eine Regel hielt, dass zum Beispiel täglich die Sonne aufgegangen ist, niemals den Beweis ableiten können, dass sie dasselbe morgen auch tun wird. Mit anderen Worten: Regeln über die Beschaffenheit der Welt, alle All-Aussagen, lassen sich nie als wahr im Sinne mathematischer Folgerungen beweisen. Ob sie zutreffen, zeigt immer nur die Erfahrung. Daher beweist auch eine noch so große Zahl von Verifikationen die Wahrheit einer Regel nie. Aber eine einzige Falsifizierung stellt sie als falsch hin. Die Welt ist in jeder Beziehung so, wie sie "selbst sein will".
Anders verhält es sich mit mathematischen Beweisen. Betrachten wir das Schachspiel. Wir können genau sagen, wann ein König matt steht. Dies folgt exakt aus den Regeln. Die Regeln haben wir selbst gegeben. Wir wenden sie an und ziehen eindeutige Schlüsse. Dasselbe tun wir auch in der Mathematik. Auch sie ist ein Regelwerk. Auch diese Regeln haben wir nicht als etwas in einer platonischen Ideenwelt Existierendes vorgefunden. Sie sind ebenfalls unser eigenes Werk, auch wenn wir das intuitiv nicht merken. (Auf eine tiefere Begründung dieser Aussage möchte ich hier verzichten.) Auch in den mathematischen Systemen lassen sich nach den definierten Regeln exakte, zwingend folgende Schlüsse ableiten. In Regelsystemen können wir also exakt ableiten. Für Aussagen über die Welt, die an sich besteht, müssen wir immer auf Erfahrung zurückgreifen.
Über die Rolle der Mathematik in Bezug auf die Erforschung der Welt besteht ein verbreitetes Vorurteil. Gemäß dieser Auffassung ist die Welt zwangsläufig mathematischen Gesetzen unterworfen. Diese Ansicht ist falsch. Die Mathematik eignet sich hervorragend, um uns Information über die Welt zu verschaffen. Sie eignet sich, weil sich die Welt selbst streng an Regeln hält. Ein Beispiel: Zwar können wir zwei Äpfel in einen leeren Korb geben und dann nochmals zwei Äpfel. Dann werden wir im Korb vier Äpfel vorfinden. Aber wir haben keinen Beweis dafür, dass da nicht plötzlich ein Großer Weltgeist hinein pfuschen könnte, zum Beispiel jeweils einen Apfel für sich verschwinden ließe, so dass wir dann nur noch drei Äpfel im Korb vorfinden würden.
Dass so etwas geschieht, müssen wir nicht befürchten. Doch dass es nicht geschieht, sagt uns erst die Erfahrung! So lässt sich denn die Arithmetik vielfältig sinnvoll auf unsere Welt anwenden. Mit der Euklidischen Geometrie, die zum Beispiel von Kant als eine Wahrheit a priori aufgefasst wurde, hapert es dagegen ein wenig. In unserem Alltag lässt sie sich zwar sinnvoll anwenden, doch streng genommen gilt sie nirgends ganz exakt, wie Einstein in der ART festgestellt hat.
Sollen wir, weil strenge Beweise im Sinne exakter Ableitungen nicht möglich sind, in Bezug auf die Welt nicht von Wahrheit sprechen? Das wäre das Kind mit dem Bade ausgeschüttet. Wir machen die Erfahrung, dass sich die Welt in manchen Bereichen streng nach Regeln verhält. Gerade deshalb ist es sinnvoll, in Bezug auf Eigenschaften der Welt von Wahrheit zu sprechen. Aber diese Wahrheit erkennen wir anhand von Erfahrung, nicht anhand von deduktivem Ableiten aus konstruierten Regelsystemen. Die Welt hat die Eigenschaft, sich streng an gewisse Regeln zu halten. Diese Erfahrung ist fast unendlich gut bestätigt. Dank dieser Eigenschaft können wir uns in der Welt orientieren.
In unserem alltäglichen Erfahrungsbereich verfügen wir über jede Menge von Information, welcher ein Wahrheitsgehalt nicht mit gutem Gewissen abzusprechen ist. Ich wohne in Aadorf an der Bohlstrasse 9. Dessen bin ich mir hinreichend gewiss, um von Wahrheit zu sprechen. Gelegentlich fahre ich nach Zürich. Es gibt die Stadt Zürich. Und Berlin ist die Hauptstadt von Deutschland. Kein geistig gesunder Mensch wird die Wahrheit solcher Aussagen bestreiten. Weit eher als im empirischen Bereich würde ich im mathematischen auf den Ausdruck "Wahrheit" verzichten. 7 + 8 = 15. Sagen wir damit eine Wahrheit? Eine Wahrheit worüber? Sollten wir in diesem Falle nicht einfach "richtig gerechnet" sagen?
Jetzt können wir verstehen, wieso All-Aussagen über die Welt auch durch eine noch so große Menge von Verifizierungen nie als Wahrheiten bewiesen werden, aus einer einzigen, klar widersprechenden dagegen ihre Falschheit. Poppers Aussage gilt daher immer. Der Einwand, Poppers Aussage sei selbst nicht falsifizierbar, ändert daran nichts. Poppers Aussage bezieht sich auf Aussagen über Eigenschaften der empirischen Welt. Selbst ist sie aber keine Aussage über eine Eigenschaft der Welt, sondern über die Möglichkeit, solche Aussagen zu machen. Sie bezieht sich logisch nicht auf sich selbst.
Jetzt kommt das "aber". In unserer empirisch wissenschaftlichen Tätigkeit arbeiten wir nicht, indem wir in möglichst großer Zahl nach Bestätigungen suchen. Wir arbeiten tatsächlich weitgehend so, wie es sich Bayes etwa vorgestellt hat. Ein Beispiel: Ich will auf den Zug. Wann fährt er? Ich frage einen Kollegen. "Um vier", sagt er. Ich weiß, dass sich mein Kollege gelegentlich irrt. Aber so ungefähr wird seine Antwort wohl stimmen. Aber sicher bin ich mir dessen nicht. Ich frage einen anderen Kollegen. "Um sechs vor vier", so dessen Antwort. Das tönt recht vertrauenswürdig. Wer eine solch genaue Antwort geben kann, kennt sehr wahrscheinlich die Abfahrtszeit, und er wird mich kaum böswillig falsch informieren. Trotzdem sehe ich noch im Fahrplan nach: 15.54 steht da. Dieser Angabe kann ich wirklich vertrauen. Das heißt, vielleicht kommt der Zug ein wenig später. In ganz seltenen Fällen kommt er überhaupt nicht. Aber 15.54 ist die Zeit, zu welcher er, wenn alles normal geht, kommen muss. Woher weiß ich aber, dass der Fahrplan stimmt?
Ich verlasse mich auf die Intuition, auf das Ergebnis von mancherlei unbewusster Erfahrung. Doch wenn nötig könnte ich auch eine lange Kette von hinreichenden Gründen für meine Überzeugung anführen.
So arbeiten wir auch in der Wissenschaft. Wir suchen nach vertrauenswürdiger Information. Wir suchen kritisch nach Indizien, welche unsere Vermutungen bestätigen oder eben auch ihnen widersprechen. Ob eine Rabe schwarz ist oder grau, das lässt sich eindeutig feststellen. Aber in der Praxis, in der alltäglichen wie in der wissenschaftlichen, sind die Hinweise oft nicht derart eindeutig.
Bei Matthews lese ich: "In der Wissenschaft falsifizieren wir nicht, sondern wir bewahrheiten, wir steigern das Gewicht der Indizien." Ich kann diese Aussage in dieser Form nicht unterschreiben. Wir bewahrheiten nicht, sondern wir beurteilen die Wahrscheinlichkeit. Das heißt, als gute Wissenschaftler suchen wir auch nach Gegenargumenten. Aber wie die Pro-Argumente sind eben auch die Contra-Argumente meistens nicht ganz eindeutig. Trotzdem bedeutet jedes Gegenargument einen Falsifizierungsversuch. Wir falsifizieren also sehr wohl, auch unter dem bayesischen Vorgehen. Nur ist eben oft eine eindeutige Falsifizierung nicht möglich.
Nun zu den Theorien. Was Theorien leisten, darüber bestehen Missverständnisse. Wir müssen uns im Klaren sein, wozu Theorien dienen. Es geht immer um Information über die Beschaffenheit der an sich bestehenden Welt. Wie eine Theorie auch immer aussieht; ihr Wahrheitsgehalt liegt in der Verlässlichkeit der Information über die Welt, die sie enthält. Die Information ist Trägerin der Wahrheit. Wie eine Theorie formuliert ist, ob sie bereits selbst Theorie-geladen ist, ist ohne Belang. Was zählt ist einzig ihr Informationsgehalt. Allerdings muss sie richtig verstanden werden. Eine Aussage richtig verstehen bedeutet, ganz nach Wittgenstein, wissen was der Fall ist, wenn die Aussage wahr ist. Eine Theorie ist brauchbar, wenn sie uns zeigt, was der Fall ist; wenn wir uns auf die Information, so wie wir sie verstehen, verlassen können.
Probleme bestehen darin, dass wir oft in Theorien Vorstellungen mitschleppen, welche wir nicht überprüft haben. Das Ptolemäische Weltbild stellte die Erde in den Mittelpunkt des Kosmos. Man nahm diese Vorstellung als selbstverständlich an, unterzog sie keiner kritischen Überprüfung. Wir wissen es: man irrte sich. Trotzdem hatte dieses Weltbild seine Bedeutung: Es informierte verlässlich über die Stellung der Himmelskörper am nächtlichen Himmel.
Auch Newtons Himmelsmechanik enthielt sachlich nicht hinterfragte Elemente. Trotzdem enthält es viel brauchbare Information. Und es scheint, dass sogar Einstein ausgerechnet in seiner berühmtesten Theorie, der Speziellen Relativitätstheorie, einen solchen Fehler begangen hat. Zwar sind die Formeln der SRT längst hinlänglich bestätigt. Einsteins Fehlleistung liegt in der Vorstellung der Relativität von Geschwindigkeiten. Die Formeln der SRT sind nämlich auch mit der Annahme von Geschwindigkeit als einer realen Größe vereinbar. Dass auf einem gleichförmig bewegten System für die Geschwindigkeit des eintreffenden Lichts ungeachtet von dessen Herkunft immer derselbe Wert gemessen wird, ließe sich auch damit erklären, dass die Zeit gemäß Einsteins Formeln auf einem real bewegten System real langsamer vergeht.
Der Verzicht auf die Auffassung von Relativität hätte auch seine Vorteile: Das Zwillingsparadox wäre leichter verständlich. Das philosophisch schwierige Problem von Zeitreisen wäre weg vom Tisch: Vergangenes wäre für immer vergangen. Im Weiteren gäbe es eine Erklärung für die unterschiedliche Wellenlänge, mit welcher die Hintergrundstrahlung auf der Erde eintrifft. - Dies nur nebenbei.
Doch im Bemühen um die Erklärung beobachteter Ereignisse kommen wir oft auch zu neuen, vielleicht sogar überraschenden Erkenntnissen, die sich derart gut in unser bestehendes Weltbild einordnen, dass wir guten Gewissens von Wahrheit reden können. So schließen wir zum Beispiel aus unserem Wissen über die Erdgeschichte und den zahlreichen Knochenfunden auf die frühere Existenz von Dinosauriern. Wir werden diese Tiere nie lebend beobachten können. Sie sind ausgestorben. Dennoch wurde die Vorstellung von der Existenz dieser Tiere selbstverständlich in mancher Beziehung intuitiv oder auch bewusst Versuchen der Falsifizierung unterworfen. Sie wurde es, indem die Forscher ihre Schlüsse einer kritischen Betrachtung unterzogen. Es zeigen sich gültige Pro-Argumente in Menge, gültige Contra-Argumente fehlen. So können wir denn die Aussage, vor etwa 70 Millionen Jahren hätten Saurier die Erde bevölkert, guten Gewissens als empirisch belegte Wahrheit betrachten.
In gleicher Weise ließe sich auch die Auffassung von einem Multiversum bestätigen. Zwar gilt absolut: Worüber uns keine Spuren Kenntnis geben, darüber können wir nicht reden. Aber so, wie wir aus Skelettfunden und weiterem vorgegebenem Wissen auf die frühere Existenz von Sauriern schliessen, so ist es auch nicht ausgeschlossen, sondern vermutlich der Fall, dass wir aus Eigenschaften der Materie den Schluss auf die Möglichkeit der Existenz weiterer Universen ziehen können.
Allerdings besteht in diesem Falle ein Unterschied zum Beispiel mit den Sauriern. Wir können zwar anhand der vorliegenden Spuren auf die frühere Existenz ganz bestimmter Tierarten schließen. Dagegen wird es uns wohl nie möglich sein, auf ganz bestimmte fremde Universen zu schließen. Bei der Falsifikation kann es daher in diesem Falle nicht um die Behauptung der Existenz bestimmter anderer Universen gehen, über welche uns keine Hinweise vorliegen. Zu falsifizieren ist die Aussage: "Die Materie ist derart beschaffen, dass wir die Existenz eines Multiversums annehmen müssen." Ich sehe keinen Grund dafür, weshalb diese Aussage nicht falsifizierbar sein könnte.
Bewundernswert, wie Wissenschaftler die schwierigsten Probleme mathematisch aufgreifen und schließlich Lösungen finden! Zuvor aber sollte eigentlich auch das Phänomen Mensch als Teil des Universums mathematisch erklärt sein. Und da macht mir ein ganz einfaches Problem Kopfzerbrechen! Bekanntlich haben wir Menschen so um die 100 Milliarden Nervenzellen (Neuronen) in unserem Gehirn, von denen zum Beispiel einige zehntausend aktiviert werden, wenn wir über mathematische Probleme nachdenken.
Aktiviert heißt hier, es werden schwache elektrische Impulse in den Neuronen erzeugt. Wie aber werden aus diesen elektrischen Impulsen jene mathematischen Gedanken, die wir ja in unserem Kopf hören? Wo und wie entstehen sie in unserem Gehirn? Und so lange wir das nicht wissen, haben mathematische Lösungen des Universum-Problems eigentlich nur begrenzten Wer!
Vielleicht sollten wir ja einräumen, dass wir gar nicht alles wissen können, dass uns da auch die Mathematik nicht weiterhilft?
Im Unterschied zu den 11-Dimensionalitäten der Stringtheorie erlaubt die von Prof. Bojowald beschriebene Theorie offenbar auch dem interessierten Laien ein wenig das Mitdenken und verdammt ihn nicht nur zum Staunen und Glauben. Die Vorstellung von Raumatomen hat etwas Anschauliches. Ich frage mich sofort, wie die Nachbarschaftsbeziehungen zwischen den Raumatomen sein könnten. Hat jedes Raumatom eine feste Anzahl Nachbarn? Wird durch die Nachbarschaftsstruktur der dreidimensionale Raum aufgespannt? Im Artikel klingt an, dass Photonen, wenn sie "über die Raumatome hüpfen", verzerrt werden. Bedeutet die diskrete Struktur nicht auch, dass nicht beliebig kleine Winkel realisiert werden können. Und die Schenkel eines Winkels laufen auseinander, so dass sie schließlich einen messbaren Abstand haben. Ist das beobachtbar?
Stellungnahme der Redaktion
Die Nachbarschaftsbeziehungen sind in der Tat ein wichtiger Aspekt, der für die genaue Raumstruktur wichtig ist. Ein Gitter der Raumatome ist im Allgemeinen irregulär, das heißt, unterschiedliche Atome haben unterschiedlich viele Nachbarn. Wie genau das aussieht, wird von der Dynamik der Quantengravitation bestimmt, nach der Atome nicht nur zu größerem Volumen angeregt, sondern auch neu erzeugt werden können. Wegen des intimen Wechselspiels von Raum-Zeit und Materie in der Allgemeinen Relativitaetstheorie hängt die genaue Zahl von Nachbarn in unterschiedlichen Regionen auch von der Materie im Universum ab.
Für die Größe von Winkeln gibt es durchaus Limitierungen, die sich mit größerer Schenkellaenge in einem Dreieck aber nicht stärker bemerkbar machen. Ein Dreieck muesste zwar auf die Atome des Raumes gezeichnet werden, was nur eine diskrete Menge für die Eckpunkte zulässt, aber für makroskopische und damit direkt messbare Dreiecke wäre das Raster immer noch fein genug. Zwar gibt es direkt um ein Atom üblicherweise nur wenige Nachbarn, je weiter man sich aber von einem Dreiecks-Eckpunkt entfernt, um so größer wird die Zahl der verfügbaren diskreten Stellen. Am Ende ist es wieder die elementare und winzig kleine Schrittweite des irregulären Gitters, die die Messbarkeit bestimmt. (Übrigens hatte Roger Penrose die Spinnetzwerke, die eine grosse Rolle in der mathematischen Formulierung der Schleifenquantengravitation spielen, schon 1971 zur möglichen Quantisierung von Winkeln eingeführt.)
Könnte die dauerhaft positive Nordatlantische Oszillation (NAO) beziehungsweise Arktische Oszillation (AO) - Erstere ist ja nur ein Teilaspekt der zweiten - nicht doch durch die Sonne ausgelöst worden sein? Etwa so:
Bei einer erhöhten Sonnenaktivität nimmt die UV-Strahlung im Gegensatz zur Gesamtstrahlung deutlich zu. Das bringt automatisch mehr Ozon in der Stratosphäre. Durch die bei höherer Sonnenaktivität gesteigerte Brewer-Dobson-Zirkulation gelangt zudem mehr Ozon von den Tropen in die mittleren Breiten. Beides zusammen führt zu einem erhöhten stratosphärischen Temperaturgradienten im Winter, so dass der stratosphärische Jet und damit auch der Polarwirbel stärker werden.
Dadurch wird der troposphärische Jetstream ebenfalls verstärkt und mäandert weniger. Das ist gleichbedeutend mit einem Trend zum positiven Modus der Arktischen Oszillation (AO) bzw. Nordatlantischen Oszillation (NAO). Durch die dann eher zonale Zirkulation gelangen, wie in Ihrem Beitrag beschrieben, milde und feuchte Luftmassen mit den Westwinden nach Europa. Die polare Kaltluft wird durch den kräftigen Jetstream wie von einer Mauer eingeschlossen, so dass es nur selten zu polaren Kaltluftausbrüchen kommt. Die dadurch milderen Winter schlagen in Richtung einer steigenden globalen Durchschnittstemperatur durch. Das mittelalterliche Klimaoptimum wäre dann zumindest ein die ganze Nordhalbkugel betreffendes Phänomen gewesen.
2009 ist das Darwin- Jahr. Aus diesem Grund sind alte Themen wieder sehr aktuell geworden: Glaube, Religion und Evolution. Dies spiegelte sich in diversen Zeitschriften wider, geziert von Titeln wie beispielsweise „Glaube und Evolution“, „Evolution und Religion“, „Muss man Glauben“, „Glaube und Gene“, wobei bei letztem Beispiel „Religion und Gene“ angemessener wäre.
Bei der Verwendung der Begriff Glaube und Religion herrscht eine große Verwirrung bzw. Fahrlässigkeit, weshalb es notwendig ist, eine Klärung der Begriffe zu fordern. Die Begriffe Religion und Glaube werden sehr häufig synonym verwendet, obwohl es fundamentale Unterschiede zwischen den beiden Begriffen gibt.
Der Glaube ist ein weitaus allgemeinerer Begriff, als es die Religion ist. Diese ist eher ein Spezialfall des Glaubens. So hat jedes Phänomen der Religion mit Glauben zu tun, aber nicht umgekehrt. Religion umfasst den ganzen Glaubensinhalt nicht. Atheisten haben keine Religion, wohl aber einen Glauben.
In Religionen spielen Gott bzw. Götter, Propheten und Heilige Bücher eine essentielle Rolle. Diese Religionsgrundsätze sind aber keineswegs Glaubensgrundsätze. Die Religion ist kommt von außen an das Individumm, macht Vorschriften und beinhaltet Rituale wie Fasten, Beten, Gehorsamkeit. Dies tut der Glaube nicht, er erwächst allein aus dem Individuum heraus und macht keine Vorschriften. Es ist viel eher ein psychologischer Instinkt vergleichbar mit einem Gefühl wie Liebe, Hass und liegt somit in der Natur des Menschen. Die Religion hingegen ist ein gesellschaftliches Phänomen.
Religion unterdrückt durch Vorschriften als Über-Ich die natürlichen Bedürfnisse des Manschens, der Glaube an sich nicht. Besonders in der Debatte, ob Religion in der Natur des Menschenliegt, werden diese Ungenauigkeiten dazu genutzt, die These, dass die Religion in der Natur des Menschen liegt, zu stützen.
Um einen etwas überspitzen Parallelismus zu geben, so braucht der Mensch um zu überleben Essen und Trinken, das heißt aber noch lange nicht, dass er Brot und Cola braucht. Im Glauben ist der Mensch frei aber nicht in der Religion.
Der Artikel von Herrn Prof. Lüst zeichnet sich sicher dadurch aus, dass er durchaus kritisch den gegenwärtigen Stand der Stringtheorie hinterfragt und nicht kritiklos die so oft angepriesene Allheiltheorie - "the only game in town" - anpreist. Die Argumente der Kritiker werden ernst genommen und dankenswerter Weise von einem Experten kommentiert.
Gleich vorneweg: Letzteres trifft auf meinen Beitrag hier nicht zu, da ich mich sicher nicht zu den Experten rechnen darf!
Ich denke dennoch, dass Herrn Lüsts Schlussfolgerungen an einigen Stellen eventuell nicht radikal genug sind!
Warum sollte denn eine Theorie, die zum einen enormen Anspruch hat und sicher entsprechendes Potential in sich birgt und die zum anderen an einigen Stellen noch konzeptionell lückenhaft ist, gerade diesen Anspruch aufgeben, den sie selbst so lange Zeit vertreten hat? Warum wird auf Basis einer - noch unfertigen - Theorie das aufgegeben, wofür diese Theorie so lange Zeit stand?
Ich möchte hier eine andere Argumentation vorschlagen:
Zunächst verweise ich auf einige Defizite der Stringtheorie, wobei weniger technische Details im Vordergrund stehen, sondern vielmehr konzeptionelle Grundlagen der Theorie - so wie sie heute verstanden wird - in Frage gestellt werden. Davon ausgehend argumentiere ich dahingehend, dass bei Überwindung dieser Defizite die sehr ambitionierten Ansprüche der Theorie eventuell gar nicht aufgegeben werden müssen; stattdessen könnte eine vervollständigte beziehungsweise geeignet konsolidierte Theorie über den jetzigen Zustand deutlich hinausweisen und so die teilweise aus dem Blick geratene Wissenschaftlichkeit wieder zurückgewinnen.
1) m.W.n. existiert keine fundamentale Gleichung plus einem Satz elementarer Regeln für die M-Theorie zur Ableitung physikalischer Ergebnisse. Stattdessen haben wir eher eine Sammlung von "Kochrezepten", die zwar für die Experten ein einigermaßen sicheres Fundament darstellen, die jedoch nicht den endgültigen Anspruch an eine fundamentale Theorie erfüllen.
2) Die genannten Dualitäten sind letztlich nicht mathematisch exakt bewiesen, sondern "nur" durch eine Entsprechung verschiedener Grenzfälle (large-N, small coupling) in den jeweiligen dualen Theorien motiviert. Ob diese Entsprechung auch abseits dieser Grenzfälle beweisbar gilt, ist m.W.n. noch offen, wenn auch sicher physikalisch motivierbar.
3) Der störungstheoretische Grenzfall kleiner Kopplung ist in zweierlei Hinsicht noch mathematisch unvollständig: Zum einen existiert kein endgültiger Beweis, dass die Störungsreihe tatsächlich in jeder Ordnung endlich ist, auch wenn es wohl gute Argumente dafür gibt; zum anderen ist die Summierbarkeit der Störungsreihe insgesamt nicht bewiesen.
4) Die String- bzw. M-Theorie ist heute nicht in der Lage, eindeutige Vorhersagen über die exakte Symmetriestruktur sowie das Massenspektrum der bekannten Elementarteilchen zu machen. Die Gründe dafür werden ausführlich dargelegt. Ich vermisse jedoch grundsätzlich eine Strategie, wie überhaupt ein Massenspektrum mit den bekannten Eigenschaften entstehen könnte. Wie lässt sich z.B. unter der Annahme einer Stringskala im TeV-Bereich die Kleinheit der Fermionmassen (Neutrinos: einige eV, Elektron: 511keV) erklären? Wichtig dabei ist: Diese Massen sind zwar verglichen mit der Stringskala klein, aber eben nicht exakt Null.
5) Die Stringtheorie heutiger Prägung liefert sicher noch keine vollständige Theorie einer Quantengravitation. Zunächst gilt, dass die Feldgleichungen der ART als Konsistenzbedingung für die Hintergrundgeometrie auftreten und dass das Spektrum ein masseloses Spin-2-Teilchen enthält. Allerdings fehlen doch einige bekannte Eigenschaften der Gravitation, insbesondere die Möglichkeit einer vollständig dynamischen Raumzeit, oder - um es anders zu formulieren - die Hintergrundunabhängigkeit der Theorie. Die Stringtheorie erfordert m.W.n. die Festlegung einer festen und dabei teilweise unphysikalischen Hintergrundgeometrie (Minkowski, AdS, schwarze Löcher als extremale BPS-Zustände, bestimmte Symmetrieforderungen wie die eines zeitartigen Killing-Vektors). Außerdem sehe ich kein Argument, warum aus der Stringtheorie gerade eine vierdimensionale makroskopische Raumzeit folgen sollte, warum also gerade sechs (sieben) der fundamentalen Dimensionen der Stringtheorie (M-Theorie) kompaktifiziert sind.
In Anbetracht dieser noch existierenden Defizite ist es doch eigentlich natürlich, dass die Forschungsprogramme sich auf eben diese Themen konzentrieren, dabei jedoch gleichzeitig den einmal erhobenen Anspruch aufrecht erhalten. Stattdessen wird dieser Anspruch teilweise aufgegeben.
Eventuell ist diese Schlussfolgerung doch verfrüht!
Möglicherweise hat die Stringtheorie nach geeigneter Erweiterung und Konsolidierung tatsächlich genügend Vorhersagekraft, um (ziemlich) eindeutige Antworten zu den generellen Strukturen, Symmetrien, Vakuumzustände, Grundbausteinen und Wechselwirkungen der Natur zu liefern, ohne dafür Multiversen oder das anthropische Prinzip bemühen zu müssen.
Mich würde interessieren, ob die zunächst eher pessimistische Bewertung der gegenwärtigen Situation, die ich in eine optimistische Perspektive ummünzen möchte, realistisch sein könnte.
In der Abbildung "Das Spiel der Obertöne" hat sich ein Fehler eingeschlichen. Die Sinuskurven im linken Teil zeigen nur Oktaven, also die Folge F0, F1, F3, F7, F15 statt F0 bis F4.
Ganz allgemein würde mich interessieren, ob die Einteilung "12 Halbtöne, 7 Ganztöne pro Oktave" physio-akustisch begründet werden kann, oder ob dies Zufall ist und sich genauso gut z. B. 11 Töne hätten etablieren können.
die deduktive Ableitung subjektiven Dissonanzempfindens stellt zweifelsohne einen spannenden Forschungsgegenstand dar. Der Artikel macht aber an mehreren Stellen den Eindruck stark verzerrter Grundannahmen.
Dass zwei Sinustöne im Abstand von 11 Halbtonschritten (große Septime) eine deutlich geringere Dissonanz darstellen als solche im Abstand von 4 (große Terz) oder 5 Halbtonschritten (Quart), widerspricht dem abendländischen Musikempfinden extrem. Damit scheinen die Autoren ihre sämtlichen Modelle auf eine zumindest sehr fragwürdige Grundannahme zu stellen.
Es ist frappierend zu sehen, wie Moll-Akkorde inklusive deren Umkehrungen aus Ton-Erhöhungen symmetrischer Akkorde erfolgen. Trotzdem werden Moll-Akkorde subjektiv stets als Ton-Absenkungen wahrgenommen, weil natürlich der allgegenwärtige Dur-Akkord als Maßstab dient und nicht die viel exotischeren, von den Autoren als Maßstab verwendeten, symmetrischen Akkorde. Dadurch wirkt die versuchte biologische Begründung der emotionalen Wertigkeit der Tongeschlechter sehr unglaubwürdig.
Neben solchen grundlegenden Schwächen weist der Artikel diverse kleinere, aber nicht weniger ärgerliche Fehler auf. Gleich im ersten Kasten wird behauptet, das Deutschlandlied stehe in D-Dur; Haydn hat es aber ursprünglich in G-Dur, später in seinem Streichquartett in Es-Dur verfasst. Ganz am Ende des Artikels dagegen wird die Loslösung von der Tonalität „vor wenigen Jahrzehnten“ datiert; Schönbergs 2. Streichquartett aber, ein entscheidender Meilenstein dieser Loslösung, wurde vor rund 100 Jahren komponiert. Im Gegenteil zeigten die jüngsten Jahrzehnte eher eine leichte Tendenz zurück zur Tonalität.
Stellungnahme der Redaktion
Sammelantwort der Autoren auf alle Zuschriften
Zunächst möchten wir allen Kommentatoren für ihre sorgfältige Lektüre des Artikels und die anregende Diskussion danken. In der Tat ist die Abbildung, die das Phänomen der Obertöne grundlegende erklären soll, durch den Vergleich zur bekannten Klaviatur etwas unpräzise, beispielsweise müsste F2 näher bei F3 liegen. In der heute üblichen wohltemperierten Stimmung allerdings werden die Unterschiede ein wenig nivelliert. Detlev Rosbach hat natürlich Recht damit, dass beispielsweise der 6. Oberton, vom Grundton aus gesehen, zwischen dem 33. und 34. Halbton liegen würde, mit C als Grundton also wäre das ein Ton zwischen A und Bb. Musikalisch bedeutet das übrigens, dass höhere Ordnung der Obertöne immer etwas Dissonanz erzeugen, was heute allgemein akzeptiert wird, in den Stimmungen des Mittelalters Bedeutung hatte.
Wie Theo Hartogh richtig moniert, wird das Deutschlandlied nicht immer in D-Dur gespielt, Haydn komponierte die Melodie ursprünglich in G-Dur. In der wohltemperierten Stimmung bedeutet die Wahl einer anderen Dur-Tonart lediglich ein Verschieben der Tonhöhe, der grundlegende Charakter – kraftvoll, hell, optimistisch – ändert sich dadurch nicht. Hartogh irrt, was den Beatles-Song »Yesterday« angeht: Die Tonfolge von »Why she had to go« ergibt einen Moll-Akkord in 2. Umkehrung auf (D, G, Bb), so erzielte Paul McCartney den beabsichtigen Eindruck von Verlorenheit und Trauer.
Dieser Moll-Charakter bleibt übrigens auch dann erhalten, wenn man die Passage mit Dur-Akkorden begleitet. Dennoch steht die Bedeutung des musikalischen Kontextes von Mehrklängen und Tonfolgen für deren Funktion innerhalb eines Stücks außer Frage. Der Clou unserer Arbeit ist aber gerade, dass wir einen biologischen „Mechanismis“ entdeckt haben, der einen Dur- oder Moll-Charakter auch dann zu erklären vermag, wenn Akkorde und Sequenzen für sich allein, also ohne Kontext erklingen. Und dieser Charakter entspricht der musikalischen Erfahrung.
Die Tonalität von Dreiklängen wird unseres Erachtens also primär von ihrer akustischen Struktur, nicht von der jeweiligen Kultur mit ihren Wahrnehmungsgewohnheiten bestimmt. Auch wenn seit der Renaissance meist mit Bezug zur Dur-Tonalität komponiert wurde, symmetrische, spannungsvolle Akkorde hingegen seltener Verwendung fanden, eignen sie sich unseres Erachtens besser als Referenz, um die emotionale Qualität von Mehrklängen modellhaft zu untersuchen.
Ein Blick auf nichtwestlichen Musikkulturen ändert daran übrigens nichts, mögen diesen 5-, 7- oder gar 22-tönige Skalen zugrunde liegen. Auch dort gibt es Tonfolgen mit implizit Dur- oder Moll-Charakter. Das gilt für traditionelle chinesische und japanische Stücke ebenso wie für nordindische Ragas. Die Wahrnehmung der Tongeschlechter ist also ein Kulturen übergreifende Phänomen und das spricht wohl ebenfalls für eine biologische Grundlage.
Wenn Poppers Beispiel für eine Theorie oder einen Satz innerhalb einer Theorie - "Alle Schwäne sind weiß" - zu ungenau ist, weshalb hat es dann 75 Jahre gedauert, bis es jemand bemerkt hat? Scherz bei Seite. Betrachten wir die Argumente von Robert Riedl. Aus Gründen der Dramaturgie beginne ich mit dem letzten, dem Argument Nr. 3: Eine Aussage wie "Alle Tiere der Art x sind weiß" bezieht sich im allgemeinen Sprachgebrauch weder auf die Füße noch auf die Innereien, sondern auf das visuell dominante Fell- oder Federkleid. Eine Differenzierung wäre nur dann erforderlich, wenn von diesem allgemeinen Sprachgebrauch Abweichendes gemeint sein sollte. Daher ist dieses Argument m.E. hinfällig. Argument Nr. 2: Verallgemeinernde Aussagen über Tiere beziehen sich generell - wenn es nicht ausdrücklich anders vermerkt ist - auf adulte Formen. Auch Rehe sind ja braun, obwohl Kitze gefleckt sind. Auch dieses Argument ist folglich hinfällig. Zu beiden Argumenten kann man noch ergänzen: es wäre ohne Kontext und ohne vereinfachende Mechanismen im Sprachgebrauch kaum möglich, sich zu verständigen. Denn die von Robert Riedl gegebenen Präzisierungen sind willkürlich heraus gegriffen aus einer sehr viel größeren Menge von möglichen Präzisierungen. (So könnte man - alles möglich, aber eben hier nicht erforderlich! - auf die Sauberkeit des Federkleids, auf Lichteinwirkungen bei Sonnenuntergang oder auf die Feinabstufungen von sehr hellen Grau-Tönen zu sprechen kommen.) Argument Nr. 1: Dass es sich offenbar nicht um Trauerschwäne handelt, obwohl es nicht ausdrücklich gesagt wird, ist auf den ersten Blick ein schwer wiegendes Argument. Jedoch scheint mir grade hier der argumentative Witz von Poppers Beispiel zu liegen: In unserem Gesichtskreis sind weiße Schwäne so prägend, dass wir versucht sind, "alle Schwäne sind weiß" als allgemeines Gesetz anzunehmen. Aber die Erfahrung ist im Stande, uns eines besseren zu belehren, indem sie uns schwarze Schwäne finden lässt. Aus dieser Perspektive ist das, was Robert Riedl vorschlägt, zwar eine Präzisierung der ursprünglichen Theorie. Aber grade dadurch wird Poppers Beispiel nicht als ungenau entlarvt, sondern es wirkt umso pfiffiger, und in einer Neuauflage der "Logik der Forschung" dürfen wir wohl weiterhin mit "Alle Schwäne sind weiß" rechnen.
Einen herzlichen Dank an Thomas Sonar für seinen wunderbaren Artikel "Turbulenzen um die Fluidmechanik". Ich habe mich während meines Studiums mit den Navier-Stokes-Gleichungen auseinandersetzen müssen und habe sie jetzt (nach meinem Studium) erst vollständig begriffen. Danke!
Popper würde wohl sagen: Von solchen Theorien, die alle gleich gut bestätigt sind, ist diejenige vorzuziehen, die mehr Erklärungsmacht anbietet. Im von Philipp Wehrli gegebenen Beispiel also: Alle Steine fallen hinunter.
Die Theorie: "Die ersten 100 Steine fallen hinunter, alle weiteren nicht", wagt eine Prognose, für die sie nicht die geringsten Anhaltspunkte hat. Jede Theorie dieser Form müsste erläutern, weshalb grade die von ihr benannte Zahl zutreffend sein soll. Diese Zahl ergibt sich ja nicht aus der Anzahl der bereits geworfenen Steine.
Und auch nicht aus dem Bayesianismus! Als Wahrscheinlichkeitsabschätzungen ist ebenfalls "Alle Steine fallen hinunter" vorzuziehen, da sie die größere Wahrscheinlichkeit hat.
wie binden denn die beiden Atome aneinander? Das habe ich im Artikel nirgendwo gefunden - oder habe ich etwas nicht verstanden?
Danke
Stellungnahme der Redaktion
Sehr geehrte Frau Schmidt,
die Sache ist mit wenigen Worten schlecht zu erklären - weil unanschaulich - und wurde daher im Beitrag nicht explizit ausgeführt.
Es liegt an den Wellenfunktionen des angeregten Elektrons im Rydbergatom und dem einzelnen Elektron in der s-Schale des zweiten Rubidiumatoms, die aneinander streuen (Niedrigenergie-Streuung). Wie in der beigefügten Grafik angedeutet, bildet sich an bestimmten Abständen vom Kern des Rydberg-Atoms ein anziehendes Potential aus (grüne Kurve) was diese Konfiguration zu einem gebundenen Zustand macht (Stichwort: Feshbach-Resonanz), auch wenn die Atome um die Verbindungsachse nicht nur im ersten sondern auch im zweiten Anregungszustand schwingen (blaue Kurven). Das ganze ist bei R = 1900 a_0. Letzteres ist der Bohr-Radius, ca. 0,05 Nanometer, wodurch sich eine Molekülausdehnung von rund 100 Nanometer ergibt.
Die Überschrift hat angeregt zum Lesen: Es gibt also Ausnahmen zur Regel! Der zweite Hauptsatz der Thermodynamik gilt nicht überall! Leider Pustekuchen. Nur Andeutungen sind im Text zu finden. Also gilt weiterhin, alles strebt zur Unordnung. Lebewesen sind geordnete Materie und diese müssen sich mittels Energienutzung der Entropie erwehren. Dies hat Folgen. Lebewesen sind offene Systeme. Geschlossene Systeme können keine Energie von außerhalb nutzen. Der Energiebedarf zwingt zur Einsparung. Effizienz und Arbeitsteilung sparen. Immer mehr Ordnung erzwingt der Druck zum Sparen. Wer weniger verbraucht, hat mehr. Deshalb verhalten sich Organismen entgegen der Entropie. Es erscheint paradox, immer mehr Ordnung entsteht, um einzusparen. Aber damit wächst der Energiebedarf. Effizienz bewertet zwischen Aufwand und Nutzen im Detail, eben zwischen Aufwand und Nutzen. Würde über den Gesamtorganismus bewertet, so bliebe das Leben primitiv.
Kritik auch zum Beispiel auf Seite 32: „Das Löschen eines Computerspeichers ist ein irreversibeler Vorgang und erzeugt deshalb Wärme". Dazu die Kritik: Es ist egal, was da gelöscht wird. Das Löschen ist eine Aktion und bedarf deshalb Energie. Wenn z. B. der gesamte Speicher mit Nullen belegt und gelöscht wird, so ist der Vorgang durchaus reversibel. Der Energiebedarf ist abhängig von der Menge, nicht vom Inhalt. Egal ob Weltliteratur oder Zufallszeichen gelöscht werden, der Energiebedarf bei dieser Aktion ist identisch.
Anthropisches Prinzip reicht doch nicht aus
04.05.2009, Jörg Michael, HannoverIn der ersten wurde im Computer eine der vier Fundamentalkräfte, nämlich die schwache Wechselwirkung, "ausgeknipst". Dazu mussten gleich eine ganze Reihe von Naturkonstanten geändert werden. Das damit berechnete Universum sah deutlich anders aus als unseres, weil unter anderem bestimmte Sorten von Sternen nicht entstehen konnten. Der "ursprüngliche" Weg zur Entstehung des Lebens war ebenfalls "verbaut", aber es gab stattdessen andere Prozesse, die eine Entstehung des Lebens ermöglichten.
In der zweiten Simulation wurden einzelne Naturkonstanten nicht um kleine Beträge modifiziert, sondern beispielsweise gleich um den Faktor 10 geändert. Auch hierbei gab es eine Reihe von Konstellationen, bei denen die Entstehung des Lebens ebenfalls möglich war. Da in dieser Arbeit nur ein winzig kleiner Ausschnitt des Konfigurationsraums untersucht wurde, muss man damit rechnen, dass es noch weitere "Treffer" mit anderen Kombinationen gibt.
Die Frage danach, warum die beobachteten Naturkonstanten exakt die Werte haben, die wir kennen, wartet damit weiterhin auf eine Erklärung. Nach den oben genannten Untersuchungen reicht das von Herrn Lüst ins Spiel gebrachte anthropische Prinzip jedenfalls nicht als Erklärung aus.
Der "New Scientist"-Artikel "Made to Measure" vom 30. Juni 2001 scheint sich mit diesem Thema zu beschäftigen. Ein entsprechender Fachaufsatz von Anthony Aguirre, mittlerweile an der University of California in Santa Cruz, ist dieser: The Cold Big-Bang Cosmology as a Counter-example to Several Anthropic Arguments.
Spannend auch eine neuere Arbeit von Aguirre: "On making predictions in a multiverse: conundrums, dangers, and coincidences".
Das Prinzip heißt anthropisches, nicht biologisches Prinzip. Das Argument des anthropischen Prinzips bezieht sich auf menschenähnliches - d.h. auf Kohlenstoffbasis mögliches intelligentes - Leben. Der Fantasie bezüglich ganz anderer Formen von Selbstorganisation auf Grund anderer Naturgesetze sind kaum Grenzen gesetzt.
Michael Springer
Gentechnik: wichtiger Beitrag zur nachhaltigen Landwirtschaft
01.05.2009, Richard Braun, BernDie Einführung dieser Anbautechnik ist daran, den Ackerbau zu revolutionieren: schon heute werden über 100 Millionen Hektar auf diese Weise bearbeitet. Allerdings geht das praktisch nur unter Einsatz chemischer Herbizide. Dazu sind Herbizid-tolerante Sorten von Mais, Soja und Raps mit gentechnischer Züchtung entwickelt worden, die insbesondere in Nord- und Südamerika von großem Nutzen sind, wo sie die empfindlicheren älteren Sorten weitgehend ersetzt haben.
Mit dem Aufkommen der Gentechnik-Pflanzen ab etwa 1998 hat sich der pflugfreie Anbau entsprechend stark ausgebreitet. Damit leistet die Gentechnik indirekt einen wichtigen Beitrag zu einer nachhaltigeren Landwirtschaft.
Gibt es das Multiversum?
30.04.2009, Karl Hostettler, CH-8355 AadorfEine erste Klarstellung: An Poppers Forderung nach Falsifizierbarkeit ist tatsächlich unbedingt festzuhalten. Aussagen über die Welt, überhaupt über irgend etwas, die grundsätzlich nicht falsifiziert werden können, die sich in unserer Welt also nie als erfüllt oder nicht erfüllt äussern, sind für uns in jedem Falle ohne Belang. Sie vermitteln uns nie irgendwelche brauchbare Information über unsere Welt.
Folgendes ist zu ergänzen: Schon Descartes hatte festgestellt, dass wir uns in unseren Ansichten über unsere Eindrücke immer irren können. Hume hatte später erwähnt, dass wir aus der Tatsache, dass sich die Welt immer an eine Regel hielt, dass zum Beispiel täglich die Sonne aufgegangen ist, niemals den Beweis ableiten können, dass sie dasselbe morgen auch tun wird. Mit anderen Worten: Regeln über die Beschaffenheit der Welt, alle All-Aussagen, lassen sich nie als wahr im Sinne mathematischer Folgerungen beweisen. Ob sie zutreffen, zeigt immer nur die Erfahrung. Daher beweist auch eine noch so große Zahl von Verifikationen die Wahrheit einer Regel nie. Aber eine einzige Falsifizierung stellt sie als falsch hin. Die Welt ist in jeder Beziehung so, wie sie "selbst sein will".
Anders verhält es sich mit mathematischen Beweisen. Betrachten wir das Schachspiel. Wir können genau sagen, wann ein König matt steht. Dies folgt exakt aus den Regeln. Die Regeln haben wir selbst gegeben. Wir wenden sie an und ziehen eindeutige Schlüsse. Dasselbe tun wir auch in der Mathematik. Auch sie ist ein Regelwerk. Auch diese Regeln haben wir nicht als etwas in einer platonischen Ideenwelt Existierendes vorgefunden. Sie sind ebenfalls unser eigenes Werk, auch wenn wir das intuitiv nicht merken. (Auf eine tiefere Begründung dieser Aussage möchte ich hier verzichten.) Auch in den mathematischen Systemen lassen sich nach den definierten Regeln exakte, zwingend folgende Schlüsse ableiten. In Regelsystemen können wir also exakt ableiten. Für Aussagen über die Welt, die an sich besteht, müssen wir immer auf Erfahrung zurückgreifen.
Über die Rolle der Mathematik in Bezug auf die Erforschung der Welt besteht ein verbreitetes Vorurteil. Gemäß dieser Auffassung ist die Welt zwangsläufig mathematischen Gesetzen unterworfen. Diese Ansicht ist falsch. Die Mathematik eignet sich hervorragend, um uns Information über die Welt zu verschaffen. Sie eignet sich, weil sich die Welt selbst streng an Regeln hält. Ein Beispiel: Zwar können wir zwei Äpfel in einen leeren Korb geben und dann nochmals zwei Äpfel. Dann werden wir im Korb vier Äpfel vorfinden. Aber wir haben keinen Beweis dafür, dass da nicht plötzlich ein Großer Weltgeist hinein pfuschen könnte, zum Beispiel jeweils einen Apfel für sich verschwinden ließe, so dass wir dann nur noch drei Äpfel im Korb vorfinden würden.
Dass so etwas geschieht, müssen wir nicht befürchten. Doch dass es nicht geschieht, sagt uns erst die Erfahrung! So lässt sich denn die Arithmetik vielfältig sinnvoll auf unsere Welt anwenden. Mit der Euklidischen Geometrie, die zum Beispiel von Kant als eine Wahrheit a priori aufgefasst wurde, hapert es dagegen ein wenig. In unserem Alltag lässt sie sich zwar sinnvoll anwenden, doch streng genommen gilt sie nirgends ganz exakt, wie Einstein in der ART festgestellt hat.
Sollen wir, weil strenge Beweise im Sinne exakter Ableitungen nicht möglich sind, in Bezug auf die Welt nicht von Wahrheit sprechen? Das wäre das Kind mit dem Bade ausgeschüttet. Wir machen die Erfahrung, dass sich die Welt in manchen Bereichen streng nach Regeln verhält. Gerade deshalb ist es sinnvoll, in Bezug auf Eigenschaften der Welt von Wahrheit zu sprechen. Aber diese Wahrheit erkennen wir anhand von Erfahrung, nicht anhand von deduktivem Ableiten aus konstruierten Regelsystemen. Die Welt hat die Eigenschaft, sich streng an gewisse Regeln zu halten. Diese Erfahrung ist fast unendlich gut bestätigt. Dank dieser Eigenschaft können wir uns in der Welt orientieren.
In unserem alltäglichen Erfahrungsbereich verfügen wir über jede Menge von Information, welcher ein Wahrheitsgehalt nicht mit gutem Gewissen abzusprechen ist. Ich wohne in Aadorf an der Bohlstrasse 9. Dessen bin ich mir hinreichend gewiss, um von Wahrheit zu sprechen. Gelegentlich fahre ich nach Zürich. Es gibt die Stadt Zürich. Und Berlin ist die Hauptstadt von Deutschland. Kein geistig gesunder Mensch wird die Wahrheit solcher Aussagen bestreiten. Weit eher als im empirischen Bereich würde ich im mathematischen auf den Ausdruck "Wahrheit" verzichten. 7 + 8 = 15. Sagen wir damit eine Wahrheit? Eine Wahrheit worüber? Sollten wir in diesem Falle nicht einfach "richtig gerechnet" sagen?
Jetzt können wir verstehen, wieso All-Aussagen über die Welt auch durch eine noch so große Menge von Verifizierungen nie als Wahrheiten bewiesen werden, aus einer einzigen, klar widersprechenden dagegen ihre Falschheit. Poppers Aussage gilt daher immer. Der Einwand, Poppers Aussage sei selbst nicht falsifizierbar, ändert daran nichts. Poppers Aussage bezieht sich auf Aussagen über Eigenschaften der empirischen Welt. Selbst ist sie aber keine Aussage über eine Eigenschaft der Welt, sondern über die Möglichkeit, solche Aussagen zu machen. Sie bezieht sich logisch nicht auf sich selbst.
Jetzt kommt das "aber". In unserer empirisch wissenschaftlichen Tätigkeit arbeiten wir nicht, indem wir in möglichst großer Zahl nach Bestätigungen suchen. Wir arbeiten tatsächlich weitgehend so, wie es sich Bayes etwa vorgestellt hat. Ein Beispiel: Ich will auf den Zug. Wann fährt er? Ich frage einen Kollegen. "Um vier", sagt er. Ich weiß, dass sich mein Kollege gelegentlich irrt. Aber so ungefähr wird seine Antwort wohl stimmen. Aber sicher bin ich mir dessen nicht. Ich frage einen anderen Kollegen. "Um sechs vor vier", so dessen Antwort. Das tönt recht vertrauenswürdig. Wer eine solch genaue Antwort geben kann, kennt sehr wahrscheinlich die Abfahrtszeit, und er wird mich kaum böswillig falsch informieren. Trotzdem sehe ich noch im Fahrplan nach: 15.54 steht da. Dieser Angabe kann ich wirklich vertrauen. Das heißt, vielleicht kommt der Zug ein wenig später. In ganz seltenen Fällen kommt er überhaupt nicht. Aber 15.54 ist die Zeit, zu welcher er, wenn alles normal geht, kommen muss. Woher weiß ich aber, dass der Fahrplan stimmt?
Ich verlasse mich auf die Intuition, auf das Ergebnis von mancherlei unbewusster Erfahrung. Doch wenn nötig könnte ich auch eine lange Kette von hinreichenden Gründen für meine Überzeugung anführen.
So arbeiten wir auch in der Wissenschaft. Wir suchen nach vertrauenswürdiger Information. Wir suchen kritisch nach Indizien, welche unsere Vermutungen bestätigen oder eben auch ihnen widersprechen. Ob eine Rabe schwarz ist oder grau, das lässt sich eindeutig feststellen. Aber in der Praxis, in der alltäglichen wie in der wissenschaftlichen, sind die Hinweise oft nicht derart eindeutig.
Bei Matthews lese ich: "In der Wissenschaft falsifizieren wir nicht, sondern wir bewahrheiten, wir steigern das Gewicht der Indizien." Ich kann diese Aussage in dieser Form nicht unterschreiben. Wir bewahrheiten nicht, sondern wir beurteilen die Wahrscheinlichkeit. Das heißt, als gute Wissenschaftler suchen wir auch nach Gegenargumenten. Aber wie die Pro-Argumente sind eben auch die Contra-Argumente meistens nicht ganz eindeutig. Trotzdem bedeutet jedes Gegenargument einen Falsifizierungsversuch. Wir falsifizieren also sehr wohl, auch unter dem bayesischen Vorgehen. Nur ist eben oft eine eindeutige Falsifizierung nicht möglich.
Nun zu den Theorien. Was Theorien leisten, darüber bestehen Missverständnisse. Wir müssen uns im Klaren sein, wozu Theorien dienen. Es geht immer um Information über die Beschaffenheit der an sich bestehenden Welt. Wie eine Theorie auch immer aussieht; ihr Wahrheitsgehalt liegt in der Verlässlichkeit der Information über die Welt, die sie enthält. Die Information ist Trägerin der Wahrheit. Wie eine Theorie formuliert ist, ob sie bereits selbst Theorie-geladen ist, ist ohne Belang. Was zählt ist einzig ihr Informationsgehalt. Allerdings muss sie richtig verstanden werden. Eine Aussage richtig verstehen bedeutet, ganz nach Wittgenstein, wissen was der Fall ist, wenn die Aussage wahr ist. Eine Theorie ist brauchbar, wenn sie uns zeigt, was der Fall ist; wenn wir uns auf die Information, so wie wir sie verstehen, verlassen können.
Probleme bestehen darin, dass wir oft in Theorien Vorstellungen mitschleppen, welche wir nicht überprüft haben. Das Ptolemäische Weltbild stellte die Erde in den Mittelpunkt des Kosmos. Man nahm diese Vorstellung als selbstverständlich an, unterzog sie keiner kritischen Überprüfung. Wir wissen es: man irrte sich. Trotzdem hatte dieses Weltbild seine Bedeutung: Es informierte verlässlich über die Stellung der Himmelskörper am nächtlichen Himmel.
Auch Newtons Himmelsmechanik enthielt sachlich nicht hinterfragte Elemente. Trotzdem enthält es viel brauchbare Information. Und es scheint, dass sogar Einstein ausgerechnet in seiner berühmtesten Theorie, der Speziellen Relativitätstheorie, einen solchen Fehler begangen hat. Zwar sind die Formeln der SRT längst hinlänglich bestätigt. Einsteins Fehlleistung liegt in der Vorstellung der Relativität von Geschwindigkeiten. Die Formeln der SRT sind nämlich auch mit der Annahme von Geschwindigkeit als einer realen Größe vereinbar. Dass auf einem gleichförmig bewegten System für die Geschwindigkeit des eintreffenden Lichts ungeachtet von dessen Herkunft immer derselbe Wert gemessen wird, ließe sich auch damit erklären, dass die Zeit gemäß Einsteins Formeln auf einem real bewegten System real langsamer vergeht.
Der Verzicht auf die Auffassung von Relativität hätte auch seine Vorteile: Das Zwillingsparadox wäre leichter verständlich. Das philosophisch schwierige Problem von Zeitreisen wäre weg vom Tisch: Vergangenes wäre für immer vergangen. Im Weiteren gäbe es eine Erklärung für die unterschiedliche Wellenlänge, mit welcher die Hintergrundstrahlung auf der Erde eintrifft. - Dies nur nebenbei.
Doch im Bemühen um die Erklärung beobachteter Ereignisse kommen wir oft auch zu neuen, vielleicht sogar überraschenden Erkenntnissen, die sich derart gut in unser bestehendes Weltbild einordnen, dass wir guten Gewissens von Wahrheit reden können. So schließen wir zum Beispiel aus unserem Wissen über die Erdgeschichte und den zahlreichen Knochenfunden auf die frühere Existenz von Dinosauriern. Wir werden diese Tiere nie lebend beobachten können. Sie sind ausgestorben. Dennoch wurde die Vorstellung von der Existenz dieser Tiere selbstverständlich in mancher Beziehung intuitiv oder auch bewusst Versuchen der Falsifizierung unterworfen. Sie wurde es, indem die Forscher ihre Schlüsse einer kritischen Betrachtung unterzogen. Es zeigen sich gültige Pro-Argumente in Menge, gültige Contra-Argumente fehlen. So können wir denn die Aussage, vor etwa 70 Millionen Jahren hätten Saurier die Erde bevölkert, guten Gewissens als empirisch belegte Wahrheit betrachten.
In gleicher Weise ließe sich auch die Auffassung von einem Multiversum bestätigen. Zwar gilt absolut: Worüber uns keine Spuren Kenntnis geben, darüber können wir nicht reden. Aber so, wie wir aus Skelettfunden und weiterem vorgegebenem Wissen auf die frühere Existenz von Sauriern schliessen, so ist es auch nicht ausgeschlossen, sondern vermutlich der Fall, dass wir aus Eigenschaften der Materie den Schluss auf die Möglichkeit der Existenz weiterer Universen ziehen können.
Allerdings besteht in diesem Falle ein Unterschied zum Beispiel mit den Sauriern. Wir können zwar anhand der vorliegenden Spuren auf die frühere Existenz ganz bestimmter Tierarten schließen. Dagegen wird es uns wohl nie möglich sein, auf ganz bestimmte fremde Universen zu schließen. Bei der Falsifikation kann es daher in diesem Falle nicht um die Behauptung der Existenz bestimmter anderer Universen gehen, über welche uns keine Hinweise vorliegen. Zu falsifizieren ist die Aussage: "Die Materie ist derart beschaffen, dass wir die Existenz eines Multiversums annehmen müssen." Ich sehe keinen Grund dafür, weshalb diese Aussage nicht falsifizierbar sein könnte.
Karl Hostettler
Kann allein Mathematik das Universum erklären?
30.04.2009, Prof. Peter R. Gerke, GräfelfingAktiviert heißt hier, es werden schwache elektrische Impulse in den Neuronen erzeugt. Wie aber werden aus diesen elektrischen Impulsen jene mathematischen Gedanken, die wir ja in unserem Kopf hören? Wo und wie entstehen sie in unserem Gehirn? Und so lange wir das nicht wissen, haben mathematische Lösungen des Universum-Problems eigentlich nur begrenzten Wer!
Vielleicht sollten wir ja einräumen, dass wir gar nicht alles wissen können, dass uns da auch die Mathematik nicht weiterhilft?
Nachbarschaftsbeziehungen
30.04.2009, Harald Kirsch, DüsseldorfDie Nachbarschaftsbeziehungen sind in der Tat ein wichtiger Aspekt, der für die genaue Raumstruktur wichtig ist. Ein Gitter der Raumatome ist im Allgemeinen irregulär, das heißt, unterschiedliche Atome haben unterschiedlich viele Nachbarn. Wie genau das aussieht, wird von der Dynamik der Quantengravitation bestimmt, nach der Atome nicht nur zu größerem Volumen angeregt, sondern auch neu erzeugt werden können. Wegen des intimen Wechselspiels von Raum-Zeit und Materie in der Allgemeinen Relativitaetstheorie hängt die genaue Zahl von Nachbarn in unterschiedlichen Regionen auch von der Materie im Universum ab.
Für die Größe von Winkeln gibt es durchaus Limitierungen, die sich mit größerer Schenkellaenge in einem Dreieck aber nicht stärker bemerkbar machen. Ein Dreieck muesste zwar auf die Atome des Raumes gezeichnet werden, was nur eine diskrete Menge für die Eckpunkte zulässt, aber für makroskopische und damit direkt messbare Dreiecke wäre das Raster immer noch fein genug. Zwar gibt es direkt um ein Atom üblicherweise nur wenige Nachbarn, je weiter man sich aber von einem Dreiecks-Eckpunkt entfernt, um so größer wird die Zahl der verfügbaren diskreten Stellen. Am Ende ist es wieder die elementare und winzig kleine Schrittweite des irregulären Gitters, die die Messbarkeit bestimmt. (Übrigens hatte Roger Penrose die Spinnetzwerke, die eine grosse Rolle in der mathematischen Formulierung der Schleifenquantengravitation spielen, schon 1971 zur möglichen Quantisierung von Winkeln eingeführt.)
Martin Bojowald
Mittelalterliches Klimaoptimum durch die Sonne?
28.04.2009, Jens Christian HeuerBei einer erhöhten Sonnenaktivität nimmt die UV-Strahlung im Gegensatz zur Gesamtstrahlung deutlich zu. Das bringt automatisch mehr Ozon in der Stratosphäre. Durch die bei höherer Sonnenaktivität gesteigerte Brewer-Dobson-Zirkulation gelangt zudem mehr Ozon von den Tropen in die mittleren Breiten. Beides zusammen führt zu einem erhöhten stratosphärischen Temperaturgradienten im Winter, so dass der stratosphärische Jet und damit auch der Polarwirbel stärker werden.
Dadurch wird der troposphärische Jetstream ebenfalls verstärkt und mäandert weniger. Das ist gleichbedeutend mit einem Trend zum positiven Modus der Arktischen Oszillation (AO) bzw. Nordatlantischen Oszillation (NAO). Durch die dann eher zonale Zirkulation gelangen, wie in Ihrem Beitrag beschrieben, milde und feuchte Luftmassen mit den Westwinden nach Europa. Die polare Kaltluft wird durch den kräftigen Jetstream wie von einer Mauer eingeschlossen, so dass es nur selten zu polaren Kaltluftausbrüchen kommt. Die dadurch milderen Winter schlagen in Richtung einer steigenden globalen Durchschnittstemperatur durch. Das mittelalterliche Klimaoptimum wäre dann zumindest ein die ganze Nordhalbkugel betreffendes Phänomen gewesen.
Viele Grüße
Jens Christian Heuer
http://wetterjournal.wordpress.com
Religion = Glaube?
28.04.2009, M. Ali Sarakaya, HamburgBei der Verwendung der Begriff Glaube und Religion herrscht eine große Verwirrung bzw. Fahrlässigkeit, weshalb es notwendig ist, eine Klärung der Begriffe zu fordern. Die Begriffe Religion und Glaube werden sehr häufig synonym verwendet, obwohl es fundamentale Unterschiede zwischen den beiden Begriffen gibt.
Der Glaube ist ein weitaus allgemeinerer Begriff, als es die Religion ist. Diese ist eher ein Spezialfall des Glaubens. So hat jedes Phänomen der Religion mit Glauben zu tun, aber nicht umgekehrt. Religion umfasst den ganzen Glaubensinhalt nicht. Atheisten haben keine Religion, wohl aber einen Glauben.
In Religionen spielen Gott bzw. Götter, Propheten und Heilige Bücher eine essentielle Rolle. Diese Religionsgrundsätze sind aber keineswegs Glaubensgrundsätze.
Die Religion ist kommt von außen an das Individumm, macht Vorschriften und beinhaltet Rituale wie Fasten, Beten, Gehorsamkeit. Dies tut der Glaube nicht, er erwächst allein aus dem Individuum heraus und macht keine Vorschriften. Es ist viel eher ein psychologischer Instinkt vergleichbar mit einem Gefühl wie Liebe, Hass und liegt somit in der Natur des Menschen. Die Religion hingegen ist ein gesellschaftliches Phänomen.
Religion unterdrückt durch Vorschriften als Über-Ich die natürlichen Bedürfnisse des Manschens, der Glaube an sich nicht. Besonders in der Debatte, ob Religion in der Natur des Menschenliegt, werden diese Ungenauigkeiten dazu genutzt, die These, dass die Religion in der Natur des Menschen liegt, zu stützen.
Um einen etwas überspitzen Parallelismus zu geben, so braucht der Mensch um zu überleben Essen und Trinken, das heißt aber noch lange nicht, dass er Brot und Cola braucht.
Im Glauben ist der Mensch frei aber nicht in der Religion.
Stringtheorie - eine positive Perspektive
27.04.2009, Thomas Stör (Dipl.-Phys.), NürnbergGleich vorneweg: Letzteres trifft auf meinen Beitrag hier nicht zu, da ich mich sicher nicht zu den Experten rechnen darf!
Ich denke dennoch, dass Herrn Lüsts Schlussfolgerungen an einigen Stellen eventuell nicht radikal genug sind!
Warum sollte denn eine Theorie, die zum einen enormen Anspruch hat und sicher entsprechendes Potential in sich birgt und die zum anderen an einigen Stellen noch konzeptionell lückenhaft ist, gerade diesen Anspruch aufgeben, den sie selbst so lange Zeit vertreten hat? Warum wird auf Basis einer - noch unfertigen - Theorie das aufgegeben, wofür diese Theorie so lange Zeit stand?
Ich möchte hier eine andere Argumentation vorschlagen:
Zunächst verweise ich auf einige Defizite der Stringtheorie, wobei weniger technische Details im Vordergrund stehen, sondern vielmehr konzeptionelle Grundlagen der Theorie - so wie sie heute verstanden wird - in Frage gestellt werden. Davon ausgehend argumentiere ich dahingehend, dass bei Überwindung dieser Defizite die sehr ambitionierten Ansprüche der Theorie eventuell gar nicht aufgegeben werden müssen; stattdessen könnte eine vervollständigte beziehungsweise geeignet konsolidierte Theorie über den jetzigen Zustand deutlich hinausweisen und so die teilweise aus dem Blick geratene Wissenschaftlichkeit wieder zurückgewinnen.
1) m.W.n. existiert keine fundamentale Gleichung plus einem Satz elementarer Regeln für die M-Theorie zur Ableitung physikalischer Ergebnisse. Stattdessen haben wir eher eine Sammlung von "Kochrezepten", die zwar für die Experten ein einigermaßen sicheres Fundament darstellen, die jedoch nicht den endgültigen Anspruch an eine fundamentale Theorie erfüllen.
2) Die genannten Dualitäten sind letztlich nicht mathematisch exakt bewiesen, sondern "nur" durch eine Entsprechung verschiedener Grenzfälle (large-N, small coupling) in den jeweiligen dualen Theorien motiviert. Ob diese Entsprechung auch abseits dieser Grenzfälle beweisbar gilt, ist m.W.n. noch offen, wenn auch sicher physikalisch motivierbar.
3) Der störungstheoretische Grenzfall kleiner Kopplung ist in zweierlei Hinsicht noch mathematisch unvollständig: Zum einen existiert kein endgültiger Beweis, dass die Störungsreihe tatsächlich in jeder Ordnung endlich ist, auch wenn es wohl gute Argumente dafür gibt; zum anderen ist die Summierbarkeit der Störungsreihe insgesamt nicht bewiesen.
4) Die String- bzw. M-Theorie ist heute nicht in der Lage, eindeutige Vorhersagen über die exakte Symmetriestruktur sowie das Massenspektrum der bekannten Elementarteilchen zu machen. Die Gründe dafür werden ausführlich dargelegt. Ich vermisse jedoch grundsätzlich eine Strategie, wie überhaupt ein Massenspektrum mit den bekannten Eigenschaften entstehen könnte. Wie lässt sich z.B. unter der Annahme einer Stringskala im TeV-Bereich die Kleinheit der Fermionmassen (Neutrinos: einige eV, Elektron: 511keV) erklären? Wichtig dabei ist: Diese Massen sind zwar verglichen mit der Stringskala klein, aber eben nicht exakt Null.
5) Die Stringtheorie heutiger Prägung liefert sicher noch keine vollständige Theorie einer Quantengravitation. Zunächst gilt, dass die Feldgleichungen der ART als Konsistenzbedingung für die Hintergrundgeometrie auftreten und dass das Spektrum ein masseloses Spin-2-Teilchen enthält. Allerdings fehlen doch einige bekannte Eigenschaften der Gravitation, insbesondere die Möglichkeit einer vollständig dynamischen Raumzeit, oder - um es anders zu formulieren - die Hintergrundunabhängigkeit der Theorie. Die Stringtheorie erfordert m.W.n. die Festlegung einer festen und dabei teilweise unphysikalischen Hintergrundgeometrie (Minkowski, AdS, schwarze Löcher als extremale BPS-Zustände, bestimmte Symmetrieforderungen wie die eines zeitartigen Killing-Vektors). Außerdem sehe ich kein Argument, warum aus der Stringtheorie gerade eine vierdimensionale makroskopische Raumzeit folgen sollte, warum also gerade sechs (sieben) der fundamentalen Dimensionen der Stringtheorie (M-Theorie) kompaktifiziert sind.
In Anbetracht dieser noch existierenden Defizite ist es doch eigentlich natürlich, dass die Forschungsprogramme sich auf eben diese Themen konzentrieren, dabei jedoch gleichzeitig den einmal erhobenen Anspruch aufrecht erhalten. Stattdessen wird dieser Anspruch teilweise aufgegeben.
Eventuell ist diese Schlussfolgerung doch verfrüht!
Möglicherweise hat die Stringtheorie nach geeigneter Erweiterung und Konsolidierung tatsächlich genügend Vorhersagekraft, um (ziemlich) eindeutige Antworten zu den generellen Strukturen, Symmetrien, Vakuumzustände, Grundbausteinen und Wechselwirkungen der Natur zu liefern, ohne dafür Multiversen oder das anthropische Prinzip bemühen zu müssen.
Mich würde interessieren, ob die zunächst eher pessimistische Bewertung der gegenwärtigen Situation, die ich in eine optimistische Perspektive ummünzen möchte, realistisch sein könnte.
Fehler im "Spiel der Obertöne"
27.04.2009, Martin Treiber, DresdenGanz allgemein würde mich interessieren, ob die Einteilung "12 Halbtöne, 7 Ganztöne pro Oktave" physio-akustisch begründet werden kann, oder ob dies Zufall ist und sich genauso gut z. B. 11 Töne hätten etablieren können.
Stark verzerrte Grundannahmen
27.04.2009, Dr. Ulrich Katscher, Hamburgdie deduktive Ableitung subjektiven Dissonanzempfindens stellt zweifelsohne einen spannenden Forschungsgegenstand dar. Der Artikel macht aber an mehreren Stellen den Eindruck stark verzerrter Grundannahmen.
Dass zwei Sinustöne im Abstand von 11 Halbtonschritten (große Septime) eine deutlich geringere Dissonanz darstellen als solche im Abstand von 4 (große Terz) oder 5 Halbtonschritten (Quart), widerspricht dem abendländischen Musikempfinden extrem. Damit scheinen die Autoren ihre sämtlichen Modelle auf eine zumindest sehr fragwürdige Grundannahme zu stellen.
Es ist frappierend zu sehen, wie Moll-Akkorde inklusive deren Umkehrungen aus Ton-Erhöhungen symmetrischer Akkorde erfolgen. Trotzdem werden Moll-Akkorde subjektiv stets als Ton-Absenkungen wahrgenommen, weil natürlich der allgegenwärtige Dur-Akkord als Maßstab dient und nicht die viel exotischeren, von den Autoren als Maßstab verwendeten, symmetrischen Akkorde. Dadurch wirkt die versuchte biologische Begründung der emotionalen Wertigkeit der Tongeschlechter sehr unglaubwürdig.
Neben solchen grundlegenden Schwächen weist der Artikel diverse kleinere, aber nicht weniger ärgerliche Fehler auf. Gleich im ersten Kasten wird behauptet, das Deutschlandlied stehe in D-Dur; Haydn hat es aber ursprünglich in G-Dur, später in seinem Streichquartett in Es-Dur verfasst. Ganz am Ende des Artikels dagegen wird die Loslösung von der Tonalität „vor wenigen Jahrzehnten“ datiert; Schönbergs 2. Streichquartett aber, ein entscheidender Meilenstein dieser Loslösung, wurde vor rund 100 Jahren komponiert. Im Gegenteil zeigten die jüngsten Jahrzehnte eher eine leichte Tendenz zurück zur Tonalität.
Sammelantwort der Autoren auf alle Zuschriften
Zunächst möchten wir allen Kommentatoren für ihre sorgfältige Lektüre des Artikels und die anregende Diskussion danken. In der Tat ist die Abbildung, die das Phänomen der Obertöne grundlegende erklären soll, durch den Vergleich zur bekannten Klaviatur etwas unpräzise, beispielsweise müsste F2 näher bei F3 liegen. In der heute üblichen wohltemperierten Stimmung allerdings werden die Unterschiede ein wenig nivelliert. Detlev Rosbach hat natürlich Recht damit, dass beispielsweise der 6. Oberton, vom Grundton aus gesehen, zwischen dem 33. und 34. Halbton liegen würde, mit C als Grundton also wäre das ein Ton zwischen A und Bb. Musikalisch bedeutet das übrigens, dass höhere Ordnung der Obertöne immer etwas Dissonanz erzeugen, was heute allgemein akzeptiert wird, in den Stimmungen des Mittelalters Bedeutung hatte.
Wie Theo Hartogh richtig moniert, wird das Deutschlandlied nicht immer in D-Dur gespielt, Haydn komponierte die Melodie ursprünglich in G-Dur. In der wohltemperierten Stimmung bedeutet die Wahl einer anderen Dur-Tonart lediglich ein Verschieben der Tonhöhe, der grundlegende Charakter – kraftvoll, hell, optimistisch – ändert sich dadurch nicht. Hartogh irrt, was den Beatles-Song »Yesterday« angeht: Die Tonfolge von »Why she had to go« ergibt einen Moll-Akkord in 2. Umkehrung auf (D, G, Bb), so erzielte Paul McCartney den beabsichtigen Eindruck von Verlorenheit und Trauer.
Dieser Moll-Charakter bleibt übrigens auch dann erhalten, wenn man die Passage mit Dur-Akkorden begleitet. Dennoch steht die Bedeutung des musikalischen Kontextes von Mehrklängen und Tonfolgen für deren Funktion innerhalb eines Stücks außer Frage. Der Clou unserer Arbeit ist aber gerade, dass wir einen biologischen „Mechanismis“ entdeckt haben, der einen Dur- oder Moll-Charakter auch dann zu erklären vermag, wenn Akkorde und Sequenzen für sich allein, also ohne Kontext erklingen. Und dieser Charakter entspricht der musikalischen Erfahrung.
Die Tonalität von Dreiklängen wird unseres Erachtens also primär von ihrer akustischen Struktur, nicht von der jeweiligen Kultur mit ihren Wahrnehmungsgewohnheiten bestimmt. Auch wenn seit der Renaissance meist mit Bezug zur Dur-Tonalität komponiert wurde, symmetrische, spannungsvolle Akkorde hingegen seltener Verwendung fanden, eignen sie sich unseres Erachtens besser als Referenz, um die emotionale Qualität von Mehrklängen modellhaft zu untersuchen.
Ein Blick auf nichtwestlichen Musikkulturen ändert daran übrigens nichts, mögen diesen 5-, 7- oder gar 22-tönige Skalen zugrunde liegen. Auch dort gibt es Tonfolgen mit implizit Dur- oder Moll-Charakter. Das gilt für traditionelle chinesische und japanische Stücke ebenso wie für nordindische Ragas. Die Wahrnehmung der Tongeschlechter ist also ein Kulturen übergreifende Phänomen und das spricht wohl ebenfalls für eine biologische Grundlage.
Poppers Beispiel zu ungenau?
27.04.2009, Paul-Gerhard Schank, BerlinArgument Nr. 3:
Eine Aussage wie "Alle Tiere der Art x sind weiß" bezieht sich im allgemeinen Sprachgebrauch weder auf die Füße noch auf die Innereien, sondern auf das visuell dominante Fell- oder Federkleid. Eine Differenzierung wäre nur dann erforderlich, wenn von diesem allgemeinen Sprachgebrauch Abweichendes gemeint sein sollte. Daher ist dieses Argument m.E. hinfällig.
Argument Nr. 2:
Verallgemeinernde Aussagen über Tiere beziehen sich generell - wenn es nicht ausdrücklich anders vermerkt ist - auf adulte Formen. Auch Rehe sind ja braun, obwohl Kitze gefleckt sind. Auch dieses Argument ist folglich hinfällig.
Zu beiden Argumenten kann man noch ergänzen: es wäre ohne Kontext und ohne vereinfachende Mechanismen im Sprachgebrauch kaum möglich, sich zu verständigen. Denn die von Robert Riedl gegebenen Präzisierungen sind willkürlich heraus gegriffen aus einer sehr viel größeren Menge von möglichen Präzisierungen. (So könnte man - alles möglich, aber eben hier nicht erforderlich! - auf die Sauberkeit des Federkleids, auf Lichteinwirkungen bei Sonnenuntergang oder auf die Feinabstufungen von sehr hellen Grau-Tönen zu sprechen kommen.)
Argument Nr. 1:
Dass es sich offenbar nicht um Trauerschwäne handelt, obwohl es nicht ausdrücklich gesagt wird, ist auf den ersten Blick ein schwer wiegendes Argument. Jedoch scheint mir grade hier der argumentative Witz von Poppers Beispiel zu liegen: In unserem Gesichtskreis sind weiße Schwäne so prägend, dass wir versucht sind, "alle Schwäne sind weiß" als allgemeines Gesetz anzunehmen. Aber die Erfahrung ist im Stande, uns eines besseren zu belehren, indem sie uns schwarze Schwäne finden lässt.
Aus dieser Perspektive ist das, was Robert Riedl vorschlägt, zwar eine Präzisierung der ursprünglichen Theorie. Aber grade dadurch wird Poppers Beispiel nicht als ungenau entlarvt, sondern es wirkt umso pfiffiger, und in einer Neuauflage der "Logik der Forschung" dürfen wir wohl weiterhin mit "Alle Schwäne sind weiß" rechnen.
Endlich...!
25.04.2009, Axel Behrendt, HolzmindenDie ersten 100 Steine fallen hinunter, alle weiteren nicht?
24.04.2009, Paul-Gerhard Schank, BerlinDie Theorie: "Die ersten 100 Steine fallen hinunter, alle weiteren nicht", wagt eine Prognose, für die sie nicht die geringsten Anhaltspunkte hat. Jede Theorie dieser Form müsste erläutern, weshalb grade die von ihr benannte Zahl zutreffend sein soll. Diese Zahl ergibt sich ja nicht aus der Anzahl der bereits geworfenen Steine.
Und auch nicht aus dem Bayesianismus! Als Wahrscheinlichkeitsabschätzungen ist ebenfalls "Alle Steine fallen hinunter" vorzuziehen, da sie die größere Wahrscheinlichkeit hat.
Neue Bindung - nur wie?
24.04.2009, Anja Schmidtwie binden denn die beiden Atome aneinander? Das habe ich im Artikel nirgendwo gefunden - oder habe ich etwas nicht verstanden?
Danke
Sehr geehrte Frau Schmidt,
die Sache ist mit wenigen Worten schlecht zu erklären - weil unanschaulich - und wurde daher im Beitrag nicht explizit ausgeführt.
Es liegt an den Wellenfunktionen des angeregten Elektrons im Rydbergatom und dem einzelnen Elektron in der s-Schale des zweiten Rubidiumatoms, die aneinander streuen (Niedrigenergie-Streuung). Wie in der beigefügten Grafik angedeutet, bildet sich an bestimmten Abständen vom Kern des Rydberg-Atoms ein anziehendes Potential aus (grüne
Kurve) was diese Konfiguration zu einem gebundenen Zustand macht (Stichwort: Feshbach-Resonanz), auch wenn die Atome um die Verbindungsachse nicht nur im ersten sondern auch im zweiten Anregungszustand schwingen (blaue Kurven). Das ganze ist bei R = 1900 a_0. Letzteres ist der Bohr-Radius, ca. 0,05 Nanometer, wodurch sich eine Molekülausdehnung von rund 100 Nanometer ergibt.
Mit freundlichen Grüßen
Oliver Dreissigacker
Redaktion spektrumdirekt
Wie aus Chaos Ordnung entsteht?
23.04.2009, Stefan Pschera, ErlbachKritik auch zum Beispiel auf Seite 32: „Das Löschen eines Computerspeichers ist ein irreversibeler Vorgang und erzeugt deshalb Wärme". Dazu die Kritik: Es ist egal, was da gelöscht wird. Das Löschen ist eine Aktion und bedarf deshalb Energie. Wenn z. B. der gesamte Speicher mit Nullen belegt und gelöscht wird, so ist der Vorgang durchaus reversibel. Der Energiebedarf ist abhängig von der Menge, nicht vom Inhalt. Egal ob Weltliteratur oder Zufallszeichen gelöscht werden, der Energiebedarf bei dieser Aktion ist identisch.
Diplommathematiker
Stefan Pschera