Lesermeinung - Spektrum der Wissenschaft

Ihre Beiträge sind uns willkommen! Schreiben Sie uns Ihre Fragen und Anregungen, Ihre Kritik oder Zustimmung. Wir veröffentlichen hier laufend Ihre aktuellen Zuschriften.
  • Vorsicht bei der Biologisierung musikalischer Phänomene!

    06.03.2009, Prof. Dr. Theo Hartogh, Vechta
    Die Biologie des Wohlklangs wird von den Autoren dieses Beitrags nicht überzeugend begründet, da in der Argumentation von musiktheoretisch ungenauen bzw. falschen Sachverhalten ausgegangen wird, die gar nicht in Gänze hier aufgezeigt werden können.
    Das Deutschlandlied wird nicht nur in D-Dur, sondern auch in anderen Dur-Tonarten musiziert. Ein Blick in Liederbücher kann schnell davon überzeugen, dass die Nationalhymne auch in Es-Dur oder C-Dur erklingt; bei großen Sportveranstaltungen wird sie auf unterschiedlichen Tonhöhen angestimmt.
    Der Song „Yesterday“ von den Beatles hat eine traurige Wirkung, steht jedoch nicht in Moll, sondern in Dur. Die im Beitrag angesprochene Passage „Why she had to go, I don´t know“ baut nicht auf einem Molldreiklang auf, denn in der Begleitung tauchen sowohl Dur- als auch Mollakkorde auf; die „Klage“ wird musikalisch vor allem durch das langsame Tempo und die Melodieführung (z.B. Seufzermelodik zu Beginn des Songs) ausgedrückt. Da sowohl Dur- als auch Mollakkorde vorkommen, können gerade am Beispiel dieses Songs die Harmonie-Thesen der Autoren widerlegt werden.
    Zur Mehrstimmigkeit: Schon vor der Renaissancezeit wurden mehr als drei verschieden geführte Stimmen kunstvoll kombiniert. Die Analyse mehrstimmiger Werke spätgotischer Meister (z. B. G. de Machaut) zeigt, dass deren Musik noch fernab des kadenzierenden Dur-Moll-Systems komponiert wurde.
    Man muss nicht bis nach Südindien reisen, um auf Tonsysteme zu stoßen, die in keiner Weise unserer Dur-Moll-Tonalität entsprechen – sie können als Gegenbeweis für universale biologisch begründete Harmoniegesetze angeführt werden. Zudem ist es müßig, einzelnen Akkorden eine bestimmte Wirkung zuzuschreiben, denn Musikwahrnehmung ist Gestaltwahrnehmung. Wir hören nicht eine Folge isoliert wirkender Einzeltöne und -harmonien, sondern Melodiegestalten und Akkordfolgen, die eine bestimmte Spannung auf- und abbauen, z. B. in der besagten Passage des Beatles-Songs. Das komplexe Zusammenwirken musikalischer Parameter wie Melodie, Rhythmus, Harmonie, Dynamik und Klangfarbe kann nicht aus einer Einzelbetrachtung erschlossen oder gar berechnet werden; es müssen immer alle Parameter in den Blick genommen werden, beim Song „Yesterday“ kommen z. B. der Sound und die Stimme Paul McCartneys hinzu, die maßgeblich zur spezifischen Wirkung des Songs beitragen.
    Es bleibt in diesem Beitrag auch die Frage offen, mit welchen Probanden die Versuchsergebnisse zum Dur-, Mollerleben ermittelt wurden; waren es etwa Teilnehmer, die in abendländischer Musiktradition groß geworden sind? Dann können die Ergebnisse nicht als Beleg für eine kulturübergreifende Phylogenese der Dur-Moll-Harmonik angeführt werden.
    Die am Schluss des Beitrags konstruierte Homologie zwischen Symmetriebrechungen der Akkorde, die genauen Frequenzunterschieden zugeordnet werden, und den Stimmäußerungen von Tieren und Menschen, die meistens gar nicht bestimmten musikalischen Tonhöhen entsprechen, ist überhaupt nicht nachvollziehbar und entbehrt jeder empirischen Basis.
    Antwort der Redaktion:
    Sammelantwort der Autoren auf alle Zuschriften


    Zunächst möchten wir allen Kommentatoren für ihre sorgfältige Lektüre des Artikels und die anregende Diskussion danken. In der Tat ist die Abbildung, die das Phänomen der Obertöne grundlegende erklären soll, durch den Vergleich zur bekannten Klaviatur etwas unpräzise, beispielsweise müsste F2 näher bei F3 liegen. In der heute üblichen wohltemperierten Stimmung allerdings werden die Unterschiede ein wenig nivelliert. Detlev Rosbach hat natürlich Recht damit, dass beispielsweise der 6. Oberton, vom Grundton aus gesehen, zwischen dem 33. und 34. Halbton liegen würde, mit C als Grundton also wäre das ein Ton zwischen A und Bb. Musikalisch bedeutet das übrigens, dass höhere Ordnung der Obertöne immer etwas Dissonanz erzeugen, was heute allgemein akzeptiert wird, in den Stimmungen des Mittelalters Bedeutung hatte.


    Wie Theo Hartogh richtig moniert, wird das Deutschlandlied nicht immer in D-Dur gespielt, Haydn komponierte die Melodie ursprünglich in G-Dur. In der wohltemperierten Stimmung bedeutet die Wahl einer anderen Dur-Tonart lediglich ein Verschieben der Tonhöhe, der grundlegende Charakter – kraftvoll, hell, optimistisch – ändert sich dadurch nicht. Hartogh irrt, was den Beatles-Song »Yesterday« angeht: Die Tonfolge von »Why she had to go« ergibt einen Moll-Akkord in 2. Umkehrung auf (D, G, Bb), so erzielte Paul McCartney den beabsichtigen Eindruck von Verlorenheit und Trauer.


    Dieser Moll-Charakter bleibt übrigens auch dann erhalten, wenn man die Passage mit Dur-Akkorden begleitet. Dennoch steht die Bedeutung des musikalischen Kontextes von Mehrklängen und Tonfolgen für deren Funktion innerhalb eines Stücks außer Frage. Der Clou unserer Arbeit ist aber gerade, dass wir einen biologischen „Mechanismis“ entdeckt haben, der einen Dur- oder Moll-Charakter auch dann zu erklären vermag, wenn Akkorde und Sequenzen für sich allein, also ohne Kontext erklingen. Und dieser Charakter entspricht der musikalischen Erfahrung.


    Die Tonalität von Dreiklängen wird unseres Erachtens also primär von ihrer akustischen Struktur, nicht von der jeweiligen Kultur mit ihren Wahrnehmungsgewohnheiten bestimmt. Auch wenn seit der Renaissance meist mit Bezug zur Dur-Tonalität komponiert wurde, symmetrische, spannungsvolle Akkorde hingegen seltener Verwendung fanden, eignen sie sich unseres Erachtens besser als Referenz, um die emotionale Qualität von Mehrklängen modellhaft zu untersuchen.


    Ein Blick auf nichtwestlichen Musikkulturen ändert daran übrigens nichts, mögen diesen 5-, 7- oder gar 22-tönige Skalen zugrunde liegen. Auch dort gibt es Tonfolgen mit implizit Dur- oder Moll-Charakter. Das gilt für traditionelle chinesische und japanische Stücke ebenso wie für nordindische Ragas. Die Wahrnehmung der Tongeschlechter ist also ein Kulturen übergreifende Phänomen und das spricht wohl ebenfalls für eine biologische Grundlage.
  • Glaube an Determinismus - Brief Dr. Grob

    06.03.2009, Stephan Froede, Wiesbaden
    Würde man dem beschriebenen Ansatz folgen, so müsste man in finaler Konsequenz das gesamte Universum simulieren,um den Regelkreis vollständig verstehen zu können.

    Die von Herrn Dr. Grob beobachteten "hektischen Bemühungen" sind das Zeichen unserer Ohnmacht, unseres Nicht-Verstehens und auch unserer Ignoranz gegenüber dem Unbekannten.

    Der unbeirrte Glaube in die Unfehlbarkeit unserer deterministisch getriebenen Planungsfähigkeit, hat uns erst in die Misere gebracht.

    Und diese Erkenntnis ist nicht originär von mir, sondern leitet sich direkt aus der objektiven Erkenntnis und Logik der Forschung Teil 2, von Sir Karl Popper und aus Benoit Mandelbrots "misbehaviour of markets" bzw. seinem Multifraktalen Modell-Ansatz ab.

    Der Glaube an den Determinismus ist ein Fluch, eine Sichtweise, die uns das Erkennen und Verstehen des Universums erschwert. Und letztlich nur aus dem fast irrationalen Bestreben nach totaler Sicherheit und
    Kontrolle resultierend.

    Es hat auch etwas mit Physik zu tun, denn letztlich hindert uns hier auch das Fehlen der Vereinheitlichung der Quantengravitation und der Relativitätstheorie, denn so wissen wir noch nicht mal ob das Chaos der Quantenwelt sich in unserer Makrowelt wiederfindet oder nicht. So benutzen wir Krücken wie die Emergenz oder Selbstorganisation, im
    Sinne "und hier geschieht" ein Wunder.

    Das was wir aber haben, ist unser Hirn und unsere kritische
    Sichtweise, und die hat uns bisher geholfen von der Savanne bis zum Mond zu bringen.

  • Messbare Größen und Wahrscheinlichkeit entscheidend

    06.03.2009, Prof. Otto Schult, Jülich
    Im praktischen Leben interessiert, ob etwas wahr oder falsch ist. Und da haben wir allen Grund, Karl Popper für seine Klarstellung zu danken, wobei die Falsifizierung eine, die Validierung die andere, allerdings nur qualitative Beurteilungen gestattet.

    Bei "harten" Wissenschaften benötigt man quantitative, messbare Größen. Da gebührt Bayes das Verdienst, die Wahrscheinlichkeit in den Blick gerückt zu haben. Für Kern- und Teilchenphysik ist das besonders wichtig. Die Wahrscheinlichkeit, dass es unsere Erde wirklich gibt, ist so extrem nahe bei 1,0, dass wir ihre Existenz als "wahr" betrachten dürfen, denn wir können ihren Durchmesser, ihre Masse etc. physikalisch messen.

    Multiversen sind aber für uns unmessbar! Wir können weder ihre Existenz noch ihre Nicht-Existenz beweisen, ebenso wie wir naturwissenschaftlich weder die Existenz noch die Nicht-Existenz Gottes beweisen können. An Gott können wir nur glauben, müssen es aber nicht. Ebenso halte ich es mit den Multiversen. Warum sind wir nicht bescheiden und demütig? Lassen wir den Multiversen-Freaks ihr "Spielzeug". Wir wissen einfach nicht, ob es sie wirklich gibt! Da helfen auch keine Wahrscheinlichkeitsüberlegungen.
  • Elektroautos sind ein Nischenprodukt?

    05.03.2009, Friedrich Braun, Bonn
    Im Leserbrief von Thomas Wietoska wird das Problem der Infrastruktur für die Ladestationen angesprochen, welches auch mich beschäftigt. Ich habe erhebliche Zweifel daran, dass in nennenswertem Umfang ausreichende Kapazitäten dafür bereitgestellt werden könnten.

    Für den E-Mini-Versuch in Berlin werden z.B. Kandidaten gesucht, die entweder privat über eine Garage oder einen Carport oder beruflich über einen Stellplatz verfügen.
    Wenn diese Bedingung auf 10 Prozent aller Autofahrer zuträfe, wäre das sicherlich schon hochgegriffen.

    Wie soll das zweifelsfrei vorhandene Risiko bei frei zugänglichen Plätzen, wie z.B. bei einem Carport, eigentlich gelöst werden? Ganz zu schweigen von einem unbewachten Fahrzeug vor der Haustür.

    Da bin ich mal gespannt, wie diese Fragen gelöst werden.
    Ich fahre zur Zeit ein Dieselfahrzeug mit einem Tankvolumen von 50 Litern. Damit komme ich 1000 km weit. Das Tanken dauert 10 Minuten. Tankstellen gibt es genug. Auch das Tanken im Ausland ist kein Problem.

    Die Industrie, die sich mit Elektrofahrzeugen befasst, steht mithin vor großen Herausforderungen.
  • Lösungsvorschläge vs Eliminationsversuche

    05.03.2009, Paul-Gerhard Schank, Berlin
    Ich denke auch: "Niemand wird doch ernsthaft festlegen wollen, wie der wissenschaftliche Fortschritt erfolgen soll", wie Karsten Löhr schreibt.

    Dennoch oder gerade deswegen sollten wir überlegen, ob wir nicht ernsthaft unterscheiden wollen und müssen zwischen dem Zustandekommen von Lösungsvorschlägen und der Methode der Elimination von unzutreffenden Vorschlägen.

    Für Lösungsvorschläge gilt zweifellos, dass Kreativität gefragt ist und kein Gedanke an Falsifizierbarkeit die kreative Energie lähmen sollte.

    Sobald der Lösungsvorschlag aber im Raum steht und mit anderen Vorschlägen zu konkurrieren hat, sind die Eliminationsversuche mittels Falsifikation unausweichlich.
  • Tolle Hilfe

    05.03.2009, Petulia Freymann
    Danke für den schönen Artikel. Ich finde auch, dass man als Betroffener sehr viel selbst gegen die Angst und Panik tun kann. Ich habe gerade Ihre Buchempfehlung "Angstfrei glücklich leben" gelesen und muss sagen, es hat mir sehr geholfen. Das Buch ist toll.
  • Wissenschaft als Kenntnis und Fortschritt

    05.03.2009, Prof. Dr. Karsten Löhr, Ulm
    Etwas verwirrend an dem Essay zum Wesen der Wissenschaft ist, dass der Autor nicht trennt zwischen dem wissenschaftlichen Kenntnisstand und der wissenschaftlichen Vorgehensweise. Es scheint zwar durchaus sinnvoll, den derzeitigen Stand der Wissenschaft an den falsifizierbaren Behauptungen festzumachen. (Demnach tragen auch die falsifizierten Behauptungen zur Wissenschaft bei, ganz wie Konfuzius lehrt: Wenn du weißt, was du weißt, und du weißt, was du nicht weißt: das ist Wissen!)

    Aber niemand wird doch ernsthaft festlegen wollen, wie der wissenschaftliche Fortschritt erfolgen soll. Auf welche Weise eine wissenschaftliche Hypothese erlangt wird, muss und wird frei bleiben, ob durch Übertragung (Archimedes in der Badewanne), im Traum (Benzolring von Kekulé) oder durch eine Verallgemeinerung (Apfelfall bei Newton). Wenn man sich darauf beschränken wollte, jeglichen wissenschaftlichen Gedanken an die Suche nach einer falsifizierbaren Behauptung zu knüpfen, würde man wohl auf andere Erkenntnisfähigkeiten – z.B. Vorstellungsvermögen, Erkundungswillen oder Zweifel – verzichten müssen.

    Dass man diese Metaphysik des Erkenntnisvermögens gleich als "Pseudowissenschaft" abtun muss, sei dahingestellt. Ich halte es da lieber mit Kant, der in seiner Kritik der reinen Vernunft zumindest eine gegenseitige Abhängigkeit festgestellt hat: Ohne Sinnlichkeit würde uns kein Gegenstand gegeben, und ohne Verstand keiner gedacht werden. [Metaphysische] Gedanken ohne [physischen] Inhalt sind leer, [physische] Anschauungen ohne [metaphysische] Begriffe sind blind.
  • Spieleinsätze

    04.03.2009, Franz Pichler, Wien
    Zit.#1: "Jeder Teilnehmer erhielt Marken im Wert von 5 Dollar - umgerechnet in lokale Kaufkraft."

    Zit.#2: "Ist ein wohlhabender Amerikaner, der auf die 5 Dollar Einsatz wahrscheinlich gut verzichten kann,... eher zum Zocken bereit als ein armer iranischer Landbewohner?"

    Wenn die Summe nicht wie in Zitat 1 angegeben sozusagen "ausgeglichen" wurde, ist das Experiment ziemlich sinnlos.

    Falls ja, dann ist jedenfalls Zitat 2 sinnlos.

    Oder einfach nur ein bissl unlogisch ...

    MfG
    Franz Pichler
    Antwort der Redaktion:
    Sehr geehrter Herr Pichler,



    vielen Dank für Ihren Leserbrief!



    Die Autoren der Studie haben den Spieleinsatz nach dem "Bic Mac Index" des Economist in lokale Kaufkraft umgerechnet. Für das Beispiel Argentinien (Iran taucht leider in der online verfügbaren Liste nicht auf) bedeutet dies, dass aus den 5 Dollar 16,25 Arg. Pesos werden.



    Nicht berücksichtigt bleiben dabei Einkommensunterschiede: In der Region um Columbus (Ohio), in der das Experiment durchgeführt wurde, liegt das durchschnittliche Pro-Kopf-Einkommen laut Wikipedia bei ca. 1700 Dollar, also dem 340-fachen des Einsatzes, in Argentinien laut Wikipedia bei 625 Arg. Pesos, also in etwa dem 38-fachen. Auf die USA rückgerechnet entspräche dies einem Einsatz von etwas über 44 Dollar – mit denen, so mein Eindruck, Spieler wahrscheinlich wesentlich behutsamer umgegangen wären.



    Mit besten Grüßen



    Jan Dönges
  • Bienen unterscheiden Muster und Mengen

    04.03.2009, Prof. Dr. Dr. h.c. Randolf Menzel, Berlin
    Sehr geehrte Damen und Herren,

    da ist also auch Spektrum auf die unwissenschaftliche Übertreibung hereingefallen, dass Bienen bis drei zählen könnten. Zuerst muss man zur Ehrenrettung der Autoren (oder vielleicht besser der Gutachter von PloSone) sagen, dass so eine Aussage in dem zitierten Artikel gar nicht gemacht wird. Von "zählen" ist dort an keiner Stelle die Rede, und "number-based visual generalization" (so der Titel des Artikels) bedeutet natürlich nicht "zählen". Weiter muss man beachten, dass die Experimente auch gar nicht eine solche Aussage erlauben würden. Was die Autoren zeigten, war für Bienen schon viele Male vorher nachgewiesen worden, dass sie nämlich über die Fähigkeit verfügen, visuelle Muster zu generalisieren und dabei die Musterkomponenten berücksichtigen. Die Aussage Ihres Berichtes geht also völlig an dem vorbei, was die zitierte Publikation betrifft. Allerdings gibt es andere und recht spannende Untersuchungen zu der Frage, ob Bienen Kleinstmengen unterscheiden können, also 1 von 2, oder 2 von 3 nacheinander wahrgenommenen Objekten. Solche nacheinander erfahrenen Objekte können z.B. Landmarken sein. Hier gibt es Hinweise für solche sequentiellen Unterscheidungen, aber auch das hat mit "zählen" nichts zu tun. Von einer Zeitschrift wie Spektrum erwarte ich, dass besser recherchiert wird, die Arbeiten gelesen werden, die besprochen werden, und dass die breitere Thematik gründlicher studiert wird. Gerade die Frage nach den verschiedenen Formen der Mengenbewertung (numerosity) und der Generalisierung und der Abstraktion von Mengen (number estimation) ist ein eine wichtige Forschungsthematik der Psychologie und der Verhaltensforschung.

    Ihr Randolf Menzel


    Antwort der Redaktion:
    Das Wort "zählen" kommt nur im Titel des Beitrags vor und ist dort eine journalistische Überspitzung sowie ein Wortspiel mit der gängigen Phrase "nicht bis drei zählen können" (weshalb von drei die Rede ist, obwohl die Bienen laut Untersuchung sogar bis vier "zählen" können). Dass der Ausdruck nicht ernst gemeint ist, ergibt sich auch aus der späteren ironischen Formulierung "zum Zählen fehlen ihnen [den Bienen] nun einmal die Finger".


    Im Übrigen bestätigt die Arbeit nicht nur die längst bekannte Tatsache, dass Bienen Muster erkennen können. Vielmehr geht es darum, dass die Insekten auch imstande sind, Mengen intuitiv zu erfassen und zu generalisieren.


  • Definition von "Hochbegabung"

    04.03.2009, Gerhard Roth
    Liebe Frau Spillner:

    Vielen Dank für den schönen und zugleich sehr abwägenden Artikel. Was die Definition von "Hochbegabung" betrifft, so ist das - wie der Name sagt - eine Definitionsfrage. Die 1% der Bevölkerung trifft für einen IQ ab 135 zu, und es ist gleichgültig, ob man sie hochbegabt oder höchstbegabt nennt.
    Mein Gewährsmann in diesen Dingen ist der Marburger Begabungsforscher Prof. Rost.

    Beste Grüße, Gerhard Roth
  • Evolutionslehre für Hessens Schüler erst kurz vor dem Abi

    03.03.2009, Josef Braun, Nidda
    Ich hoffe sehr, dass Herr Junker bei seinem Vortrag vor der hessischen Landesregierung darauf hingewiesen hat, dass die hessische Praxis, das Thema Evolution erst in der 13.II, also nach dem schriftlichen Abi, auf den Lehrplan zu setzen, völlig unverantwortlich ist. Aus der Sekundarstufe I wurde das Thema Evolution in den letzten Jahren konsequent raus geworfen!! Ich habe mich dabei immer gefragt, welchen Einfluss christliche Fundamentalisten in der hessischen CDU wohl haben.
  • Oh Gott!

    03.03.2009, Dominique Boursillon, Sigmaringendorf
    Sehr geehrte Damen und Herren,

    Sie schreiben: "Zu einer umfassenden Bildung gehört es, beide Seiten zu kennen, weshalb auch die Schöpfungsgeschichte ihren Platz in der Schule haben." Warum gehört die Schöpfungsgeschichte in die Schule? Was hat sie dort verloren? Wer eine religiöse Bildung will, sollte dies nicht von der Schule erwarten dürfen - dass es so ist und der Religionsunterricht einen höheren Stellenwert besitzt als naturwissenschaftlicher Unterricht, ist erschreckend. Ein Gott kann nicht existieren, das ist ein Gebot der (praktischen) Vernunft. Natürlich muss die Religionsfreiheit gewahrt sein. Manche Menschen glauben, und es ihr gutes Recht, ihre Persönlichkeit dahin gehend zu entfalten. Man muss den Atheismus auch nicht gleich zur "Staatsreligion" erklären. Trotzdem ist Religion (jeder Art) ein Irrglaube, der nicht in die Schule gehört. Religion ist eine private Angelegenheit und keine Gegenhypothese zur Wissenschaft. Eine klare Position muss man schon beziehen, und in diesem Punkt ist auch Herr Junker zu zögerlich und zu kompromissbereit.

    Vielen Dank und
    viele Grüße
  • Das Streben nach Wahrheit

    03.03.2009, Prof. K. Löhr, Technologie- und Innovationsberatung, Ulm
    Professor Delahayes Schilderungen liefern einen wirklich gelungenen Einblick in die mathematische Forschung, die offenbar nicht nur von strenger Logik, sondern auch von akademischen Problemen und skeptischer Umsicht getrieben wird.

    Obwohl der Mathematik die physischen Anschauungsobjekte fehlen, erkennt man daran sehr gut die drei wissenschaftlichen Denkweisen, die bereits Sextus Empiricus treffend beschrieb: "Wenn sich jemand der Untersuchung irgendeiner Sache widmet, dann ist es natürlich, dass er am Ende das Gesuchte findet, oder dass er behauptet, das Gesuchte sei unauffindbar [...], oder aber, dass er seine Untersuchungen fortsetzt. Damit sieht man leicht, dass es offenbar drei Hauptrichtungen im Streben nach Wahrheit [Philosophie] gibt: die dogmatische, die akademische und die skeptische."

    Und somit gilt wohl auch für die Mathematik das, was bereits Schopenhauer so forsch über das wissenschaftliche Arbeiten konstatierte: "Die Physik vermag nicht auf eigenen Füßen zu stehen, sondern bedarf einer Metaphysik, sich darauf zu stützen; so vornehm sie auch gegen diese thun mag!"
  • Mit Überzeugung irren

    02.03.2009, Dr. phil. nat. Wolfram Gorisch, München
    Popper hat sich in seinem Hauptwerk "Logik der Forschung" sehr differenziert mit dem Problem der Hypothesenwahrscheinlichkeit einschließlich den Bayes’schen Sätzen auseinandergesetzt (Karl Popper, Logik der Forschung, VIII. Kapitel, Wahrscheinlichkeit, X. Kapitel, Bewährung, J.C.B. Mohr Verlag, Tübingen). Insbesondere argumentiert er, dass "jede beliebige universelle Theorie, die mathematisch formuliert werden kann, die Wahrscheinlichkeit 0 hat" (a.a.O. Anhänge VII und XVI. Siehe auch Karl Popper, Die beiden Grundprobleme der Erkenntnistheorie, VI. Kapitel, Die Wahrscheinlichkeitspositionen, derselbe Verlag).


    Dem möchte ich ein eigenes Argument anfügen: Die Naturerkenntnis schreitet voran von den alten Mythen über viele Zwischenstufen hin zur jetzt modernen Kosmologie und weiter fort. Jede neuere Theorie erklärt mehr als ihr Vorgänger. Das bedeutet, dass die Vorgängertheorien an den jeweils neueren Messungen/Beobachtungen gescheitert sind. Wissenschaftsbayesianer behaupten nun, dass zu jedem Zeitpunkt die jeweils herrschende Theorie eine von Null verschiedene Wahrheitswahrscheinlichkeit besessen hat. Die nachfolgende Theorie hat jedoch den Vorgänger als unzutreffend entlarvt, ihr also die Wahrheitswahrscheinlichkeit 0 zugewiesen. Dadurch wird deutlich, dass diese Wahrheitswahrscheinlichkeit keine feste Eigenschaft einer Theorie ist, sondern jederzeit und unvorhersehbar null werden kann.


    Popper hat die Messlatte sehr hoch gelegt. Mir scheint, dass Matthews diesem Anspruch nicht gerecht geworden ist. Alle Argumente, die in diesem Essay als neue Erkenntnis verkauft werden, sind altbekannt. Sie wurden allesamt von Popper auf hohem Niveau diskutiert.


    Wir wissen, dass man mit niemandem diskutieren kann, der die Grundlagen nicht anerkennt. Es ist deshalb müßig, über Falsifikationismus oder Verifikationismus in der Wissenschaft zu diskutieren, wenn man sich nicht über das Ziel der Wissenschaft einig ist. Popper sieht das Ziel der Wissenschaft darin, wahre Erklärungen für das Geschehen unserer Wirklichkeit zu geben.


    Bedauerlicherweise soll es Wissenschaftler geben, die ihre Karriere vorrangig durch rechthaberisches Indiziensammeln fördern wollen, weniger durch selbstkritische Wahrheitssuche. Der Leser mag selbst entscheiden, welcher dieser beiden entgegengesetzten Ziele Tegmarks Feststellung mehr dient: "In der Wissenschaft falsifizieren wir nicht, sondern wir bewahrheiten; wir steigern das Gewicht der Indizien".


    Was sind die Konsequenzen von Hawson’s Wissenschaftsbegriff, der "auf dem viel subtileren Konzept der so genannten Glaubens- oder Überzeugungsgrade" beruht? Glaube und Überzeugungen sind grundsätzlich nicht Gegenstand des wissenschaftlichen Diskurses weil es sich um ein persönliches Grundrecht (Meinungsfreiheit) handelt. Demgegenüber ist gerade der freie rationale und kritische Diskurs ein Merkmal der Wissenschaft. Glaube- und Überzeugungsgrade sind beispielsweise bei terroristischen Anführern besonders ausgeprägt, die Selbstmordattentäter mit der Aussicht auf die siebzehn Jungfrauen im Paradies ködern. Darf nun die Existenz solcher Paradiese als "wissenschaftlich" begründet bezeichnet werden? Oder impliziert Hawson noch andere Kriterien, die er uns vorenthält? Moralische? Verwischt Hawson hier nicht die Unterscheidung zwischen rationaler Wissenschaft und metaphysischen, religiösen Überzeugungen? Quacksalber aller Couleur führen stets überwältigend viele Glaubens- und Überzeugungsargumente an. Das Argument, dass Quacksalber sich der Falsifikation aussetzen, trifft nicht zu. Derartige Theorien sind geradezu kennzeichnend mit allen Mitteln gegen Falsifikation immunisiert worden, z.B. durch Beschränkung auf Kasuistik, Vermeidung prüfbarer kausaler Erklärungen, durch Verwendung schwammiger Begriffe, durch das Einräumen von Ausnahmen, durch tautologische Formulierungen. Beispiele für Theorien, die zugleich überzeugend und falsch sind, finden sich in der Zahlenmystik und in Form von Verschwörungstheorien. Nach Hawson dürfen sich solche Theorien "wissenschaftlich" nennen, weil es ja nur auf den hohen Überzeugungsgrad ankommt.


    Tegmark argumentiert irreführend. Er betrachtet Deduktionen einer Theorie als neue unabhängige Theorien. Die Relativitätstheorie ist vielfach falsifizierbar. Das bedeutet aber nicht, dass alle Deduktionen wie z.B. die Existenz und die besonderen Eigenschaften von Schwarzen Löchern beobachtbar bzw. nachprüfbar sein müssen. Die Existenz von Schwarzen Löchern ist inzwischen recht gut bestätigt. Was aber in deren Innerem abläuft, ist wohl kaum nachprüfbar, obwohl die ART darüber Aussagen macht. Die Falsifizierungsmöglichkeiten für die ART, die sich daraus ergeben, sind also leider kaum experimentell nutzbar. Dasselbe mag für Multiversen zutreffen. Soweit das Multiversum deduktiv aus einer anderen bewährten Theorie folgt, Multiversen aber nicht beobachtbar sind, kann aus dem Multiversum keine Falsifikation der zugrunde liegenden Theorie abgeleitet werden, aber eben auch nicht ihre Bewährung. Eine eigenständige Multiversumstheorie hat mangels Wechselwirkung mit unserem Universum keinen Erklärungsgehalt und gehört deshalb meiner Meinung nach zur Glaubenswelt ihrer Vertreter.


    Anscheinend metaphysische Kosmologien sind keineswegs zu verwerfen. Ich stimme zu, dass eine positive Aussage dergestalt, dass eine bestimmte Theorie nicht falsifizierbar sei, unsicher ist. Krauss’ Angriff gegen das Falsifikationsprinzip trifft hier ins Leere. Viel wichtiger ist das Folgende: Popper hat gezeigt, dass der empirische Gehalt einer Theorie bzw. ihr Erklärungsvermögen mit dem Umfang der Falsifizierungsmöglichkeiten wächst. Das heißt, dass eine (kühne) Theorie mit großem Erklärungsgehalt viele Falsifizierungsmöglichkeiten bietet. Umgekehrt erklären Theorien unsere Welt nicht, die kaum falsifizierbar sind. Ich kann mir nicht vorstellen, was Aussagen über fremde Universen, die mit unserem Universum nicht in kausaler Wechselwirkung stehen, mit unserem Universum zu tun haben. Wo ist der prinzipielle Unterschied zu Aussagen über das Paradies?


    Jeder kennt metaphysische Theorien: Religiöse Schöpfungsmythen, Intelligent Design, ewiges Leben, Reinkarnationsglaube, Glaube an Vorherbestimmtheit, Astrologie, Kaffesatzleserei bis zu Irisdiagnostik usw. Keine dieser metaphysischen Theorien ist so formuliert, dass sie sich einer Falsifikation beugen würde. Es ist ein großer wissenschaftstheoretischer Fortschritt, den Popper mit seinem Vorschlag des Abgrenzungskriteriums (d.h. Falsifizierbarkeit) erreicht hat. Dieses Abgrenzungskriterium ist sogar so mächtig, dass es für eine allgemeinere Erkenntnistheorie (Lernen aus Versuch und Irrtum) taugt. Dies soll nun dem bequemen Kriterium eines bestimmten Überzeugungslevels oder eines "Gewichts der Indizien" geopfert werden. In meinen Augen ist das ein irriger postmoderner Rückschritt zur verfehlten Induktionslehre.


    Was soll ich unter dem Begriff des "rationalen Überzeugungssystems" verstehen? Dieser Begriff ist nicht ausreichend erläutert. Nehmen wir ein Überzeugungssystem an, das aus den beiden Theorien Quantentheorie und Relativitätstheorie besteht. Wie soll ich es dann verstehen, dass diese den Bayes’schen Wahrscheinlichkeitsgesetzen gehorchen? Ich könnte hineininterpretieren, dass Deduktionen aus Theorien, die Wahrscheinlichkeitsaussagen machen, gemäß den Bayes’schen Gesetzen zu formulieren sind. Dadurch werden mögliche Fehler bei der Deduktion vermieden. Hierdurch kann die Übereinstimmung mit der Wirklichkeit besser geprüft werden. Ich sehe aber nicht ein, wie aus den Bayes’schen Sätzen Wahrheitsaussagen über bestimmte Theorien gewonnen werden können. Wahrheit kann doch keine Wahrscheinlichkeit haben. Was soll uns dazu zwingen, den Satz vom ausgeschlossenen Dritten (Drittes zwischen wahr und falsch) aufzugeben? Ereignisse oder Ereignisketten können eine gewisse Eintrittswahrscheinlichkeit haben. Eine Theorie ist jedoch kein Ereignis. Auf Theorien sind also die Bayes’schen Sätze nicht sinnvoll anwendbar, weil es sich bei Theorien nicht um Ereignisse oder deren Verkettungen handelt. Ich hoffe auch, dass hier niemand Deduktion mit Kausalität verwechselt.


    Der Satz, alle Schwäne seien weiß, ist keine wissenschaftliche Theorie, weil er kein wissenschaftliches Problem löst oder zu lösen behauptet. Anders beispielsweise die physikalische Aussage, dass alle Elektronen eine gewisse gleiche Ruhemasse besitzen. Die Vorstellung, Physiker würden im Einzelfall "graue", d.h. abweichende Elektronenruhemassen akzeptieren, ohne ein erschütterndes wissenschaftliches Problem damit zu haben, ist in meinen Augen grotesk.


    Mir scheint, dass Matthew versäumt hat, zwischen Wissenschaftsmethodologie und Heuristik zu unterscheiden. Die Frage, wie jemand zu seinen wissenschaftlichen Ideen kommt (Heuristik) ist zu unterscheiden von der Frage, wie die Gültigkeit einer Theorie zu beurteilen ist. Obwohl beides ineinandergreift, handelt es sich doch um Verschiedenes. Es gibt keine Heuristik, die mit Sicherheit zu wahren Theorien führt. Einzelne Forscher oder die Gruppe sind wohl dann im Vorteil, wenn sie über Phantasie, Intelligenz, logische Konsequenz und Selbstkritik verfügen. Wissenschaftliche Skepsis schützt effektiver vor Irrwegen als selbstsichere Überzeugung, in welcher manchmal logische Konsequenz und Selbstkritik ausgeblendet sind.


    Der vorletzte Satz "Ab einem gewissen Punkt kann man auf die Idee der Falsifikation nicht verzichten" steht im Widerspruch zum ganzen Essay, der ja davon ausgeht, dass Falsifizieren nicht funktioniert. Setzen wir getrost den "gewissen Punkt" ganz an den Anfang.

  • Warum Subjektivismus, wenn es auch objektiv geht?

    02.03.2009, Norbert Hinterberger, Hamburg
    Im Spektrum-Essay wird von Robert Matthews eine für meinen Geschmack unzulässig verkürzte und zum Teil schlicht falsche Interpretation von Popper Falsifikations-Kriterium geboten. Das hat sich offenbar seit Poppers stichhaltiger Kritik an Humes resignativem Subjektivismus und an dem der Wiener Schule nicht geändert.

    Fangen wir mit den Einwänden gegen die Adäquatheit der popperschen Falsifikations-Methodologie an. Da schreibt Matthew auf Seite 74: "Ein besonders nahe liegender Einwand besagt, dass auch Astrologen, Wahrsager und Quacksalber falsifizierbare Aussagen machen, ohne dass diese dadurch wissenschaftlich würden" was natürlich richtig ist. Aber schon dieser Einwand betrifft den Falsifikationsgedanken nur als Demarkationskriterium nicht als funktionierende Methode der Kritik, denn Theorien, die wir für stabil bzw. gut gestützt halten, müssen etwas mehr als nur falsifizierbar sein, sie müssen alle ernsthaften Falsifikationsversuche überstanden haben (je mehr, desto besser) bevor wir ihnen trauen und von angemessener Stützung durch Beobachtung oder Test reden. Matthew fährt dann fort: "Aber entlarvt sie wenigstens ihr unbekümmerter Umgang mit negativer Evidenz als pseudowissenschaftlich?". Er kommt zu dem Ergebnis: nein. Er führt dazu den Konventionalisten Duhem ins Feld. Duhem hatte bekanntlich bemerkt, dass man Theorien vor Falsifikationen (also vor negativer Evidenz aus der Beobachtung) retten kann, indem man zusätzliche Hilfshypothesen aufstellt. Er behauptete überdies, dass Theorien oder einzelne Allsätze nicht separat kritisiert werden könnten.

    Diese Auffassung ist von Popper und von Gunnar Andersson wiederholt kritisiert worden: Theorien in ihrer expliziten Form müssen alle Randbedingungen und Hilfshypothesen schon enthalten, wenn sie an der Wirklichkeit getestet werden. Fügt man Hilfshypothesen erst im Falle von Falsifikationsgefahr hinzu, immunisiert man Theorien auf logisch unzulässige Weise, denn nun handelt es sich nicht mehr um die ursprüngliche Theorie, sondern um ein neues Ad hoc–Gebilde. Das erinnert nicht von ungefähr an die Gussform des No-True-Scotsman-Tricks: A behauptet, alle Schotten sind geizig. B wendet ein, dass aber doch Carnegie (mit seinen ganzen Stiftungen) nicht geizig war. Darauf erwidert B, dass Carnegie dann auch kein echter Schotte sein kann. Für B kann also schon per definitionem kein nicht-geiziger Schotte existieren. Das ist dann aber nur noch eine implizite definitorische Tautologie, die vorher nicht sichtbar war, also keine Wirklichkeitsaussage mehr, auch wenn sie noch so sehr danach aussieht. Die Kraft der falsifikativen Widerlegung wird durch beide Fälle nicht tangiert.

    Duhems zweite Vorstellung, dass hinter jeder einzelnen Theorie quasi unser gesamtes Weltwissen als Bezugsrahmen steht, ist zwar in gewissem Sinne wichtig und richtig, hindert uns aber in keiner Weise daran explizite Theorien relativ unabhängig zu kritisieren. Die Überprüfung einer Theorie kann sich in sinnvoller Weise natürlich nur auf die in ihr schriftlich fixierten Hypothesen und Randbedingungen beziehen, denn noch verfügen wir über keine "Weltformel". Ihre Prämissen und Theoreme lassen sich aber auch allesamt einzeln kritisieren durch Falsifikatoren aus der Wirklichkeit.
    Den meisten Autoren ist nicht klar, dass auch Falsifikatoren fallibel (fehlbar) sind (wie am Beispiel Einstein gegen Walter Kaufmann zu sehen: Einstein hat hier erfolgreich die falsifikativen Prämissen von Kaufmann angegriffen, die er zu Recht für theoretisch unzulänglich und im Übrigen auch falsch begründet hielt). Daher das Gerede vom Schwarz-Weiß-Sehen der Methode der Falsifikation. Eine Falsifikation wird von Popper und vom gesamten Kritischen Rationalismus/Realismus aus logischen Gründen nur als bedingte Widerlegung betrachtet, da sie von der Wahrheit der falsifikatorischen Prämissen abhängig ist - über die man sich genauso irren kann wie über alle anderen Wirklichkeits-Annahmen. Also auch falsifikative Behauptungen sind prinzipiell "theoriegetränkt", ebenso wie einzelne Theorien natürlich ein größeres metatheoretisches Umfeld besitzen – wie Duhem ganz richtig bemerkte. Trotzdem sind Erstere auf Grund ihrer fruchtbaren Asymmetrie (auch in der Einfachheit der meisten Beobachtungsaussagen) natürlich wesentlich simpler zu kontrollieren als Letztere. Deshalb kann die Methode nicht als zirkulär bezeichnet werden – es sei denn man stellt sich metatheoretisch dumm. Wenn man dagegen bei beliebigen Theorien die bayesianische Methode als "Suchrahmen" zu Gunsten der völligen Suspendierung des Falsifikationismus etablieren möchte, ist man wieder beim subjektiven Induktivismus angelangt, und der ist bei Bayes ja im übrigen sogar explizit. Man bekommt bei Wirklichkeitsaussagen ohne jegliche Falsifikationsversuche aber nie heraus, ob da nur schöne "in sich logisch konsistente Märchen" erzählt werden, oder zufällig Wirklichkeitsaspekte richtig beschrieben werden, denn bekanntlich gibt es (aus logischen Gründen: wir verfügen über kein zwingendes Wahrheitskriterium) für jede mögliche Beobachtung unendlich viele mögliche Interpretationen.

    Ganz abgesehen davon, dass der Bayesianismus von seiner Art her, Prämissen zu sammeln, eben auch nur Induktion in neuen Kleidern ist. Und wie wir seit Hume wissen schließt die Induktion nicht. Hume hat dann resignativ dazu aufgefordert sie trotzdem zu verwenden, also irrational. Er hat nicht gesehen, dass es keine unmittelbaren Beobachtungen gibt. Sie sind alle immer schon "theoriegetränkt" durch das Mittel unserer konstruktiven Vermutungen, die allesamt allgemeiner Natur und fallibel sind. Es gibt keine nichtmathematische "induktive Logik". Nur die deduktive Logik schließt korrekt, ganz einfach, weil alle ihre Schlüsse trivial sein müssen. Es darf keinen Wahrheitszuwachs geben, denn das würde Wirklichkeitsrelevanz bedeuten. Die Logik sagt aber nur etwas über korrekte Ableitungsbeziehungen von Sätzen, nichts über die Sätze selbst. Das deduktive Ableiten ist lediglich ein "Melken" allgemeiner Aussagen hin zu besonderen Konklusionen oder eine Umwandlung allgemeiner Aussagen in andere (äquivalente) allgemeine Aussagen. Bei einer deduktiven Ableitung kann nichts herauskommen, was nicht schon implizit enthalten ist. Die Regeln der deduktiven Logik sind allesamt Tautologien. Und aus denen folgt die leere Menge (der Wirklichkeitsaussagen). Man kann also mit der Logik keine Theorien entwerfen. Theorien sind immer fallible Annahmen über die Wirklichkeit, solange nicht selbst wieder formale Systeme behandelt werden. Aber die Logik liefert über den modus tollens (weiter unten erläutert) ein scharfes Instrument der bedingten Widerlegung.

    Den meisten Autoren, die sich hier für den Bayesianismus begeistern, scheint, wie schon den alten Induktivisten der Logischen Empiristen nicht klar zu sein, dass es egal ist, wie man zu einer Hypothese kommt (das kann durchaus auch irrational geschehen - auch Schwachsinnige können zufällig die Wahrheit sagen). Relevant ist dagegen, dass wissenschaftliches Verhalten erst mit der falsifikativen Überprüfung beginnt (das ist eine der Korrekturen von Popper an seinem früheren Abgrenzungskriterium), denn es gibt keinen Königsweg zum Auffinden fruchtbarer und stabiler Theorien. Und korrekte Überprüfungen finden im Wesentlichen nur im Forschungsbetrieb statt. Popper hat im Übrigen nie Forscher idealisiert, indem er davon ausging, dass sie sich allesamt brav um die Falsifikation ihrer jeweiligen Theorien bemühen (wie Matthew hier schreibt). Das müssen sie nämlich nicht. All ihre Kollegen, die konkurrierende Theorien entwerfen, werden schon dafür sorgen, ebenso wie deren Konkurrenten Falsifikationsversuche an Letzteren betreiben werden usw. Das ist es, was Popper gesagt hat. Der Wissenschaftsbetrieb ist eine offene Bühne (es gibt kein Kritiklimit), deshalb trauen sich Obskurantisten bzw. Pseudowissenschaftler nur in ganz seltenen Fällen, diese Laborbedingungen zu betreten, denn die, die es gewagt haben, sind prompt überführt worden.

    Aber auch wahrheitsrelativistische bzw. geschichtsrelativistische Einschätzungen aus dem wissenschaftlichen Lager selbst, die uns einreden wollten, dass Wissenschaft letztlich auch nur eine ‚Narration’ unter anderen sein soll, sind immer wieder schlagend logisch und anhand empirischer Beispiele kritisiert worden. Kuhns und Feyerabends Relativismus war unhaltbar (Gunnar Andersson, 1988).

    Schon Hume hatte erkannt, dass Induktion nicht schließt, aber er war gleichzeitig davon überzeugt, das wir (psychologisch eben) nur induktiv zu Erkenntnissen gelangen könnten. Was sicherlich eine Fehleinschätzung war, denn wir gelangen aufgrund unserer theoriegetränkten Sätze (auch der scheinbar nicht-allgemeinen bzw. ‚besonderen’) immer hypothetisch deduktiv zu unseren Vermutungen. Unsere Beobachtungen sind nur als Falsifikatoren oder zur vorläufigen Stützung unserer allgemeinen Hypothesen geeignet, nicht für irgendwelche scheinbar induktiven Akkumulationen. Wir raten, und das tun wir immer deduktiv.

    Hume war aber auch klar, dass aus der Konjunktion seiner beiden Annahmen folgt, dass wir nicht-rational zu unseren Erkenntnissen gelangen (seinen modernen Nachfolgern in der Wiener Schule war das nicht so klar). Er hat sich dennoch für diesen gefährlichen („Gewohnheits“-) Pragmatismus bzw. Wahrheitsrelativismus entschieden.

    Die Tatsache, dass wir über kein Wahrheitskriterium verfügen, behindert uns aber in keiner Weise, einen logisch korrekten Wahrheitsbegriff zu definieren. In diesem Sinne hat schon Popper die altehrwürdige Idee der Übereinstimmung einer Aussage mit einem Sachverhalt rehabilitiert. Hans Albert hat diesen Begriff dann noch etwas schärfer gefasst, denn Sätze haben bei genauerem Hinsehen nicht die Aufgabe jeweils ein ganzes Stück Wirklichkeit zu beschreiben oder gar ‚abzubilden’ (das können sie gar nicht, weil die Menge der logisch möglichen Relationen schlicht unendlich wäre). Sätze können dagegen einen oder einige Aspekte eines jeweiligen Gegenstandes beschreiben. Und diese Aspekt- bzw. Eigenschaftsaussagen können wahr oder falsch sein (sie müssen sogar eins von beiden sein, sofern es sich nicht um logische Antinomien handelt).

    Wir können zwar nie eine von uns für wahr gehaltene Aussage auch streng als wahr beweisen, aber wir können sie (über Falsifikationsversuche) streng prüfen, so dass sie Stützung erfahren kann, auch ohne strengen Beweis. Das ist wichtig, denn streng logisch ist keine Begründung (im Sinne eines echten Beweises) durchführbar. Wir geraten damit immer ins so genannte Münchhausentrilemma: infiniter Regress oder logischer Zirkel oder konventioneller Abbruch des Begründungs-Verfahrens (dessen einzelne Komponenten schon die antiken Skeptiker kannten, die aber erst von Hans Albert als Trilemma zusammengefasst wurden).
    Die Popperianer haben eine entsprechende metalogische Argumentation vorgelegt, gegen die bisher keine überzeugenden Einwände vorgebracht werden konnten. Sie lautet (in aller Kürze):

    Ich kann zu jeder Behauptung fragen, warum ich sie denn glauben soll, und zu der dann folgenden Begründung und zu jeder weiteren Begründung dasselbe, so dass sich ein infiniter Begründungsregress ergibt (gewissermaßen in der ‚Horizontalen’). Versucht der Begründende den Regress nun dadurch zum Stillstand zu bringen, das er alle Begriffe seiner ‚Letztbegründung’ eindeutig definiert, erhebt sich unmittelbar ein Definitionsregress (in der ‚Vertikalen’), denn für die Definition jedes einzelnen Wortes des Begründungssatzes benötige ich ja wieder jeweils einen ganzen Satz bzw. wenigstens ein ganzes Prädikat, das seinerseits undefinierte Begriffe enthält usw. ad infinitum.

    Diese beiden Komponenten ergeben die erste Alternative des so genannten Münchhausentrilemmas: den unendlichen Rückgriff, der trivialerweise nicht durchführbar ist. Die zweite Alternative wäre ein logischer Zirkel bzw. eine tautologische Argumentation. Die dritte Alternative wäre ein konventioneller Abbruch des Verfahrens. Durch keine der Alternativen kommt also eine Begründung zu Stande. Deshalb haben wir resultativ ein Trilemma der Begründung (schlechthin) vor uns.

    Kant war von Humes subjektivistischer Resignationslösung schockiert. Er hatte genau wie Hume selbst gesehen, dass diese Lösung in den Irrationalismus führt. Kant versuchte das Problem dann bekanntlich mit einem sehr subtilen, aber nichtsdestoweniger dogmatischen Apriorismus zu lösen. Dieser antirealistische Lösungsversuch kann heute - von einem realistischen Standpunkt aus - als gescheitert betrachtet werden, weil Kant seinen Apriorismus (ob nun bezogen auf Verstand, Vernunft oder Sinneswahrnehmung) nicht als hypothetisch bzw. fallibel aufgefasst hat. Nichtsdestoweniger muss ihm der kritische Rationalismus "auf der Zunge gelegen" haben, wie Popper schon bemerkte – eben mit der ihm leider zu seiner Zeit nicht zugänglichen Idee von im Übrigen auch genetisch falliblen Aprioris.

    Nun wird mit dem Bayseanismus in der Kosmologie erneut (ohne Not) ein subjektivistischer Ansatz als Ersatz für Poppers Falsifikationskriterium präsentiert.

    Formal sind natürlich beide Systeme schlüssig (was aber bekanntlich nichts über ihre Anwendbarkeit in der Realität sagt):

    Das bayessche Theorem lautet in vereinfachter Form: p(A|B) x p(B) = p(B|A) x p(A).

    "p(A|B)" gibt die Wahrscheinlichkeit von A unter der Bedingung B an.

    Die logische Struktur, die dem Falsifikationsgedanken zu Grunde liegt, ist eine metalogische Aussage zum so genannten modus tollens (einer Grundregel der Aussagenlogik): p -> q, ~q :- ~p (gelesen: Aus ‚wenn p dann q, und nicht-q’ folgt nicht-p).

    Bei Bayes ist die Bedingung B das Entscheidende. Ist sie falsch geraten bzw. ‚induktivistisch akkumuliert’ ist die ganze Berechnung falsch. Und zwar, bei völliger Falsifikationsabstinenz, ohne dass die Beteiligten das auch nur bemerken können.

    Im Falsifikationismus ist das nicht möglich, weil das Gewicht hier nicht in Genese der Hypothesenentwicklung, sondern in die Überprüfung gelegt wird.

    Colin Howson scheint regelrecht stolz auf seinen Rückfall in subjektive "Glaubens- oder Überzeugungsgrade". Für meinen Geschmack wäre er damit besser bei den Kreationisten aufgehoben. Anders gesagt, wie hart soll die angehängte Mathematik denn noch sein können, bei derartig weichen Prämissen?

    Ein derart induktivistisches Vorgehen ist im Übrigen gar nicht vereinbar mit der Wahrscheinlichkeitstheorie, denn sie ist deduktiv gültig, genau wie die mathematische Induktion.

    Und wenn Max Tegmark (S. 76) sagt: "In der Wissenschaft falsifizieren wir nicht, sondern wir bewahrheiten …", dann denkt er vermutlich in erster Line an unsere großen unfalsifizierten Theorien: Quanten- und Relativitätstheorie. Er vergisst aber wohl, wie wir dahingekommen sind, nämlich über die Falsifikation unzähliger falscher Vorstellungen durch freie Beobachtung oder Test. Sogar Newtons Theorie ist falsifiziert. Das heißt nicht etwa, dass sie pragmatisch unbrauchbar ist (wir können alles bis hin zu präzisen Mondlandungen mit ihr berechnen – und alles, was es auf der Erde zu berechnen gibt ohnedies). Es heißt einfach nur, das sie durch die Falsifikation als approximativer Spezialfall der Relativitätstheorie gelten muss. Das heißt, wir lernen offenbar aus Falsifikationen.

    Wir haben aber auch bei unseren beiden Großen noch Falsifikationen zu erwarten, denn sie widersprechen sich bekanntlich (bzw. liefern unendliche Resultate), sobald extrem große Energien in winzigen Räumen angenommen werden müssen. Hier scheint die Vorstellung von Punktteilchen (String-Theorie) oder sogar die von Teilchen überhaupt den schwarzen Peter zu bekommen (Heinz Dieter Zeh ist der Meinung, dass man alles wellentheoretisch beschreiben kann, und zwar mit dem Standardmodell!). Ausgerechnet Brain Greene (also ein "Konkurrent" aus dem Lager der String-Theoretiker) hält in diesem Zusammenhang Zehs Arbeit The Physical Basis of The Direction of Time (2001) für bahnbrechend. Auch diese Theorien sind momentan nicht direkt falsifizierbar, aber die Erfahrung hat immer wieder gezeigt, dass scheinbar unfalsifizierbare Hypothesen letztlich doch irgendwann wenigstens indirekt überprüft werden können.

    Falsifikationen, d. h. erkenntnisspezifische Erwartungsenttäuschungen stellen einen grundsätzlichen Lernprozess dar, der uns fast nie zwingt eine ganze Theorie zu verwerfen. Sie weisen nur auf Fehler in der Theorie hin. Die lassen sich nun aber nicht mit logischen Mitteln ergründen. Aber sie weisen immer auf die Notwendigkeit eines Neubaus hin. Deshalb werden wir durch Falsifikationen auch zu neuen Theorienkonstruktionen angeregt. Im Übrigen fallen doch Falsifikationsversuche, die scheitern, nun zwar nicht gerade mit Bewahrheitungen, aber immer mit vorläufigen Stützungen der betreffenden Theorien zusammen. Man weiß also gar nicht, warum ständig Gegensätze zwischen Verifkationismus und Falsifikationismus beschworen werden, denn diese vorläufigen Stützungen durch misslungene Falsifikationsversuche sind doch so etwas wie Quasi-Verifikationen (während die "induktivistischen Validierungen" eher nicht danach aussehen).

    Die sind nun zwar unsicher, wie alles, was Menschen sagen, aber das sollte uns doch langsam nicht mehr nervös machen, angesichts des immer rasanter werdenden Fortschritts der wissenschaftlichen Entwicklung.
Top