start


Start
Web-Artikel
Lexikon
Vorträge
Ausbildung
Essays
Rhetorik
Links
Autor
Kontakt

Die wissenschaftliche Methode


April 2004

pdfpdf

Grundsätzliches

Bei der wissenschaftlichen Methode handelt es sich um ein objektives Verfahren der Wissenschaften wie der Physik, um unverfälschte, unvoreingenommene Ergebnisse zu erzielen, aus denen sich wie ein Puzzle das naturwissenschaftliche Weltbild zusammensetzt. Neben den Naturwissenschaften, wie der ältesten, der Astronomie, bedienen sich auch andere Wissenschaften diesem erfolgreichen Prinzip. Die Medizin, die Psychologie, die Soziologie, die Betriebswirtschaftslehre, um nur wenige zu nennen - alle Disziplinen suchen Gesetzmäßigkeiten und Theorien, die sie anhand von Messdaten, wie Statistiken zu bestätigen suchen. Ich werde mich in diesem Essay auf meinen Erfahrungsbereich, den Naturwissenschaften, beschränken. In den Geisteswissenschaften müssen nachfolgende Begrifflichkeiten wie "Experiment" adaptiert werden, da sich diese Wissenschaften anderen Methoden bedienen. Dort finden vielmehr Verfahren wie die Dialektik Anwendung: aus dem Gegensatz von These und Antithese folgt durch die Synthese ein Erkenntniszugewinn.

Theorie und Experiment

Ich möchte - wie vorweggenommen - die naturwissenschaftliche Methodik am Beispiel der Physik illustrieren. Die Physik bedient sich als Sprache der Mathematik und als Methode der Logik, um theoretische Konzepte zu erarbeiten. Experimente und Beobachtungen der unbelebten Natur müssen die Theorie stützen, sonst fällt sie. Dieses fundamentale Konzept verfolgen auch die anderen Naturwissenschaften, wie Chemie und Biologie.
Demzufolge bilden die Grundlage der wissenschaftlichen Methodik die beiden Säulen Theorie und Experiment . Die Symbiose dieser beiden Teilbereiche naturwissenschaftlicher Arbeit gab es nicht immer. Aristoteles (384 - 322 v.Chr.) hatte die Überzeugung, dass man Gesetzmäßigkeiten allein durch Denken, also nur durch die Theorie, eruieren könnte. Nach dieser philosophisch geprägten Grundhaltung entstammt Erkenntnis ausschließlich der intelligiblen Welt und Bedarf keiner Verifikation durch die reale Welt. Erst mit Galileo Galilei (1564 - 1642) kam im 16. Jahrhundert die moderne, wissenschaftliche Methode auf, die Gesetze durch Beobachtungen zu bestätigen. Diese Epoche bezeichnet man mit der Aufklärung, in der sich der Mensch zunehmend darauf besann sich seines Verstandes zu bedienen. Als Ausfluss dieses "geistigen Entwicklungsschrittes" sind die heute wesentlichen Eigenschaften des "rationalen Forschens" anzusehen:

  • eine Versachlichung des Problems (auch durch die Verwendung einer sachlichen Fachsprache),
  • eine theoretische Einbettung (meist durch die Verwendung der mathematischen Sprache),
  • die Reproduzierbarkeit der Ergebnisse unter gleichen Bedingungen.

Dieser Entwicklungsschritt war notwendig, weil der so genannte "gesunde Menschenverstand" oft Fehlschlüsse nach sich zieht. Das Problem des "gesunden Menschenverstandes" ist, dass er empirisch geprägt ist, demnach unserer täglich erfahrbaren Welt entstammt. Aus diesem Grund haben die großen physikalischen Theorien des 20. Jahrhunderts, die Relativitätstheorie und die Quantentheorie, einen schöpferischen Geist erfordert, der bereit war vom Wege des "gesunden Menschenverstandes" abzuweichen. Auch heute noch bereiten diese Konstrukte beträchtliche Verständnisprobleme und treiben unser Vorstellungsvermögen an die Grenzen (z.B. Krümmung einer vierdimensionalen Mannigfaltigkeit, Tunneleffekt), wenngleich sie vielfach verifiziert und in der wissenschaftlichen Gemeinschaft anerkannt sind und hochgelobt werden.

Determinismus

Ein Zeitgenosse Galileis, Descartes (1596 - 1650), suchte - beflügelt durch Erfolge in Mechanik und Optik - im Descartesschen Determinismus ein geschlossenes, mechanistisches Weltsystem zu etablieren. Spätestens seit Kenntnis der Quantentheorie (Heisenbergsche Unschärferelation) in den Zwanziger Jahren des 20. Jahrhunderts und der so genannten "Chaostheorie", die besser mit nichtlinearer Dynamik bezeichnet wird, in den Achtziger Jahren des 20. Jahrhunderts, muss dieser Determinismus zumindest in seiner globalen Bedeutung als unhaltbar zurückgewiesen werden. Die Unschärferelation besagt, dass man zwei physikalische Größen, Ort und Impuls (Masse x Geschwindigkeit) nicht gleichzeitig beliebig genau messen kann. In der klassischen Mechanik bewegen sich Körper auf wohldefinierten Bahnen im Phasenraum (Koordinatensystem mit Raum- und Impulsachsen des Systems). Mit der quantenmechanischen Unschärfe verlor diese Bahn ihren determinierten Charakter: die Bahn ist im Phasenraum verschmiert und selbst der Phasenraum ist kein Kontinuum, sondern besteht aus Phasenraumzellen, deren Größe das Plancksche Wirkungsquant h diktiert.
Neben diesem quantentheoretischen Aspekt gibt es einen eher mathematischen Aspekt, der mit der Lösungsstruktur allgemeiner Differentialgleichungen zusammenhängt. Differentialgleichungen (bzw. ganz allgemein gesprochen Integrodifferentialgleichungen) bestimmen im Prinzip die gesamte Natur, weil sich jeder beobachtete Prozess in einem System durch diese Gleichungen (oder als System gekoppelter Differentialgleichungen) formulieren lässt. So handelt es sich sowohl bei der Schwingung eines Uhrenpendels im Gravitationsfeld um eine Differentialgleichung, ebenso wie beim Fließen eines Tropfens im Fluss oder den Einsteinschen Feldgleichungen der Allgemeinen Relativitätstheorie, als auch der Energieeigenwertgleichung für den Hamilton-Operator der Quantenmechanik. Mit diesen Gleichungen ist das Problem erst formuliert, nicht gelöst. Die Mathematik stellt nun Verfahren bereit, um die Differentialgleichungen zu lösen. Diese Lösungen machen eine Aussage über das Verhalten des Systems und ermöglichen Prognosen über das Verhalten in der Zukunft. Gerade das macht die Naturwissenschaften so wertvoll und interessant für industrielle und alltägliche Anwendungen. Doch die Natur hat uns gewissermaßen ein Schnippchen geschlagen: die Problematik subsummiert sich im Begriff der Nichtlinearität. Sie ist der zweite nicht-deterministische Aspekt, der tief in der mathematischen Formulierung vieler physikalischer Gesetze verwurzelt ist: nichtlineare Terme bewirken, dass die Vorhersagbarkeit nicht gewährleistet werden kann. Man sagt, das physikalische System verhält sich "chaotisch"! Prominente Beispiele sind in der Mechanik das Doppelpendel, in der Meteorologie das Wetter, in der Biologie die Populationsdynamik oder an der Börse die Aktienkurse. Zum Glück sind nicht alle Systeme chaotisch und lassen sich in gewisser Approximation im "linearen Limes" beschreiben. So wird die Pendelgleichung für kleine Winkelauslenkungen des Pendels linear und determiniert. Doch gibt es auch von der Seite der Chaosforschung Entwarnung: Erstaunlicherweise offenbart die Untersuchung chaotischer Systeme, dass Bereiche von Ordnung und Chaos ineinander übergehen sowie Strukturen (Selbstähnlichkeiten, Fraktale, Attraktoren) im Chaos existieren. Es handelt sich um einen sehr jungen Forschungsbereich der modernen Physik, der erst wenige Jahrzehnte alt ist, doch die auftauchenden "Gesetzmäßigkeiten im Chaos" geben Anlass zur Hoffnung. Trotzdem müssen wir uns mit der prinzipiellen Nicht-Vorhersagbarkeit nicht-linearer Systeme anfreunden: der Descartes Determinismus ist daher nicht allgemeingültig, sondern nur in speziellen Systemen realisiert.

Diese Grenzbereiche wissenschaftlichen Forschens trüben nicht die grundsätzliche Euphoriestimmung: Galileis Initiative zur wissenschaftlichen Methodik feierte einen ungeahnten Triumphzug. Zusammen mit dem Beginn einer neuzeitlichen Philosophie durch Descartes kann sie als einer der Wegbereiter des Zeitalters der Aufklärung im Europa des 18. Jahrhunderts angesehen werden, das von Protestantismus und Rationalismus geprägt war und politisch in der Französischen Revolution 1789 gipfelte. Ausfluss dieser historischen Entwicklung ist unser heutiges wissenschaftliches Weltbild, das vor allem im 20. Jahrhundert durchschlagende Erfolge errang.

Neue Laboratorien

Neben dem mittlerweile "klassischen Konzept" der Verschmelzung aus Theorie und Experiment gibt es nicht stark abweichende, doch ergänzende Möglichkeiten des Erforschens in der Physik.
Die ältere Methode nennt man Gedankenexperiment, das vor allem durch Albert Einstein (1879 - 1955) Popularität und exzessive Anwendung erlangte. Diese Methode ist dadurch ausgezeichnet, dass keine materiellen Instrumente (Messgeräte) vonnöten sind, sondern nur mit der Kraft des Geistes ein Experiment durchgeführt wird. Wesentlich ist dabei, dass dies keine Phantastereien sind, sondern die physikalischen Gesetze Gültigkeit behalten und korrekt berücksichtigt werden müssen. Vorteil dieses Verfahrens ist, dass es unmittelbar und kostengünstig ist und schnell Widersprüche einer Theorie oder These aufdecken kann. Doch leider kann man nicht immer ein adäquates Gedankenexperiment für eine Problemstellung formulieren.
Ein anderer Zugang trug ebenfalls signifikant zur Verschmelzung von Theorie und Experiment bei und ergänzt seither die klassische Methode. Beschleunigt durch Entwicklungen der Computertechnologie seit Konrad Zuse (1910 - 1995) mit der ersten programmgesteuerten Rechenanlage Zuse Z 3 im Jahre 1951, hat sich ein intermediärer Bereich zwischen Theorie und Experiment aufgetan: die Computer-Simulation. Hierbei werden die Gesetzmäßigkeiten aus der Theorie, mathematische Gleichungen, mithilfe numerischer Methoden auf dem Computer gelöst und visualisiert. Der Computer dient also gewissermaßen als virtuelles Labor. Die Arbeit des theoretischen Physikers ist heutzutage nur noch in wenigen Fällen analytisch oder zumindest nur zu Beginn des Forschungsproblems. Am Ende steht die Portation komplexer Gleichungen auf den Computer. Die Simulationen stellen im Prinzip theoretische Daten dar, die mit den experimentellen Daten der experimentell arbeitenden Physiker verglichen werden. Ein wesentlicher Aspekt ist dabei die Visualisierung theoretischer Daten, d.h. deren Darstellung durch bildgebende Verfahren. Es stellt sich heraus, dass ein angemessenes Visualisierungsverfahren der Schlüssel für das Verständnis und die Interpretation von Simulationen ist!
Der Computer stellt sich als unentbehrliches Instrument, sogar als Messinstrument, der modernen Physik heraus: er ermöglicht die Darstellung von Phänomenen, die dem Menschen nur schwer oder gar nicht zugänglich sind. So dienen aufwendige und langwierige Simulationen auf Supercomputern (Computern mit einem Vielfachen an Rechenschnelligkeit und Arbeitsspeicher im Vergleich zu herkömmlichen PCs) der Visualisierung der Entwicklungssequenz von Bereichen des Universums in der Kosmologie oder der Darstellung vom Materieeinfall auf ein Schwarzes Loch in der relativistischen Astrophysik.
Das Verständnis dieser Prozesse ist auch richtungsweisend für den Detektorbau: der Forscher bekommt ein Gefühl dafür, was beobachtet werden kann und wie es detektiert werden kann. Dann schließt sich der Kreis von Theorie und Experiment erneut, denn aus der finalen Verifikation oder Falsifikation oder gegebenenfalls Modifikation entsteht auf diese Weise ein komplexes, naturwissenschaftliches Gebäude: das naturwissenschaftliche Weltbild.

Die Methodische Katastrophe

Es gibt jedoch eine Komplikation, eine prinzipielle Problematik in der wissenschaftlichen Methode: man kann das Spiel einer experimentellen Messanordnung zur Untersuchung einer Theorie nicht beliebig weit treiben! Als Beispiel möge wieder die Kosmologie, ein Teilbereich der Astrophysik, dienen. Die Kosmologie beschäftigt sich mit Gesetzmäßigkeiten, die die Entstehung und Entwicklung des Universums beschreiben. Ein populäres, theoretisches Modell, das Urknall-Modell, ist streng genommen nicht direkt beweisbar! Ansonsten müsste man den Urknall im Labor unter kontrollierten Bedingungen ablaufen lassen, was unmöglich scheint. Viele solcher Probleme sind denkbar und stellen den Experimentator vor ein unlösbares Problem.

Zum Glück kann man auch hier einen Ausweg finden, der jedoch letztendlich das fundamentale Prinzip des die Theorie stützenden Experiments beugt. Der Ausweg aus diesem Dilemma ist, dass jedes theoretische Konzept sekundäre Indizien birgt. Es fallen in der Regel weitere beobachtbare Phänomene ab. Im vorliegenden Beispiel aus der Kosmologie kann das die kosmische Hintergrundstrahlung sein, die bis auf schwache Temperaturfluktuationen sehr isotrop ist (COBE- und WMAP-Daten). Die Isotropie ist ein starkes Indiz dafür, dass an einem Punkt in der Vergangenheit eine Explosion stattfand, der Big Bang.
Zum andern wird in Kürze ein weiteres Beobachtungsfenster für die Astronomen geöffnet: Gravitationswellenastronomie. Dabei handelt es sich um Krümmungen der Raumzeit, die sich wellenförmig mit Lichtgeschwindigkeit ausbreiten. Katastrophale Ereignisse wie die Verschmelzung zweier Neutronensterne zu einem Schwarzen Loch oder der Urknall selbst sind aussichtsreiche Kandidaten für intensive Gravitationswellen. Bei Hannover wurde ein solcher Detektor aus Laserinterferometern namens Geo 600 aufgebaut, dem es leider bisher nicht gelang Gravitationswellen zu messen. Kosmologische Modelle liefern eine genaue Vorstellung über Frequenz und Intensität von Gravitationswellen des Urknalls - hier haben die Theoretiker einen Vorsprung - und können so in Zukunft direkt verifiziert oder falsifiziert werden.

Zusammenfassung

Die Naturwissenschaften der letzten 500 Jahre haben demnach enorm von der wissenschaftlichen Methode aus Theorie und Experiment profitiert. Gerade das 20. Jahrhundert wird als eines der fruchtbarsten Erwähnung in den Geschichtsbüchern finden, es sei denn, der "Wissen-SuperGAU" setzt sich 21. Jahrhundert fort (mögliches Betätigungsfeld: Humangenetik). Theorie und Experiment wurden im Computerzeitalter durch die Simulation ergänzt. Beides, natürliches Phänomen und Messgerät, können im Computer künstlich nachgebildet werden. Ein Vorteil, der sicherlich auch eine Gefahr birgt, wenn derjenige, der die Software programmiert nicht weiß, was er tut. Aber hilft auch hier der Zusatz wissenschaftlicher Methodik, die Reproduzierbarkeit, mögliche Fehler oder Unzulänglichkeiten schnell zu finden.
Es gibt Hemmnisse bzw. Limits der Prognostizierbarkeit, die ihre Ursache in der Mikrowelt in der Quantentheorie und noch allgemeiner in der nichtlinearen Dynamik haben. Doch dieser Abschied vom Determinismus ist zu verschmerzen, weil er einerseits nicht das komplette, naturwissenschaftliche Gebäude zum Einsturz bringt und andererseits auch Chancen eröffnet: "Ordnung im Chaos".
Das Prinzip wissenschaftlicher Methodik kann zwar bis an seine Grenzen getrieben werden, nämlich dann, wenn Experimente zu einer Theorie nicht mehr umsetzbar sind. Doch kreative Forscher haben sich aber auch hier alternative bzw. sekundäre Zugänge eröffnet, die Theorien bestätigen können. Die Aussichten, das naturwissenschaftliche Weltbild mosaikartig immer mehr zusammenzusetzen, sind sehr vielversprechend, vielleicht sogar mehr denn je. Ob es prinzipiell komplettierbar ist, ist eher eine Frage, die sich die Philosophen als die Naturwissenschaftler stellen müssen. Vielleicht hat diese Frage bereits Platon vor fast 2500 Jahren beantwortet...

pdfpdf

nach oben

Was ist Zeit? Rhetorik


Start - Web-Artikel - Lexikon - Vorträge - Ausbildung - Essays - Rhetorik - Links - Autor - Kontakt
Andreas Müller © Andreas Müller, August 2007