Direkt zum Inhalt

Kommentare - - Seite 958

Ihre Beiträge sind uns willkommen! Schreiben Sie uns Ihre Fragen und Anregungen, Ihre Kritik oder Zustimmung. Wir veröffentlichen hier laufend Ihre aktuellen Zuschriften.
  • Universum mit vier Raumdimensionen?

    14.06.2011, Steiger Franz, Pratteln, Schweiz
    Ich habe mitbekommen, dass alle Sterne sich von uns entfernen. Je größer ihre Distanz von unserer Galaxie, desto grösser die Entfernungsgeschwindigkeit (Rotverschiebung). Weiter hat man mir erklärt, dass die genau gleiche Beobachtung gilt, egal wo ich mich im Universum aufhalte. Demzufolge gibt es keinen Ursprung (Zentrum) für die Entstehung des Urknalls, wie man ihn erwarten müsste, falls es sich um eine Explosion im 3D-Raum handeln würde.

    Das Phänomen könnte aber erklärt werden, wenn man annimmt, dass das Universum tatsächlich aus mindestens vier räumlichen Dimensionen besteht und sowohl das Licht als auch die Gravitation in unseren drei räumlichen Dimensionen gefangen bleibt, sonst wäre ja die Hintergrundstrahlung und das Gravitationsgesetz (Newton) anders.

    Eigentlich entspricht diese Vorstellung derjenigen von Frau Prof. Lisa Randall, aber die vierte Dimension müsste eine für uns unendliche Ausdehnung (wie unser Universum) haben, was die Teilchenphysiker offenbar nicht glauben.

    Was ist falsch an dieser Annahme?
    Stellungnahme der Redaktion

    Vorsicht. Es gibt viele kosmologische Modelle, die widersprechen einander gelegentlich, man kann nicht ein Modell mit den Aussagen des anderen konfrontieren, häufig sagt das eine Modell über einen Aspekt, der im anderen Modell zentral ist, gar nichts aus, und leider bin ich selbst nicht auf der Höhe der Diskussion.


    Manche Stringtheoretiker halten die vierte bis elfte Raumdimension für "aufgewickelt"; das sind aber andere Leute als die, die die Gleichmäßigkeit der kosmischen Expansion mit der vierten Raumdimension erklären. Leider habe ich noch nicht von einem Versuch gelesen, diese Sichtweisen verschiedener Herlunft in Einklang zu bringen.


    Die Theorie der Branen, die Musser in seinem Artikel anspricht, passt eigentlich zu diesem Bild von der Expansion. Unser dreidimensionales Universum wäre dann eine "dünne" Bran, die in die vier Raumdimensionen eingebettet ist wie eine Hohlkugel ("Sphäre") in unserem gewöhnlichen Raum. Und diese vier Dimensionen wären unendlich ausgedehnt.


    Christoph Pöppe, Redaktion

  • An Boden gewinnen

    14.06.2011, Martin Holzherr, CH-8406 Winterthur
    An Boden verlieren ist ein guter, fundierter Artikel, der den Leser aber etwas ratlos zurücklässt. Man erhält den Eindruck, Bodendegradation sei im Zusammenhang agrikultureller Tätigkeiten, sei es Pflügen, Bewässern, Abernten fast unvermeidbar.

    Nachdem ich kein einziges Wort über Schutzmassnahmen gegen Erosion durch Wind und Wasser, gegen Versalzung des Bodens im Rahmen seiner Bewässerung und gegen Bodendegradation im allgemeinen in diesem Artikel fand, suchte ich unter den Stichworten Aufwertung des Bodens, Bodenkonservierung und ähnlichem und fand neben den altbekannten, vor allem auf Vermeidung von Schäden abgerichteten Verfahren sogar Methoden um Böden zu verbessern.

    Terra Preta: Unfruchtbare in fruchtbare Böden verwandeln

    Die bekannteste und wohl eine der ältesten Methoden um den kaum fruchtbaren Amazonasurwaldboden aufzuwerten, ist das Einbringen von Holzkohle in den Boden, was einen eher fruchtbaren Schwarzerdenboden - Terra preta genannt - ergibt. Terra Preta-Böden halten Nährstoffe besser zurück, zeigen in der Holzkohleschicht eine Besiedelung durch wertvolle Mikroorganismen und scheinen sich selbst zu erhalten.

    Mehrjährige Pflanzen (z.B. Getreide) schonen Böden

    Mehrjährige Getreidepflanzen versprechen einen grösseren Ertrag bei kleinerem Input (Düngung etc.).
    Und durch den Verzicht auf das Pflügen vermeidet man Erosion und beobachtet eine erhöhte Bodenmirkobenbiodiversität.

    Reduzierte Bodenbearbeitung: No-till farming

    Pflügen entfernt Unkraut und formt die Erde für die Aussaat und die Bewässerung, führt aber zur unerwünschten Bodenkompaktifizierung, zum Verlust von organischer Masse, zur Bodenerosion und zur Störung und Auslöschung von Bodenmikroben, Würmern und anderen für einen gesunden Boden wichtigen Organismen.
    Der Verzicht auf das Pflügen vermeidet all diese Nebenwirkungen, bedingt aber oft von Einsatz von Herbiziden.
  • Kaffeesatz

    12.06.2011, Dr. Manfred Schweizer
    "Über neun Milliarden Menschen werden Mitte dieses Jahrhunderts die Erde bevölkern, und bis 2100 wird gar die Speisung der zehn Milliarden nötig werden: Diese Zahlen gaben die Vereinten Nationen Anfang Mai dieses Jahres bekannt. Betrachtet man die momentane Nahrungsmittelproduktion, so sind sich Experten relativ einig darin, dass die Ernährung auch einer derart angewachsenen Weltbevölkerung möglich wäre."

    Bei einer solche Prognose als Einleitung wird wenigstens gleich klar, dass es sich um reine Spekulation handelt.
    Der wohl entscheidende Punkt für die Nahrungsmittel Produktion ist doch wohl neben dem Boden, der Einsatz an Energie. In den betrachteten Zeiträumen wird die Ölförderung eindeutig zurückgehen und somit die Grundlage für die Produktion von Dünger erst mal obsolet werden. Solange keine Alternative für das dann fehlende Öl in Sicht ist, muss die Aussage, dass die Welternährung auch in 100 Jahren noch möglich ist als geradezu unverantwortlich gelten.


  • Karl Popper und der Objektbegriff

    09.06.2011, Norbert Hinterberger, Hamburg
    Ich halte Michael Esfelds Artikel nicht nur deshalb für den besten in dieser Philosophieserie, weil er bisher der Einzige war, der Karl R. Poppers Relevanz für die schwierige Diskussion des Objektbegriffs (z. B.) erkannt hat, sondern vor allem auch, weil ihm eine sehr dichte und geschliffene Darstellung der wichtigsten philosophischen Probleme der physikalischen Kosmologie auf diesem engen Raum gelungen ist. Popper hatte bekanntlich schon sehr früh darauf aufmerksam gemacht, dass wir nicht dazu gezwungen sind, Wahrscheinlichkeit (antirealistisch) als „Maß unseres Unwissens“ zu betrachten wie das in der Kopenhagener Interpretation (Bohr, Heisenberg, Born, v. Neumann u. a.) geschehen ist, sondern als „Verwirklichungs-Tendenz“ bzw. „Propensität“ bestimmter physikalischer „Dispositionen“ (von Teilchen-Ensembles z. B.). All diese Begriffe stammen schon von Popper. Letzterer hat gegenüber der Untersuchung individueller Objekteigenschaften den Begriff des physikalischen Prozesses bevorzugt (auch für makrophysikalische Objekte im Übrigen), den man ja durchaus zwanglos (und ohne Informationsverlust auf der fundamentalen Beschreibungsebene etwa) rein energetisch ausformulieren kann. Anders gesagt: auf den Materie- bzw. den Objektbegriff werden wir vermutlich wesentlich leichter verzichten können als auf den Begriff der Energie bzw. der äquivalenten Masse. Noch anders: der Begriff der Materie bzw. der des materiellen Objekts könnten sich als idealistisch herausstellen - und damit natürlich mindestens als überflüssig, wenn nicht gar als irreführend in fundamentalen Diskussionen. Das sollten wir eigentlich schon allein aus dem (von Bell und Aspect) hervorragend gestützten Phänomen der Nichtlokalität gelernt haben.

    Man vermeidet mit dieser Argumentation von vornherein einen naiven Materialismus, wie er in unseren Tagen von Mario Bunge und Manfred Mahner präsentiert wird. Mit ‚naiv’ ist hier insbesondere der quasiidealistische Objektbegriff der Autoren angesprochen – Energie wird da als bloße Eigenschaft von Objekten verstanden (und somit als aus ihnen abgeleitet). Ohne Letztere könne es weder Energie noch Naturgesetze geben. Das wird (etwa in "Über die Natur der Dinge", 2004) für meinen Geschmack hinreichend unschlüssig angenommen, denkt man nur an die Gravitationsenergie extrem gekrümmter Räume, bei der gar keine Materie vorhanden ist (Schwarze Löcher oder die Urknallsituation vor dem ‚Knall’).

    Systemeigenschaften von Ensembles können von dieser Position aus, die gewissermaßen eine Idealisierung des Objektbegriffs betreibt (da sie ihn entkleidet von allen seinen physikalischen Eigenschaften), nicht als diskrete Realität betrachtet werden. Bei den Nichtlokalitätsphänomenen ist es aber (wie Esfeld ganz richtig referiert) umgekehrt so, dass die Objekte (in Form der Elementarteilchen) ihre Individualität an das verschränkte System abgegeben haben, dem sie, jedenfalls bis zu einer möglichen Dekohärenz, angehören. Dieses ist jetzt also diskret, nicht die einzelnen Teilchen. Egal wie holistisch das System betrachtet werden muss bzw. wie weit voneinander entfernt sich die einzelnen Komponenten befinden mögen.

    Mit ihrer Auffassung von Objekten als Primärentitäten können Bunge und Mahner, die übrigens auch gleich noch Objekt mit Entität gleichsetzen (sich also damit jede Möglichkeit zu diskret holistischen Betrachtungsweisen verbauen), natürlich keine realistische Erklärung der EPR-Phänomene oder der Schrödinger-Katze liefern bzw. überhaupt nichts Erhellendes zu Verschränkungen oder Superpositionen sagen. Die dürften bei ihnen nämlich nicht den Status der Diskretion besitzen, weil der für materielle Objekte reserviert sein soll.

    Eine bessere Diskretion wäre also wohl von vornherein der Energiebegriff gewesen. Wir sind dann nicht mehr auf den Objektbegriff angewiesen, der uns in der Quantenphysik ohnedies nur Schwierigkeiten bereitet – eben, weil der klassische Partikelbegriff, mit dem wir ja immer noch verbal operieren, nicht auf Quantenteilchen übertragbar ist bzw. in der Quantenmechanik überhaupt keinen Sinn ergibt. Man ist durch eine weit gehend alternative Energievorstellung von Materie (die ja das Masseäquivalent genauso berücksichtigen kann) nicht weniger Realist bzw. Materialist als Bunge und Mahner. Es scheint im Gegenteil so, dass man mit dieser Strategie den bei Bunge und Mahner drohenden ‚idealistischen Materialismus’ vermeiden kann. Das wird uns ja genau genommen schon durch Einsteins berühmteste Gleichung als sinnvoll nahegelegt.

    Macht man sich überdies noch eine Priorität der Welleneigenschaft der so genannten Teilchen gegenüber ihrem ja ohnedies völlig unklaren ‚Teilchencharakter’ zu eigen, hat man weitere Schwierigkeiten beim Verständnis der Nichtlokalität vermieden.

    Für interessierte Leser kann ich weiterführend zu diesem Thema (ebenso wie zu den wichtigen Begriffen ‚Zeitpfeil’, ‚Entropie’ und ‚Dekohärenz’) Heinz-Dieter Zeh empfehlen (The Direction Of Time, Springer, 2001 oder Entropie, Fischer, 2005). Zum Thema Energie ‚ohne Hülle’ bzw. ohne Materieform kann man Martin Bojowald empfehlen (Zurück vor den Urknall, Fischer, 2010). Da gibt es regelrechte Energiedelikatessen wie etwa universellen Druck in Raumatomen (also quantisiertem Raum) aus dem jeweiligen ‚inversen’ Vorgängeruniversum importiert, die im Nachfolger dann zu normalem Druck werden. Wem das zu abenteuerlich klingt, der mag vielleicht daran erinnert sein, dass Bojowald damit (zumindest theoretisch) das Problem der ‚Dunklen Energie’ lösen kann und überdies mit einem (sich halt ab und an umkehrenden) Universum (mit jeweils inversen Naturkonstanten) auskommt, während aus der M-Theorie (String-Theorie) – so elegant sie ist – eine Inflation von Universen folgt. Außerdem vermeidet Bojowald die Singularität dadurch, dass seine Raumatomdurchmesser sich nur bis auf Plancklänge pressen lassen – von welcher gewaltigen Gravitationskraft auch immer. Das bewahrt uns vor den unendlichen Dichten und Energien, die aus der Annahme eines kontinuierlichen Universums folgen.

    Esfeld befreit uns hier mit seiner völlig korrekten Beschreibung der Kausalität auf Quantenebene ganz nebenher auch von der ja ohnedies nicht funktionierenden klassischen Vorstellung von Determinismus. Das hat mir persönlich am besten gefallen. Nicht zuletzt wohl, weil ich seine Auffassung von Kausalität selbst vertrete. Es ist mit diesem gewissermaßen ‚indeterministischen’ Determinismus bzw. der gewissermaßen ‚grobkörnigen’ Kausalität einer modernen Interpretation der Quantenphysik nicht mehr möglich, zu sagen, dass es seit dem Urknall feststand, dass ich heute Morgen Kaffee statt Tee zu mir genommen habe – oder ähnliche Absurditäten.
  • Der externalistische Wissensbegriff als Dilemma und zu dessen Auflösung

    08.06.2011, Dr. Josef Klein, Berlin
    Den vollständigen Leserbrief, in dem sämtliche Symbole korrekt dargestellt sind, können Sie hier als pdf-Datei herunterladen.

    Die Lösung von Elke Brendel, mit einem externalistischen Wissensbegriff das Wissen über die Außenwelt als zuverlässig zu bestimmen und den Skeptizismus zurückzuweisen, scheint auf den ersten Blick tatsächlich patent. Aber schon das Blumenbeispiel zeigt, dass da einiges durcheinandergeht. Denn ob Blumen Plastikblumen sind, welche täuschend echt mir die Natur pur vorgaukeln, oder ob Blumen echte Blumen sind, das ist zum einen ein Aspekt der Urteilsphäre, der Apophantik, in Korrelation zum ontischen Gegenstand als solchem, zur Blume nämlich wie sie transphänomenal ist, sei sie ein natürliches Gewächs oder sei sie aus Kunststoff fabriziert. Die Frage indes, ob die Wahrnehmung der Blumen mir eine reelle (und keine bloß imaginäre bzw. keine halluzinierte) Apprehension eines realen Gegenstandes „Blume“ der wirklichen Außenwelt (für meine Beobachtungen und Feststellungen der Apophantik) gibt, möchte Frau Brendel mit dem Lemma umgehen, das da lautet: „Wenn in einer gegebenen Situation nichts für eine globale Täuschung spricht.“ Das Lemma als Hilfssatz entpuppt sich als veritables Dilemma! Denn das Argument ist zum einen zirkulär und zum anderen funktioniert es über eine Petitio principii. Und so könnte man tatsächlich zu der Meinung gelangen, das „cartesische Dilemma“ – das indes für Descartes selbst wegen der metaphysischen Schöpfergott-Hypothese keines war – sei unlösbar; so die Auffassung von Christian Krippenstapel in seinem Leserbrief vom 18.05.11, ohne dass dieser allerdings zu den analytischen Skalpellen der scharfsinnigen Logik greifen würde. Denn ein wirklich unlösbares Dilemma, nein, das ist es ganz und gar nicht.

    Die Petitio principii zuerst: Der Begriff der „globalen Täuschung“ setzt voraus, dass wir überhaupt ein ontologisches Alltagswissen über die Differenz von wirklicher Welt und Scheinwelt besitzen (das gilt auch für das Matrix-Beispiel des Sciencefiction-Films von 1999, der eben unsere Weltlogik voraussetzt, um mit ihr sein Spielchen zu treiben). Diese Petitio principii löse ich auf mit der evolutionistischen Deutung des (seit Thomas von Aquin erörterten) traditionellen Prinzips der adaequatio intellectus ad rem bzw. der adaequatio rei et intellectus (vgl. hierzu meine Überlegungen zu C. F. v. Weizsäcker, in: J. Klein, Semiotik des Geistes I, S. 607 f., 841; zur adaequatio in den vielgestaltigen Fassetten, ebda. S. 388, 392 f., 396, 424). Das heißt, in der Evolution des Menschen als „semiotisches Tier“ (Felix Hausdorff, der Mathematiker und Dichter-Philosoph) und als animal symbolicum (E. Cassirer) spielt sich das Erkenntnisvermögen des Menschen ein in Anpassung an die Umwelt; der Erkenntnisapparat also samt Erkenntnisquellen und Erkenntnisvermögen ist per Evolution abgestimmt auf die wirkliche Welt; und diese in der Phylogenese erfolgte Passung (wenn ich hier den von G. Vollmer geprägten Begriff mutatis mutandis verwenden darf) des Erkenntnisapparates zeitigt in der Geistwerdung des Menschen, der Noogenese, die reinen Ordnungsstrukturen des Erkenntnisapparates bzw. des Instrumentariums der reinen Vernunft (so bei Kant nicht zuletzt) mit den gattungs-spezifisch apriorischen Bedingungen der Möglichkeit wahrer Erkenntnis von der Außenwelt (andernfalls wäre der Mensch eben zu Grunde gegangen, hätte er nicht einen „Sinn“ für die wahre, wirkliche Welt entwickelt). [Kants Idealismus kennt allerdings nicht die Sichtweise der späteren evolutionistischen Erkenntnistheorie. Und der von mir verwendete Begriff der Noogenese ist hier (anders als bei Teilhard de Chardin) frei von metaphysischen und evolutionistisch theologischen Implikaten. Diese Evolution des Erkenntnisapparats des Menschen ist zudem kosmologisch eingebunden in das anthropische (Kontingenz-)Prinzip (vgl. hierzu mit weiteren Nachweisen J. Klein, „Semiotik des Geistes, Buch I: Das semiotische Tier Mensch und sein Geist“, Berlin 2010, S. 24, 197, 391-413, 483, (665), 684-696, 765, 767, 841).]

    Das von I. Kant aufgeworfene und im Sinn seiner subjektiv idealistischen Transzendentalphilosophie aufgelöste Problem, ob wir das Ding an sich respektive die Welt an sich erkennen können, wie sie absolut ist (Kant verneint eine solche absolute Erkenntnis, ich desgleichen – wenn auch aus anderen Gründen), hat mit der Frage nach der Realität der Außenwelt eigentlich nichts zu tun, sondern nur in der skeptizistischen Verschärfung des kantischen Idealismus. Allerdings erweist sich dieser Aspekt rundweg in Ansehung der Befunde der evolutionistischen Erkenntnistheorie sowie der Anthropologie ebenso als Scheinproblem wie die obigen Zweifel, die natürliche Lebenswelt des Menschen könne von einer Scheinwelt oder einer wahnhaften Welt ununterscheidbar sein, sofern dem Menschen per globale Täuschung ein bewahrheitbares externalistisches Wissen versagt wäre und sofern der Mensch von vornherein und unüberwindbar – nicht nur in einem ideologischen Verblendungszusammenhang (à la Adorno bzw. Kritischer Theorie), sondern – in einem globalen Täuschungszusammenhang befangen wäre.

    Zum Zirkelschluss bei E. Brendel: Gewiss, ein bewahrheitbares externalistisches Wissen ist gegeben unter den Bedingungen, dass der intentionale Akt einer Kognition nicht in einer globalen Täuschung befangen ist. Doch wann ist dies der Fall? Und unter welchen Umständen? Dies ist sicherlich dann so, sofern wir uns bei integerer Verfasstheit und bester Gesundheit in unserer natürlichen Lebenswelt befinden – also ohne technologische Manipulationen unseres Körpers und ohne halluzinogene Mittel wie Medikamente oder Drogen oder sonstige Gifte. Doch sagt dies noch nichts über das quid iuris aus, über die epistemologische Rechtsmaterie unserer Erkenntnis von der (dem Seinsmodus nach) wirklichen und (der Seinsweise nach) realen Welt. Sofern nicht ein Kriterium des quid iuris dafür bestimmt wird, unter welchen Bedingungen eine Außenwahrnehmung (eine Extrozeption) zu einer (realistischen) Apperzeption führt, lässt sich überhaupt nicht sagen, ob die Informationsverarbeitungen unseres Gehirns eine illusorische (halluzinierte oder imaginierte) Welt uns aufbauen oder ob sie eben die wirkliche Welt uns originär und evident als ontische Welt geben, genau jene reale und wirkliche Welt, welche auch da wäre, wenn ein atomarer Overkill oder ein Super-Super-GAU die ganze Menschheit hinweggeputzt hätte. [Die Phänomenologie, so bei Max Scheler, spricht von der Widerständigkeit des Seins bzw. der Semiotiker U. Eco von den Resistenzlinien des Seins wider das Vermeinen, Wissen, Urteilen, Zweifeln; und das heißt zudem für den Alltag ebenso wie für die Wissenschaft: Die Plastikblumen von Elke Brendel bleiben aus Plastik, auch wenn alle Welt behauptet, sie seinen Natur pur und frisch auf der Wiese gepflückt. Zudem ist Elke Brendel (ebenso wie H. Putnam) nur Universitätsprofessor und kein „Jesus“, der Wasser in Wein verwandeln könnte, noch ein „Neo“-Erlöser, der, von Lady Trinity (als wäre sie Dornröschen-Brünnhilde, Prinz-Siegfried und Heiliger Geist in göttlicher Dreifaltigkeit in eins) zur höheren Existenzform wachgeküsst, die Welt-„Matrix“ intuitiv zu erschauen und zu ändern vermöchte; Elke Brendel hat noch nicht einmal – wie ich in SdG I – das Prinzip des Semiotismus formuliert etc. Und die Sciencefiction-Idee einer Welt-„Matrix“ setzt nun eben implizit einen solchen Semiotismus der Wirklichkeit als Information sowie der Möglichkeiten und Notwendigkeiten als Information voraus. All diese Beispiele, welche als Sciencefiction gar manch metaphysische Metaphorik von Apokalypse und Soteriologie klandestin mit sich führen, werden sowieso nicht so heiß gegessen, wie sie gekocht sind; vielmehr erheischen sie schon deshalb bei Brendel, Putnam & Co. keine Erkenntniskritik, weil sie höchstens als furzlaue Kaltspeisen der akademischen VIP-Universitätsphilosophie distinguiert gekostet werden, alles bloß Unterhaltungsware von Film bis Forschung.]

    Nach Kant liegt nun aber das Kriterium des quid iuris im Sinn der epistemologischen Rechtsmaterie unserer Erkenntnis in der transzendentalen Deduktion der Kategorien, nach Heidegger demgegenüber indes, gemäß seiner Kant-Kritik (in: „Kant und das Problem der Metaphysik“), in der fundamental-ontologischen Rückführung aller Erkenntnis auf die Seinsverfassung des Daseins als In-der-Welt-sein. Und in Ansehung dessen habe ich jüngst in der „Semiotik des Geistes I“ das Prinzip des „Semiotismus“ als die der Erkenntnistheorie und der Ontologie gemeinsame Grundgesetzmäßigkeit formuliert für das Kriterium des quid iuris (sowohl hinsichtlich der Herleitung der Kategorien als auch hinsichtlich der Seinsverfassung des menschlichen Daseins). Diesem Semiotismus zufolge fungiert das informationelle, relationslogische Zeichen modelltheoretischen Zuschnitts als Grundlage aller Entfaltungen des Geistes im Zusammenhang (Synechismus) von Sein und Denken, und zwar deshalb schon, weil zum einen alles Denken die Phänomene bereits zeichenhaft erschaut (entsprechend der Entwicklung des Erkenntnisapparates innerhalb der Evolution von Natur und Kultur) sowie weil zum anderen die neurophysiologischen Prozesse, welche die intentionalen Akte von Wahrnehmung und höherem Erkennen produzieren, selbst als informationelle Zeichenprozesse sich darstellen lassen (zumal sie dies präsemiotisch bereits sind).

    Derweise liegt auf der Hand, dass das Kriterium des quid iuris aller den Sachen der wirklichen und realen Welt adäquaten Kognition (im pragmatizistischen Sinn des Semiotismus) nicht bloß auf den Aspekt der epistemologischen Rechtsmaterie unserer Erkenntnis (wie bei Kant) eingeschränkt werden darf, noch bloß auf den Aspekt der fundamental-ontologischen Verankerung der Erkenntnis in der Seinsverfassung des menschlichen Daseins (wie bei Heidegger), sondern daß das Kriterium des quid iuris zuallererst aus der organologischen Verfassung aller neurobiologischen Zeichenprozesse der Informationsverarbeitung herzuleiten ist. (Die nämliche organologische „Verfassung“ erschöpft sich allerdings nicht in den empiristischen Einzelbefunden des quid facti.)
    Das geforderte Kriterium des quid iuris aller sachadäquaten Erkenntnis liegt solcherart organologisch in den von mir formulierten Sherrington-Formeln beschlossen, welche ich in der „Semiotik des Geistes I“ entwickelt habe, benannt nach dem Neurophysiologen C. S. Sherrington (betreffs der materialen Inhalte) und formal als Kalkül bestimmt, und zwar entsprechend den phänomenologischen, informationstheoretischen respektive semiotischen Vorarbeiten von E. Husserl, W. Meyer-Eppler, C. S. Peirce und Max Bense (siehe J. Klein, SdG I, S. 246 ff., 285 f., 294 ff., 300-304, 323 ff., 327 ff.). Hier ist natürlich die Formel der Extrozeption einschlägig in Abgrenzung zu den Formeln der Interozeption (Wahrnehmung der Innenwelt bzw. der Vorstellungswelten) und der Propriozeption (Selbstwahrnehmung). Die Formel für die Extrozeption lautet (vgl. J. Klein, Semiotik des Geistes I, S. 300 f.): ; dabei gilt für die Symbolik folgende Legende: Bewusstseinsrelation (β) eines Ego (E) von der Außenwahrnehmung (μ · e) der Außenwelt () per Extrozeption (e). (Zu den anderen beiden Formeln siehe in der „Semiotik des Geistes“ ebenda; allerdings sind die Formeln dort nicht vollständig entfaltet.) Die Formel der Extrozeption kann sodann in die verschiedensten intentionalen Akte – so des Beobachtens und Feststellens – umgewandelt werden (vgl. etwa J. Klein, SdG I, S. 449). Der Ausdruck μ der Sherrington-Formel einer Extrozeption steht nun für die physikalischen Daten des außenweltlichen Kommunikationskanals und der Ausdruck e für die Akt-Materien samt sinnlichen respektive vorstellungsmäßigen Substraten etc. (man denke an die sprachlichen Anteile bei signitiv gemischten Akten der Beobachtung oder eines wahrnehmungsmäßig untermauerten Feststellungsurteils). Dabei korrelieren diesen Substraten der Noesis die neuronalen Substrate der neurophysiologischen Prozesse. Der Ausdruck μ der Sherrington-Formeln einer Interozeption bzw. einer Propriozeption bezeichnet die psychophysischen Daten des innenweltlichen Informationsmediums der inneren Wahrnehmungen μ · i (i für Interozeption) bzw. des leiblichen Informationsmediums der Selbstwahrnehmungen μ · p (p für Propriozeption); und auch hier fungieren beide Male dementsprechend die neuronalen Substrate als Korrelate per Neuro-Präsentation wie bei den intentionalen Akten einer jeweiligen Außenwahrnehmung (vgl. zum Begriff des „Neuro-Präsentamens“ J. Klein, SdG I, S. 231, 233-240, 244, 266-271, 440, 462, 501, 602, 627, 644, 653, 866). Wird entsprechend dem Matrix-Modell im Sinn des bekannten Sciencefiction-Films bzw. dem Beispiel vom „Gehirn im Tank“ (nach Putnam) das Gehirn manipuliert, so schlägt sich dieser „Eingriff“ in der Zusammensetzung der μ·e·i·p-Elemente nieder – und dieser Außen-Eingriff ist ein realer Vorgang und als solcher wiederum Beweis für die real-existierende Außenwelt. [Die Sherrington-Formeln sind in SdG I nicht miteinander verknüpft. Sie können so, wie sie jetzt von mir angegeben sind, nur heuristisch und analytisch verwendet werden. Doch das genügt für diesen Zweck hier.]

    Der Vorzug meiner Lösung für die formale Charakteristik des externalistischen Wissens ist (zuzüglich zur Widerspruchsfreiheit) selbstredend der, dass hiermit eine systematische Verbindung der Erkenntnistheorie zu den neurobiologischen und neuropsychologischen Einzelwissenschaften geschaffen ist. [Zum Aufbau des Desiderats einer formalen Neurogrammatik möchte ich mich hiermit nicht geäußert haben, obschon an meinen semiotischen Forschungen wohl schwerlich ein Weg vorbeiführen dürfte.] Und zugleich sind die logischen Inkonsistenzen bzw. die verdeckten Fehlschlüsse beseitigt, welche die rein „geisteswissenschaftliche“ Reportage des Ist-Zustands der Philosophie nun eben halt so mit sich bringt. Und wenn man schon Gedankenexperimente à la „Gehirn im Tank“ mit einem „fähigen Hirnchirurgen“ bildet wie Putnam & Brendel, dann sollte man auch die Sachen radikal zu Ende denken und nicht im Halbgaren der Geist- und Sprachphilosophie hängen bleiben, wo nur ein imposant angerichteter Gang von Desserts auf uns wartet: Paradoxe und Scheinprobleme im Überfluss – ja bis zum Überdruss.

    Auf die speziellen Einzelheiten kann und will ich hier nicht eingehen. Diese werden in der „Semiotik des Geistes, Buch II“, welche sich in Vorbereitung befindet und in die dieser Leserbrief in umredigierter Form sowie in vervollständigter Weise eingearbeitet ist, näher erörtert werden bzw. in einer ausgesonderten, separaten Abhandlung zur Neurogrammatik und semiotischen Linguistik. Ach ja: „Lehnstuhlphilosophie“. Es kommt darauf an, diesem von den Empiristen polemisch geprägten Unwort zur eigentlichen Pointe zu verhelfen. Denken muss man halt auch können, sonst nützt alle „Erfahrung“ nichts.
  • Keine Antworten auf die eigentlichen Fragen

    08.06.2011, Gilbert Brands, Krummhörn
    sind auch Antworten.

    Viel mehr Konjunktive in einem Interview geht wohl nicht, und außerdem muss ohnehin offenbar noch alles erforscht werden.
  • "Träneninseln"

    07.06.2011, Paul R. Woods, Abuja/Nigeria
    Warum in die Ferne schweifen... oder in die Tiefsee?

    Hinter jedem Brückenpfeiler in einem Fluss bilden sich solche Inseln und Verwehungen, seien sie nun aus Sand oder Schnee sehen hinter jedem Hindernis genauso aus.
    Stellungnahme der Redaktion

    Das ist prinzipiell richtig, derartige Strukturen entstehen oft, wenn Strömungen auf Hindernisse stoßen. Je nach Strömungsgeschwindigkeit, fließendem Material und anderen Randbedingungen haben diese Strömungsformen andere Größen und Geometrien - entsprechende Forschungen im Labor gibt es seit Jahren.



    Die bisher bekannten irdischen Beispiele solcher Formen unterscheiden sich teils deutlich von denen auf dem Mars. Die Entdeckung analoger Strukturen in freier Wildbahn auf der Erde ist deswegen ein großer Schritt zum Verständnis der Mars-Tränen.



    Lars Fischer

  • Türchenmoleküle mit viel Energie

    06.06.2011, Christoph Hiller, Tuttlingen
    Ihr Artikel war exquisit. Es gäbe vielleicht noch eine andere Methode für die "Realisierung des Maxwellschen Dämons". Ein solcher Dämon bräuchte nicht ein Molekül zu beleuchten, um dessen Geschwindigkeit festzustellen, vielmehr könnte man das Verbindungstürchen zwischen den beiden Volumina so konstruieren, dass es nur dann aufgeht, wenn das Molkül eine genügende, eine Minimalenergie aufweist, es müsste dann das Teilchen das Türchen sozusagen einrennen. Man sollte es dann so einrichten, dass das Türchen seine Energie möglichst vollständig an das Teilvolumen B (das erwärmt werden soll) abgibt, und dass die Energie zum Wiederschließen des Türchens dem Teilvolumen A entnommen wird. Wenn alles klappt, wird sich also das das Volumen B erwärmen. Das es ansonsten im Volumen A bald keine geeigneten Koordinaten, also Moleküle, gibt, die schnell genug sind, könnte man in regelmäßigen Abständen den Überdruck in Volumen B sich entspannen lassen, man bräuchte natürlich sehr viele derartige Türchenmoleküle. Da ich meine, dass die Gesetze der Thermodynamik unter allen Umständen gültig sein sollten, nehme ich an, dass es keine geeigneten Türchenmoleküle gibt.
    Stellungnahme der Redaktion

    Eine Klapptür zwischen zwei Gasvolumina, die nur nach einer Seite aufgeht, scheint auf den ersten Blick wie ein automatischer Maxwell-Dämon zu funktionieren: Schnelle Gasteilchen stoßen die Klappe auf, sammeln sich auf der anderen Seite, dort bildet sich wärmeres Gas. Das widerspräche dem Zweiten Hauptsatz, der spontane Ordnungsentstehung (Entropieabnahme) verbietet. Warum funktioniert die Klappe nicht als Dämon? Sie muss winzig klein und leicht sein, nicht viel massiver als ein Gasteilchen, sonst vermag kein Gasteilchen sie aufzustoßen. Doch eine so winzige Klappe wird Opfer der brownschen Bewegung; sie wird selbst erwärmt und regellos hin und her gestoßen. Richard Feynman hat im ersten Band seiner berühmten Feynman Lectures das Problem im Kapitel 46, insbesondere auf Seite 46-5 behandelt.

  • Kant schlicht ignoriert

    03.06.2011, Dr. med. Michael Schott, Bottrop
    Von der Lektüre der bisherigen Artikel Ihrer Serie "Die größten Rätsel der Philosophie" bin ein Stück weit enttäuscht, denn ich vermisse insbesondere eine Diskussion der erkenntnisphilosophischen Grundlagen der Erforschung dieser Rätsel. Die Autoren setzen ganz einfach den Neopositivismus als einzig mögliche Erkenntnisphilosophie voraus, mit deren Hilfe sie Antworten auf "Die größten Rätsel der Philosophie" zu finden glauben.
    Die Wissenschaft, und genauso die Philosophie, sind aber nicht synonym mit Neopositivismus. Wissenschaft ist "bloß" der methodologisch reflektierte Erwerb von Wissen. Und "Methoden" bedeutet nicht nur die "Methoden innerhalb des Neopositivismus"; im Rationalismus, als Erkenntnisphilosophie, gibt es sie ebenso.
    Bei der Lektüre dieser Serie dachte ich immer wieder das mathematische Problem der Quadratwurzel aus -1. Solange die Mathematiker Zahlen nur als eindimensionale Phänomene auf einem Zahlenstrahl denken konnten, solange fanden sie auch keine Lösung für dieses Problem. Erst als sie sich daran machten, neue Axiome für zweidimensionale Zahlenräume zu definieren, fanden sie eine Lösung. Die Versuche der neopositivistisch ausgerichteten Forscher, ein Verständnis des Bewusstseins zu erlangen, muten mir an wie die Versuche derjenigen Mathematiker, die die Quadratwurzel aus -1 auf einem Zahlenstrahl zu bestimmen suchten.
    Auch wenn Sätze formuliert wurden, wie !mehrheitlich sind Philosophen wie Wissenschaftler der Überzeugung, dass das Bewusstsein keiner immateriellen, rein geistigen Sphäre angehört, sondern ein biologisches Phänomen ist" - Ist wissenschaftliche Wahrheit das mehrheitliche Ergebnis einer Abstimmung? - wird damit nicht das Faktum beseitigt, dass der Neopositivismus bestimmte Dinge einfach nicht erfassen kann. Ich finde es bemerkenswert, dass die Überlegungen Kants schlichtweg ignoriert werden, zeigen sie doch eindeutig auf, dass der Neopositivismus nicht alles erfassen kann, sondern dass ihm geistige Dinge - Kant nannte sie transzendental - zu Grunde liegen, die seine axiomatische Grundlage bilden. Sir Karl Popper, Begründer des Neopositivismus hat dies gewusst. Mit seinem 3-Welten-Konzept suchte er dies Wissen um Geistiges mit dem um Materielles zu vereinen.
    Zudem sind Bemühungen, das Bewusstsein nur der biologischen oder nur der geistigen Sphäre zuzuschreiben, ungefähr genauso müßig wie die Versuche, Elektronen nur als Teilchen oder nur als Welle zu verstehen. Die Quantenphysiker sind da bereits im Verstehen der Welt weiter als die Hirnforscher, die immer noch meinen, das Phänomen Bewusstsein, allein mit einem "Entweder-oder-Denken" und nicht auch mit "Sowohl-als-auch-Denken" beschreiben zu müssen.
    Als Psychotherapeut hatte ich ständig mit Ambivalenz zu tun; das "Sowohl-als-auch-Phänomen" par excellence. Auch weiß ich über mein psychotherapeutisches Handeln, dass es doch durchaus andere als neopositivistische Herangehensweisen an das Phänomen Bewusstsein gibt, die aber ganz offensichtlich von den Wissenschaftlern, die im Spektrum der Wissenschaft veröffentlichen, unbeachtet bleiben. Hier sind ganz vorrangig die dem Rationalismus (oder auch Idealismus genannt) entspringenden Überlegungen der Tiefenpsychologie zu nennen.
    Letzten Endes aber ist die Beschäftigung mit dem Phänomen Bewusstsein das Feld auf dem sehr deutlich wird, dass der Alleinvertretungsanspruch des Neopositivismus für die Erklärung der Welt nicht haltbar ist.

  • Armut ist der tiefere Grund für Hunger

    02.06.2011, Martin Holzherr, CH-8406 Winterthur
    Wer Menschen aus extremer Armut befreit, befreit sie vom Hunger

    Nahrung ist heute ein Gut wie viele andere - und hat damit einen Preis. Und der entscheidet darüber wer sich genug davon leisten kann. Die landwirtschaftlichen Erträge wachsen weiterhin, neue Sorten, die besser an die lokalen Bedingungen angepasst sind, gibt es oder sie werden gerade entwickelt. Wieviele hungern, darüber entscheidet aber der Preis der Nahrungsmittel. Wer 70% und mehr seines Einkommens für Nahrung ausgibt, für den bedeutet eine einzige schlechte Ernte, Hunger und zwar umso mehr, je teurer Nahrungsmittel sind. Wer also die Menschen aus extremer Armut befreit, befreit sie auch vom Hunger. Dieser Zusammenhang wird hier gut vermittelt (übersetzt aus dem Englischen):
    Langzeit-wirksame Linderung von Hunger wurzelt in der Verminderung von Armut, denn Armut führt zu Hunger. Der Welthunger ist also Ausdruck der Weltarmut. Wenn nur Anstrengungen darauf gerichtet sind, Nahrung bereitzustellen oder die Nahrungsproduktion und -verteilung zu verbessern, dann verbleiben immer noch die strukturellen Gründe, die Hunger verursachen: Armut und Abhängigkeit.

    Die Ursachen für die letzte sind die Ursachen für die nächste Nahrungsmittelkrise?

    Wir stehen wieder vor einer Nahrungsmittelkrise wie 2007 - weil die Nahrungsmittelpreise steigen, auch wenn diesmal die Vorräte grösser sind. Es gibt mehrere Gründe warum die Nahrungsmittelpreise steigen:
    a) Der Ölpreisanstieg verteuert Düngemittel, den Betrieb der landwirtschaftlichen Maschinen und den Nahrungsmitteltransport.
    b) Nahrungsmittelüberschüsse, die von den USA früher billig exportiert wurden, werden nun zu Biotreibstoff verarbeitet.
    c) Biotreibstoffanbau bringt oft mehr Geld als Anbau von Nahrungsmitteln Zitat: Total grain utilization growth since 2006 (up three percent, over the 2000–2006 per annum average of two percent) has been greatest in non-food usage, especially in feed and biofuels.)
    d) Das Wachsutm der Mittelklasse in Asien (1990 noch 7-8%, 2007 schon 30%) verändert die Ernährung: Es werden mehr Fleisch (7 Mal mehr Input in Form von Futtermitteln nötig), mehr Milch, Fürchte und Gemüse konsumiert.

    Während der Bedarfsüberhang durch die gestiegenen Ansprüche der wachsenden Mittelklasse durch Ausdehnung der Anbauflächen oder höhere Eträge mit der Zeit ausgeglichen werden können, gibt es kaum ein Mittel gegen die steigenden Energiepreise (vor allem Öl) und die dadurch sekundär ausgelösten Steigerungen des Biotreibstoffanbaus.

    Eine zukünftige Ölkrise als Auslöser einer Nahrungsmittelkrise?

    Die Mai 2011-Rohölpreisprognose von Goldman Sachs: The Wall Street bank said it was 'structurally bullish' on oil and raised its year-end Brent forecast to $120 per barrel from $105 a barrel, and its 2012 forecast to $140 from $120 könnten durchaus mehr bedeuten als production will continue to tighten the oil market to critically tight levels in early 2012', nämlich den Beginn einer Ölkrise, die zugleich zu einer Nahrungsmittelkrise wird, weil teureres Öl die Nahrungsmittelpreise an und für sich erhöht und sekundär zu mehr Biotreibstoffanbau verleitet.
  • 7 kg Getreide je kg Fleisch?

    02.06.2011, Dieter, Langenbach
    Ein guter Artikel!
    Aber meine Schweine brauchen weniger als die Hälfte von 7kg Getreide um 1 kg Fleisch anzusetzen. Und meine Kühe fressen überwiegend Gras. Nur zur Info zu der immer wieder auftauchenden Zahl 7 in Bezug auf die Fleischerzeugung.

    Bauer Dieter
  • Kein Vergleichsmaßstab für die Zeit

    01.06.2011, Ralph Hoffmann
    Die Einschätzung von George Musser kann ich nicht ganz nachvollziehen. Ich meine sogar, dass er dort einen Denkfehler macht. Auf Seite 43 schreibt er:

    „… Wir würden lediglich bemerken, dass ferne Objekte … sich immer schneller bewegen. Es ist unheimlich: Genau das beobachten die Astronomen tatsächlich …“

    Ich würde jedoch sagen: Wenn die Zeit für uns langsamer vergeht, vergeht sie überall auf unserer Bran gleich viel langsamer. Die Relationen in Raum und Zeit bleiben also erhalten. Wir werden nie feststellen können, ob die Zeit langsamer wird, schneller wird oder bleibt, wie sie ist. Uns fehlt ein Bezugspunkt, der mit unserer Raumzeit nicht in Verbindung steht, gleichsam einen Blick von „Außen“ in unser Universum zulässt. Ein ähnliches Problem kennt die Luftfahrt: Die tatsächliche Geschwindigkeit seines Flugzeugs kann der Pilot nur dann absolut sicher ermitteln, wenn er Landmarken und eine Stoppuhr nutzt und misst, wie lange er für eine Strecke braucht. Denn die Geschwindigkeit, die mit dem Staudruckrohr ermittelt wird, ist immer nur relativ zur Geschwindigkeit der umgebenden Luft.
    Stellungnahme der Redaktion

    Der scheinbare Widerspruch löst sich auf, wenn man die Möglichkeit zulässt, dass die Zeit an verschiedenen Stellen der Bran unterschiedlich schnell vergeht.

    Das muss man ohnehin tun, denn in unserem Universum (das zur Gänze in der Bran enthalten ist) gehen die Uhren ja schon in der Nähe großer Massen (zum Beispiel Schwarzer Löcher) anders. Wenn darüber hinaus unsere Bran sich in Falten legt wie ein fliegender Teppich, bloß eine Dimension höher, dann gibt es auf ihr stark gekrümmte und weniger (und/oder in die entgegengesetzte Richtung) gekrümmte Stellen. Wenn wir auf einer stark gekrümmten Stelle sitzen, deswegen – von außen gesehen – zur Bewegungslosigkeit verdammt sind, aber das Licht einer fernen Galaxie betrachten, die auf einer ungekrümmten Stelle sitzt …


    Christoph Pöppe, Redaktion

  • Kausalketten

    01.06.2011, Klaus Teutenberg, Lindlar
    Dass Philosophen sich über Kausalfaktoren Gedanken machen, ist ja normal, in der Biologie wegen ihrer Komplexität sicher notwendig. Was aber die Juristen (Hart, Honoré) aber da wohl suchen? Wollen sie den Zigarettenraucher vor Gericht mit dem Erdmagnetfeld oder dem Sonne-Erde-Abstand entschuldigen, ohne dem es keinen Zigarettenraucher gäbe?
    Wäre doch was für OH: "Angeklagter, was haben sie zu ihrer Verteidigung zu sagen?" "Mein Vater, äh, mein Großvater, äh, mein Urgroß...."
  • Die Kunst der Wissenschaft: Widersprüche minimieren

    01.06.2011, Peter Klamser, Egeln
    Der Autor, Gerhard Börner, zeigt die wesentlichen Probleme der heutigen naturwissenschaftlichen Forschung auf die zu dem Ergebnis führen, dass mit immer höherem Aufwand immer "kleinere" oder unter Umständen gar keine Ergebnisse erzielt werden: Die Kosten pro Einheit Erkenntnisgewinn steigen dabei wahrscheinlich exponentiell.

    Ob wir nun

    * Gravitationswellen-Detektoren errichten, die noch keine
    Gravitationswellen nachweisen können

    (vielleicht weil im für die Gravitationswellen die einsteinschen Feldgleichungen zu lösen sind, die bis heute nur näherungsweise mit linearen Differenzialgleichungen angenähert gelöst werden können, was zu Ungenauigkeiten führen kann und vielleicht die unbekannte genaue Lösung dazu führt, dass eine Gravitationswelle nicht als Längenänderung messbar ist)oder

    * mit riesigen Teilchenmaschinen theoretisch vorhergesagte und erhoffte Higgs-Boson suchen sollen, das aber ebenfalls unter Umständen gar nicht existiert, wir das aber wegen einer Lücke in der Theorie heute nicht erkennen können oder

    * wir mit riesigen Messmaschinen wie Tomografen ebenso große
    Datenmengen sammeln, die auf neue Erkenntnisse in der Biologie ausgewertet werden

    (wobei man den Eindruck hat das die Zahnräder und Schalter gesucht werden, die sich beim Denkvorgang drehen und beim Entscheidungsvorgang umgelegt werden),

    immer hat man den Eindruck, dass die Diskussion in der Mathematik zwischen Herrn Hilbert und Herrn Gödel zur Frage der widerspruchsfreien Mathematik (und damit einer widerspruchsfreien Theorie über die Welt) dann doch nicht so ganz ernst genommen wird.

    Denn was soll eine Theorie von allem, die manche Physiker suchen, leisten, wenn sie nicht widerspruchsfrei verschiedenen Felder der Physik verbinden kann?

    Am besten noch deterministisch, also z. B. dass beim Überschreiten einer Entscheidungsschwelle mit dem Wert X ich mich für eine Ehe mit der Frau Y entscheiden werde und ich das messen und vielleicht sogar vorhersagen kann.

    Kann es eine solchen Theorie vor dem Hintergrund der
    Unvollständigkeitssätze von Gödel geben?

    Ich meine, nein, denn dann wäre ein Unvollständigkeitssatz von Gödel falsch, da es es ihm insofern widersprechen würde.

    Die Kunst der Wissenschaft ist es also wahrscheinlich, diese
    Widersprüche zu minimieren, ausräumbar oder vermeidbar sind sie aber grundsätzlich nicht.

    Entweder versuchen wir so viel zu messen, dass aus den vielen Daten keine hinreichend einfache, sondern beliebig komplexe Theorie entsteht, die im Grunde genommen nur im Stande ist, den gemessenen Einzelfall zu beschreiben.

    Oder die Theorie ist unvollständig, kann z. B. nicht die
    Quantenmechanik mit der Gravitation koppeln und umgeht damit die sich vielleicht genau aus dieser Kopplung ergebenden Widersprüche.

    Oder sie ist an sich widersprüchlich, wobei wir wahrscheinlich dazu neigen, Widersprüche nicht erkennen zu wollen. Jeder Wissenschaftler will beim Schaffen von Wissen nicht gleich darauf hinweisen müssen, dass auf Grund der Widersprüche X, Y und vielleicht auch Z sein geschaffenes Wissen nur eingeschränkt, in wenigen Fällen, anwendbar ist.

    Ignorierte grundlegende Widersprüche sind vielleicht die Hemmschwelle an sich, die dazu führen, dass wir uns beim Schaffen von Wissen festfahren. Ein Beispiel:

    Der Anfang der modernen Wissenschaft ist eng mit der
    Infinitesimalrechnung von Newton und Leibniz verbunden, die auf der kartesischen Darstellung von Funktionen von René Descartes aufbaut. Die Idee der Grenzwertbildung gegen null für eine Differenz delta x war genial und revolutionär und hat die Wissenschaft bis heute maßgeblich bestimmt.

    Steht dieser Ansatz im Sinn des Unvollständigkeitssatzes im
    Widerspruch zu den heutigen Erkenntnissen?

    Ich meine, dass das zumindest nicht ausgeschlossen werden kann, wenn der Widerspruch zur Planck-Länge von 10^-35 m als kleinste denkbare Strecke, bei deren Unterschreitung wir den Gültigkeitsbereich der heute hergeleiteten Physik verlassen, bei der Grenzwertbildung einer Strecke dx gegen null beachtet wird.

    Vielleicht ist es deswegen sinnvoll in der Ordnung der zellulären Automaten zu denken, wie es Stephen Wolfram in seinem Buch "A new kind of science" getan hat.

    Zumindest könnten solche fundamentalen Grenzen, wie der Planck-Länge, der Grund sein, warum wir bei der Anwendung der hergebrachten Mathematik zur Lösung der offenen Probleme der Physik im Sinn des Artikels von Gerhard Börner in einer Sackgasse stecken.
  • Die Welt außerhalb unseres Selbst

    30.05.2011, Thomas Schmidt, Pullach
    Den Vertretern des Skeptizismus fehlt die empirische Basis für ihre Behauptung, dass wir in einer Scheinwelt leben. Es ist eine reine Fantasieannahme, die zwar in gewisser Weise amüsant ist, aber für die es keine Beweise gibt. Solche Fantasieannahmen lassen sich allerdings auch nicht widerlegen, da es erkenntnistheoretisch unmöglich ist, einen positiven Beweis für eine Nichtexistenz (hier der Nichtexistenz der postulierten Scheinwelt) zu führen.
    Deshalb stimme ich der Autorin zu, dass dann, wenn objektiv nichts für eine globale Täuschung spricht, d.h. wenn keine reproduzierbaren Daten für eine Täuschung vorliegen, eine von uns unabhängige Außenwelt angenommen werden darf und ein Wissen darüber möglich ist. Wozu haben wir denn unsere Sinnesorgane, wenn es außerhalb unseres Selbst nichts geben soll, das sinnlich wahrnehmbar ist?
Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.