Direkt zum Inhalt

Kommentare - - Seite 808

Ihre Beiträge sind uns willkommen! Schreiben Sie uns Ihre Fragen und Anregungen, Ihre Kritik oder Zustimmung. Wir veröffentlichen hier laufend Ihre aktuellen Zuschriften.
  • Drei Eigenschaften Gottes

    23.09.2013, Paul Kalbhen, Gummersbach
    Diesmal möchte ich den Ball für Springers Einwurf im Spiel halten. Vielleicht beruht sein Unverständnis "Das finde ich zunächst kaum schlimmer als die Idee, es gebe einen allwissenden Gott" darauf, dass die Mehrzahl der Theologen beider westlicher Konfessionen (Protestanten und Katholiken) aus der "zeitlosen" Allwissenheit Gottes im Sinn einer nicht determinierenden "Vorhersicht" allen Geschehens eine vorherbestimmende Prädestinationslehre im Sinn einer allgemeinen göttlichen "Vorsehung" beziehungsweise "Fügung" gemacht haben. Insofern hat Augustinus mit seiner verabsolutierenden Gnadenlehre, die dem Menschen im Prinzip keine Freiheit lässt, nicht nur den Katholizismus verseucht, sondern auch Luther ("sola gratia") und Calvin infiziert. Ich setze meine eigene These dagegen:
    Aus der christlichen Offenbarung kann man drei absolute Eigenschaften Gottes folgern:
    Die Allgüte – da Gott als absolute Liebe außerhalb des Bösen existiert.
    Die Allwissenheit – da Gott als absolutes Sein außerhalb von Raum und Zeit existiert.
    Die Allmacht – da Gott alle Freiheit besitzt, innerhalb seiner Allgüte und Allwissenheit zu wirken.
  • Raum und Zeit aus Bewegung …

    21.09.2013, Wolfgang Huß
    Ich meine man kann dem Rätsel von Raum und Zeit auf die Schliche kommen, wenn man einfacher denkt und analysiert. Dabei wird dann auch deutlich, »… wie Raum und Zeit aus etwas Grundlegenderem entstehen …«, so wie Zeeya Merali es hier in seinem Artikel formuliert.

    Aus meiner Sicht entstehen Raum und Zeit aus einer bestimmten, konstanten oder kontinuierlichen Form von Bewegung, ähnlich wie dies in der Speziellen Relativitätstheorie durch die konstante Lichtgeschwindigkeit der Fall ist.
    Das Gedankenexperiment einer Lichtuhr, wie Einstein es eingeführt hat, veranschaulicht dabei gut, wie Zeit aus der Bewegung des Lichts in einem räumlich strukturellen Kontext – die Spielgel der Lichtuhr – entsteht. Das Ticken der Lichtuhr entspricht dem Zählen der Reflexionen zwischen den Spiegeln.
    Die Lichtuhr läuft langsamer, wenn sie sich zum Beobachter bewegt, weil das Licht – sich zwischen den Spiegeln im Zickzack bewegend – für die dann längere Strecke mehr Zeit benötigt. Die Uhr tickt also für den Beobachter langsamer.

    Doch dieser recht simple Ansatz der Speziellen Relativitätstheorie erklärt eine für Raum und Zeit wichtige Beobachtung nicht: Warum nimmt die innere Frequenz eines Masse behafteten Elementarteilchens zu, wenn es sich bewegt und seine Zeit, wie die einer bewegten Lichtuhr, langsamer geht?
    Wenn die quantenmechanische Schwingung eines Elementarteilchens ebenso funktionieren würde wie eine Lichtuhr, dann müsste sie bei Bewegung des Teilchens ebenso langsamer ablaufen – also in Zeitlupe. Im Gegensatz zur Erwartung ist dies nicht der Fall. Denn nach der Quantenmechanik ist die Frequenz f eines solchen Teilchens bei dessen Bewegung höher, weil sie mit E = f • h proportional zur Energie des Teilchens ansteigt, und die Energie bei Bewegung ja höher ist als bei Stillstand.

    Wie muss nun die Spezielle Relativitätstheorie verändert und um welche Bewegungsstruktur muss sie erweitert werden, um diesen Effekt zu beschreiben?
    Der zuvor beschriebene Fall der Bewegung eines Elementarteilchens mit Ruhemasse ist allerdings zu komplex, den strukturellen Sachverhalt an seinem Beispiel zu analysieren. Deshalb möchte ich ersatzweise eine auf den ersten Blick etwas anders gelagert erscheinende Beobachtung analysieren, welche die Relativitätstheorie über die Gravitation direkt mit der Quantenmechanik in Verbindung bringt – das Pound-Rebka-Snider-Experiment. Am einfachsten ist dies mit einer Variante dieses Experiments, welche die Veränderung der Frequenz eines Lichtteilchens – eines Photons – bei der Bewegung im Gravitationsfeld der Erde untersucht. Hier erscheinen mir die strukturellen Zusammenhänge übersichtlich. Die Energie des Photons steigt bei Annäherung an die Erde und deshalb stärker werdender Gravitation. Aus diesem Grund steigt auch seine Frequenz mit E = f • h proportional zu seiner Energie, vergleichbar einem bewegten Elementarteilchen mit Ruhemasse in der Speziellen Relativitätstheorie.

    Welche Struktur von Raum und Zeit eines Photons kann eine Frequenzsteigerung bei Annäherung an die Erde hervorrufen?
    Der von mir gefundene, folgend kurz geschilderte Lösungsansatz heißt fraktale Quanten-Fluss-Theorie (http://www.quantum-flow-theory.eu). Er verbindet eine etwas veränderte Spezielle Relativitätstheorie über eine zusätzliche Bewegungskomponente mit der Quantenmechanik. Dadurch ergibt sich in erster Näherung eine gering veränderte, aber den Beobachtungen entsprechende Allgemeine Relativitätstheorie.
    Das sich ergebende System verhält sich nach thermodynamischen Regeln, wie Merali es nahe legt.

    Der Ansatz geht folgendermaßen: Alle Elementarteilchen und das Vakuum werden von recht einheitlichen, neuen Fundamentalteilchen gebildet, welche sich grundsätzlich mit konstanter Geschwindigkeit durch den Raum bewegen. Ihre Bahnen haben eine helixförmige Spiralform. Ein Photon ist ein rotierender ringförmiger String aus diesen Fundamentalteilchen, dessen Spin in Bewegungsrichtung oder entgegengesetzt orientiert ist und welcher sich mit der aus der Allgemeinen Relativitätstheorie bekannten lokalen Lichtgeschwindigkeit im dreidimensionalen Raum bewegt.
    Nähert sich das Photon im Pound-Rebka-Snider-Experiment der Erde an, so nimmt seine Geschwindigkeit wie in der Allgemeinen Relativitätstheorie mit dem Anstieg der Gravitation ab. Aufgrund der konstanten Bewegung seiner Fundamentalteilchen rotiert sein Ring deshalb schneller, weil er seinen Radius nicht verändert. Diese beschleunigte Rotation entspricht genau der beobachteten Zunahme der Frequenz des Photons im Schwerefeld der Erde, wenn die Helix der Spiralbahn der Fundamentalteilchen in Erdnähe, also bei im kosmischen Maßstab sehr geringer oder nahezu verschwindender Gravitation, einen Gangwinkel von 45° besitzt. Dies bedeutet, dass jedes Wirkungsquant eines Photonen-Strings, der sich mit Geschwindigkeit der Lichtgeschwindigkeitskonstanten im Raum bewegt, auch mit der selben Geschwindigkeit um das Zentrum des Strings rotiert. Bewegt sich das Photon langsamer, so rotiert es schneller.
    Auf diese Weise wird über zwei Bewegungskomponenten eine neue Raum und Zeit Struktur kreiert, die dem Pound-Rebka-Snider-Experiment gerecht wird. Sie ist Bestandteil der Struktur aller Elementarteilchen wie auch der des Vakuums, weil alles auf der gleichen helixförmigen Spiralbewegung der Fundamentalteilchen beruht.

    Die konstante Bewegung der Fundamentalteilchen installiert Zeit als Normaluhr, welche überall im Raum gleich läuft und für die Quantenmechanik essentiell ist. Die variable Lichtgeschwindigkeit der Photonen-Strings im dreidimensionalen Raum installiert die ortsabhängige, variable Zeit der Allgemeinen Relativitätstheorie im Gravitationsfeld des Vakuums – im neuen Modell zur Unterscheidung jetzt Alterung genannt – und generiert durch diese den Eindruck der gekrümmten Raumzeit.
    Es wird deutlich, dass strukturelle Bewegung als Grundlage von Raum und Zeit den Mehrwert besitzt, verschiedene Arten von Zeit parallel zu erzeugen. Diese Eigenschaft ist notwendig, um das sogenannte „Problem der Zeit“ zu lösen (Vgl. Kiefer, Claus. »Auf dem Weg zur Quantengravitation.« In: Spektrum der Wissenschaft (Apr. 2012), S. 34—43. URL: https://www.spektrum.de/alias/titelthema-physik/auf-dem-weg-zur-quantengravitation/1142715, S. 37.). Denn erst durch dessen Lösung scheint es möglich die Vereinheitlichung von Quantenmechanik und Allgemeiner Relativitätstheorie zu vollziehen.
    Durch die konstante Bewegung der Wirkungsquanten hat der hier geschaffene Raum eine kausale Struktur, ähnlich wie diese im Artikel durch die Simulationen beschrieben wird, an denen Renate Loll beteiligt ist: Man kann in der Zeit nicht hin und her reisen.

    Jedes Fundamentalteilchen hat die Wirkung h (Plancksches Wirkungsquantum) auf sein Umfeld und wird nun Wirkungsquant genannt. Daher bedeutet die Zunahme der Frequenz f eines Photons, dass nach E = f • h die Anzahl der Wirkungsquanten im String des Photons wie auch im Vakuum proportional zur Energie ist. Jedes Wirkungsquant ist eine Masse-, Impuls- und Energieeinheit.
    Das aus dieser Struktur auch die Heisenbergsche Unschärferelation durch ein prinzipielles Abzählproblem (Vgl. Treitz, Norbert. »Von den falschen Tönen zur Unbestimmtheitsrelation.« In: Spektrum der Wissenschaft (Okt. 2010), S. 40-42. URL: https://www.spektrum.de/alias/quantenmechanik/von-den-falschen-toenen-zur-unbestimmtheitsrelation/1044195) hervorgeht, wenn man die Messung der Energie eines Elementarteilchens als das Zählen seiner Wirkungsquanten in einem Zeitintervall begreift, ist ein starker Hinweis auf die Vereinheitlichung von Quantenmechanik und Allgemeiner Relativität.

    Elementarteilchen mit Ruhemasse – Leptonen und Quarks – bestehen in diesem Modell aus rotierenden Wirkungsquanten-Strings, die um eine helixförmige geschlossene Spirale schwingen. Untersucht man die Wirkung der Wirkungsquanten eines Elementarteilchens auf das umgebende Vakuum und andere Elementarteilchen-Strings in der Nähe, so ergibt sich in erster Näherung die Formel für die Lichtgeschwindigkeit im dreidimensionalen Raum um eine Zentralmasse herum, welche aus der Allgemeinen Relativitätstheorie bekannt ist und die entsprechende Gravitation erzeugt. Die so hergeleitete Gravitation ist statistischer Natur, ähnlich wie es Merali aufgrund der Untersuchungen des Ereignishorizonts von Schwarzen Löchern beschreibt. Darauf, dass eine solche Herleitung der Gravitation möglich ist, verweist er ebenfalls.
    Das Vakuum besteht in diesem Modell ähnlich wie ein Photon aus Wirkungsquanten, die zu rotierenden Ringen als Strings verbunden sind. Deshalb nimmt auch die Vakuumenergie- und folglich die Wirkungsquanten-Dichte bei Annäherung an eine Zentralmasse zu.

    Auch den Grund für die helixförmige Grundstruktur des Vakuums und der in ihm eingebetteten Elementarteilchen kann man aufspüren: Angenommen alle Wirkungsquanten des Raums seien gleichmäßig verteilt. Dann würde in diesem Bild die gravitative Wirkung, die alle Wirkungsquanten der Vakuumenergie gegenseitig aufeinander haben, für die 45°-Wicklung der Helixbahnen der Wirkungsquanten verantwortlich sein. Dieser Winkel entspricht, wie schon gesagt, den Beobachtungen des Pound-Rebka-Snider-Experiments für Orte im Raum, an denen keine oder sehr geringe Gravitation herrscht.
    Da dieser Winkel, auf Basis der konstanten Wirkungsquanten-Geschwindigkeit, die Vakuumlichtgeschwindigkeit des Elementarteilchen freien Raums festlegt, ist die innere gravitative Wechselwirkung des Vakuums der Grund für die Größe der Vakuumlichtgeschwindigkeit. Der Winkel ist folglich von der Energiedichte des „wirklich leeren“ Vakuums abhängig. Der bisher rätselhafte Verbleib der gravitativen Wechselwirkung der Vakuumenergie wird so ersichtlich, weil in der Grundstruktur des Vakuums verborgen.

    Integriert man nun die bekannten Elementarteilchen unserer Materie ins Vakuum und lässt diese sich zu Sonnen, Galaxien und Galaxienhaufen verklumpen, so ergibt sich eine variabel mitlaufende Energiedichteverteilung des Vakuums. Diese variable Energiedichte erzeugt den Eindruck der Raumzeitkrümmung der Relativitätstheorie. Wenn sich die Anzahl der Wirkungsquanten im Kosmos nicht verändern würde, wäre der Kosmos im Durchschnitt flach, wie es in unserem Kosmos beobachtet wird. Denn wenn sich Wirkungsquanten in Galaxien ansammeln, muss ihre Dichte zwischen den Galaxien geringer werden.
    Abschätzungen der zusätzlichen Gravitation der erhöhten Vakuumenergie mit überdurchschnittlicher Energiedichte in und um Galaxien herum und deren Verringerung zwischen Galaxien oder Galaxienhaufen weisen darauf hin, dass diese Eigenschaft des Gravitationsfelds im Vakuum wohlmöglich das Dunkle-Materie-Phänomen ganz oder teilweise erklären kann.

    Das eben geschilderte Modell der Quanten-Fluss-Theorie hat meiner Meinung nach viele interessante Facetten, die bei weitem noch nicht alle Erwähnung fanden:

    Die helixförmigen Spiralbewegungen werden in der fraktalen Quanten-Fluss-Theorie auf fraktale Weise bis ins Unendliche fortgesetzt, so dass auch die Wirkungsquanten aus Ringen von Mikro-Wirkungsquanten bestehen und so fort. In der praktischen Anwendung des Modells legt man sich dann, je nach benötigter Genauigkeit, auf eine tiefste Strukturebene fest, auf der sich die feinsten Mikro-Wirkungsquanten mit konstanter Geschwindigkeit bewegen. Man kann zeigen, dass es an einem Ort im Raum zu einer bestimmten Zeit immer eine höchste Ebene dieser Struktur gibt; die Ebene der Elementarteilchen.
    Bei einer bestimmten Energiedichte des Vakuums gibt es dann einen strukturellen Phasenübergang, der den Übergang unseres Kosmos in ein Schwarzes Loch markiert. Im Schwarzen Loch können sich die Wirkungsquanten nicht mehr zu Strings zusammen schließen, weshalb die Ebene der Elementarteilchen dort drinnen eine Strukturebene tiefer und kleiner liegt. Im Schwarzen Loch existiert also im wahrsten Sinne ein Mikro-Kosmos der nach den gleichen physikalischen Gesetzen funktioniert, wie unser Kosmos außerhalb. Durch das neue Modell existiert in seinem Inneren nun Zeit, was seinen Ereignishorizont für physikalische Beschreibungen transparent macht.

    Der Urknall stellt sich dann als ein etwas anderes Szenario dar, als es die von Merali beschriebene, rückwärts laufende Uhr in den Berechnungen zur Schleifenquantengravitation vermuten lässt: Der Urknall entspricht der Innenansicht der Entstehung eines Schwarzen Lochs und eröffnet dadurch ganz andere Möglichkeiten, wie das Dunkle-Energie-Phänomen zustande kommt, als die heute üblichen Überlegungen es nahe legen.
    Ob das holografische Prinzip hier gilt bleibt zu untersuchen, es könnte aber durch den Phasenübergang begründet sein. Die von Merali erwähnte Singularität eines Schwarzen Lochs der Allgemeinen Relativitätstheorie muss hingegen nicht mehr erklärt werden, denn sie existiert in diesem Modell durch den strukturellen Phasenübergang nicht:
    » ›Das Problem mit der Singularität loszuwerden, ist ein großer Erfolg‹ (Abhay Ashtekar)«

    Auch die Entstehung von elektromagnetischen oder elektroschwachen Feldern und Ladungen kann erklärt werden: Auf den Strings ungleichmäßig dicht verteilte Wirkungsquanten erzeugen dynamische Polarisationen, die sich im Vakuum ausbreiten.

    Die starke Wechselwirkung ist in Form des Zusammenhalts – also der Spannung – der Wirkungsquanten eines Strings enthalten. Dabei treten Quarks als zusätzliche innere Schlaufen eines Strings in Erscheinung und sind deshalb, wie beobachtet, nicht ohne weiteres aus dem String eines Hadrons oder Mesons zu lösen (Confinement). Die Gluonen entsprechen dann Sprüngen – im Sinne eines Versatzes – in den Strings, welche Photonen-Segmenten ähneln.

    Ob die hier beschriebene Photonen-Struktur bei Hochenergie-Photonen die Körnigkeit der Wirkungsquanten verspürt, wie Merali Vermutungen von Wissenschaftlern darlegt, bleibt zu untersuchen.

    Der neue Ansatz verbindet wesentliche Eigenschaften der Stringtheorie mit denen der Schleifenquantengravitation, wie Merali diese beschreibt. Er enthält die schwingenden Strings der Elementarteilchen, allerdings in etwas anderer Form als in der Stringtheorie und „nur“ in den beobachteten drei Raumdimensionen. Auch die Schleifen der Schleifenquantengravitation kommen als Raum und Zeit bildende Elemente hier in ähnlicher Form vor.

    Interessant ist auch, dass die neue Theorie ohne eine imaginäre Zeit auskommt.

    Die Quanten-Fluss-Theorie ist also ein ganz anderer und sicherlich für viele unerwarteter Ansatz Raum und Zeit sowie die Vereinheitlichung von Quantenmechanik und Allgemeiner Relativitätstheorie zu beschreiben. Die Erweiterung einer bestimmten Sichtweise der Speziellen Relativitätstheorie um weitere Strukturen von Bewegung scheint so wichtige Eigenschaften der Quantenmechanik und der Allgemeinen Relativitätstheorie abzubilden.
  • Die virtuelle Darstellung von Teilchen wie sie uns erscheinen.

    21.09.2013, Beier Karl - Heinz
    Die Materieteilchen, so wie sie uns in unserer Dimension erscheinen, werden wahrscheinlich aus Urmaterie wie sie im Urknall hervorgegangen sind, und aus dem Vakuumfels permanent auf ihrem Energieinhalt konstant gehalten. Denn ich vermute, dass die Lichtgeschwindigkeit nicht vom Urknall an den heutigen Wert hatte. Da aber jedes Materieteilchen seinen für immer gleich bleibenden Energiegehalt haben dürfte, verändern sich auch die Massen der Teilchen in unserer Dimension. Der Abgleich geschieht im Untergrund über die (h:2x Pi) Quanten mit dem Vakuum Feld, in Form von verborgenen Parametern & v und verborgenen Parametern der Urmaterie &m als welche man die down und up Quarks ansehen könnte. Da wir in unserer Dimension diesen extrehm kurzzeitigen Selbstwechselwirkungen nicht folgen können, erhaschen wir immer nur Ausschnitte dieser Reaktionen, in Form des Wahrscheinlichkeitsquadrats der Eigenschaften, die wir gerade messen wollen. Denn die h Quanten sind über die Uranfangszeit mit den verborgenen Parametern verbunden. Man kann sagen, die Vakuumfelddichte entspannt sich mit der vergehenden Zeit. Das ist meine Meinung.
  • Volkswirtschaftslehre - eine Wissenschaft?

    20.09.2013, Josef G.
    Ich zitiere aus einem unten verlinkten Artikel:
    Steve Keen, Professor an der School of Economics and Finance der University of Western Sydney, erhebt schwerwiegende Einwände gegenüber der Volkswirtschaftslehre. Einer richtet sich beispielsweise gegen eines der Fundamente dieser Lehre, die Theorie des Unternehmens, deren Ableitung er als mathematisch fehlerhaft nachweist. Nach Korrektur des Fehlers kehren sich die Aussagen dieser "Theorie", die die Globalisierungsdoktrin freier Märkte stützt, in ihr Gegenteil um. Bemerkenswert ist nicht nur, dass eine grundlegende Theorie, die an praktisch jeder Hochschule gelehrt und die in jedem Volkswirtschaftslehrbuch dargestellt wird, in sich nicht widerspruchsfrei ist. Es ist insbesondere bemerkenswert, dass der Wirtschaftsnobelpreisträger George Stigler vor über 50 Jahren in einer ökonomischen Fachzeitschrift auf die Wurzel dieses Fehlers aufmerksam machte, ohne dass dies einen Einfluss auf die Theorie und ihre Darstellung gehabt hätte. Dass eine zentrale Aussage über 50 Jahre lang fehlerhaft abgeleitet wird, obwohl ein Nobelpreisträger dieser Disziplin auf den Fehler — übrigens ein einfacher Fehler bei der Anwendung von Schulmathematik — in einer Fachzeitschrift dieser Disziplin hingewiesen hat, ist in einer Wissenschaft, wie etwa der Physik, nicht vorstellbar. Steve Keen schreibt zur Unternehmenstheorie:
    "... Auch wenn sie kein aktives Forschungsgebiet von Ökonomen mehr ist, so ist die Marshallsche Theorie des Unternehmens immer noch zentral für die in die Volkswirtschaftslehre einführende Pädagogik. Über die Jahre widerstand sie zahlreichen Kritiken - an ihrer empirischen Relevanz, an ihrer eindimensionalen Beschreibung der Motive von Unternehmen, an ihrer „Black Box“ Behandlung von Unternehmen, usw. In diesem Artikel lege ich einen weiteren Kritikpunkt vor: sie ist, ganz einfach, mathematisch falsch. Wenn die Fehler in der Theorie korrigiert werden, dann bleibt nichts von Substanz übrig: Wettbewerb führt nicht dazu, dass der Preis mit den Grenzkosten übereinstimmt, durch die Gleichsetzung von Grenzerträgen und Grenzkosten werden die Profite nicht maximiert, der Ausstoß ist unabhängig von der Anzahl der Unternehmen in der Branche und der Wohlfahrtsverlust, den das Modell einem Monopol zuschreibt, ist statt dessen auf profitmaximierendes Verhalten zurückzuführen. ..."

    Hier der mathemetische Nachweis des Fehlers:
    Eine andere unsichtbare Hand des Marktes — von den blinden Flecken der Volkswirtschaftslehre
    von Jürgen Kremer
    Professor für Wirtschaftsmathematik am RheinAhrCampus Remagen
    http://www.deweles.de/files/mathematik.pdf
  • Videoprojekt: "10 unbequeme Wahrheiten über Hans J. Schellnhuber"

    20.09.2013, Klimamanifest von Heiligenroth
    Es ist angebracht, sich über die "10 unbequemenen Wahrheiten über Hans J. Schellnhuber" zu informieren. Einfach mal googeln. Das umfangreiche Videoprojekt geht Montag bereits in "Kapitel 4" und die Zugriffszahlen steigen stetig....
  • Meinung

    20.09.2013, Karl M.
    Sehr interessanter Artikel, ich kann und will hier keine "wichtige" hochtrabende Erkenntnisse von mir geben, sondern nur meine persönl. Beobachtungen und Meinung.

    "Die Kurve steigt zwar an – schließlich ist mehr Geld immer besser als weniger –, tut dies aber mit zunehmendem Vermögen immer weniger, denn zusätzliches Geld nützt einer reichen Person weniger als einem Bettler."

    Das ist doch auch ein Beweis, die heute Politik der "Fastalleimmerärmer gegen Diewenigstenimmerreicher" ist grundlegend verkehrt, da dadurch der Nutzen und auch der Wert des Geldes sinkt. Kann man ja bei täglichen Beobachtungen deutlich erkennen.
    Die gierigen Profitmaximierer, sägen sich selbst den Ast ab den sie ausquetschen und irgendwann, ist dann (1.)das Risiko größer als das zuerwartende Geld, was dem neoliberalen Geröll endlich mal ihre "überragende Intelligenz" vor Augen führt.
    Die wahren Kapitalisten und Unternehmer früherer Jahre, kümmerten sich um ihre Angestellten und ihre Standorte durch soziale Verantwortung und keinem ist dadurch ein Schaden entstanden.

    Inwieweit nun das damals übliche "materialgedeckte Geld" mit unserem ungedeckten Altpapier und virtuelle Buchgeld vergleichbar ist, sei dahin gestellt.
    Laut Karl M. ist Geld eine Ware (Handelsware, Rohstoff) bzw. eine Ware Geld. Damit ist sicher nicht Papier oder die Absonderung der Tastatur gemeint. Die Ware sollte bereits bestehen/vorhanden sein und nicht auf Versprechungen/Schuld/Leerverkäufen und ähnlichem beruhen.
    Bin gespannt wie Person B kuckt, wenn ihm Person A den versprochenen Gewinn in vorm von Schuldscheinen/Zahlungsversprechen, die von seinen Nachfahren eingelöst werden, auszahlt.




    1. Die abflachende Kurve legt nahe, dass es sich lohnt, auf Geld zu verzichten und dadurch Risiken zu vermeiden.
  • Umgang mit Kritikern

    20.09.2013, Klaus Bauer
    Interessantes Interview. Da drängt sich unweigerlich die Frage auf, warum so liederlich - nein - ehrabschneident, mit "Kritikern" umgegangen wird (http://www.heute.de/Klimawandel-Skeptiker-amtlich-unerw%C3%BCnscht-28010994.html?tabNo=3)

    Haben die Herren einmal in die Beiratsliste von http://www.eike-klima-energie.eu/fachbeirat/ geschaut? Alles Idioten?
  • Vielleicht sollten Sie

    20.09.2013, Gilbert Brands
    beim nächsten Mal noch einen Kaffeesatzleser zum Interview hinzuziehen. Schwammiger kann es dadurch auch nicht mehr werden.
  • Fluorverbindungen

    19.09.2013, Roman Koutny
    Gerade Fluorverbindungen sind so elementar, dass man ihren Handel wohl kaum unterbinden kann. Zur Not kann man alternativ Flussspat mit Schwefelsäure versetzen.
  • " ....sind zu Konferenzen und Treffen um die Welt gereist..."

    19.09.2013, ohminus
    Das würden die doch tun, ob das IPCC existiert oder nicht, nein? Gewöhnlich werden auch die Treffen von Working Groups etc. am Rande von wissenschaftlichen Konferenzen abgehalten, bei denen man sich ohnehin trifft.
  • Vielleicht lieber eine Doppelstrategie?

    18.09.2013, A. Stefanowitsch
    Auf einen aktuellen Gesamtüberblick zum Stand der Forschung können wir wohl nicht verzichten, es bietet sich aber an, dem IPCC-Bericht einfach eine vernünftige Versionierung zu verpassen, die es erlaubt, zeitnah und modular Erkenntnisse auf den neuesten Stand zu bringen. Nur, wenn sich etwas Fundamentales ändert, würde eine neue Versionsnummer vergeben, kleinere Änderungen würden durch Unterversionen (5.1, 5.2a, usw.) abgebildet.

    Daneben könnte dann ein Teil der freiwerdenden Ressourcen auf Antworten zu „tagesaktuellen“ Fragen verwendet werden (obwohl ich befürchte, dass die „Klimaskeptiker“ das als willkommenen Anlass sehen würden, die Zeit der Wissenschaftler/innen durch noch mehr Pseudodebatten zu binden).
  • Irrtum: die Costa Concordia schwimmt nicht!

    18.09.2013, Dr. Konrad Heck
    Zitat: Am frühen Dienstagmorgen "schwamm" die havarierte "Costa Concordia" ...
    Das ist nicht richtig. Die Costa Concordia "schwimmt" nicht! Sondern sie sitzt fest auf dem Gerüst, das auf den Felsen angebracht wurde. Sie muss erst mit den noch anzubringenden Schwimmerkästen zum Schwimmen gebracht werden.
  • Wolkenkuckucksheim der Astrophysiker

    18.09.2013, Joachim Datko
    Die Astrophysik ist hochspekulativ. Mit viel Mathematik und schönen Bildern versucht man Seriosität zu erreichen. Die Mathematik ist allerdings flexibel genug, für die unterschiedlichsten Vorstellungen Beschreibungsmöglichkeiten zu liefern und entfällt daher als Bestätigung für eine Hypothese. Wir sind meiner Ansicht nach weit davon entfernt, das Weltall richtig zu beschreiben.

    Siehe auch: http://www.monopole.de/wissenschafts-monopole/

    Joachim Datko - Physiker, Philosoph
  • Maß-lose Kritik an "Grüner" Gentechnik

    17.09.2013, Horst Backhaus, Braunschweig


    Die eindeutige Parteinahme in der stark polarisierten Debatte über die offene Anwendung der Gentechnik zeigt eine als kritisch ausgewiesene Wissenschaftlerin deutlich vom Pfad professioneller Tugenden abweichend. Die Haltung ist geprägt sowohl durch einseitig unvollständige Darstellungen wie auch durch eine wenig sachgerechte Dateninterpretation.



    Die Freiheit der Interpretation kann hier einerseits einer Vision perfekter Kontrolle folgen, die aus dem Vorsorge-"Prinzip" herleitbar ist. Dieses prägt ohne spezifische Definition auch die Formulierungen der gesetzlichen Grundlagen der Regelungen im Bereich der "grünen" Gentechnik. Andererseits fehlt für die Dateninterpretation auch ein Bewertungsraster, das die Konturen der Schutzziele der Regelungen deutlich erkennbar machen könnte. Das wiederum ist eine Folge der von der Politik dominierten Entscheidungen unter diesen Regelungen. An die Wissenschaft muss man an dieser Stelle die Forderung stellen, die in ihrem Urteil impliziten Maßstäbe offenzulegen.



    Die oben genannten Freiheiten können nämlich für die Stützung einer bestimmten Haltung in der kontroversen Gentechnikdebatte instrumentalisiert werden, ohne dass gewöhnlich sehr heterogene Beweggründe der Parteinahme offenzulegen sind. Häufig geht es schlicht darum, "grüne" Positionen mit der Solidarität unter Gentechnikgegnern zu fördern.



    Folgend werden Aussagen von Frau Hilbeck als Thesen (in GROßBUCHSTABEN) formuliert und kritisch auf Wert und Funktion in der Debatte untersucht. In einem letzten Abschnitt folgen Anmerkungen zu Beziehungen und Struktur der Regelungen aus dem Erfahrungshorizont des Autors, die schließlich in vorläufigen Schlussfolgerungen für die Kommunikation münden.



    1. DIE INDUSTRIE WANDTE DIE TECHNOLOGIE VIEL ZU SCHNELL AN




    Die Gewinnorientierung der Industrie spielt hier als negativ bewertete treibende Kraft nur unterschwellig eine Rolle. Das Hauptgewicht der Begründung wird auf das unvollkommene gegenwärtige Wissen über Grundlagen und Details der gentechnischen Veränderung von Lebewesen gelegt, das unter 2. diskutiert wird. Die Interviewte verkündet ihre einseitige subjektive Wertung ohne weitere Überlegungen zu möglichen sachlichen Maßstäben.



    Generell ist der Zeitpunkt des Marktzugangs in seiner Abhängigkeit vom Umgang mit wissenschaftlich-technischen Innovationen ein wichtiger Indikator der Fortschrittsdynamik in einer Gesellschaft. Er zeigt ja die Geschwindigkeit der Umsetzung eines Entwicklungsfortschritts an. Und der ist nicht nur aus Wettbewerbs- und ökonomischen Gründen, sondern beispielsweise auch bei der Optimierung der Gesundheitsvorsorge (Arzneimittel, Technologien) von großer Bedeutung.



    An dieser Stelle vermisst man beim Vorwurf der Geschwindigkeitsüberschreitung bei dem Einsatz der Pflanzen-Gentechnik die nahe liegende Erwägung, ob aus der Beobachtung und Wertung von Erfolgen und Misserfolgen nach Marktzugang nicht ein Maßstab für eine zeitlich korrekte Strategie abzuleiten wäre.



    2. DIE ANWENDUNG DER GENTECHNIK BERUHT AUF LÜCKENHAFTEN KENNTNISSEN UND MANGELHAFTEM VERSTÄNDNIS DER GRUNDLAGEN GENETISCHER MECHANISMEN. DAS GILT ETWA IM VERGLEICH MIT DER KONSTRUKTION EINES FLUGZEUGS DURCH EINEN INGENIEUR.




    Ist vom Gentechniker tatsächlich der gleiche Grad an Kontrolle über seine Tätigkeit und Produkte zu fordern, wie wir sie routinemäßig dem Ingenieur bei der Ausführung eines Konstruktionsentwurfs zumessen?



    Der Entwurf für den Ingenieur umfasst alle Details des Konstrukts, soweit sie für die Ausführung von Bedeutung sind. Die Qualität seiner Arbeit ist dann an der Übereinstimmung zwischen Plan und Konstrukt ablesbar. Dabei sind umfassende Kenntnisse über Materialeigenschaften und von Menschen konstruierte Werkzeuge einsetzbar. Die Konstruktionsregeln sind generell gültig, quantitativ formulierbar und klar nach Ursachen und Wirkungen strukturiert.



    Eine kontrolliert fehlerfreie Herstellung einer geplanten modifizierten neuen Sequenz ist nun in allgemeiner Vorstellung auch die Herausforderung für den Gentechniker. Die vielfältigen Fehlermöglichkeiten bei einzelnen Schritten, etwa durch Nutzung evolvierter Werkzeuge mit im Detail unbekannten Wechselwirkungen und Spezifitäten, können eine stark eingeschränkte Kontrolle über die Verteilung von Reaktionsprodukten bedingen. Das gilt insbesondere für die zellulären Vorgänge, die schließlich für eine Integration modifizierter Sequenzen in das Genom des Empfängerorganismus verantwortlich sind.



    Das eigentliche Ziel des Designs eines Gentechnikers ist aber nicht die mehr oder minder perfekte Übereinstimmung zwischen geplanter und tatsächlich realisierter Sequenzstruktur – sondern der in seinen Eigenschaften (dem Phänotyp) veränderte Organismus.



    Hier liegt es nun nahe, die geplante neue Bausteinfolge des Organismen-Genoms als Analogie zum Konstruktionsentwurf und seiner Funktion für die Arbeit eines Ingenieurs anzusehen. So wie der Ingenieur in der Lage ist, jedes Detail seines Konstruktionsplans in seiner Funktion im Endprodukt zu interpretieren, sollten wir nämlich idealerweise für jeden einzelnen Baustein der modifizierten Sequenz seine nach Ursache und Wirkung geordneten Konsequenzen für die Leistungen des Organismus beschreiben können.



    Für die Merkmale des ursprünglichen Organismus haben wir jedoch eine andere Informationsbasis, nämlich die methodisch angepasste Analyse seiner Eigenschaften in den für wichtig erachteten Details. Die lassen sich aus der Bausteinfolge seiner Genomsequenz nur höchst unvollkommen oder überhaupt nicht ableiten. Die obige Analogie beschriebe also nur unsere Wunschvorstellungen in Bezug auf die Interpretation des in der Bausteinfolge der DNA festgelegten Informationsgehalts.



    Die Geschichte der Molekularbiologie zeigt die bisher erreichten Fortschritte in dem hier angedeuteten Projekt. Sie verweist aber zugleich auf die vielfältigen Grenzen unserer Ambitionen, ein nach Ursache und Wirkung geordnetes (kausales, Maschinen-ähnliches) Abbild/Modell von evolvierten Lebewesen zu generieren. Die vorhandenen Kenntnislücken sind am Stand der Wissenschaft ablesbar, dessen jüngste Entwicklung noch kaum eine Annäherung an die vorstehend geschilderten Ambitionen erkennen lässt.



    Verbände, die dem Naturschutz verpflichtet sind, heben gern ihre ganzheitlichen Ansätze der Naturerklärung als Besonderheit hervor und sehen einen Widerspruch zu den Details naturwissenschaftlicher kausaler Modelle. Diese Haltung wird aber verlassen, wenn in der Kritik an der Gentechnik gerade die Tragkraft des erwähnten kausalen Modells herausgefordert wird.



    Der Effekt von Sequenzen auf die Merkmale und Reaktionsweisen des Organismus ist wie angedeutet in vielen Details hypothetisch, was gleichzeitig die Bedeutung ihrer Analyse für Aussagen über Risiken oder "biologische Sicherheit" deutlich relativiert. Weder eine verbesserte Effizienz und Präzision bei der Konstruktion genetischer Veränderungen noch eine aufwändige analytische Prüfung ihrer Bausteinfolge erlauben also überlegene Vorhersagen der Eigenschaften des Organismus einschließlich möglicher Risikopotenziale. Die Prüfung der ersten vollständigen Sequenz einer transformierten Pflanze (zur Virusresistenz gentechnisch modifizierte Papaya) illustriert diese Aussage auf überzeugende Weise (1).




    Die Hypothese einer überlegenen Sicherheitsaussage durch genaue Beschreibung der Techniken und Ergebnisse der genetischen Modifikation ist jedoch in den Kriterien der Richtlinien der EU implizit enthalten (2). Hier kann das Screening von Datenbanken bekannter Toxine oder Allergene auf Verwandtschaften zu hypothetischen (oder analytisch nachgewiesenen) Produkten neuer Leseraster aussagekräftige Ergebnisse produzieren. Das ist aber abhängig von der Qualität des in den Datenbanken organisierten Kenntnisstandes, z.B. über die für toxische oder allergene Wirkungen verantwortlichen Domänen1. Und die Strategie ist vom Ansatz her sehr begrenzt für die Detektion neuer schädlicher Wechselwirkungen geeignet. Im Übrigen sind die Anforderungen an die Beschreibung der gentechnischen Veränderung in den Richtlinien der EU am ehesten als Test der molekularbiologischen Kompetenz des Antragstellers interpretierbar (3).



    3. DER LÖSUNGSANSATZ DES "GOLDENEN REIS´", MIT DEM VITAMIN-MANGELERSCHEINUNGEN DURCH SYNTHESE VON VORSTUFEN IN REISKÖRNERN BEKÄMPFT WERDEN SOLLEN, WIRD DER KOMPLEXITÄT DES THEMAS NICHT GERECHT.




    Nicht ganz überraschend werden Einwände gegen die Konzeption einer Verbesserung des Nährwertes von Pflanzen von fast allen Vertretern der Antiposition zur Gentechnik vorgebracht. Es wird auch nicht bestritten, dass im speziellen Fall die Abwehr einem möglichen Propagandaerfolg für Gentechnik-Anwendungen gilt. Mit dem "Goldenen Reis" soll nämlich der durch einseitige Ernährung mit geschältem Reis verursachte Mangel an Vitamin A kompensiert werden und damit das Erblinden von Kindern sowie gravierende weitere Mangelerscheinungen bekämpft werden.



    Neben der gewohnten Kritik an der unzureichenden Qualifizierung von Zulassungsanforderungen und der Charakterisierung von Kindern als Versuchskaninchen, wenn sie an Ernährungsstudien teilnehmen (4), wird hier noch die aufzulösende Komplexität der Entscheidung über die empfehlenswerte (optimale) Strategie zur Mangelbekämpfung angesprochen.



    Da sieht man schon eine Folge von Konsenskonferenzen vor sich, in denen sich Experten austauschen über die Bewältigung von Verteilungsproblemen bei dem Einsatz von ergänzenden Vitamin-A-Gaben oder Palmöl als alternativer Vitaminquelle bis hin zum Wettbewerb von sozialen Strategien zur Versorgung von Kleinfamilien mit Produkten ihrer Vorgärten. Dass die Fortsetzung der Konferenzfolgen leicht eine Priorität über die eigentliche Problemlösung gewänne, wäre hier gewiss keine ganz überraschende Konsequenz.



    4. LANGFRISTIG ZEIGTEN SICH DURCHAUS SCHÄDLICHE AUSWIRKUNGEN AUF MARIENKÄFER UND FLORFLIEGEN




    Das Bestreben von Wissenschaftlern, in toxikologischen Experimenten Effekte der von ihnen untersuchten Einflussfaktoren nachzuweisen, erhält eine schwierig beherrschbare psychische Störgröße durch das Streben nach wissenschaftlicher Anerkennung und Publikation ihrer Arbeit. Wenn die Resonanz der politischen Ebene mit der populistischen Stützung mehrheitlicher Wahrnehmungen dazu kommt, wird rasch eine von vielen Toxikologen erträumte Qualität der öffentlichen Reaktion auf Ergebnisse ihrer Forschungen erreicht.



    Einer solchen Belohnung durch nüchterne Erarbeitung von Daten und Interpretationen zu widerstehen, bedarf der Unabhängigkeit des Urteils in mindestens dem gleichen Maße, wie es von den für Konzerne tätigen Wissenschaftlern zu Recht eingefordert wird.



    Toxikologische Labor- und Modellsystem-Untersuchungen sind angemessen als die Suche nach Fakten zu Gunsten einer Anwendung des Vorsorgeprinzips zu kategorisieren. In welcher Weise sich die Ergebnisse in realen Expositionssituationen und deren zeitlichem Verlauf tatsächlich niederschlagen, das kann als Anforderung an die erwünschte Hypothesenqualität zunächst offen bleiben, ist aber für die endgültige Qualifizierung von besonderer Bedeutung (5-7).



    Für die Anwendung des Vorsorgeprinzips beim Einsatz der "grünen" Gentechnik ist eine Prüfung der Plausibilität fantasievoller Entwürfe von Risikoszenarien gewiss eine angemessene Forderung. Deren Anspruch entfaltet sich mit der Feststellung, dass die Realisierungschancen solcher Szenarien mit biologischen Mechanismen gewöhnlich nicht einfach als äußerst unwahrscheinlich und irrelevant verworfen werden können (siehe Ergänzungen).



    Die gebräuchliche human-/ökotoxikologische Bewertung des chemischen Pflanzenschutzes wird hier wie gewöhnlich in Arbeiten oder Beiträgen von Vertretern der Antiposition als Maßstab und Referenz nicht erwähnt. Dabei qualifiziert dieser Maßstab die ganz überwiegende Umgangsweise unserer Landwirtschaft mit Mensch und Natur. Für eine sich als Agrar-Ökologin bezeichnende Wissenschaftlerin ist die Ignorierung dieser Referenz schon bemerkenswert.



    5. EINE SACHLICHE ANALYSE DER GENTECHNOLOGIE UND IHRER (landwirtschaftlichen) PRODUKTE IST KAUM MEHR MÖGLICH - DIE BEIDEN SEITEN DER AUSEINANDERSETZUNG SIND BEREITS IM GRUNDSÄTZLICHSTEN UNEINS.




    Ob gentechnische Verfahren als revolutionäre Entwicklung oder als normaler Entwicklungsschritt der konventionellen Züchtung angesehen werden, das muss nüchtern-abwägende Bewertungen unter wissenschaftlichen Kriterien keineswegs beeinflussen. Für die ethische und interessengebundene Entscheidung spielt eine solche Differenzierung auch keine Rolle.



    Viele Gesichtspunkte der Bewertung und Entscheidung sind ohne erkennbaren Bezug zu einem Riskopotenzial der Technologie im konventionellen Sinn (unerwünschte Effekte auf menschliche Gesundheit oder die Umwelt in ihrem Wirkungsgefüge). Das wird an den folgenden Grundsätzen der Antiposition exemplarisch deutlich:



    Gentechnikgegner


    • stehen in Opposition zu globalen Zielen internationaler Konzerne und den mit ihnen verknüpften Profitinteressen;

    • wollen mit der Gegnerschaft zur "Patentierung von Leben" ein generell unbegrenztes allgemeines Nutzungsrecht für neuartige/kreative Lösungen bei der Modifizierung von Lebensformen durchsetzen;

    • favorisieren natürliche Mechanismen gegenüber technischen Lösungen. Dabei wird gewöhnlich übersehen, dass die Gentechnik zumeist natürlich evolvierte Funktionen nur nachahmend nutzt. - Eine ausschließliche Verwendung von Genen aus einem jeweiligen Verwandtschaftskreis (Arten / Gattungen: "Cis-Genetik") engt das mögliche Spektrum von Zielen bei der Veränderung drastisch ein, ohne dass ein signifikanter Vorteil für die Risikobewertung erkennbar wäre;

    • lehnen industrialisierte Formen der Landwirtschaft ab und unterstützen aus der Wahrnehmung überlegener Naturnähe heraus die Verfahren des Biolandbaus.




    Eine faktische Verknüpfung zwischen Anwendungsformen der "grünen" Gentechnik und der Aktivität internationaler Konzerne bei der Entwicklung der Landwirtschaft muss registriert werden. Dass hier kein natürlicher Zusammenhang existiert, offenbart sich in den speziellen, von Menschen gemachten Rahmenbedingungen, wie etwa dem Umfang, der Art und der Zielsetzung von Regelungen. Deren Existenz wie auch ihre Veränderungen haben einen drastischen Einfluss auf jeweilige Wettbewerbspositionen.



    Ethische Gesichtspunkte übertünchen gelegentlich das Profitstreben für eine Klientel nur unvollkommen. Es bleibt beispielsweise sachlich wenig plausibel, weshalb durch Strahlungsmutation generierte Pflanzensorten im biologischen Landbau eher akzeptabel sein sollen als gentechnisch erzeugte Varianten. Die Fragestellung kann zugespitzt werden, wenn man übergeordnete Ziele wie die Minimierung von Einflüssen auf die unmittelbare oder weitere Umwelt, Ressourcenschonung und die Bewahrung biologischer Vielfalt in den Fokus nimmt. Diese Ziele erscheinen auch eher zur Konsensbildung geeignet als zur Stützung eines Lagers im Pro-und-Kontra-Streit um die Gentechnik. Jenseits aller vorgebrachten ethischen Motive des Naturschutzes ist die Besetzung der Kontraposition meist eher als Anpassungsleistung an die Publikumswahrnehmung und willkommenes zusätzliches Abgrenzungskriterium anzusehen.



    Ein möglicher ökonomischer Profit dieser Haltung ist vielleicht nur von begrenzter Dauer, weil sich gegenüber den spekulierten Visionen der Risikoproduktion die nüchterne Kenntnis der internationalen Faktenlage schon mittelfristig durchsetzen könnte. Hier kann man auch an die ehedem sehr strittigen Positionen bei der Auseinandersetzung über gentechnische Produktionen im "geschlossenen System" von Anlagen denken. Produkte der "roten" (Medizin) und "weißen" (Enzyme, Chemikalien, ...) Gentechnik werden nicht gekennzeichnet und sind heute hinsichtlich der Verknüpfung mit Risiken ganz aus der öffentlichen Aufmerksamkeit verschwunden.



    Zu Gunsten der "grünen" Gentechnik könnten Argumente der größeren Unabhängigkeit von chemischen Mitteln und Verfahren sowie die grundsätzlichen Herangehensweisen nach allgemein gültigen (molekular-)biologischen Gesetzmäßigkeiten als Stützung der Wettbewerbsposition verstärkt einsetzbar werden.



    6. DIE STUDIE (Seralini et al., 2012) IST SO SOLIDE WIE JEDE ANDERE STUDIE, WELCHE DIE ENTWICKLER BISHER VORGELEGT HABEN UND AUF DIE EINE ZULASSUNG GEGEBEN WURDE.




    Seralini und Mitarbeiter meinen, mit ihrer experimentellen Arbeit (8), bei Ratten Langzeitwirkungen von glyphosatresistenten Maislinien in variierender Kombination mit dem Herbizid nachweisen zu können. Mit der vorbehaltlosen Stützung der Struktur und Interpretation dieser Arbeit verlässt die Interviewte nachdrücklich den Rahmen nüchterner wissenschaftlicher Urteilsbildung.



    Bei einer sachlichen Analyse experimenteller Arbeiten und ihrer Auswertung kann eine eventuelle Voreingenommenheit der jeweiligen Autoren gegenüber der sachlichen Interpretation ihrer Daten zur vernachlässigbaren Störgröße werden. Es bedarf aber gewöhnlich eines gewissen Sachverstands, um das Urteil über die Plausibilität/das Zutreffen/die Wahrheit kritischer Einwände unabhängig von der professionellen Anbindung der Quelle zu machen. – Demgegenüber verbleibt die Stellungnahme Hilbecks auf der Metaebene der Unterstellung jeweiliger Abhängigkeiten der Urteile, ohne auf sachliche Kritikpunkte sich einzulassen. Die vorgebrachten Argumente lassen sich etwa folgendermaßen zusammenfassen:


    Durch vielfache Verknüpfung ihrer Mitarbeiter mit Industrieinteressen seien die Genehmigungsinstitutionen der EU, wie der europäischen Lebensmittelbehörde (EFSA), nicht zu einem unabhängigen Urteil in der Lage. Der wissenschaftlichen Gemeinschaft insgesamt wird ebenfalls einseitige Parteinahme unterstellt, weil Ergebnisse, die interessierten Industrieunternehmen nicht genehm seien, grundsätzlich in die Kritik kämen. Und zu solchen Ergebnissen zählten die Arbeiten von Seralini et al. in jedem Fall. Dabei erfüllten diese Experimente jedenfalls die bei Untersuchungen für die Marktzulassung etablierten Standards.




    Die intensive wissenschaftliche Kritik an der Arbeit bemängelt nun aber gerade die Verletzung von Standards, die bei einer anspruchsvollen Untersuchung mit heterogener schlecht spezifizierter Fragestellung anzuwenden seien (8, 9). So wird etwa die besondere Nichteignung des eingesetzten Rattenstamms auf Grund begrenzter Lebensdauer und hoher spontaner Krebsrate festgestellt wie auch die mangelhafte Anpassung der Gruppengrößen an international standardisierte statistische Anforderungen. Die eigenartige Umgangsweise mit den Daten der Studie vor der Publikation zeige eine sehr ungewöhnliche Konzentration auf die Medienwirksamkeit. Die publizierten Bilder hätten außerdem eine emotionale Qualität im Konflikt mit ihrer wissenschaftlichen Relevanz, weil sie eine Demonstration von Expositionseffekten suggerierten. Im Ablauf der Experimente werde im Übrigen eine totale Missachtung des Tierschutzes demonstriert. – Die teils heftige Kritik am Reviewprozess, die mit dem Verweis auf mangelhafte wissenschaftliche Qualität häufiger vorgebracht wird, scheint die Tatsache zu ignorieren, dass auch Veröffentlichungen in wissenschaftlichen Zeitschriften von ökonomischen / politischen Gesichtspunkten beeinflusst werden können.



    7. UNABHÄNGIGE FORSCHUNG IST IN DIESEM METIER (der Testung von Risiken im Kontext von Freilandanwendungen) KAUM NOCH MÖGLICH.




    Es ist aufschlussreich, die Interessen und Motive von Geldgebern und wissenschaftlichen Bearbeitern gentechnischer Sicherheitsforschung gegenüberzustellen.



    Staatliche, industrielle und institutionelle Geldgeber für Forschungsprojekte verfolgen jeweils eigene - wandelbare - Interessen:


    • Mögliche Risiken nach dem Stand der Wissenschaft zu identifizieren und zu analysieren, sowie nach gebräuchlichen Maßstäben zu bewerten;

    • Risikofragen zu klären, die in der Bevölkerung eine besondere Rolle spielen;

    • Den offenen Einsatz der Gentechnik als sicher und verantwortbar zu kommunizieren;

    • Konkrete Einsatzformen der Technologie zu fördern;

    • Neue Bewertungskriterien aus neuen Erfahrungen zu destillieren;

    • Anhand der Beobachtung von Trägern modifizierter Gene die mangelhafte Beherrschung von Risiken des Umgangs mit Organismen zu demonstrieren;

    • An transformierten Pflanzen die unvollkommene Einlösung anspruchsvoller theoretischer Erwartungen aufzuzeigen – zum Beispiel anhand der mangelhaften Wirkungsbegrenzung der Toxizität auf Zielorganismen.




    Ein Bündel von Motiven veranlasst Wissenschaftler dazu, Forschungsprojekte vorzuschlagen:


    • Kongruenz mit den formulierten Zielen der relevanten Forschungsprogramme – oder Neuformulierung von Projekten auf der Basis eigener wissenschaftlicher Kompetenz;

    • Angepasste Neudefinition bisheriger Schwerpunkte eigener Forschung;

    • Mehr als die Unterstützung gesellschaftlicher Ziele: Verfolgung heterogener Eigeninteressen, Befriedigung persönlicher Neugier;

    • Suche nach Anerkennung / Resonanz in der wissenschaftlichen "community";

    • Suche nach Anerkennung / Resonanz von Forschungszielen und -ergebnissen mit generellen Wahrnehmungen einer speziellen Zielgruppe.




    Die hier ganz lückenhaft angedeuteten Ziele und Motive der an der Verteilung von Forschungsgeldern Beteiligten können auf den Grad der Übereinstimmung geprüft werden. Eine Entscheidung wird sich in erster Linie daran orientieren.



    Gegenüber den persönlichen Interessen – insbesondere der Neugier als wichtigster Eigenschaft der wissenschaftlichen Förderungsnehmer – hat es die "Sicherheitsforschung" als Zielsetzung schwer, nicht als unangemessene Beschränkung der Unabhängigkeit wahrgenommen zu werden. Für Ökologie und Umweltwissenschaften sollte eine Ablehnung des aktuellen Managementstandes als Grundlage ihrer Forschungskonzepte unterstellt werden.



    Potenziell bedeutende Geldgeber suchen heute vielleicht eher nach objektivierenden Daten der Bewertung zumindest in Relation zu bisherigen Konventionen. Der Schutz ökonomischer Interessen der Industrie wird gegenüber der möglichen Absicht, die Schieflagen gegenwärtiger Regulierung offenzulegen, nur ein marginaler Gesichtspunkt sein. Einer Fortsetzung der "Suche nach Haaren in der Suppe" verbleibt vielleicht ein schmaleres Betätigungsfeld.



    8. DIE TECHNIK IST MIR EGAL. MIR GEHT ES UM PROBLEMLÖSUNGEN AUF DER NATURWISSENSCHAFTLICHEN UND AGRARÖKOLOGISCHEN EBENE, ZU DENEN ICH MEINE EINWÄNDE FORMULIERE.




    Die mangelhafte Spezifität der Wirkung von Bacillus-thuringiensis-Toxinen hat sich bisher nicht als signifikantes Problem ihrer Anwendung in transformierten Pflanzen erwiesen (10-12). Der Vergleich mit der Bekämpfung von Schadorganismen in konventioneller Landwirtschaft rückt in der jüngsten zitierten Arbeit die relativen Bewertungsskalen deutlich zu Gunsten von Bt-Pflanzen zurecht. Solche Pflanzen wurden in der Erwartung entwickelt, dass die Risiken geringer sein würden, als verfügbare oder alternative Technologien – bei gleichzeitig überlegenen Vorteilen. Nach der Datenlage scheinen diese Erwartungen gerechtfertigt gewesen zu sein, was wohl auch heute noch zutreffend ist (10).



    Dass Frau Hilbeck die Technik egal sei, ist nach dem Inhalt des Interviews nicht nachvollziehbar. Hier wird die einseitige Parteinahme gegen gentechnische Lösungsansätze ohne sachlich-nüchterne Abwägungen in der Konfrontation vielfach demonstriert. Und wie hoch würde ein realistischer Beobachter wohl die Chance einschätzen, dass sich Frau Hilbeck einmal vehement für eine gentechnisch realisierte landwirtschaftliche Problemlösung einsetzte?



    Die bedingungslose Parteinahme scheint bisher nicht zum Nachteil für Frau Hilbecks öffentliche Resonanz geworden zu sein.



    Ergänzungen




    {Regelungen als Kristallisationspunkt von Risikowahrnehmungen und Interessen; Rückkopplungen, Ansätze wissenschaftlicher Risikoanalyse; Randbedingungen der Kommunikation; Motive der Parteinahme; Folgewirkungen}




    REGELUNGEN und RÜCKKOPPLUNGEN




    Die Fragestellung nach der sachlichen Begründung einer speziellen Regelung der offenen Anwendung von gentechnisch veränderten Organismen soll hier den Gedankengang über den Risikoumgang einleiten. Die Frage wirkt heute zwar angesichts fester Fronten und vorläufig etablierter Mehrheitsverhältnisse total abgehoben. Die Konsequenz der Entscheidung sind jedoch zahlreiche Konflikte zwischen sachlich nüchternem Urteil und gesellschaftlichen / rechtlichen Umgangsweisen.



    Wissenschaftlich-theoretisch lässt sich eine spezielle Verknüpfung der Gentechnikanwendung mit Risiken für Mensch oder Umwelt nicht begründen – und die weltweit rasch wachsende Erfahrung spricht bisher auch empirisch gegen die Hypothese einer solchen Verknüpfung. Organismen werden also nicht automatisch zu neuen Risikoquellen, wenn sie gentechnisch (zu "GVO") verändert wurden)2.



    Die gegenteilige Annahme oder ein verbleibender Verdacht statten die betroffenen Organismen in Europa jedoch mit einer Erbsünde aus, der alle Nachkommen ohne Vergebung unterfallen. In Kombination mit der Kennzeichnungspflicht hat das erhebliche Konsequenzen für den Umgang mit GVO. (In den USA werden die veränderten Pflanzen nach Prüfung ihrer Vergleichbarkeit mit konventionellen Sorten aus dem speziellen Regelungsbereich entlassen.)



    Die technisch gewachsene Macht, Organismen für seine Zielsetzungen zu verändern, eröffnet dem Menschen auch die Möglichkeit, dabei ganz neue Einsatzformen für Organismen zu planen (Pflanzen, die Impfstoffe in ihren Früchten enthalten, leuchtende Aquarienfische, ...). Unter einem kritischen Blick auf seine Fähigkeiten, mit solcher Macht weise umzugehen, erwächst aber ein psychologisches Momentum zu Gunsten einer Bändigung dieses Potenzials durch Regelung.



    Neben der inhaltlichen Kritik an den europäischen Regelungen wird hier nicht weiter diskutiert, inwiefern unter den heterogenen Anforderungen in den USA oder international konsistente Regelungsphilosophien entwickelt wurden. Als eine dem Autor bekannte konsequente Alternative soll nur die kanadische Direktive 94-08 erwähnt werden, die "Pflanzen mit Neuen Merkmalen" als Regelungsgegenstand definiert. Die Tatsache, dass hier auch konventionelle Züchtungsprodukte der Regelung unterfallen, hat die breite Akzeptanz in Kanada zunächst behindert (13).



    Nach welchen Interessen und Mechanismen gestaltete sich die gegenwärtige Lage der Gentechnik im Freiland Europas? Ein Ausgangspunkt war sicher die direkte Konfrontation des Publikums in der offenen Umwelt – vielleicht mit Erinnerungen an die Auseinandersetzung um die Anwendung im Produktionsfermenter von Anlagen (Insulinproduktion durch Bakterien). Die an Gefährdungseinschätzungen orientierte Abschottung der Anlage von Personal und Umwelt war ja dabei das wichtigste Element der Risikobeherrschung. – Dazu kam eine generelle Abwehr gegenüber Innovationen im landwirtschaftlichen Bereich, speziell auf der Seite des Umweltschutzes. Die Verbreitung skeptischer Haltung in der Gesamtbevölkerung regte dazu an, der Politik weit gehende Gestaltungsmöglichkeiten, in Zulassungsentscheidungen zu überlassen. Die Struktur des Risikoumgangs, die folgend noch eingehender thematisiert wird, ist eher an die Verhinderung des Marktzugangs denn an seine Unterstützung angepasst.



    Die hier durchaus auch durch mangelhaftes Wissen gestützte Risikowahrnehmung ruft generell Umweltschutzinstitutionen, Naturschutzverbände und Politik auf den Plan, die für einen verbesserten Schutz von Gesundheit und Umwelt Sorge tragen können. Die beim Management gemachten Erfahrungen und Beobachtungen sowie deren Interpretationen führen dann häufig auch zur Verstärkung der Risikowahrnehmung. "RISIKEN" der "grünen" Biotechnologie verdanken ihre Existenz der Struktur und dem Inhalt der REGELUNGEN, die damit ein Großteil der Probleme generieren, für deren Management sie zuständig sind.




    • Profiteure solcher Entwicklung sind hier:

      • Ganz unmittelbar Firmen, die Identifizierungs- und Nachweisverfahren vermarkten;

      • Bürokratische Institutionen, deren Mittel und Stellenplan florieren;

      • Verbände, Vereine und Politik, die an Wählern und Spendenaufkommen gewinnen bei der Befriedigung der Erwartungen jeweiliger Klientel;

      • Der Ökolandbau, der ein zusätzliches wirksames Abgrenzungskriterium erhält;

      • Die Lebensmittelproduktion, deren bisherige / heimische Formen unterstützt werden;

      • Die Wissenschaft, die alternative Ressourcen mit einer hohen Beliebigkeit der Forschungsziele

    • Global agierende große Firmen werden gestützt, weil der Aufwand für

      • Schutzrechte / Patentierung,

      • Erprobung, Testen und Zulassungsverfahren

      • Begleitung des Anbaus durch Überwachung


      geleistet werden kann und Konkurrenz durch kleine Wettbewerber verhindert wird.

    • Gewinnerwartungen für Massenprodukte auf einem globalen Markt steuern die Aktivität.

    • Chancen für lokalen / marginalen Bedarf müssen unter Verzicht auf biotechnische Lösungen erarbeitet werden, womit diese Abhängigkeiten unmittelbar dem Ziel einer Bewahrung biologischer Vielfalt widersprechen.




    Ein nachteiliger Einfluss auf die Weiterentwicklung der Molekularbiologie bei Pflanzen und auf die Nutzung fortschrittlicher Technik in der Umwelt erscheint als evidente negative Folge der Wahrnehmungen.



    Weil ein genereller Mechanismus fehlt, der GVO zu Risikoquellen wandelte, ist die Ermittlung der von ihnen ausgehenden Risiken eine Herausforderung, der man sich mit einer Vielzahl von Einzeluntersuchungen stellen könnte. (Wissenschaftliche Ansätze in der so bezeichneten Sicherheitsforschung sowie die für eine generelle Überwachung von GVO vorgeschlagenen Messdaten sind auch als unsystematische Fahndung nach Risiken interpretierbar.) Die Identifizierung von Risiken in den EU-Richtlinien folgt einem systematischeren Vorgehen durch Vergleich mit dem genetisch nicht modifizierten Organismus als einer bewährt harmlosen Referenz (angelehnt an ein Konzept "Substanzieller Äquivalenz"). Die mit der gentechnischen Modifizierung beabsichtigte (Phänotyp-)Veränderung (intended) wird von nicht erwarteten Variationen (unintended) unterschieden. Und Letztere werden als Gefährdungsmomente (hazards) zum Ausgangspunkt weiterer Untersuchungen, die einerseits die Natur des Risikos untersuchen und andererseits auch die molekulare Ursache dieser Variationen aufklären sollen.



    Gesetzmäßigkeiten biologischer Variation nach Ursache und Mechanismus zu erforschen, kann zu fruchtbaren Forschungsperspektiven führen. Der vorstehend kurz vorgestellte Weg zur Identifizierung und Analyse eines unbekannten Risikos ist jedoch in mehrfacher Hinsicht unproduktiv:


    • Eine nicht der Konstruktionsidee folgende phänotypische Variation kann eine große Vielfalt von (primären, molekularen) und Umweltursachen haben. Die wirken irgendwo im Netzwerk biochemischer Prozesse und Regulationen. Unser Nichtwissen ist da überhaupt kein Indikator für ein von den Nutzpflanzen ausgehendes Gefährdungsmoment.

    • Die ausgewählte Referenz für unbedenkliche Qualität ist deutlich eindimensional und ungeeignet für die Bewertung irgendeiner Variation, weil sie die unbedenkliche Variationsbreite konventioneller Sorten als analoger Vergleichsbasis zunächst nicht umfasst.




    Als alternative Annäherung an Risikopotenziale bei der Risikoidentifizierung lässt sich der Entwurf von Risikoszenarien ansehen. Mit wenig Expertise und etwas Fantasie kann er sich an den Zielen jeweiliger gentechnischer Eingriffe orientieren. Bei Pflanzen sind das meist traditionelle züchterische Ziele, wie die Erhöhung der Widerstandsfähigkeit gegen Schadorganismen, die Steigerung des Ertrags, die Veränderung des Nahrungswertes nach "Design" und die Ausstattung mit Toleranzen für abiotische Stressoren wie Salz, Hitze, Trockenheit. – Aber auch neue Konzepte wie die pflanzliche Synthese von Chemikalien oder von Impfstoffen und anderen pharmazeutisch aktiven Produkten sind im Versuchsstadium.



    Um dann zu quantitativen Aussagen über Risiken zu kommen, müssen die Risikoszenarien in toxikologischen Labor- und Modellsystem-Untersuchungen konkretisiert werden. Für die endgültige Quantifizierung ist es dann von besonderer Bedeutung, in welcher Weise sich die Ergebnisse in realen Expositionssituationen und deren zeitlichem Verlauf tatsächlich niederschlagen (5-7).



    Das Problem der Quantifizierung von Risiken entfaltet sich insbesondere dann, wenn die transformierte Pflanze oder der modifizierte Mikroorganismus in dem Risikoszenario als Teilnehmer natürlicher Evolutionsprozesse analysiert wird. Hier kann an die Auseinandersetzung über die Qualitäten des in der Pflanzengentechnik oft verwendeten CMV-Promoters3 erinnert werden. Es wurde postuliert, seine Verknüpfung durch Rekombination mit humanen – im Zusammenhang mit Krebsentstehung stehenden – Genen könne neue Tumorpromotoren entstehen lassen (14). Plausibilität und Wahrscheinlichkeit der dabei eventuell involvierten Mechanismen wurden keiner eingehenden experimentellen Prüfung unterworfen.



    Aus mäßig nachvollziehbaren Gründen hat dem gegenüber der horizontale Gentransfer (HGT) von transgenen Pflanzen zu Mikroben in der Risikodebatte eine herausgehobene Bedeutung erlangt. In deren Zentrum stand die Hypothese einer zusätzlichen Ausbreitung von Antibiotikaresistenz-Genen oder von deren Variation mit unerwünschten Folgen für Umwelt und Gesundheit in menschlicher Sichtweise (Kompromittieren von Therapien).



    Im Bemühen, die Wahrscheinlichkeit und Tragweite dieses Szenarios experimentell zu ermitteln, stellte sich heraus, dass der postulierte Transfer Pflanze – Mikroorganismus nicht unter natürlichen Bedingungen beobachtet werden kann. Eine Abschätzung seiner Häufigkeit setzte zusätzliche Annahmen voraus, die aus experimentellen Varianten zu Gunsten des untersuchten Endpunkts ableitbar waren. Der angenommene Endpunkt war auch bei Anbau oder Feldversuchen mit gentechnisch veränderten Pflanzen nicht experimentell zu isolieren, und es wird zunehmend klar, dass der Aufwand zugunsten dieses Monitoringziels auch bei modifizierten Randbedingungen prohibitiv hoch wäre (16).



    Um zu belastbaren Aussagen über Risiken zu kommen, kann man in der Analyse des Prozesses die Auswirkung auf die Umwelt als Effektkomponente der Risikoanalyse in den Mittelpunkt rücken. Da gibt es dann die Tendenz, die betrachteten Gene als seltsame Risikoattraktoren anzusehen, etwa wenn sie sich durch Rekombination oder Mutation zur Variante mit problematischem Phänotyp wandeln. Heinemann und Traavik (15) kommen mit der Annahme spezieller Mechanismen im Verlauf des Gentransfers dann zu der Folgerung, diese könnten noch eine Auswirkung auf die Umwelt haben bei einer Häufigkeit, die etwa trillionenfach niedriger wäre als ihre Annahme in der gegenwärtigen Literatur zur Risikoeinschätzung des Szenarios.



    Wie hier wird bei der Diskussion über mögliche Konsequenzen des Gentransfers gewöhnlich die Frage seines Beitrags zu neuen Evolutionsverläufen total unterbelichtet. Der natürliche Hintergrund als bedeutende Referenzgröße bleibt außerhalb des Blickfelds:


    • Dabei wird gewöhnlich ignoriert, dass das im Focus stehende Gen ursprünglich aus Mikroorganismen isoliert wurde. Nach Rücktransfer aus dem Pflanzengenom hängt seine selektive Bedeutung sowohl vom neuen Bakterienwirt ab, wie auch von den Evolutionsbedingungen des Habitats4.

    • Die in Experimenten erfahrene effiziente biologische Abschottung von Pflanzengenomen (als "biological containment") begrenzt die Teilnahme von Pflanzengenen an der Evolution von Mikroben sehr signifikant.

    • Die natürliche Dynamik von Mikroben-Genomen in deren sich wandelnden Lebensräumen wäre in jede Spekulation über mögliche Umweltwirkungen als Hintergrund einzubeziehen.




    In der Risikodebatte Geschulte mögen an dieser Stelle an den bei Strahlenbelastung als Vergleichsgröße herangezogenen Wert der natürlichen Hintergrundstrahlung denken. Ohne auf die Tragkraft dieser Analogie einzugehen, soll hier betont werden, dass die Vorhersage von Evolutionsvorgängen mit der möglichen Verstärkung (sehr) seltener Ereignisse letztlich eine nicht einlösbare Zielsetzung ist. Als Ergebnis einer akkumulierten Risikoanalyse sollen dann Managementmaßnahmen das Gesamtrisiko auf ein tolerierbares Niveau bringen. In der alltagspraktischen Umsetzung des Vorsorgegedankens wäre also eine Differenzierung zwischen spekulativen und relevanten Risikoszenarien wie angedeutet sinnvoll.



    Die europäische Regelungsphilosophie eröffnet auch ohne Risikoidentifizierung und -analyse ganz andere Herangehensweisen, weil hier der GVO selbst zum "Schadstoff" und zur Kontaminante gerät. Da wird die Exposition dann durch Verknüpfung mit ökonomischen Effekten der rechtlichen Lage zum eigenständig relevanten Risikoparameter. Die Schadensschwelle wird zwischen Lobbyisten und Politik ausgehandelt und durch Setzung von Grenzwerten bestimmt. Als beste Managementpraxis für potenzielle Risiken (der "genetischen Umweltverschmutzung") wird das allgemeine Ziel formuliert, die Umweltbelastung mit Transgenen oder ihren Produkten zu reduzieren (17). An dieser Stelle entpuppt sich dann die Realität der Zulassungspolitik in der EU als ziemlich effektives Risikomanagement.



    Neben der unveränderlichen Definition des GVO kooperiert die "Richtlinie 1829/2003 über genetisch veränderte Lebens- und Futtermittel" bei der Verwirrung und Fehlinformation des Verbrauchers (18). Einerseits durch Verknüpfung des Einsatzes der Gentechnik mit einem Rahmen für die Risikobewertung bei Lebensmitteln, der höchsten Anforderungen gerecht werden soll. Andererseits mit den Vorschriften für eine Kennzeichnung, die definitiv nicht über den breiten Gebrauch einer unschuldigen Querschnittstechnik aufklären. Sowohl Verbraucher wie auch Experten werden über die Abhängigkeiten der Kennzeichnungspflicht vom Herstellungs- oder Gewinnungsverfahren in die Irre geführt.



    Dieser inkonsistente Kompromiss spiegelt gewiss die Interessenabstimmung zwischen Verbandsvertretern, Lobbyisten, Politikern und Wissenschaftlern, welche sich auch der Philosophie des Regelungsbereiches bewusst waren. Die Vorstellung eines speziellen Gefährdungspotenzials der Gentechnik wird in allgemeiner Wahrnehmung durch Kennzeichnung und Regelungsdichte aber zusätzlich gestützt.



    Fazit




    Ein gemeinsames erkenntnisgeleitetes Interesse an einer sachlichen Auseinandersetzung liegt auf Grund unterschiedlicher – fixierter – Positionierung nicht vor. Das Ziel einer nüchternen Bewertung von Vor- und Nachteilen einzelner Fälle des Gentechnikeinsatzes in der Umwelt bedarf einer radikalen Wandlung der Kommunikationskultur, die über einen lösungsorientierten Diskurs sich einem produktiven Konsens anzunähern hätte. Unter Missachtung primärer Interessenlagen sollten gemeinsame Ziele (von Umwelt- und Naturschutz) herausgearbeitet werden. Dann könnten Kompromisse sachlich begründet und eine "win-win"-Situation für viele der beteiligten Gruppen hergestellt werden.



    Eine ethische Forderung wäre hier die tatsächliche Bereitschaft, Grundlagen seiner Einstellungen, Interpretationen und Handlungen im Diskurs in Frage zu stellen.



    Risiko-Analyse, Risiko-Wahrnehmung




    Die eingesetzte konventionelle Struktur der Risikomatrix kann zwar angelehnt werden an Vorbilder aus dem Umgang mit Chemikalien (19, 20):



    Wahrscheinlichkeit / Grad der Exposition gegen Ausmaß an Folgen (bei Exposition)


    Wie auch im vorstehenden Sachtext ausgeführt, ist sie für die Ermittlung des Risikos beim Umgang mit lebenden Einheiten von sehr begrenztem Wert. Im Richtlinientext selbst wird auf die Wichtigkeit verwiesen, "dass keine etwaigen schädlichen Auswirkungen deshalb außer Acht gelassen werden, weil deren Auftreten als unwahrscheinlich angesehen wird."



    Die Leitlinien stellen die Aussagekraft der Risikomatrix dann noch ernsthafter in Frage:


    Im Einzelfall kann der hohe Grad einer Wertung der Folgewirkungen – auch in Kombination mit vernachlässigbarer Wahrscheinlichkeit – die ganze Spannweite des Risikos umfassen von hoch bis vernachlässigbar. Das Ergebnis wird also von den Umständen des Einzelfalls abhängen ...




    Diese Unsicherheit der Risikoanalyse verlangt nach Alternativen mit angemessener Relation zum Grad einer Gefährdung. Und da bietet sich die Risikoklassifizierung an, wie sie bei Viren, Bakterien und Pilzen eingeführt und bewährt ist. Hier ist das Ausmaß der Folgen (Schwere der Krankheit) der dominierende Klassifizierungsparameter. Faktoren der Ausbreitungsdynamik (Expositionswege, Infektiösität) können aber als zusätzliche Kriterien der Einstufung genutzt werden. Ein Risikomanagement besteht in Verfahren der Ausbreitungskontrolle.


    Vorschlag:



    Einführung von Sicherheits- / Gefährdungs-Klassen für den
    Freilandeinsatz von "Organismen mit neuen Merkmalen"























    Sicherheits-/Gefährdungs-
    Klasse
     
    1"Neue Merkmale" sind hier bisher nicht realisierte, aber grundsätzlich mit konventionellen Methoden realisierbare Eigenschaftsvarianten. // Keine Ausbreitungs-Kontrolle
    2Eigenschaftsvariation durch neue Techniken

    Ausbreitungs-, Expositiomskontrolle nach Bedarf
    3Neue Synthesen von Chemikalien, pharmazeutisch aktiven Substanzen ...

    Ausbreitumgs-, Expositionskontrolle nach Bedarf
    4In Anlehnung an geschlossenen Umgang:

    Minimierung von Ausbreitumg / Exposition
    durch Gewächshaus (Sicherheitsgewächshaus, andere ...)



    Wissenschaft


    Unabhängigkeit



    ist ein Merkmal, das in hohem Maß von kritischen Positionen in Anspruch genommen wird, um den Unterschied zu industrie- oder staatsfinanzierten Wissenschaftlern zu betonen. Eine Abhängigkeit der Forschungsergebnisse und ihrer Beurteilung vom "Dienstherrn" ist aber nicht nur bei Promotoren der "grünen Gentechnik" auszumachen. Immer dann, wenn ein persönlicher Name mehr für eine Haltung denn für besondere wissenschaftliche Qualität steht und die Richtung der Argumentation sowie die einseitige Auswahl von Daten vorhersehbar sind, ist das deutliches Zeichen für wirksame Abhängigkeiten.



    Ehrlichkeit



    ist im Zusammenhang insbesondere gefordert beim Benennen unzureichenden Wissens und mangelhafter Kontrolle bei besonders anspruchsvollen Kriterien.



    Dem Publikum reinen Wein einschenken:


    GVO in der offenen Umwelt sind Subjekte natürlicher Evolution



    Naturschutzgruppierungen



    Die Frage nach Zielen führt zu Endpunkten, die der Beteiligung der Gentechnik übergeordnet sind, und zur Frage, wie die Annäherung an diese Ziele messbar wird.



    Wissenschaft - Politik - Bewertungen




    Sollen Regelungen wie "Reinheitskriterien" der Publikumswahrnehmung folgen? Und wie viele Fliegenbeine, -köpfe, -flügel wären dann tolerierbar?






    Fußnoten




    1. Anteil der Aminosäuresequenz von Proteinen, der für bestimmte Wechselwirkungen (Bindungen) verantwortlich ist.

    2. Das sachliche Urteil kann sich auch orientieren an dem wissenschaftlichen Konsens, dass kritische Wechselwirkungen von Organismen abhängen von ihren (neuen) Merkmalen und der Umwelt, in die sie eingeführt, nicht aber von der Technik, mit der sie erzeugt wurden.

    3. DNA-Sequenz-Signal aus einem Pflanzenvirus (Cauliflower Mosaic Virus). Das Signal regelt die Ablesung (Expression) eines verbundenen Gens.

    4. Lebensraum eines Organismus mit allen Komponenten, die für Überleben und Vermehrung notwendig sind.






    LITERATUR (überwiegend wissenschaftliche Literatur in englischer Sprache)




    1. Ray Ming, Shaobin Hou, Yun Feng, Qingyi Yu et al. (2008): The draft genome of the transgenic tropical fruit tree papaya (Carica papaya Linnaeus). Nature 452, 991-996

    2. RICHTLINIE 2001/18/EG DES EUROPÄISCHEN PARLAMENTS UND DES RATES vom 12. März 2001
      über die absichtliche Freisetzung genetisch veränderter Organismen in die Umwelt. Amtsblatt der Europäischen Gemeinschaften. L 106, 1-38
      (24.06.13)

    3. Allison K- Wilson, Jonathan R. Latham and Ricarda A. Steinbrecher (2006): 11 Transformation-induced mutations in transgenic plants: Analysis and biosafety implications. Biotechnology and Genetic Engineering Reviews 23, 209-234 (24.06.13)
      (Eine Interpretation mit "biosafety implications" - im Geist der Richtlinie 2001/18)

    4. Christoph Then (2012): "Golden Lies": das fragwürdige "Golden-Rice"-Projekt der Saatgut-Industrie. foodwatch-Report

      (Schon der Titel zeichnet mit der Zuordnung zur Saatgut-Industrie ein unfaires und ganz schiefes Bild von dem ursprünglich auf universitärer Kooperation beruhendem Projekt. Die Industrie musste erst involviert werden, als es um die Ablösung von Patenten und Schutzrechten ging.)

    5. John E. Losey, Linda S. Rayor, Maureen E. Carter (1999): Transgenic pollen harms monarch larvae. Nature 399, 214

      (Hier die Risiko-Identifizierung - darunter die Expositions-Messungen mit einer Bewertung)

    6. Diane E. Stanley-Horn, Galen P. Dively, Richard L. Hellmich, Heather R. Mattila, Mark K. Sears, Robyn Rose, Laura C. H. Jesse, John E. Loseyi, John J. Obrycki, Les Lewis (2001): Assessing the impact of Cry1Ab-expressing corn pollen on monarch butterfly larvae in field studies. Proc.Natl.Acad.Sci USA 98, 11931-11936

    7. Mark K. Sears, Richard Hellmich, Diane E. Stanley-Horn, Karen S. Oberhauser, John M. Pleasants, Heather R. Mattila, Blair D. Siegfried, Galen P. Dively (2001): Impact of Bt corn pollen on monarch butterfly populations: A risk assessment. Proc.Natl.Acad.Sci USA 98, 11937-11942

    8. Gills-Eric Séralini, Emilie Clair, Robin Mesnage, Steeve Gress, Nicolas Defarge, Manuela Malatesta, Didier Hennequin, Joël Spiroux de Vendômois (2012): Long term toxicity of a Roundup herbicide and a Roundup-tolerant genetically modified maize. Food and Chemical Toxicology 50 (11), 4221-4231

      (mit links zu zahlreichen Kommentaren unter: Referred to by, Related articles)

    9. Stellungnahme Nr. 037/2012 des BfR vom 28. September 2012: Veröffentlichung von Seralini et al. zu einer Fütterungsstudie an Ratten mit gentechnisch verändertem Mais NK603 sowie einer glyphosathaltigen Formulierung.

    10. Anthony M. Shelton, Jian-Zhou Zhao, Richard T. Roush (2002): Economic, ecological, food safety, and social consequences of the deployment of Bt transgenic plants. Annual Review Entomology 47, 845-881

    11. Anna Dutton, Joerg Romeis, Franz Bigler (2003): Assessing the risks of insect resistant transgenic plants on entomophagus arthropods: Bt-maize expressing Cry1Ab as a case study. BioControl 48, 611-636

    12. Michelle Marvier, Chanel McCreedy, James Regetz, Peter Kareiva (2007): A Meta-Analysis of Effects of Bt Cotton and Maize on Nontarget Invertebrates. SCIENCE 316 no. 5830, 1475-1477

    13. Directive 94-08 (Dir 94-08) Assessment Criteria for Determining Environmental Safety of Plants With Novel Traits

      This document updates Directive 94-08 (Dir94-08),?"Assessment Criteria for Determining Environmental Safety of Plants with Novel Traits."?The original Dir94-08 was first published December 16, 1994, revised September 15, 2000; October 29, 2004; and July 4, 2012.

    14. Mae-Wan Ho, Angela Ryan and Joe Cummins (1999): Cauliflower Mosaic Viral Promoter - A Recipe for Disaster? Microbial Ecology in Health and Disease 11 (4), 194-197

    15. Jack A Heinemann & Terje Traavik (2004): Problems in monitoring horizontal gene transfer in field trials of transgenic plants . Nature Biotechnology 22, 1105 - 1109

    16. Kaare M Nielsen & Jeffrey P Townsend (2004): Monitoring and modeling horizontal gene transfer. Nature Biotechnology 22, 1110 - 1114

    17. Guidance document of the Scientific Panel on Genetically Modified Organisms for the risk assessment of genetically modified plants and derived food and feed, the EFSA Journal (2006) 99, 1-100

    18. VERORDNUNG (EG) Nr. 1829/2003 DES EUROPÄISCHEN PARLAMENTS UND DES RATES über genetisch veränderte Lebensmittel und Futtermittel. Amtsblatt der Europäischen Union DE L 268/1. 1-23

    19. Office of the Gene Technology Regulator, Australia (2005): Risk Analysis Framework

    20. Ryan A. HILL (2005): Conceptualizing risk assessment methodology for genetically modified organisms. Environ. Biosafety Res. 4, 67-70

    21. ENTSCHEIDUNG DER KOMMISSION vom 24. Juli 2002 über Leitlinien zur Ergänzung des Anhangs II der Richtlinie 2001/18/EG. Official Journal of the European Communities L 200, 22-33

  • Fatale Situation?

    17.09.2013, Mathias Völlinger
    "... dass viele Astronomen nicht mehr an einen Messfehler glauben mögen. Die Wahrscheinlichkeit für einen statistischen Ausreißer liegt bei unter einem Prozent."

    "Tatsächlich ist die Wahrscheinlichkeit, dass die Milchstraße sich in einer Region ausreichend geringer Dichte befindet, erheblich geringer als ein Prozent."

    Könnten diese Feststellungen dann nicht doch irgendwie korreliert sein? Manchmal gewinnt man ja auch im Lotto.
Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.