Lesermeinung - Spektrum der Wissenschaft

Ihre Beiträge sind uns willkommen! Schreiben Sie uns Ihre Fragen und Anregungen, Ihre Kritik oder Zustimmung. Wir veröffentlichen hier laufend Ihre aktuellen Zuschriften.
  • Verantwortung von Wissenschaft

    26.07.2016, Rainer Biermann
    Das Lesen dieses Beitrages hinterlässt einen extrem faden Nachgeschmack. Einerseits ist es wohl verständlich, dass Herr Dreßing als Wissenschaftler von einem Bündel von "unspezifischen und ubiquitär vorkommenden" Risikofaktoren spricht und gegen eine Stigmatisierung von psychisch Erkrankten arbeitet. Andererseits kann es ihm schon rein theoretisch gar nicht gelingen, Hasstaten, die das eigene Leben und das Leben vieler anderer beenden, von psychischer Erkrankung zu trennen. Wenn Herr Dreßing meinte, eine solche Tat sei kein akuter psychischer Krankheitszustand, dann hätte er wohl seinen menschlichen Verstand mit seiner wissenschaftlichen Karriere an den Nagel gehängt. Solche zwar eher seltenen, aber doch extrem exzessiven Ausbrüche individueller, auf Selbst- und Fremdhass basierender Gewalt erzeugen völlig verständlicherweise ein großes öffentliches Echo und einen hohen Informationsbedarf. Es ist ehrenwert, Menschen mit psychischen Erkrankungen vor falschen Verdächtigungen zu schützen, jedoch hat Herr Dreßing aus meiner Sicht auch die Verantwortung, der Öffentlichkeit die Ursachen einer solch exzessiven Gewalt aufzuzeigen. Gibt es biologische, familiär-sozialisatorische oder gar gesellschaftlich-ideologische Ursachen für dieses "Bündel an Risikofaktoren"? Man weiß zum Beispiel, dass Menschen, die mit Gewalt zu absolutem Gehorsam erzogen wurden oder die frühe und/oder sehr massive Ausgrenzungserlebnisse erfahren haben, eine psychische Verarbeitung zeigen, die einige der von ihm genannten Risikofaktoren erzeugt. Wenn Herr Dreßing meint, dass hier die Datenlage zu unklar sei, dann soll er doch bitte zu Forschung in diese Richtung auffordern. Ich sehe eine große Verantwortung bei den Wissenschaftlern, die Ursachen solch exzessiver Gewalt zu erforschen um letztlich der Gesellschaft Hinweise zu geben, wie sie sich präventiv davor schützen kann.
  • "gewaltverherrlichend"

    26.07.2016, MarcGyver
    Spiele wie "Counter-Strike" und seine Nachfolger zählen übrigens als "gewaltdarstellend". Wären sie gewaltverherrlichend, wären sie nach §15 JuSchG in Deutschland verboten und der Erwerb (soweit ich weiß auch der Besitz) wären strafbar.
    Die nächstschwächere Stufe wäre eine Indizierung durch die BPjM, was bedeutet, dass man sie als Volljähriger legal erwerben und besitzen darf, was allerdings in Deutschland dann nur mit Altersnachweis und "unter der Ladentheke" geht, weil in diesem Fall jegliche Werbung für solche Spiele verboten ist.
    Die aktuellen "Counter-Strike"-Ableger sind allerdings nicht einmal indiziert, können also von jedem Volljährigen legal erworben werden und die Spiele dürfen auch beworben und in einschlägigen Medien erwähnt werden.

    Leider sieht man das sehr oft, dass die Bezeichnungen (vermutlich, um reißerisch zu klingen) falsch verwendet werden. Dadurch bekommen wahrscheinlich auch, ersichtlich an manchen Kommentaren, Menschen mit höchstens wenig Einsicht in solche Spiele eine falsche Vorstellung davon, worum es in solchen Spielen geht und denken teilweise, dass sie wegen der Gewaltdarstellung gespielt werden.
    Aus persönlicher Erfahrung ist es tendenziell eher so, dass die Gewalteffekte in den Optionen so weit wie möglich reduziert werden, weil sie die Übersicht beeinträchtigen können. Man will in solchen Spielen vorrangig anderen Spielern mit seinen Reflexen und Taktiken und seiner Hand-Augen-Koordination überlegen sein (weshalb sie auch ziemlich wettkampforientiert sind) und da können überflüssige Grafikeffekte stören.
  • Schwamm zum Reinigen??

    25.07.2016, Dirk Müller-Paul
    Das mit dem Schwamm glaub ich nicht. Auch heutzutage reinigen sich die Menschen in sehr vielen Ländern einfach mit Wasser - und der linken Hand. Meist noch aus einem Eimer - hier ist fliessendes Wasser in einer Rinne schon wesentlich besser! Moderner sind Schläuche - oder gleich die Düse in die Schüssel eingebaut, wie heutzutage z.B. in der Türkei zu finden. Sehr angenehm!
    Ein Schwamm wäre extem unhygienisch. Die linke Hand wurde einfach zum Tabu erklärt. Die Resultate draus kennen wir auch heute noch selbst in unserer Gesellschaft.
    Im Übrigen braucht das männliche Gemächt auch etwas Platz...die Sitzposition ist schon etwas merkwürig, wenn MANN pinkeln will...eigentlich müsste vorne alles rauslaufen!?
  • Sprache

    25.07.2016, Dirk Müller-Paul
    Ganz entscheidend zur Kooperation ist der Faktor Sprache. Ich denke, allein aus dem Erfolg des Tieres Mensch kann man implizit schliessen, dass er diese in komplexer Form beherrscht haben muss.
    Wobei "Sprache" allgemein Kommunikation meint - und die kann bekanntlich auch nonverbal sehr effizient sein. Man beachte nur die Jagdstrategien von rudeljagenden Raubtieren.
    Deswegen wird "Sprache" m.E. viel zu oft modern-anthropozentrisch gewertet und nur auf komplexe Lautbildung reduziert, weil der moderne Mensch sehr viel Intuition und Körpersprache verlernt hat.
    Ich gebe meinem Vorschreiber zum letzten Satz absolut Recht, nur wurde m.E. eine neue Dimension erreicht mit der Einführung von Massenvernichtungs-Fernwaffen. Es werden damit ja leider nicht nur die Aggresiven gegenseitig ausgelöscht, sondern meist die friedlicheren Kooperativen.
  • Verschiedene Messmethoden, verschiedene Resultate

    25.07.2016, Bruno Egli, Goldach (Schweiz)
    Im Beitrag werden zwei Methoden zur Messung der Lebensdauer von Neutronen beschrieben. Im ersten Fall werden Neutronen in einer „Flaschenfalle“ eingesperrt, und ihre Zerfallsrate durch Auszählen nach einem bestimmten Zeitintervall bestimmt. Bei der zweiten Methode wird ein Neutronenstrahl durch eine „elektromagnetische Falle“ geleitet und die beim Zerfall frei werdenden Protonen gezählt. Dass die Messungen verschiedene Resultate liefern, ist offensichtlich auf die Verschiedenheit der Messmethoden zurückzuführen. Was zeigen die Messresultate wirklich? Im ersten Fall die Zerfallsrate freier, statischer Neutronen in einem begrenzten, feldfreien Raum. Im zweiten Fall die Zerfallsrate von strömenden Neutronen in einem elektrischen Feld, eventuell auch in anderem Volumen. Bei der zweiten Methode sind die Randbedingungen also anders als im ersten Fall. Meines Erachtens stellt sich daher zunächst die Frage: Wie verhalten sich die Neutronen in der „Flaschenfalle“, wenn dort gleichzeitig ein elektrisches Feld angelegt wird? Andererseits wäre auch die Anzahl Protonen als gültiges Mass für die Zerfallsrate zu hinterfragen. Abgesehen von einem etwaigen relativistischen Effekt (der erst bei einer Strahlgeschwindigkeit von 13,7 Prozent der Lichtgeschwindigkeit die Abweichung erklären würde), könnte die Bewegungsenergie aus dem Strahl einigen Protonen (1 Prozent würde genügen!) ermöglichen, die Austrittsbarriere der elektrischen Falle zu überwinden und so das Resultat verfälschen. Jedenfalls legen die Messresultate nahe, dass das Elektrofallen-Ergebnis auf Grund der grossen Streubreite eher fehlerbehaftet ist. Interessant wären daher Messungen mit der elektromagnetischen Falle unter Variation der elektrischen Feldstärke oder der Strahlgeschwindigkeit oder des Messvolumens. Sollten sich dabei Streubreite und Abstand des Resultats zum Flaschenfallenwert etwa proportional ändern, wäre wohl die Ursache für die Diskrepanz der Messresultate gefunden.
  • Comeback des Jahres

    25.07.2016, Bierschnegel- Fan
    Er ist wieder da! Der sympathische Bierschnegel kann nun wieder die Herzen der Deutschen erfreuen. Eine Schnecke die scheinbar nur in Bierkellern überleben kann ist mir sympathisch ;)
  • Sichtung in Lübeck

    24.07.2016, Dampier
    Ich hörte unlängst von einem Bierschnegel in einem Lübecker Keller. Wurde per Wikipedia bestimmt, aber meines Wissens nirgendwo gemeldet. Sollte man sowas melden, und wenn ja, wo?
  • Warum fällt es uns so schwer, die Quantengravitation zu entwickeln?

    23.07.2016, Dr. Erk Hansen
    Sehr geehrte Fr. Hossenfelder,

    zunächst einmal meinen Dank für Ihren anregenden Aufsatz zur Quantengravitation im neuesten "Spektrum der Wissenschaft"! Nach dessen Lektüre kamen mir einige Fragen und Ideen: Warum fällt es uns eigentlich so schwer, eine vereinheitlichte Feldtheorie der Quantengravitation zu finden? Ein Desiderat der Physik ist ja die Entwicklung einer »Großen Vereinheitlichten Theorie« der starken, schwachen, elektromagnetischen und gravitativen Wechselwirkung, auch als »Theory Of Everything« (TOE) bezeichnet; diese sollte die »Allgemeine Relativitätstheorie« (als Theorie der gravitativen Wechselwirkung, ART) und das sog. »Standardmodell« der Quantenphysik (QP) in konsistenter Weise zusammenführen. Dass es diese Theorie geben muss, ergibt sich, neben den in ihrem Aufsatz genannten Gründen, aus der Tatsache, dass die gravitativ miteinander wechselwirkenden Massen im gekrümmten 4-dimensionalen Raum-Zeit-Kontinuum der ART ihrerseits aus den durch die QP beschriebenen Elementarteilchen aufgebaut sind, welche diese Gravitation resp. Raumkrümmung hervorrufen.

    Wie ART und QP eine neue Entwicklungsstufe der Physik bilden und die klassischen Theorien (Mechanik, Thermodynamik, Elektromagnetismus) einerseits überschreiten, andererseits aber auch als Grenzfall in sich enthalten, so wird man erwarten müssen, dass auch die TOE als eine »neue Ebene« der Physik ART und QP übersteigen, diese empirisch sehr gut bestätigten Theorien aber wiederum als »Grenzfall« mit umfassen müsste. Dieses analogisierende Argument lässt sich jetzt auf drei Ebenen der physikalischen Theoriebildung anwenden, die vielleicht aufzuzeigen vermögen, warum es so schwierig ist, zu einem tragfähigen Ansatz für eine TOE zu kommen - und auf welcher Ebene man möglicherweise ansetzen müsste, um einen Zugang zu dieser »neuen Physik« zu finden.

    Erstens: Lassen sich die Theorien der klassischen Physik, etwa die Newtonsche Gravitationstheorie, noch mit beinahe elementarem mathematischen »Handwerkszeug« formulieren und berechnen, so fordert die ART (als Erweiterung der Newtonschen Gravitationstheorie) bereits die erheblich komplexere Mathematik der Tensoranalysis im Riemannschen Raum - wenn also ein ähnlich großer Schritt in der Entwicklung der mathematischen Sprache von der ART zur TOE notwendig sein sollte wie von der klassischen zur relativistischen Physik und QP, dann haben wir möglicherweise diese Mathematik überhaupt erst in Ansätzen entwickelt und verstanden. Dies wäre der erste, allerdings wenig zielführende Weg zu einer TOE: baue die Mathematik aus und schau, inwiefern und inwieweit sie sich auf die Realität unserer Welt abbilden lässt!

    Zweitens: Wie ART und QP die klassische Physik als Grenzfall mit enthalten (v « c einerseits / h vernachlässigbar andererseits), so müsste auch die TOE ihrerseits ART und QP als »Grenzfall« mit umfassen. Das Problem dabei: Welche physikalische/-n Größe/-n einer TOE sollte/n das sein, die einer derartigen Grenzwertbetrachtung unterworfen werden müsste/-n? Hier allerdings gibt es eine zielführende Überlegung: Mit der Energie-Masse-Äquivalenz der ART und dem Welle-Teilchen-Dualismus der QP existieren zwei »Kernentitäten« der jeweiligen Theorie, die einen engen Zusammenhang untereinander aufweisen, wie er sich auch aus einer TOE ergeben müsste, soll sie ART und QP zusammenführen. Dies wäre der zweite Weg zur TOE: konstruiere eine physikalische Größe, die bei einer Grenzwertbetrachtung in Richtung der bereits etablierten Theorien auf die Einstein-Gleichungen der ART und den vereinigten Welle-Teilchen-Charakter etwa der de Brogie-Beziehung führt!

    Was für eine »physikalische Größe« das allerdings sein könnte, und welche Größe hier im Sinne eines »Grenzwertes« zu behandeln wäre, ist freilich unklar, aber ich möchte vorschlagen, in Richtung eines »erweiterten Energiebegriffs« zu suchen, denn mit der sog. »dunklen Materie« und der »dunklen Energie« (der »Grenzwert« ihrer Beschreibung in der TOE müsste dann ja z.B. in die Einsteinsche Äquivalenzgleichung E = mc2 einmünden) liegen bereits erste empirische Hinweise auf die durch eine TOE jedenfalls mit zu beschreibenden Entitäten vor, für die wir zum jetzigen Zeitpunkt ja noch keine konsistente Theorie besitzen.

    Drittens: das »Spielen« mit Dimensionsbetrachtungen. Es wurden die Gleichungen E = mc2 und λ = h/p erwähnt, beide verbinden physikalische Größen, die im Rahmen der klassischen Physik strikt voneinander getrennt behandelt wurden. Sollte also nicht auch die TOE Größen gleichungsmäßig miteinander verknüpfen, die im Rahmen der Physik des beginnenden 21. Jhs. als strikt voneinander unabhängig gedacht werden? Dies wäre der dritte Weg: verknüpfe über reine Dimensionsbetrachtungen bisher voneinander unabhängig gedachte physikalische Größen miteinander und schau, auf welche dieser neu geschaffenen Zusammenhänge es vielleicht schon erste experimentelle Hinweise gibt! - Auch dieser Weg wäre offensichtlich zwar zunächst wenig zielführend, aber vielleicht darf man in diesem Falle auf eine gewisse »richtungsweisende Intuition« der Physiker beim Spielen hoffen?

    Ein viertes - und letztes - Problem schließlich könnte sich nach Auffindung und Ausarbeitung der TOE ergeben: Werden wir sie mit unserem an mittlere Dimensionen angepassten Anschauungs- und Vorstellungsvermögen überhaupt verstehen können? Waren die Objekte, die durch die klassische Physik beschrieben werden, noch weitgehend problemlos in direkter Weise wahrnehmbar bzw. zu veranschaulichen, so lassen sich schon die Objekte, die die moderne Physik beschreibt und die uns weitestgehend nur über den Einsatz technischer Hilfmittel erreichbar sind, größtenteils nur noch metaphorisch vorstellen (»Spin« als Rotationsbewegung, »Farbe« der Quarks, »Weiße Zwerge«, »Schwarze Löcher« etc.). Sollte also ein weiterer starker Abstraktionsschritt hin zur postmodernen Physik einer TOE notwendig sein, bestünde die Gefahr, die solcherart beschriebene »Welt« allein über den Formalismus der Theorie erfassen zu können und die diesem korrespondierende »Realität« als auf registrierte Messwerte reduziert zu erleben (sog. »Instrumentalismus«): »Vor mir verschließt sich die Natur« (»Faust«, Vers 1747).
  • Giftpflanzen nie verbannen

    23.07.2016, Till Andrzejewski
    Die Meinung, dass Kinder mit heimischen toxischen Gewächsen umgehen lernen müssen, vertrete ich in meinen Vorträgen schon seit Beginn meines Informationsprojektes (www.tatortnatur.de).
    Ich stoße dabei zunächst auf Unverständnis und rollende Augen in der Zuhörerschaft. Erkläre ich dann aber, dass der kindliche Aktionsradius nicht am heimischen Gartenzaun endet, ist schlagartig das Verständnis für diese Meinung aufgebracht.
  • Flächenbelastung

    22.07.2016, mhpr262
    Die geringe Flächenbelastung sorgt in erster Linie für eine sehr geringe minimale Sinkgeschwindigkeit, da ein Flugobjekt dadurch sehr langsam fliegen kann und entsprechend wenig Höhe zur Erhaltung der Geschwindigkeit gegen den Luftwiderstand abgebaut werden muss. Für ein gutes Gleiten (bzw eine gute Gleitzahl, Meter Strecke pro Meter Höhe) ist dagegen ordentliches Gewicht erforderlich - moderne Wettkampfsegelflugzeuge sind nicht ohne Grund mit mehreren hundert Kilo Wasser "aufballastierbar".
  • Nicht bedacht: Andere Luftverhältnisse

    22.07.2016, Moritz Heinrich
    Zuerst wollte ich den Artikel nicht ganz durchlesen, weil er "schwer" geschrieben ist. Doch ich wollte hier keine Informationen überlesen, also tat ich es dennoch.

    In diesem Artikel wurde anscheinend eins nicht berücksichtigt:
    Vor 53 - 3 Millionen Jahren war die Atmosphäre noch viel dichter als heutzutage. Berechnungen der maximalgröße von Vögeln mit heutigen Verhältnissen sind da nicht vergleichbar. (Wird nicht ganz klar ob darauf eingegangen wurde)

    Allein durch die höhere Dichte der Atmosphäre konnten Dinosaurier so groß werden. Es ist wie im Wasser, das Gewicht verliert an Druck auf die restlichen Körperteile. Daher konnten die Vögel auch viel größer werden. Vielleicht sind deshalb die Knochen auch nicht unbedingt leichter gebrochen (Nur ein Denkansatz).

    Eigene mir denkbar mögliche Theorie: [Vielleicht sind die großen Wesen damals auch nur ausgestorben, weil es kurzzeitig einen Atmosphärendichteabfall gab, der sie buchstäblich zusammenfallen ließ. Oder das ganze in Kombination mit einem Meteoriteneinschlag, der zusätzlich ein "Loch" in den Himmel brannte, durch welchen die Atmosphäre rapide an Material verlor..]

    Auf die Vögel bezogen konnten sich dann nur diese Tiere halten, die vielleicht stärkere Beinknochen ausgebildet haben im Laufe der 50 Millionen Jahre ihrer Herrschaft.(wie im Artikel beschrieben)
    Doch irgendwann war auch dies nicht mehr tragbar.

    Jedes Jahr verliert die Atmosphäre 100.000 - 200.000 Tonnen an Gas. Früher war es womöglich noch mehr pro Jahr. Das ganze auf 3 oder sogar 53 Millionen Jahre gerechnet ist eine enorme Masse, die meiner Meinung nach nicht vernachlässigt werden darf.

    Ich hoffe ich habe jetzt nicht daneben gegriffen und danke Spektrum für die ganzen tollen Artikel. Ich kaufe mir auch regelmäßig Zeitschriften :)

    Viele Grüße
  • Erneuerbare Energien sind nicht erneuerbar....

    21.07.2016, Dr. J. Götz
    ....weil der Energieerhaltungssatz gilt, und es keine Erkenntnisse gibt, dass er nicht gilt! Die verschiedenen Energieformen können nur ineinander umgewandelt werden. Diese Einleitung wurde gewählt, weil im Artikel gerade das Vertrauen in die sogenannten "Erneuerbaren Energien" eine Rolle spielt und als Beispiel für Vertrauen in die Wissenschaft herangezogen wird. Otto Normalbürger vertraut auf die Aussage von "Experten" grüner Politiker, der Bundesregierung und Unternehmen, Interessenverbänden (Windkraft&Solar, sowie weiteren), dass mit den "erneuerbaren" die Energieversorgung der Bevölkerung und unseres Landes sichergestellt werden könne. Die Frage ist nicht eindeutig mit ja oder nein zu beantworten, weil es eine Frage des Geldes ist, welches die Bevölkerung bereit zu bezahlen ist. Die physikalischen Gesetzmäßigkeiten sind seit langem bekannt, aber die anlagentechnische Realisierung kostet halt Geld, sehr viel Geld. Heißt: an der Physik muss nicht gezweifelt werden, auch die ingenieurtechnische Umsetzung ist möglich. Aber: nicht so sehr viele kennen die Gesetzmäßigkeiten, nach denen ein elektrisches Versorgungsnetz betrieben werden muss, um eine sichere, unterbrechungslose Stromversorgung zu gewährleisten im Detail. Deutschland hat zwar inzwischen ein 2x100% Versorgungssystem: die installierte Kapazität "erneuerbarer" Energieerzeugungsanlagen (Wind +Solar) kann mit mehr als 100% des höchsten Bedarfs theoretisch den Strombedarf Deutschlands decken - bei Starkwind sogar mehr, so dass der Strom ins Ausland verschleudert werden muss, um das eigene Netz nicht zu gefährden. Wenn der Wind nicht weht und die Sonne nicht scheint, müssen die konventionellen Kraftwerke einspringen. Der breiten Bevölkerung ist nicht bekannt, dass Monate, in denen Wind und Solar höchstens 10% des Bedarfs decken mit einem Zeitanteil von 40% keine Ausnahme sondern eher Regel sind. Und wir - die Stromkunden - bezahlen den Betrieb dieses teuren Doppelsystems mit 22-23 Mrd. EURO jährlich und vertrauen den
    "erneuerbaren" Energien. Derzeit - also mit den noch nicht abgeschalteten Kernkraftwerken geht das noch - aber bald nicht mehr. Es müssen also Speicher her. Weit verbreitet ist der Irrglaube, dass Pumpspeicherkraftwerke, Druckluftspeicher, Batterien - und sei es in Form derjenigen von Elektroautos - dies bewerkstelligen könnten. In einem am 18.05. in Dresden gehaltenen Vortrag hat Prof. H. Sinn (ehemaliger Präsident des Iifo-Instituts für Wirtschaftsforschung) die Zahl der erforderlichen Pumpspeicherkraftwerke mit etwa 7000 beziffert, um über das Jahr hinweg nur die Stromversorgung sicherzustellen. Wollte man dies mit den Batterien von Elektroautos (Mittelklasse) tun, wären derer 500 Millionen Stück erforderlich (Größenordnung) .
    So etwas herauszuarbeiten ist wirkliche Wissenschaft.
    Aber: die Bevölkerung vertraut den "erneuerbaren".....

    Fazit: die allgemeine Bevölkerung ist mangels "Wollen" (Physik? Habe ich beizeiten abgewählt!) oder Ablehnung (Das soll ich lesen? Interessiert mich nicht, ich bin dagegen!) eher nicht in der Lage, sich eine auch nur einigermaßen fundierte Meinung zu bilden und zum Teil auch nicht willens. Deswegen erfolgen die "Antworten (häufig) nach Bauchgefühl" und zwar so, dass - wie im Artikel im Zitat Kahane Informationen sehr stark selektiert werden, so dass eigene Überzeugungen gestützt werden.

    Nicht eingegangen wurde auf den Einfluss der Politik: gemeint sind die für Wissenschaft zuständigen Ministerien, die je nach Wahlausgang/ Parteienzugehörigkeit Prioritäten bei der Geldvergabe/Förderwürdigkeit setzen und natürlich den Interessen der Unternehmen, welche durch Werbung und viele Formen der Öffentlichkeitsarbeit und des Sponsorings auf die Anwendung wissenschaftlicher Ergebnisse und deren Vermarktung Einfluss nehmen.

    Freie Wissenschaft?
    Eher weniger, alles hängt am Geld. Dies haben die Menschen durchaus realisiert und insofern richtet sich der Zweifel auch gegen Wissenschaftsgebiete und Technologien, die das nicht verdient haben - leider.
  • "Temperaturanomalie auf 1,5 Grad zu begrenzen"

    21.07.2016, Peter Jungmaier
    Können Sie bitte erklären inwiefern eine solche Erklärung von einem Temperaturziel sinnvoll ist?
    Wie möchte man den globalen Temperaturanstieg bis auf eine Nachkommastelle genau kontrollieren?
    Besitzt dieses Ziel neben dem symbolischen Charakter überhaupt eine wissenschaftliche Aussagekraft?
    Antwort der Redaktion:
    Das haben wir und andere schon oft erörtert. Hier nur einige Links:

    - http://www.spektrum.de/news/10-antworten-zum-zwei-grad-ziel/1374046
    - http://www.spektrum.de/news/begrabt-das-zwei-grad-ziel/1310984
    - http://www.spektrum.de/rezension/buchkritik-zu-unter-2-grad/1416242
    - http://www.spektrum.de/news/hoffnung-und-heisse-luft/1415010

    Und zwei externe Links auch (es gibt noch viel mehr):
    - http://wiki.bildungsserver.de/klimawandel/index.php/2-Grad-Ziel
    - https://de.wikipedia.org/wiki/Zwei-Grad-Ziel

    Mit freundlichem Gruß, d. Red.
  • Replik

    21.07.2016, Fritz Kronberg
    Hallo Frau Krüger,
    Ich zitiere:

    Die aus wissenschaftlicher Sicht verantwortungslose Anwendung der Gentechnik (zu einem Zeitpunkt, wo negative Auswirkungen auf die gesamte Biosphäre - von der menschlichen Gesundheit bis zum Lebensraum Erde insgesamt - nicht mit Sicherheit ausgeschlossen werden können) fällt auf die Wissenschaft zurück.

    Von was für einer "Wissenschaft" reden Sie hier? Negative Auswirkungen auf die gesamte Biosphäre - so, wie Sie das vermutlich verstehen - können durch die schiere Existenz der Menschheit nicht nur nicht ausgeschlossen werden, sondern sind geradezu zwangsläufig vorhanden. In Ihrer "Logik" müßte also, um Schaden von der Biosphäre abzuwenden, die Menschheit beseitigt werden.
    Gehen wir einmal davon aus, daß Sie das nicht möchten, dann werden Sie mir sicher zustimmen, daß verantwortliches Handeln bedeutet, die unvermeidbaren Schäden möglichst zu minimieren. Dazu gehört eine sinnvolle Risikoabwägung. Mit dem technischen Fortschritt lassen sich Risiken in der Regel verkleinern. Ein solcher technischer Fortschritt ist die grüne heutige Gentechnik. Die Menscheit betreibt seit Jahrtausenden Gentechnik, sie wurde bisher nur nicht so bezeichnet. Man nannte sie früher Züchtung, und sie war keinesfalls immer positiv. Zum Beleg brauchen Sie sich nur einmal die existierenden Hunderassen zu betrachten. Diese Gentechnik gleicht einem Schrotschuß auf einen Mückenschwarm, um eine bestimmte Mücke zu treffen, ist also aufwendig mit höchst ungewissem Ergebnis und dauert lange. Die moderne Gentechnik greift sich sozusagen genau die gesuchte Mücke aus dem Schwarm mit hoher Sicherheit und vergleichsweise wenig Aufwand und keinem Kollateralschaden, wie er bei dem Schrotschuß nahezu unvermeidlich ist. Wahrscheinlich schwebt Ihnen vor, die gesamte Menschheit nach "Biomethoden" zu ernähren. Lassen Sie sich einmal von einem Fachmann (oder, falls Ihnen das lieber ist, -frau) erklären, wieviele Menschen bei der zur Verfügung stehenden Agrarfläche so ernährt werden können.
    Des Weiteren ist es unmöglich, irgend etwas mit Sicherheit auszuschließen. Nach den Gesetzen der Wahrscheinlichkeit ist noch nicht einmal mit Sicherheit auszuschließen, daß eine zu Boden gefallene und dort zersplitterte Blumenvase sich selbst wieder zusammensetzt und auf ihren PLatz zurückkehrt. Deshalb wird jeder Wissenschaftler (der auch wirklich einer ist) einen solchen Auschluß immer mit dem Zusatz versehen "nach menschlichem Ermessen".
  • Wer sind hier die "Bösen"?

    21.07.2016, Brunhild Krüger
    Sie schreiben:
    Das Thema der Gentechnik in der Landwirtschaft wird regelmäßig von Organisationen und Politikern instrumentalisiert und vereinnahmt. "

    Ich frage:
    Wer hat was zuerst "instrumentalisiert und vereinnahmt"?
    Wenn sich Protest gegen die Vereinnahmung der Gentechnik für Profitzwecke meldet, wird der Protest mit solchen Worten herabgewürdigt.

    Die aus wissenschaftlicher Sicht verantwortungslose Anwendung der Gentechnik (zu einem Zeitpunkt, wo negative Auswirkungen auf die gesamte Biosphäre - von der menschlichen Gesundheit bis zum Lebensraum Erde insgesamt - nicht mit Sicherheit ausgeschlossen werden können) fällt auf die Wissenschaft zurück.

    Man sollte hier im SPEKTRUM lieber solche Fragen zur Diskussion stellen wie die Verantwortung der Wissenschaft(ler) für ihre Erkenntnisse auch außerhalb der "reinen" (doppeldeutig gemeint!) Wissenschaft. Dann würde das Vertrauen in die Wissenschaft auch wieder wachsen.

    In der jetzigen Situation sind viele Wissenschaftler jedoch MITTÄTER an der Verantwortungslosigkeit gegenüber dem Leben, die in Einzelfällen sogar zu Verbrechen führen.

    Solange die Motivation von vielen Wissenschaftlern stark von außerwissenschaftlichen Interessen (Fördermittel, Karriere, Geld) geprägt ist, wird sich daran nichts ändern.
    Die Ursachen für das geringe Vertrauen in die Wissenschaft(ler) liegt im heutigen System der Wissenschaftsorganisation und ihrer Einbindung in die Gesellschaft. "Frei" ist sie in diesem Sinne nur auf dem Papier. Der Einzelne ist in diesem System nicht mehr verantwortlich.