Direkt zum Inhalt

Reale Sicherheit durch virtuelle Crashtests

Simulationen von Unfällen mittels Computerprogrammen ergänzen mehr und mehr konventionelle Crashtests in der Fahrzeugentwicklung. Die Ziele: mehr Sicherheit, kürzere Entwicklungszeiten, geringere Kosten.


Rückhaltesysteme, ABS und Fahrzeugkonstruktionen, die immer mehr Deformationsenergie aufnehmen können, haben das Autofahren zwar sicherer gemacht, dennoch bleibt es eine relativ riskante Art der Fortbewegung. Allein in Deutschland wurden 1998 nach Angaben des Statistischen Bundesamtes insgesamt 2251823 Verkehrsunfälle gemeldet. Dabei kamen 7772 Menschen ums Leben, und nahezu eine halbe Million wurden verletzt.

Über diesen traurigen Verlust an Menschenleben hinaus verursachen Autounfälle auch enorme volkswirtschaftliche Schäden. So summieren sich allein diesbezügliche Versicherungsleistungen nach vorsichtigen Schätzungen auf 50 Milliarden Mark pro Jahr.

Fahrzeuge, die auf Sicherheit und Schutz der Insassen optimiert wurden, können oft das Schlimmste verhindern. Doch solche Verbesserungen zu entwickeln kostet Zeit und Geld. Ein enormer Wettbewerbsdruck zwingt die Unternehmen der Automobilbranche aber dazu, immer schneller und mit geringeren Aufwendungen neue Modelle auf den Markt zu bringen. Wie sollen sie auch künftig den hohen Standard halten können oder gar verbessern?

Einen Weg aus diesem Dilemma weist die Computertechnik. Mehr und mehr ersetzen virtuelle Crashtests die realen. Anstatt Fahrzeugprototypen mit Dummies als Insassen gegen Betonbarrieren zu rammen, simulieren die Ingenieure solche Kollisionen in Hochleistungsrechnern. Deren wachsende Leistung sowie verbesserte Softwarepakete haben sie mittlerweile in den Stand versetzt, die Wirklichkeit eines Unfalls – zumindest relevante Ausschnitte – so gut zu modellieren, daß aussagekräftige Prognosen ableitbar sind.



Teure Einwegversuche


Diese Entwicklung ist noch relativ neu und seit etwa zehn Jahren von Bedeutung. Daraus resultieren bereits deutliche Einsparungen an Zeit und Kosten. Für einen traditionellen Crashtest müssen in einem ersten Schritt Prototypen der Fahrzeuge gebaut werden. Das dauert bis zu sechs Monate und kostet Hunderttausende von Mark, doch hernach werden sie nur zu Schrott gefahren. Jeder Testwagen erhält einen Satz Crashtest-Dummies, die typische Insassen repräsentieren sollen, beispielsweise Erwachsenen- und Kinderpuppen als Repräsentanten der Käuferschicht "Familienwagen". Ein solcher, bis zu 100000 Mark teurer Dummy ist mit Beschleunigungssensoren ausgestattet, um die einwirkenden Kräfte bestimmen zu können (Spektrum der Wissenschaft, September 1997, S. 90). Prüfstand und Fahrzeug sind zudem mit Hochgeschwindigkeitskameras versehen. Diese nehmen den Crash auf für eine anschließende Analyse des Verhaltens konstruktiver Elemente oder spezieller Sicherheitsvorrichtungen des Fahrzeugs. Doch leider: Umherfliegende Glassplitter oder andere Trümmer behindern oft den freien Einblick; mitunter geraten die Dummies auch aus dem Sehfeld der Kameras.

Simulierte Tests per Computer haben demgegenüber eine Reihe von Vorteilen. Sie sind vor allem innerhalb weniger Tage oder Wochen durchführbar und kosten deutlich weniger: im wesentlichen die Gehälter der eingesetzten Experten. Denn Hochleistung-Workstations kosten zwar einige Hunderttausend Mark, die gelegentlich genutzten Supercomputer auch schon mal einige Millionen, doch haben diese Maschinen eine ungleich höhere Nutzungsdauer als Fahrzeugprototypen oder als wiederverwendbare Dummies.

Vor allem aber: Den Konstrukteuren erlaubt die neue Arbeitsweise bislang unvorstellbare Einblicke in das Verhalten ihrer Entwürfe unter Belastung – und das innerhalb kurzer Zeitperioden. So können sie beispielsweise in mehreren Arbeitsschritten Strukturbauteile immer weiter optimieren, denn die Simulation läßt sich so oft und so langsam wiederholen wie erforderlich. Die graphische Darstellung erlaubt es, interessante Details zu vergrößern und eingehender zu untersuchen.

Aus diesen Gründen dürften Computersimulationen im Entwicklungsprozeß eines Automobils immer wichtiger werden, traditionelle Crashtests können sie aber vorläufig dennoch nicht ganz ersetzen. Der Hauptgrund: Simulationen geben immer nur Antworten auf ganz spezifische Fragen wie "Welchen Effekt hat eine um sieben Prozent im Querschnitt reduzierte Säule auf einen Seitenaufprall mit 50 Kilometern pro Stunde?" (eine Säule verbindet Boden und Dach miteinander und trägt wesentlich zur Stabilität der Gesamtkonstruktion bei).

Dazu kommt, daß die – immer noch – eingeschränkten Möglichkeiten einer rechnerischen Modellierung die Art der Fragen, die sich durch eine Simulation beantworten lassen, begrenzen. So ist es zum Beispiel noch sehr schwierig, einen Fahrzeugüberschlag im Detail zu berechnen: Ein Frontalaufprall ist nach 100 bis 150 Millisekunden beendet, ein Überschlag hingegen erst nach bis zu drei Sekunden; das ist mit wirtschaftlich vertretbarem Aufwand innerhalb der kurzen Entwicklungszeit kaum zu bewältigen. Zudem ist es schwierig, das Verhalten eines Fahrzeugs bei einer solchen Bewegung zu modellieren – Bodenhaftung und die Wirkung von Federdämpfern bei extremer Last können derzeit nicht ausreichend genau numerisch berechnet werden. Schließlich vermag auch kein Modell weitergehende Folgen eines Unfalls abzuschätzen, etwa ob von irgendeinem Bauteil eine Feuergefahr ausgeht, also ob beispielsweise der Benzintank explodieren könnte.

Ein weiterer Grund dafür, daß Dummies so bald nicht überflüssig werden, sind die gesetzlichen Bestimmungen in den Absatzmärkten. Die staatlichen Verkehrssicherheitsbehörden in den meisten entwickelten Ländern schreiben Crashtests mit Front-, Heck- und Seitenkollisionen vor, nur dann erteilen sie die Erlaubnis zum Vertrieb der Fahrzeuge. Die Anweisungen dazu sind detailliert, basieren auf Unfallstatistiken und spezifizieren zum Beispiel in Europa eine frontale Kollision mit einer Geschwindigkeit von 56 Kilometern pro Stunde auf eine deformierbare Barriere. In Europa kommt der Seitenaufprall aufgrund der Straßenführung mit Kreuzungsverkehr im Verhältnis häufiger vor, dementsprechend legt man hierzulande darauf größeres Gewicht bei der Zulassung als etwa in den USA. Meist werden diese Tests zunächst mit Prototypen und später noch einmal mit Serienprodukten durchgeführt, um auch deren Sicherheit zu belegen. Hinzu kommen weitere Untersuchungen der Hersteller nach ihren eigenen, meist strengeren Standards.

Computersimulationen können also nur Ergänzungen sein, beispielsweise um reale Tests zielgerichteter auszulegen und so viel unnötigen Schrott zu vermeiden. Um zu verstehen, wie Berechnungsingenieure das Unfallgeschehen modellieren, bedarf es eines Blicks auf die physikalischen Vorgänge bei einem Zusammenstoß. Abstrakt gesagt wird durch den Aufprall und das damit verbundene abrupte Bremsen die Bewegungsenergie des Fahrzeugs in Deformationsenergie umgewandelt. Die wichtigste Einflußgröße ist dabei seine momentane Geschwindigkeit v, weil diese im Quadrat in die Berechnung eingeht (Ekinetisch = 1/2 mv2). Ein Zusammenstoß bei 90 Kilometern pro Stunde setzt deshalb das Vierfache der Energie frei wie einer bei 45 Kilometern pro Stunde.

Ein weiterer wichtiger Faktor ist das Fahrzeuggewicht, genauer: seine Masse m. Bei einem Aufprall auf eine Mauer oder einen Baum ist eine große Masse von Nachteil, denn sie bedeutet eine hohe Bewegungsenergie, die aber vom starren Hindernis kaum aufgenommen wird, also großteils in die Zerstörung des aufprallenden Wagens eingeht. Wenn hingegen bei einem Serienunfall schwere und leichte Fahrzeuge zusammenstoßen, ist das Risiko für die Insassen der schwereren geringer, denn ihre Automobile werden nicht so stark gebremst. Eine Ausnahme sind zwar leichte, aber in den hauptsächlichen Kollisionsbereichen steifer ausgelegte Fahrzeuge. Würde von den Herstellern verlangt, den Schaden an allen unfallbeteiligten Fahrzeugen gering zu halten, zum Beispiel durch ein Ausbalancieren von Gewicht und Steifigkeit, müßten sie schwere Fahrzeugtypen aus weniger steifen Materialien bauen; einige haben tatsächlich bereits damit begonnen. Leider verlangen gesetzlich vorgeschriebene Crashtests eine Evaluierung der Sicherheit an Einzelfahrzeugen gegen stehende Hindernisse, wobei die Bewegungsenergie des Wagens nahezu vollständig abgebaut werden muß.

Grundsätzlich lassen sich alle Verletzungen, die bei einem Verkehrsunfall entstehen, auf eine von zwei Ursachen zurückführen: auf den Aufprall des Körpers auf Fahrzeugteile wie das Lenkrad – äußere Verletzungen wie Hämatome oder Platzwunden sind die Folge – und auf die plötzliche Beschleunigung des Körpers beim Verzögern des Fahrzeugs im Moment der Kollision – innere Verletzungen wie Knochenbrüche oder Organrisse, begleitet von inneren Blutungen, können entstehen.

In realen Crashtests zeichnen die Sensoren in den Dummies Beschleunigungsspitzen auf; niedrige Werte entsprechen einem geringeren Verletzungsrisiko. Der Konstrukteur sucht deshalb, durch Wahl der Dicke und Steifigkeit der Werkstoffe, durch strukturelle Auslegungen, Wahl der Position des Motors oder der Festigkeit der Lenksäule, um nur einige Beispiele zu nennen, die Aufprallenergie auf das Fahrzeug zu übertragen und sie sozusagen zu vernichten, bevor sie die Fahrgastzelle erreicht.

In der Regel besteht das Gesamtmodell für eine Crashsimulation im Computer aus den Grundkomponenten Karosserie, Sitze, Motorblock und Passagiere. Jede davon wird weiter untergliedert; die Karosserie zum Beispiel in Türen, Verglasung und Säulen. Jedes Teilstück einer Struktur wird als Gruppe sogenannter finiter Elemente beschrieben, das sind Polygone, meist Vierecke und Dreiecke, die mit einer mathematischen Beschreibung der physikalischen und werkstofflichen Eigenschaften verknüpft sind; das algorithmische Verfahren wird deshalb als Finite-Element-Analyse bezeichnet (Spektrum der Wissenschaft, März 1997, S. 90 und S. 104). Je mehr Polygone das Modell umfaßt, desto realitätsnäher ist die Simulation.

Mit den erwähnten High-End-Workstations oder Supercomputern lassen sich Karosseriemodelle aus 200000 bis 300000 finiten Elementen bewältigen. Durch die Abbildung der Sitze, des Motorblocks und der Passagiere können weitere 100000 bis 200000 Polygone dazukommen. Da selbst bei Supercomputern die Rechenleistung beschränkt ist, sind die Programmierer leider bislang gezwungen, die Insassen – ähnlich wie die realen Crash-Puppen – als harte, aus wenigen anatomischen Grundkomponenten zusammengesetzte Figuren zu modellieren; zudem fehlen geeignete physikalische Modelle zur Simulation der Gewebe. Doch an einigen Universitäten nutzen Forscher bereits noch leistungsfähigere Rechner, um beispielsweise weiche Oberflächen und Knochen nachzubilden. Es ist vermutlich nur eine Frage der Zeit, bis Simulationsingenieure endlich in der Lage sein werden, die Beschleunigung einzelner Organe im menschlichen Körper während eines Unfalls zu berechnen (Spektrum der Wissenschaft, September 1997, S. 96). Dann wäre die Aussagekraft der virtuellen Tests größer als die von realen, denn die Sensoren der Dummies messen nur Beschleunigung in einzelnen Körperteilen. Wie sich ein Organ, eingebettet in das überwiegend flüssige Medium des menschlichen Körpers, beim Crash bewegen wird, läßt sich aus solchen Daten nur schwer erschließen.

Dem Polygonnetz liegen die CAD-Daten zugrunde, also die aus vorangegangenen Phasen des Entwicklungsprozesses vorliegende computerunterstützte Geometriebeschreibung der Konstruktion. Jedes finite Element wird mit physikalischen Eigenschaften wie Masse und Werkstoffeigenschaften sowie den Beziehungen zu Nachbarelementen verknüpft. Dabei unterziehen die Ingenieure das Modell einer ersten Überprüfung auf Plausibilität, beispielsweise muß sich eine Masseverteilung und daraus wiederum ein Fahrzeugschwerpunkt ergeben, welcher der Wirklichkeit entspricht. Vor der eigentlichen Simulation definieren sie zudem die Unfallbedingungen, indem sie zum Beispiel die Aufprallgeschwindigkeit und -richtung vorgeben.

Um dann die Energieumwandlung zu berechnen, werden in einem nur etwa eine Mikrosekunde dauernden Zeitschritt die Kräfte und Verschiebungen innerhalb jedes Elements und zwischen den einzelnen finiten Elementen mittels mathematischer Gleichungen beschrieben. Eine Addition der Kräfte über alle Polygone ergibt dann ein Gleichungssystem, das sich mit verschiedenen mathematischen und numerischen Methoden näherungsweise lösen läßt. Das Gleichungssystem wird immer wieder neu berechnet. Jede Iterationsschleife nutzt dabei das Endergebnis der vorausgegangenen Berechnung als Ausgangspunkt. Das geht solange, bis alle bewegten Teile zum Stillstand gekommen sind beziehungsweise bis die kinetische Energie vollständig umgewandelt ist.

Während der Simulation können die Ingenieure Geschwindigkeiten und mechanische Spannungen für jedes finite Element und somit für jeden Punkt des Fahrzeugs bestimmen. Diese Werte geben Aufschluß darüber, welchen Belastungen jedes Bauteil ausgesetzt sein würde. Für die Passagierkomponenten des Modells, die "Software-Dummies", werden statt der Spannungsverhältnisse Beschleunigungswerte, Bewegungen und Kräfte ermittelt.

Derzeit dominieren drei Simulationsprogramme in der Automobilindustrie: PAMCRASH, LS-DYNA3D und RADIOSS. Sie basieren auf Programmen, die in den späten sechziger Jahren in den USA ursprünglich für militärische Zwecke entwickelt worden waren. Unterschiede bestehen hauptsächlich hinsichtlich der Werkstoffmodelle und der Behandlung von Kontaktpunkten zwischen Bauteilen. Auch die Unterstützung beim Aufbau der Modelle und bei der Crashanalyse unterscheidet sich.

Die Programme sind in enger Zusammenarbeit von Automobilherstellern und Softwareunternehmen entstanden. PAMCRASH zum Beispiel war das Ergebnis einer deutschen Initiative, an der VW, Opel, Ford und das französische Softwarehaus Engineering Systems International (ESI) beteiligt waren; diese Software ist auch bei japanischen Automobilherstellern im Einsatz. Die amerikanische Automobilindustrie nutzt vor allem LS-DYNA3D, das auf Software basiert, die am Lawrence Livermore National Laboratory in Berkely (Kalifornien) zur Modellierung von nuklearen Explosionen – ebenfalls sehr dynamische Vorgänge – entwickelt wurde. RADIOSS stammt von dem französischen Unternehmen Mecallog, einer Gründung ehemaliger ESI-Mitarbeiter.

Die beeindruckenden Möglichkeiten der Simulation wollen wir an einem Entwicklungsprojekt unseres Unternehmens veranschaulichen. Ein Team aus Konstrukteuren, einem Simulations- und einem Testingenieur begann 1995 Konzepte zur Optimierung des Seitenaufprallschutzes aller BMW-Modelle auszuarbeiten. Das ehrgeizige Ziel: Nur zwei Crashversuche mit realen Prototypen sollten erforderlich sein, die Vorarbeiten wollte man mit PAMCRASH leisten.

Ausgangspunkt war ein BMW 5 der damals aktuellen Baureihe. Nach jeder Simulation kam das Team zusammen, analysierte die Ergebnisse und entwickelte das nächste virtuelle Experiment. Das schnelle Feedback erlaubte, Ideen innerhalb weniger Tage für gut zu befinden oder zu verwerfen. Zu den Früchten der Arbeit zählte unter anderem eine Optimierung an den sogenannten B-Säulen, die als Strukturbauteile zwischen den Türen das Wagendach mit dem Boden verbinden (siehe Bild auf Seite 57).

Bei der Analyse von realen Seitenaufpralltests aus früheren Projekten war eine örtlich begrenzte Faltung des unteren Endes aufgefallen. Die Ingenieure beschlossen kurzerhand, die Schwachstelle durch ein zusätzliches Blech zu stärken und so widerstandsfähiger zu machen, eine sehr naheliegende Lösung, die offensichtlich keiner weiteren Überprüfung bedurfte. Ein Teammitglied bestand aber dennoch darauf, diese Idee zu verifizieren. Schließlich, so sein Argument, sei das am Computer weder teuer noch schwierig. Das Simulationsergebnis brachte eine Überraschung: Die Crashsicherheit wurde signifikant verschlechtert statt verbessert.

Mehrere Wiederholungen und sorgsame Analyse der Rechenergebnisse ergaben: Eine Verstärkung im unteren Bereich der B-Säule verlagert die Einknickstelle schlicht weiter nach oben und damit näher zu Brustkorb und Kopf der Passagiere. Deshalb lag die Lösung des Problems im genauen Gegenteil der ursprünglichen Annahme: Das untere Ende der B-Säule mußte dünner ausgelegt werden.

Um diese Erkenntnis reicher nahm sich das Team die verstärkten Karosseriebereiche aller BMW-Modelle vor und verbesserte deren Crashsicherheit. Nach 91 "virtuellen Unfällen" und den geplanten zwei Crashtests mit realen Prototypen, beendete die Gruppe 1996 ihre Arbeit. Die zu diesem Zeitpunkt entwickelten Fahrzeuge waren zuvor noch konstruktiv optimiert worden. Sie weisen nun, durch verschiedene Berechnungen, Vergleichssimulationen und die beiden realen Crashtests belegt, eine um 30 Prozent verbesserte Sicherheit bei Seitenunfällen auf. Mit rund einer halben Million Mark kosteten die beiden "echten" Versuche übrigens mehr, als alle 91 "virtuellen Unfälle" zusammen.

Statt in einer Woche, die heute für eine Simulation nötig ist, werden solche Tests in den nächsten fünf bis zehn Jahren aufgrund weiter steigender Rechnerleistung in einem halben Tag abgeschlossen sein. Oder anders: Sehr komplexe Prozesse wie das Überschlagen von Fahrzeugen dürften sich dann in einer akzeptablen Zeit durchrechnen lassen. Die Simulationsmodelle werden mehrere Millionen finite Elemente umfassen und somit menschliche Körper und Unfallszenarien wirklichkeitsnäher abbilden.

Das allein reicht allerdings noch nicht aus. Wie eingangs erwähnt, sind auch die den Berechnungen zugrundeliegenden Modelle in ihrer Aussagekraft noch begrenzt. So gibt es zwar bereits Materialmodelle für Blechwerkstoffe wie Stahl und Aluminium, um deren Deformation beim Crash – entsprechend feine Elementgitter vorausgesetzt – mit großer Präzision zu beschreiben, für andere wichtige Werkstoffe gilt das nicht. Keine oder ungenügende mathematische Beschreibungen haben: Schäume, die in Fahrzeugen als Energieabsorber oder zur Aussteifung von Trägerstrukturen der Karosserie dienen, Thermoplaste der Verkleidung, Verbundwerkstoffe, seien es faserverstärkte Kunststoffe oder das Glas der Scheiben, Gewebe in Rückhaltesystemen wie Airbags und Gurten sowie die als Energieabsorber verwendeten Wabenstrukturen.

Natürlich werden Bauteile daraus bereits in die Simulationen miteinbezogen, doch statt ihr Verhalten unter der Belastung des Crashs mathematisch zu modellieren, wird es anhand von Daten aus aufwendigen Versuchen beschrieben, der Vorteil der Virtualität geht dabei verloren.

Auch die bestehenden Materialmodelle sind verbesserungsbedürftig. Derzeit werden die darin benötigten Werkstoffkenngrößen nämlich an sogenannten Halbzeugen, also beispielsweise an Blechen, ermittelt. Wie sich die weitere Fertigung auswirkt, läßt sich zwar ebenfalls simulieren, diese Berechnungen sind aber noch nicht Teil der Crashmodelle. Doch das Tiefziehen eines Stahlbleches, ein typischer Umformprozeß in der Weiterverarbeitung, ändert nicht nur dessen Wandstärke, sondern auch sein Kristallgitter und damit seine Festigkeit.

Unbefriedigend ist zudem die Modellierung von Verbindungen zwischen den Komponenten, bislang wurden sie nur vereinfacht dargestellt: Aneinanderstoßende Bauteile erhielten gemeinsame Knoten im FE-Netz. Kräfte, die lokal einwirken, werden dadurch aber verschmiert, örtlich eng begrenzte Deformationen nicht richtig wiedergegeben. Eine gute physikalische Beschreibung lokal, etwa an Schweißpunkten, auftretender Kräfte stand deshalb weit oben auf der Liste aktueller Entwicklungen von PAMCRASH und ist seit kurzem verfügbar.

Schließlich fehlen Modelle, die das völlige Versagen von Materialien und Komponenten beschreiben. Wenn eine tragende Struktur aufreißt, kann sie ihre Funktion von einem Moment zum nächsten kaum noch wahrnehmen, dringt sie dabei in den Tank ein, kann Benzin auslaufen. Nicht zu vergessen: beispielsweise Sollbruchstellen, die das Entfalten des Airbags ermöglichen.

Wenn die Simulation diese Phänomene abbilden kann, vermögen wir auch aktive Sicherheitssysteme wie Airbags und Gurtstraffer in virtuellen Experimenten zu optimieren. Sitzposition, Größe und Gewicht der Passagiere lassen sich schon heute sensoriell erkennen, Modellrechnungen sollten helfen, diese Informationen besser zu nutzen, um Kraft und Geschwindigkeit der Airbagentfaltung der jeweiligen Situation anzupassen. Nur die Computersimulation ermöglicht, bei steigendem Kostendruck sicherheitsrelevante Einrichtungen weiter zu optimieren (Spektrum der Wissenschaft, Juli 1999, S. 92). Freilich: Der Erfolg dieser Technik muß sich daran messen lassen, ob sie hilft, tödliche Unfälle zu vermeiden.

Literaturhinweise


Modes of Experimentation: An Innovation Process – And Competitive – Variable. Von Stefan Thomke, Erich von Hippel und Roland Franke in: Research Policy, Bd. 27, Heft 3, S. 315-332, Juli 1998.

Passive Sicherheit von Kraftfahrzeugen – Grundlagen, Komponenten, Systeme. Von Florian Kramer. Vieweg Verlagsgesellschaft, Braunschweig/Wiesbaden 1998.

Virtuelles Crashlabor: Zielsetzung, Anforderungen und Entwicklungsstand. Von M. Holzner, T. Gholami und H.U. Mader. Proceedings der VDI-Tagung "Berechnung und Simulation im Fahrzeugbau", VDI Bericht 1411, VDI-Verlag, Würzburg 1998.


Aus: Spektrum der Wissenschaft 9 / 1999, Seite 54
© Spektrum der Wissenschaft Verlagsgesellschaft mbH

Kennen Sie schon …

Spektrum - Die Woche – 49/2018

In dieser Ausgabe widmen wir uns dem Insektensterben, Depressionen und Supernovae.

Lesermeinung

Beitrag schreiben

Wir freuen uns über Ihre Beiträge zu unseren Artikeln und wünschen Ihnen viel Spaß beim Gedankenaustausch auf unseren Seiten! Bitte beachten Sie dabei unsere Kommentarrichtlinien.

Tragen Sie bitte nur Relevantes zum Thema des jeweiligen Artikels vor, und wahren Sie einen respektvollen Umgangston. Die Redaktion behält sich vor, Leserzuschriften nicht zu veröffentlichen und Ihre Kommentare redaktionell zu bearbeiten. Die Leserzuschriften können daher leider nicht immer sofort veröffentlicht werden. Bitte geben Sie einen Namen an und Ihren Zuschriften stets eine aussagekräftige Überschrift, damit bei Onlinediskussionen andere Teilnehmer sich leichter auf Ihre Beiträge beziehen können. Ausgewählte Lesermeinungen können ohne separate Rücksprache auch in unseren gedruckten und digitalen Magazinen veröffentlicht werden. Vielen Dank!