Direkt zum Inhalt

Lernhilfen für neuronale Netze

Eine Maschine kann wesentlich erfolgreicher aus Beispielen lernen, wenn man ihr Zusatzinformationen, die den Beispielen nicht ohne weiteres zu entnehmen sind, in geeigneter Form zur Verfügung stellt.

Warum ist ein Elefant groß, dunkel und merkwürdig geformt? Nun – wenn er klein, weiß und rund wäre, handelte es sich um eine Aspirintablette.

Für menschliche Ohren ist das vielleicht witzig, aber nicht besonders aufschlußreich. Für einen Computer gilt möglicherweise genau das Umgekehrte, denn für ihn versteht sich der Unterschied zwischen einem Elefanten und einer Aspirintablette – wie überhaupt irgend etwas – nicht von selbst. Man muß ihm auch scheinbar triviale Informationen sorgfältig und explizit verfügbar machen. Für eine Maschine ist Lernen alles andere als einfach.

Allerdings findet gerade auf diesem Gebiet ein rasanter Fortschritt statt. Schon seit einigen Jahren werden lernende Maschinen für verschiedene Aufgaben eingesetzt, vom Lesen handgeschriebener Postleitzahlen bis zur Vorhersage der Auslastung von Flügen. Vielleicht ist bereits Ihr letzter Antrag auf eine Kreditkarte von einem System genehmigt worden, das sich die Kriterien zur Einschätzung Ihrer Bonität durch einen Lernvorgang selbständig erworben hat. Weitere Anwendungen stehen bevor.

Normalerweise befähigt man einen Computer, eine bestimmte Aufgabe zu erfüllen, indem man ihn darauf programmiert. Das erfordert in aller Regel ein tiefgreifendes Verständnis der Aufgabe und des Lösungswegs. Deswegen ist die Idee eines lernfähigen Systems so attraktiv: Statt mühsam detaillierte spezifische Programme zu schreiben, könnte man sich damit begnügen, einer entsprechend flexiblen Maschine eine Reihe von Trainingsbeispielen einzugeben und den Rest ihr zu überlassen.

Ein System zur Genehmigung von Kreditkartenanträgen beispielsweise gewinnt aus Daten früherer Erfahrungen mit verschiedenen Kunden eine Grundlage zur Einschätzung neuer Antragsteller. Dabei versucht die Maschine gar nicht erst, den Einblick in das Problem zu gewinnen, den ein Programmierer braucht. Sie tut nichts weiter, als die persönlichen Angaben früherer Kunden und Auskünfte zu ihrem Zahlungsverhalten zusammenzustellen und aus der Beziehung dieser Daten möglichst viel Information zu ziehen. Damit wird der Automatisierungsprozeß einen Schritt weiter getrieben als üblich: Man läßt den Computer nicht nur einen Vorgang immer wieder ausführen, sondern auch die Richtlinien für diese wiederholte Tätigkeit selbst erarbeiten.

Diese Methode eignet sich für unterschiedlichste Anwendungen. Sie versagt jedoch, wenn entscheidende Information zwar im Prinzip verfügbar, aber in den Beispielen, aus denen das System lernen soll, nicht enthalten ist. Glücklicherweise kann man ihm diese Information oft in Form spezieller Hinweise (hints) mitgeben – von einer schlichten Erfahrungsregel mit vielen Ausnahmen bis hin zu fundamentalen Gesetzmäßigkeiten.

So gibt es für die computergestützte Bildverarbeitung und Objekterkennung Zusatzwissen über die Invarianz: Ein Gegenstand bleibt derselbe, auch wenn sich seine Position oder Größe im Blickfeld ändert (Bild 3); zu wissen, daß er symmetrisch ist, erleichtert seine Erkennung weiter (Bild 4).

Im Wirtschaftsleben wiederum sind manche Gesetzmäßigkeiten (im mathematischen Sinne) monoton: Wenn etwa nach einer Preiserhöhung der Umsatz zurückgeht, wird er durch eine weitere Verteuerung nicht wieder anwachsen, oder allgemeiner formuliert: Gewisse Abhängigkeiten pflegen ihr Vorzeichen nicht zu wechseln.

Wenn man aber schon so viel über eine bestimmte Aufgabe weiß, daß man derartige Hinweise zu ihrer Lösung geben kann, warum macht man sich dann überhaupt die Mühe, eine Maschine mit Lernfähigkeit auszustatten? Warum programmiert man nicht gleich die Lösung der Aufgabe auf dem üblichen Wege? Bei manchen Aufgaben ist das in der Tat möglich; aber in der Regel ist das Wissen über das Problem eben doch nicht vollständig genug.

Am einen Ende der Skala stehen die strukturierbaren Probleme, die mit klaren Handlungsanweisungen und ohne Beispiele lösbar sind, am anderen die völlig unstrukturierten mit starker Zufallskomponente, für deren Lösung man gänzlich auf Lernbeispiele angewiesen ist. Maschinelles Lernen mit Hinweisen deckt das weite Feld zwischen diesen beiden Extremen ab.


Paradigmen des Maschinenlernens

Wie lernt ein Computer? Bei den meisten der zahlreichen Realisierungen gibt man eine allgemeine Struktur vor, die grob dem gestellten Problem angepaßt ist, aber noch viele freie Parameter enthält. Das sind gleichsam Regler zur genauen Einstellung der Maschine. Die Werte der Parameter – die Einstellungen der Regler – bestimmen letztlich ihr Verhalten; unterschiedliche Einstellungen ergeben völlig verschiedene Resultate.

Was soll das System lernen? Es bekommt gewisse Eingabedaten (den Input) vorgelegt: die persönlichen Daten eines Kreditantragstellers, ein Bild oder die Entwicklung der Devisenkurse in den letzten Tagen. Daraufhin soll es die richtige Ausgabe (den Output) liefern: eine Entscheidung über Annahme oder Ablehnung des Antrags, die Auskunft "Auf diesem Bild ist ein Baum" oder eine Prognose des Dollarkurses.

Mathematisch kann man das durch eine Funktion beschreiben, die jedem Input-Wert einen Output-Wert zuordnet. Unter allen denkbaren Funktionen dieser Art sucht man die optimale – was immer der Auftraggeber darunter versteht. Einziger Anhaltspunkt für das lernende System sind die Lernbeispiele, also Paare von Input und Output, die per Definition zur optimalen Funktion gehören. Das Ziel ist nun, die so (unvollständig) beschriebene Funktion durch Variation der Parameter – geschicktes Einstellen der Regler – möglichst gut zu approximieren. Dabei nimmt die Maschine jedes Beispiel zum Anlaß, ihre Parameter ein wenig zu verändern. Wenn sie eine Reglereinstellung erreicht hat, mit der sie für jedes der Beispiele dem vorgegebenen Output so nahe kommt wie überhaupt möglich, dann hat sie faktisch die Funktion aus den Beispielen gelernt.

Die gebräuchlichste Grundstruktur für diese Art des Maschinenlernens ist das – künstliche – neuronale Netz (siehe "Wie neuronale Netze aus Erfahrung lernen" von Geoffrey H. Hinton, Spektrum der Wissenschaft, November 1992, Seite 134). Seine Schöpfer ließen sich durch die Struktur und die beeindruckenden Fähigkeiten echter Nervennetzwerke inspirieren. In (natürlichen wie künstlichen) neuronalen Netzen sind viele gleichartige Einheiten – Neuronen – durch Verbindungen (die in beiden Fällen Synapsen genannt werden) mit einstellbarer Stärke verknüpft. Damit ist der Output eines einzelnen Neurons durch die Outputs aller vorgelagerten Neuronen bestimmt. Die einstellbaren Parameter sind die Verbindungsstärken der Synapsen, die sogenannten synaptischen Gewichte.

Dank ihrer Flexibilität und dem einfachen Trainingsalgorithmus sind neuronale Netze in den letzten zehn Jahren die lernfähigen Maschinen der Wahl geworden; man findet sie in vielfältigen Anwendungen. Obwohl es eine Reihe spezialisierter elektronischer und auch schon optischer Realisierungen neuronaler Netze gibt (vergleiche "Optische Neuro-Computer" von Yaser S. Abu-Mostafa und Demetri Psaltis, Spektrum der Wissenschaft, Mai 1987, Seite 54), verwendet man doch meistens ein gewöhnliches Computerprogramm, das auf einem PC oder Arbeitsplatzrechner läuft und sich wie ein neuronales Netz verhält.

Man muß übrigens nicht nächtelang das System beim Lernen überwachen oder es gar aktiv lehren. Die optimale Einstellung der internen Parameter erledigt in der Regel ein Lernalgorithmus, ein programmiertes Verfahren, durch das der gesamte Trainingsprozeß in eine Folge einfacher, sich wiederholender Schritte zerlegt wird. Für neuronale Netze am gebräuchlichsten ist das sogenannte Backpropagation-Verfahren, das vor allem David E. Rumelhart während seiner Tätigkeit an der Universität von Kalifornien in San Diego bekannt gemacht hat.

Das Verfahren basiert auf einem einfachen Gesetz der Differentialrechnung. Zu jedem Lernbeispiel, bestehend aus Input und zugehörigem Output, wird zunächst der Output berechnet, den das Netz mit den gegenwärtigen Parameterwerten liefert. Dann werden diese Einstellungen so verändert, daß die Abweichung zwischen vorgegebenem und geliefertem Output kleiner wird; und zwar wird entgegen der üblichen Informations-Flußrichtung des Netzes jedem Parameter eine Korrektur zugewiesen, diese also – vereinfacht gesagt – rückwärts transportiert (eben dies bedeutet der englische Begriff backpropagation; zu den Einzelheiten siehe Spektrum der Wissenschaft, November 1992, Seite 138). Mit jedem Schritt kommt das Netz dem gewünschten Resultat näher. In der Regel hat es sein Lernziel in guter Näherung erreicht, wenn es sämtliche Trainingsdaten mehrere Male durchgegangen ist.

Im Falle der Entscheidung über Kreditkartenanträge wären die Lernbeispiele die persönlichen Daten (wie Alter, Gehalt und Familienstand) Tausender von Kunden und der Gewinn beziehungsweise Verlust, den die Bank in der Vergangenheit mit dem Kreditvertrag des jeweiligen Kunden erzielt hat. Das Netz stellt anhand dieser Input-Output-Paare seine internen Parameter so ein, daß seine Vorhersagen über die Kreditwürdigkeit jedes Beispielkunden mit dessen wahrem Kreditverhalten möglichst gut übereinstimmen. Ohne daß jemand von außen eingreifen würde, werden am Ende des Lernprozesses einige der Parameter (synaptischen Gewichte) in Bezug zum Gehalt des Antragstellers stehen; sie werden das Gesamtsystem dazu veranlassen, gutverdienende Kandidaten eher zu akzeptieren. Andere werden auf bestimmte Kombinationen von Alter und Familienstand hin ein positives Votum abgeben (siehe auch "Neuronale Fuzzy-Systeme" von Rudolf Kruse, Detlef Nauck und Frank Klawonn, Spektrum der Wissenschaft, Juni 1995, Seite 34). Im Idealfall gewinnt ein neuronales Netz, das ausgelernt hat, seine Prognose über das Verhalten neuer Antragsteller auf ähnliche Weise wie ein sehr erfahrener Bankangestellter.


Intelligente Zusatzinformation

Ob sie mit neuronalen Netzen oder auf andere Weise arbeiten – allen lernenden Maschinen kann man nur eine begrenzte Anzahl von Beispielen geben. Sollen sie erfolgreich sein, müssen sie daraus auch auf bisher unbekannte Inputs korrekt verallgemeinern. Möglicherweise reicht die mit den Trainingsdaten übermittelte Information dafür nicht aus. Es kommt durchaus vor, daß ein System am Ende der Lernphase bei Aufgaben, die den Beispielen ähnlich sind, eine gute Leistung zeigt, aber bei einer neuen Situation versagt. Man bedenke, daß eine Maschine außer den Beispielen selbst nichts über ihr Arbeitsgebiet weiß. Bekommt sie zu wenige, zu gleichartige oder zu belanglose Daten, wird sie nicht richtig verallgemeinern.

Nehmen wir etwa an, einem Bildanalysesystem sei die Erkennung von Bäumen beizubringen. Es ist sehr schwierig, in mathematischen Begriffen sauber zu beschreiben, was das Bild eines Baums von dem irgendeines anderen Gegenstandes unterscheidet; also wird man kaum feste Entscheidungsregeln finden, die man programmieren könnte. Statt dessen wird man dem System zahlreiche Beispielbilder zeigen, zusammen mit der Auskunft "Das ist ein Baum" beziehungsweise "Das ist kein Baum". Dadurch gewinnt es zwar ein gewisses, aber doch sehr unvollständiges Wissen über Bäume. Menschen wissen zum Beispiel, daß ein Baum ein Baum bleibt, auch wenn sein Bild ein bißchen verschoben, verkleinert oder vergrößert ist, und das, ohne darüber nachzudenken. Aber die Maschine weiß es nicht – es sei denn, man teilt es ihr ausdrücklich mit.

Selbst einfachste Hinweise können den Lernvorgang beschleunigen. Das ist ähnlich wie in dem Ratespiel, bei dem man nur "ja" und "nein" als Antworten bekommt: Einige wenige geschickte Fragen schränken die Suche nach der Lösung sehr schnell ein.

Ich habe dazu vor etwa sechs Jahren einen Formalismus entwickelt, den ich "Lernen aus Hinweisen" (learning from hints) nannte und der mittlerweile in vielen Lernsystemen angewandt wird. Wichtige Einsatzgebiete sind Handelssysteme für Finanzmärkte, das Lesen handgeschriebener Texte und eben die Entscheidung über Kreditkartenanträge.

Es ist zwar schwer zu sagen, was einen Bankkunden zu einem guten Kreditrisiko macht, aber eins ist offensichtlich: Wenn zwei Antragsteller in allen Merkmalen so gut wie gleich sind, nur daß der eine mehr verdient, dann wäre es widersinnig, ihm keinen Kredit zu geben, wenn der andere welchen bekommt. Dies ist einer von vielen möglichen Monotonie-Hinweisen. Schon während des Lernvorgangs sollte also die Maschine ihre freien Parameter nicht nur so einstellen, daß sie die vorgegebenen Outputs reproduziert, sondern so, daß außerdem die in den zusätzlichen Hinweisen gegebenen Bedingungen erfüllt sind.

Eine andere Anwendung, die unsere Arbeitsgruppe erprobt hat, betrifft den Devisenhandel. Ein System sollte lernen, den Kurs des US-Dollars gegenüber vier anderen bedeutenden Währungen vorherzusagen. Wir wollten herausfinden, ob es mit einer zusätzlichen Regel günstigere Kaufs- und Verkaufsempfehlungen geben würde.

Diese Regel, ein für den gesunden Menschenverstand offensichtliches Symmetrieargument, war den Beispieldaten nicht ohne weiteres zu entnehmen. Wenn die Mark gegenüber dem britischen Pfund annähernd dasselbe Muster an Kursschwankungen zeigt wie zu einem früheren Zeitpunkt der Dollar gegenüber der Mark, dann ist es vernünftig zu erwarten, daß der DM-Pfund-Kurs sich auch in den nächsten Tagen so entwickeln wird wie damals der Dollar-DM-Kurs. In diesem Sinne ist eine Währung gegen die andere austauschbar.

Unser Experiment war sehr erfolgreich. Beim (fiktiven) Handel mit allen vier Währungen erzielte das System durch Beachtung des Symmetrie-Hinweises eine nachhaltige Steigerung des Profits. Zur Kontrolle versuchten wir, das Programm auf zwei Weisen in die Irre zu führen: Als wir eine belanglose Zusatzinformation gaben, war das Ergebnis kaum anders als ohne Hint; und ein vorsätzlich falscher Hinweis minderte, wie erwartet, die Leistung erheblich. Der intelligente Tip hatte also wirklich geholfen (Bild 5).


Präsentation von Hints

Wie aus den genannten Anwendungen deutlich geworden ist, gibt es Zusatzinformationen verschiedenster Art: offensichtliche und eher verborgene, solche, die allgemein und bedingungslos gelten, und andere, die nichts weiter als einen vagen Trend beschreiben. Wie kann man die zugehörigen Hinweise in eine einheitliche Form bringen, so daß das System automatisch, ohne Eingriff im Einzelfall, von ihnen profitiert?

Die Antwort ist: Man bringe ihm die Zusatzinformation genauso bei wie den eigentlichen Lernstoff, nämlich in Form von Beispielen. Solche Input-Output-Paare sind ja nichts weiter als Zielvorgaben an die Maschine: "Wenn dieser Input vorliegt, solltest du diesen Output liefern"; und die zu lernende Funktion ist (vom Standpunkt der Maschine) durch die Menge der Beispiele erschöpfend definiert. Also erweitert man diese durch Beispiele, die den Hinweis zum Ausdruck bringen. Das ist unabhängig von der speziellen Art der Zusatzinformation möglich.

Wenn beispielsweise bei der Kreditkartengenehmigung der Monotonie-Hinweis (unter ansonsten gleichen Umständen ist der Besserverdienende kreditwürdiger) in das Verfahren einzubringen ist, gibt man der Maschine jeweils zwei Beispiele, deren Inputs sich nur in bezug auf das Gehalt unterscheiden und deren Outputs im Einklang mit dem Hinweis stehen. Falls das noch lernende System dem ärmeren Kunden Kredit gewährt und dem reicheren verweigert, greift wegen der Abweichung zwischen vorgegebenem und tatsächlichem Output der Korrekturalgorithmus ein und verändert die inneren Parameter in Richtung einer Beachtung des Hints. Die Fähigkeiten des Lernalgorithmus werden also erweitert, ohne daß er zu modifizieren wäre, denn er bekommt die Hinweise so wie alle andere Information auch: als Beispiele.

Derartige Hilfsbeispiele dürfen fiktiv sein. Man kann das Paar aus armem und reichem Mann erfinden, denn die Maschine soll an ihnen ja nur lernen, aber keine Entscheidung treffen. Ebenso ist es hilfreich, der Maschine Kursbewegungen der Mark vorzulegen, die nie stattgefunden haben, aber hätten stattfinden können, weil der Dollarkurs irgendwann dieses Muster gezeigt hat. Auch der Invarianz-Hinweis für die Bildverarbeitung läßt sich in Bilder von Gegenständen kleiden, die ohne jede Beziehung zum eigentlichen Lernziel sind (Bild 3): Beim Training würde man nicht fordern, daß der Output der Maschine "Baum" oder "kein Baum" ist, sondern nur, daß er etwa bei einer Skalierung des Input-Musters unverändert bleibt.

Es verbleibt die Aufgabe, die echten und die für die Einbringung von Hinweisen konstruierten Beispiele ins richtige Verhältnis zu bringen. Ein Lernalgorithmus pflegt jedes Input-Output-Paar als gleich wichtig einzustufen und die Parameter der Maschine dementsprechend einzustellen. Daraus folgt jedoch noch nicht, daß am Ende des Lernprozesses die Übereinstimmung zwischen vorgegebenem und vom System erzieltem Output gleichmäßig gut wäre. Vielmehr wird die Maschine typische Fälle, das heißt häufig vorkommende Beispiele, gut reproduzieren, exotische Fälle dagegen schlecht – was durchaus erwünscht ist, denn sonst würde ein einziger fauler Kunde mit erstklassigen Referenzen das Verhalten der Maschine übermäßig beeinflussen.

Das Sortiment der Lernbeispiele muß also eine repräsentative, ausgewogene Mischung sein. Die künstliche Vergrößerung dieses Sortiments durch Einbringen der Hinweise stört möglicherweise diese Balance; oder die Maschine schätzt einen unter mehreren ihr so übermittelten Hinweisen fälschlich für weniger wichtig ein als die anderen, weil die Anzahl der erläuternden Beispiele ungünstig gewählt wurde. Dann müßte sie ihm beim nächsten Durchgang des Lernprozesses erhöhte Aufmerksamkeit widmen. Das ist der Grundgedanke der adaptiven Minimierung, eines von mir entwickelten Algorithmus, der den verschiedenen Hinweisen während des Lernprozesses geeignete Gewichte zuweist, so daß sich nach und nach ein ausgewogenes Verhältnis der Hinweise zueinander und zu den eigentlichen Trainingsdaten ergibt.

Ich muß zugeben, daß die Idee dazu einer gewissen Notlage entsprang. Ich war eingeladen worden, über das maschinelle Lernen mit Hinweisen auf einer wissenschaftlichen Tagung zu sprechen. Erst am Abend zuvor entdeckte ich, daß mir zehn Minuten mehr als angenommen zugebilligt waren. Weil ich mein Publikum nicht mit einem zu kurzen Vortrag enttäuschen wollte, überlegte ich die ganze Nacht, wie die Ausführungen zu den Algorithmen noch irgendwie zu verlängern seien. Dabei entstand das Konzept der adaptiven Minimierung; der Vortrag tags darauf fand großen Beifall. Meine Zuhörer konnten nicht ahnen, wie aktuell diese Gedanken waren.


Lernhindernisse

Es bleibt noch viel zu tun. Unter den Fehlschlägen sind die schwersten wahrscheinlich auf eine Tendenz lernender Systeme zurückzuführen, Trainingsbeispiele überzubewerten (overlearning). Sie beherrschen dann entsprechende Situationen perfekt, aber ihre Fähigkeit zu verallgemeinern ist unterentwickelt.

Des weiteren ist maschinelles Lernen ein spezielles Optimierungsproblem; es leidet deshalb auch unter dessen charakteristischen Schwierigkeiten. Die optimale Einstellung der Parameter ist gleichsam der höchste Gipfel in einer abstrakten Gebirgslandschaft, den es zu erklimmen gilt; der Lernalgorithmus hat jedoch keinen globalen Überblick, sondern immer nur Kenntnis von der nächsten Umgebung seines jeweiligen Standpunktes; deswegen ist er stets in Gefahr, auf einem Nebengipfel steckenzubleiben (vergleiche Spektrum der Wissenschaft, März 1993, Seite 42).

Es gibt kein schnelles Verfahren, das diesen Fehler vermeiden würde. Manche Lernprobleme sind sogar nachweislich NP-vollständig, das heißt, wie beim notorischen Problem des Handlungsreisenden, die kürzeste Route durch zahlreiche Orte zu planen, wächst der Rechenzeitbedarf für das Finden des globalen Optimums mit zunehmender Größe des Problems ins Astronomische. In der Praxis arbeiten die Verfahren jedoch deutlich besser, als diese pessimistischen Abschätzungen befürchten lassen. Ein mit erträglichem Aufwand erreichbares gutes lokales Optimum genügt in der Regel für eine zufriedenstellende Leistung.

Trotz solcher Mißlichkeiten hat das maschinelle Lernen seine Nützlichkeit bereits in vielen realistischen Anwendungen erwiesen. Die Grundideen sind einige Jahrzehnte alt und entstammen der klassischen Optimierungstheorie, aber das Forschungsgebiet hat in den letzten Jahren neuen Aufschwung gewonnen. Mit den hier beschriebenen Erweiterungen und weiteren Fortschritten wird es in den kommenden Jahren unzweifelhaft auch für das tägliche Leben bedeutsamer werden.

Literaturhinweise

- Learning from Hints in Neural Networks. Von Yaser S. Abu-Mostafa in: Journal of Complexity, Band 6, Heft 2, Seiten 192 bis 198, Juni 1990. – Artificial Intelligence. Sonderausgabe von Communications of the ACM, Band 37, Heft 3, März 1994. – Learning from Hints. Von Yaser S. Abu-Mostafa in: Journal of Complexity, Band 10, Heft 1, Seiten 165 bis 178, März 1994. – Neural Networks in the Capital Markets. Herausgegeben von Paul Refenes. John Wiley, 1995. –


Aus: Spektrum der Wissenschaft 11 / 1995, Seite 84
© Spektrum der Wissenschaft Verlagsgesellschaft mbH

Kennen Sie schon …

Gehirn&Geist – Das Unbewusste

»Gehirn&Geist« im Titelthema »Das Unbewusste« und fragt, ob sich bewusste und unbewusste geistige Prozesse einfach so trennen lassen. Außerdem im Heft: Vertrauen: Warum wir anderen meistens glauben; Alien-Hand-Syndrom; Kränkungen: Was uns so verletzlich macht; Neue Serie: Geheimnisse des Riechens.

Spektrum Kompakt – Mensch und Maschine - Gehirn und KI im Vergleich

Maschinelles Lernen von künstlichen neuronalen Netze soll die Funktionsweise des Gehirns nachahmen. Dabei bringt die KI-Forschung auch Spannendes für die Neurowissenschaften zu Tage. Und wirft grundlegende philosophische Fragen auf.

Spektrum der Wissenschaft – Künstliche Intelligenz: Künstliche Intelligenz

Informatik: Der Siegeszug der neuronalen Netze • Lernalgorithmen: Maschinen imitieren kindlichen Verstand • Ethik: Ein Roboter muss auch Nein sagen können

Schreiben Sie uns!

Beitrag schreiben

Wir freuen uns über Ihre Beiträge zu unseren Artikeln und wünschen Ihnen viel Spaß beim Gedankenaustausch auf unseren Seiten! Bitte beachten Sie dabei unsere Kommentarrichtlinien.

Tragen Sie bitte nur Relevantes zum Thema des jeweiligen Artikels vor, und wahren Sie einen respektvollen Umgangston. Die Redaktion behält sich vor, Zuschriften nicht zu veröffentlichen und Ihre Kommentare redaktionell zu bearbeiten. Die Zuschriften können daher leider nicht immer sofort veröffentlicht werden. Bitte geben Sie einen Namen an und Ihren Zuschriften stets eine aussagekräftige Überschrift, damit bei Onlinediskussionen andere Teilnehmende sich leichter auf Ihre Beiträge beziehen können. Ausgewählte Zuschriften können ohne separate Rücksprache auch in unseren gedruckten und digitalen Magazinen veröffentlicht werden. Vielen Dank!