Direkt zum Inhalt

Simulation des menschlichen Assoziationsvermögens

Menschen können in Gedanken leicht von einem Thema zum anderen springen. Dieses spontane Assoziieren läßt sich per Computer nachahmen, wenn der Rechner sehr große Mengen von Texten nach gemeinsam auftretenden Wörtern analysiert.


Ein Mensch lernt hierzulande bereits in den ersten Lebensjahren ohne große Mühe, daß ein Feuerwehrauto rot ist und "tatütata" macht. Wissen dieser Art in verarbeitbarer Form in einen Computer einzuspeisen ist nach wie vor sehr schwer – in krassem Gegensatz zu der Verarbeitung von Daten und Zahlen nach wohldefinierten Prozeduren.

Es handelt sich um assoziatives Wissen: Ein Mensch pflegt zwei Ereignisse, die er gleichzeitig oder fast gleichzeitig wahrnimmt, gedanklich zu verknüpfen. Wird er an eines von ihnen erinnert, etwa indem er das Signal eines Feuerwehrautos oder auch nur das Wort "Feuerwehrauto" hört, kommen die damit verbundenen Wahrnehmungen oder Begriffe – im Beispiel die Farbe Rot – mit ins Bewußtsein. Gefestigt wird eine assoziative Verknüpfung durch häufige Wiederholung – etwa beim Vokabellernen – oder durch starke emotionale Beteiligung, weswegen einem Menschen Ereignisse wie die eigene Hochzeit noch lange Zeit später in allen Einzelheiten erinnerlich sind.

Um in einem Computer assoziatives Wissen dieser Art aufzubauen, müßte man ihm ein breites Sortiment an Erlebnissen verschaffen – wie einem Kleinkind. Es gibt allerdings ein Surrogat für eigene Erlebnisse: geschriebene Texte. Ebenso wie zeitlich nah beieinander liegende Wahrnehmungen auf einen inneren Zusammenhang hindeuten, ist der Schluß erlaubt, daß in einem Text eng benachbarte Wörter etwas miteinander zu tun haben. Das gilt in beiden Fällen unter der Voraussetzung, daß diese Verknüpfung hinreichend häufig oder regelmäßig auftritt und nicht nur dadurch zustande kommt, daß eine ihrer Komponenten ein Allerweltsereignis beziehungsweise -wort ist.

Ein Mensch verknüpft assoziativ Begriffe, wenn er die zugehörigen Wörter oft genug zusammen gehört oder gelesen hat. Das gilt selbst dann, wenn er die Gegenstände, von denen die Rede ist, nicht kennt oder sie sich noch nicht einmal vorstellen kann. In dieser Situation befindet sich auch ein Computerprogramm. Gleichwohl kann es durch schlichtes Auszählen von Wortpaarhäufigkeiten in Texten, die ihm eingegeben werden, ein Äquivalent von assoziativen Verknüpfungen finden. Es ergibt sich ein Netz (ein "Gedächtnismodell"), in dem zwei Wörter um so stärker miteinander verknüpft sind, je öfter sie gemeinsam vorkommen. Dieses Netz reproduziert mit erstaunlicher Genauigkeit das Muster der assoziativen Verknüpfungen im Kopf eines Menschen.

Das habe ich (Rapp) in mehreren Experimenten an der Universität Paderborn festgestellt. Versuchspersonen sollten zu einem Wort (dem "Stimulus") ein anderes nennen, das ihnen spontan dazu einfiel. Die Antworten sind relativ einheitlich. In manchen Fällen antworten bis zu 80 Prozent der Probanden gleich. Derselbe Grad an Übereinstimmung ergibt sich zwischen einer menschlichen und der (computersimulierten) künstlichen Assoziation; das ist dasjenige Wort, das in den ausgezählten Texten am häufigsten in der Nähe des Stimulus und zugleich am seltensten ohne den Stimulus auftritt. Oft stimmt die künstliche Assoziation mit dem meistgenannten Wort der Versuchspersonen überein. Die Computersimulation kann also genauso gut die Assoziationen eines Menschen vorhersagen wie ein anderer Mensch (Bild auf Seite 12).

Allerdings bedarf es für ein brauchbares Wortnetz sehr großer Textmengen. Erst ab einer Größenordnung von Gigabyte (zwei Gigabyte entsprechen ungefähr einer Million Buchseiten) zeigen sich bemerkenswerte Effekte. Computer mit der zugehörigen Leistungsfähigkeit stehen aber erst seit einigen Jahren zur Verfügung.

Ein künstliches Gedächtnismodell kann den Prozeß des Erinnerns recht getreu nachbilden (Kasten). Wenn das Netz das Wort Partner "hört", wird der Knoten Partner erregt: Der Computer setzt eine abstrakte Variable namens Aktivität für diesen Knoten auf einen hohen Wert. Ein erregter Knoten kann nun einen anderen aktivieren, und zwar um so mehr, je stärker die Verbindung zwischen beiden ist – wie eine stimulierte Nervenzelle, wenngleich im menschlichen Gehirn sicherlich nicht einzelne Neuronen für einzelne Wörter zuständig sind. Die Erregung pflanzt sich fort, so daß Knoten, die in einer Gruppe eng verbunden sind, sich gegenseitig zu großer Erregung hochschaukeln – die zu einem Wort passenden Assoziationen werden ins Gedächtnis gerufen.

Das Netzmodell liefert auch sinnvolle Resultate, wenn es nicht nur eines, sondern eine Reihe von Wörtern gleichzeitig oder kurz hintereinander als Eingabe erhält. In diesem Fall werden mehrere Knoten gleichzeitig aktiviert, und die Erregung breitet sich von allen Quellen aus gleichzeitig aus. So ergibt die initiale Aktivierung der Wörter Wirkung, Gewalt, Fernsehen und Kinder höchste Aktivitäten in den Knoten Gewalt, Aggression, Brutalität, Fernsehen, TV, Kinder und Jugendliche. Das Netz findet also neue ähnliche Begriffe und läßt unspezifische wie Wirkung weg.

Dieses Modell hat bereits unmittelbaren Nutzen für die Werbewirtschaft. So zeigte es zum Beispiel, daß als Antwort auf die Stimuluswörter Eichhörnchen, Frühstück und Nuß ein Wort wie Leistung hoch aktiviert wird. Zu Schokolade und Wüste ergibt sich mit hoher Aktivierung die Assoziation schmelzen. Daraus kann eine Werbeagentur entnehmen, daß ein in der Wüste gedrehter Werbespot für Schokolade in jedem Sinne uncool wäre, und sich den Aufwand für die Dreharbeiten und das Austesten sparen.

Assoziationen – natürliche wie künstliche – sind auch hilfreich, wenn man eine gewünschte Information durch eine Menge von definierten Schlagwörtern ausdrücken muß, so beim Suchen in Bibliothekskatalogen oder im Internet. Unsere künstlichen Netze könnten deshalb auch im Prinzip dazu dienen, geeignete Suchbegriffe für Suchmaschinen wie AltaVista oder Lycos zu finden und Journalisten beim Formulieren prägnanter Überschriften zu unterstützen.

Durch die Erstellung des Netzes – also im wesentlichen die Auszählung der Paarhäufigkeiten – wird tatsächlich Wissen aus den Textvorlagen extrahiert, nämlich das Wissen, das die Autoren beim Schreiben ihrer Texte verwendet haben. Es ist zwar nur in impliziter Form vorhanden, aber gleichwohl nutzbar. Eine hübsche Anwendung ist das Lösen von Kreuzworträtseln. Wenn man die zur Beschreibung des gesuchten Begriffs dienenden Wörter als Stimuli verwendet, stellt das Netz beispielsweise richtig fest, daß es sich bei einem "Staat in Hinterindien" um Laos handeln müsse.

Eine Form des impliziten Wissens ist die Bedeutungsähnlichkeit. Kann man der Textstatistik entnehmen, ob zwei Wörter dasselbe oder ungefähr dasselbe bedeuten?

Viele Psychologen suchen einen Zugang über den Vergleich von Eigenschaften. Wörter sind sich ähnlich, wenn ihre Konzepte viele gemeinsame Eigenschaften haben. Findet man solche Eigenschaften in Texten, so lassen sie sich vergleichen und damit Wortähnlichkeiten bestimmen. Nun werden in Texten normalerweise nicht die wesentlichen Eigenschaften der benannten Dinge beschrieben. Sie sind so selbstverständlich, daß sich die Erwähnung erübrigt. Weiße Schimmel und junge Babys kommen in normalen Texten einfach nicht vor. Was aber erwähnt wird, sind sogenannte akzidentielle Eigenschaften, also im wesentlichen mögliche oder potentielle Eigenschaften.

Daß Orange und Apfelsine Synonyme sind, kann man erkennen, wenn man viele ähnliche Textstellen findet wie: reife Orange, reife Apfelsine, süße Orange, süße
Apfelsine, Apfelsinenkonsum, Orangenkonsum, Sie essen Orangen, Sie essen Apfelsinen
. In erster Näherung kann man somit Wörter für bedeutungsähnlich erklären, wenn sie viele gemeinsame künstliche Assoziationen haben.

Dieses Verfahren läßt sich durch eine Syntaxanalyse noch effizienter gestalten. Diese stellt nicht nur fest, ob zwei Wörter nahe beieinander vorkommen, sondern auch, ob sie sich aufeinander beziehen. In dem Satz Ich schäle die Orange mit dem Messer ist Messer keine Eigenschaft von Orange, sondern von schälen. Das gemeinsame Vorkommen von Orange und Messer sollte also nicht so hoch bewertet werden wie das von Orange und schälen.

Sucht man mit dieser Methode nach Wörtern, die einem gegebenen Wort bedeutungsähnlich sind, so findet man unter den zehn höchstbewerteten Wörtern im Durchschnitt sieben Treffer. Das ist um so erstaunlicher, als in das Verfahren überhaupt keine Informationen über die Wortbedeutungen eingehen – allenfalls die Grammatikregeln einer Sprache.

Unser Verfahren würde sogar in einem Test auf Sprachkompetenz ganz gut abschneiden. Der Test of Eng-lish as a Foreign Language (TOEFL) für Ausländer, die in den USA studieren wollen, enthält Aufgaben, in denen zu einem gegebenen Wort aus vier angebotenen Möglichkeiten ein Synonym zu finden ist. Nicht muttersprachliche Menschen erreichen dabei im Schnitt etwa 63 Prozent korrekte Antworten. Unser System bringt es mit dem angegebenen Kriterium – große Anzahl gemeinsamer Kontextwörter – sogar auf eine Trefferquote von 70 Prozent, und zwar gleichermaßen mit und ohne Syntaxanalyse. Mit Syntaxanalyse geht es allerdings schneller, da weniger Eigenschaften als Kontextwörter zu vergleichen sind.

Bislang kann die Software nur ermitteln, ob, nicht aber in welcher Weise Wörter einander ähnlich sind, ob sie also Synonyme, Oberbegriffe, Teilbegriffe oder Antonyme sind. An diesem Problem wird gerade gearbeitet. Wir hoffen, eines Tages Thesauri mit Fachwortschätzen sowie Ober- und Unterbegriffen, Synonymen und Antonymen vollautomatisch erstellen zu können.

Liefert die Suche nach Synonymen auch ein besseres Ergebnis als die reine Kontextanalyse, wenn es darum geht, das Wort zu finden, das einem Menschen zu einem gegebenen Wort am ehesten einfällt? Immerhin handelt es sich in der Hälfte der Fälle um bedeutungsähnliche Wörter. Bislang liegen beide Methoden annähernd gleichauf, wobei die Syntaxanalyse zwar die Effizienz, nicht aber die Qualität steigert.

Selbst in den großen von uns verarbeiteten Textkorpora gibt es immer noch sprachliche Phänomene, die gar nicht oder für eine brauchbare statistische Analyse zu selten vorkommen. Deshalb versucht man sich mittlerweile zu Textmengen in der Größenordnung dessen vorzuarbeiten, was ein Mensch während des Spracherwerbs rezipiert: etwa 100 Millionen Wörter. Zusätzlich werden die Analysemethoden immer ausgefeilter. Leider brauchen sie in der Regel auch mehr Rechenzeit und Speicherplatz, so daß man schnell an die Kapazitätsgrenzen der Rechner stößt. Insofern läßt der anhaltende Leistungszuwachs der Computer für die Zukunft noch große Fortschritte erwarten.


Aus: Spektrum der Wissenschaft 2 / 2000, Seite 12
© Spektrum der Wissenschaft Verlagsgesellschaft mbH

Schreiben Sie uns!

Beitrag schreiben

Wir freuen uns über Ihre Beiträge zu unseren Artikeln und wünschen Ihnen viel Spaß beim Gedankenaustausch auf unseren Seiten! Bitte beachten Sie dabei unsere Kommentarrichtlinien.

Tragen Sie bitte nur Relevantes zum Thema des jeweiligen Artikels vor, und wahren Sie einen respektvollen Umgangston. Die Redaktion behält sich vor, Zuschriften nicht zu veröffentlichen und Ihre Kommentare redaktionell zu bearbeiten. Die Zuschriften können daher leider nicht immer sofort veröffentlicht werden. Bitte geben Sie einen Namen an und Ihren Zuschriften stets eine aussagekräftige Überschrift, damit bei Onlinediskussionen andere Teilnehmende sich leichter auf Ihre Beiträge beziehen können. Ausgewählte Zuschriften können ohne separate Rücksprache auch in unseren gedruckten und digitalen Magazinen veröffentlicht werden. Vielen Dank!

Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.