Direkt zum Inhalt
Login erforderlich
Dieser Artikel ist Abonnenten von Gehirn&Geist frei zugänglich.
Computerlinguistik

Interview mit einem Cog

Kognitive Systeme von Google & Co. entschlüsseln die Bedeutung von Sprache mit statistischen Methoden und künstlichen neuronalen Netzen. Als Nächstes sollen sie lernen, Geschichten zu verstehen
Robot nachdenklich

Im Frühjahr 2015 diskutierten IT-Experten in einschlägigen Blogs über ungewöhnliche Veränderungen bei Google. Ihre Websites waren in den Suchergebnissen plötzlich um etliche Ränge gestiegen oder abgerutscht. Es handle sich wohl um ein Update der Suchmaschine, vermuteten die Spezialisten. Google selbst äußerte sich zunächst nicht dazu. Erst im Herbst gab das Unternehmen bekannt: Eine künstliche Intelligenz namens RankBrain sei nun Teil der Google-Suchmaschine und erkenne Sinn und Absicht hinter mehrdeutigen oder umgangssprachlichen Suchanfragen.

RankBrain bestimmt seither mit, welchen Ausschnitt der digitalen Welt Google anzeigt. Damit ist das System längst nicht das einzige seiner Art. Seit Ende 2015 lässt unter anderem auch Facebook Fotos in der Timeline seiner Mitglieder von einer KI auswählen.

Aber handelt es sich dabei tatsächlich schon um künstliche Intelligenz? Experten sprechen lieber von kognitiven Systemen, kurz Cogs. Sie verfügen über Facetten der menschlichen Intelligenz, können beispielsweise mehrdeutige Wörter richtig interpretieren und Rückfragen stellen, um ein Problem zu präzisieren. Dabei optimieren sie sich ständig selbst – sie lernen. Natürliche Sprache zu erkennen, zu verstehen und zu produzieren, ist eine ihrer schwierigsten Aufgaben. …

9/2016

Dieser Artikel ist enthalten in Gehirn&Geist 9/2016

Kennen Sie schon …

Januar 2018

Spektrum der Wissenschaft – Januar 2018

In dieser Ausgabe widmet sich Spektrum der Wissenschaft den neuronalen Netzwerken. Außerdem: bunte Dinosaurier, die Buchhaltung der Babylonier und die Rückkehr der Mädchen

Sprache - Von fremden Worten und vertrauten Klängen

Spektrum Kompakt – Sprache - Von fremden Worten und vertrauten Klängen

Unsere Sprache verrät vieles: Kommunizieren wir in unserer Mutter- oder einer Fremdsprache, klingt ein Dialekt oder ein Akzent durch, reden wir mit einem Kind oder einem Erwachsenen? All das ist zu hören. Aber gibt es wirklich eine Universalgrammatik, und wie funktionieren eigentlich Pfeifsprachen?

Dossier 4/2017

Gehirn&Geist – Dossier 4/2017: Lernen und Gedächtnis

Besser lernen: Die fünf effektivsten Strategien • Persönlichkeit: Wie Erinnerungen uns prägen • Amnesie: Blackout im Gehirn

Lesermeinung

Beitrag schreiben

Wir freuen uns über Ihre Beiträge zu unseren Artikeln und wünschen Ihnen viel Spaß beim Gedankenaustausch auf unseren Seiten! Bitte beachten Sie dabei unsere Kommentarrichtlinien.

Tragen Sie bitte nur Relevantes zum Thema des jeweiligen Artikels vor, und wahren Sie einen respektvollen Umgangston. Die Redaktion behält sich vor, Leserzuschriften nicht zu veröffentlichen und Ihre Kommentare redaktionell zu bearbeiten. Die Leserzuschriften können daher leider nicht immer sofort veröffentlicht werden. Bitte geben Sie einen Namen an und Ihren Zuschriften stets eine aussagekräftige Überschrift, damit bei Onlinediskussionen andere Teilnehmer sich leichter auf Ihre Beiträge beziehen können. Vielen Dank!

  • Quellen

Biemann, C., Riedl, M.: Text: Now in 2D! A framework for lexical expansion with contextual similarity. In: Journal of Language Modelling 1, S. 55–95, 2013

Bitkom: Kognitive Maschinen – Meilenstein in der Wissensarbeit. Leitfaden. Berlin 2015.

Cambria, E. et al.: SenticNet. A Publicly Available Semantic Resource for Opinion Mining. In: Commonsense Knowledge: Papers from the AAAI Fall Symposium (FS-10-02)

Cambria, E., White, B.: Jumping NLP Curves. A Review of Natural Language Processing Research. In: IEEE Computational Intelligence Magazine (5), S. 48-57, 2014

Chambers, N. et al.: Dense Event Ordering with a Multi-Pass Architecture. In: Transactions of the Association for Computational Linguistics 2, S. 273-284, 2014

Chambers, N. et al.: Identifying Political Sentiment between Nation States with Social Media. In: Proceedings for Empirical Methods in Natural Language Processing, S. 65–75, 2015

Conway, M., O’Connor, D.: Social Media, Big Data, and Mental Health: Current Advances and Ethical Implications. In: Current Opinion in Psychology 9, S. 77-82, 2016

Erickson, L.C., Thiessen, E.D.: Statistical Learning of Language: Theory, Validity, and Predictions of a Statistical Learning Account of Language Acquisition. In: Developmental Review 37, S. 66-108, 2015

Graefe, A. et al.: Readers’ perception of computer-generated news: Credibility, expertise, and readability. In: Journalism 2016, DOI: 10.1177/1464884916641269

Hirschberg, J., Manning, C.D.: Advances in Natural Language Processing. In: Science 349, S. 261-266, 2015

Ittoo, A. et al.: Text Analytics in Industry: Challenges, Desiderata and Trends. In: Computers in Industry 78, S. 96-107, 2016

Li Dong et al.: A Statistical Parsing Framework for Sentiment Classification. In: Association for Computational Linguistics 2015, doi:10.1162/COLI a 00221

Manning, C. D. et al.: The Stanford CoreNLP Natural Language Processing Toolkit. In: Proceedings of the 52nd Annual Meeting of the Association for Computational Linguistics: System Demonstrations, S. 55-60, 2014

Onan, A. et al.: Ensemble of Keyword Extraction Methods and Classifiers in Text Classification. In: Expert Systems with Applications 57, S. 232-247, 2016

Roth, M., Frank, A.: Inducing Implicit Arguments from Comparable Texts: A Framework and its Applications. In: Computational Linguistics 41, S. 625-664, 2015

Winston, P.H.: Model-Based Story Summary. In: 6th Workshop on Computational Models of Narrative, 2015