Direkt zum Inhalt
Login erforderlich
Dieser Artikel ist Abonnenten mit Zugriffsrechten für diese Ausgabe frei zugänglich.

Computerlinguistik: Interview mit einem Cog

Kognitive Systeme von Google & Co. entschlüsseln die Bedeutung von Sprache mit statistischen Methoden und künstlichen neuronalen Netzen. Als Nächstes sollen sie lernen, Geschichten zu verstehen
Robot nachdenklich

Im Frühjahr 2015 diskutierten IT-Experten in einschlägigen Blogs über ungewöhnliche Veränderungen bei Google. Ihre Websites waren in den Suchergebnissen plötzlich um etliche Ränge gestiegen oder abgerutscht. Es handle sich wohl um ein Update der Suchmaschine, vermuteten die Spezialisten. Google selbst äußerte sich zunächst nicht dazu. Erst im Herbst gab das Unternehmen bekannt: Eine künstliche Intelligenz namens RankBrain sei nun Teil der Google-Suchmaschine und erkenne Sinn und Absicht hinter mehrdeutigen oder umgangssprachlichen Suchanfragen.

RankBrain bestimmt seither mit, welchen Ausschnitt der digitalen Welt Google anzeigt. Damit ist das System längst nicht das einzige seiner Art. Seit Ende 2015 lässt unter anderem auch Facebook Fotos in der Timeline seiner Mitglieder von einer KI auswählen.

Aber handelt es sich dabei tatsächlich schon um künstliche Intelligenz? Experten sprechen lieber von kognitiven Systemen, kurz Cogs. Sie verfügen über Facetten der menschlichen Intelligenz, können beispielsweise mehrdeutige Wörter richtig interpretieren und Rückfragen stellen, um ein Problem zu präzisieren. Dabei optimieren sie sich ständig selbst – sie lernen. Natürliche Sprache zu erkennen, zu verstehen und zu produzieren, ist eine ihrer schwierigsten Aufgaben. ...

Kennen Sie schon …

Spektrum Kompakt – Quantencomputer - Neue Erkenntnisse und Verfahren

Diskutiert und selten gesehen: der Quantencomputer verspricht Fortschritt von Technik bis Medizin - doch stecken seine Berechnungen noch in den Kinderschuhen. Wie funktionieren die futuristischen Rechner und weshalb genügt der heimische PC ihren Zwecken teilweise nicht?

Spektrum - Die Woche – Die Macht der Gute-Nacht-Geschichte

Vorlesen fördert nicht nur das Buchstabenverständnis, es ist sogar ein wichtiger Grundstein für die soziale Entwicklung. Was die Gute-Nacht-Geschichte alles bewirken kann, lesen Sie in der aktuellen »Woche«. Außerdem: Die Écalle-Theorie bringt endliche Antworten auf unendlich scheinende Fragen.

Spektrum - Die Woche – Wo Bäume mehr schaden als nützen

Drei Milliarden neue Bäume in der EU, zehn Milliarden in den USA, 70 Milliarden in China. Doch die ambitionierten Ziele für Aufforstungen könnten lokale Ökosysteme und Tierbestände gefährden. Außerdem in der aktuellen »Woche«: wieso der Hype um ultradünne Halbleitermaterialien berechtigt ist.

Schreiben Sie uns!

Beitrag schreiben

Wir freuen uns über Ihre Beiträge zu unseren Artikeln und wünschen Ihnen viel Spaß beim Gedankenaustausch auf unseren Seiten! Bitte beachten Sie dabei unsere Kommentarrichtlinien.

Tragen Sie bitte nur Relevantes zum Thema des jeweiligen Artikels vor, und wahren Sie einen respektvollen Umgangston. Die Redaktion behält sich vor, Zuschriften nicht zu veröffentlichen und Ihre Kommentare redaktionell zu bearbeiten. Die Zuschriften können daher leider nicht immer sofort veröffentlicht werden. Bitte geben Sie einen Namen an und Ihren Zuschriften stets eine aussagekräftige Überschrift, damit bei Onlinediskussionen andere Teilnehmende sich leichter auf Ihre Beiträge beziehen können. Ausgewählte Zuschriften können ohne separate Rücksprache auch in unseren gedruckten und digitalen Magazinen veröffentlicht werden. Vielen Dank!

  • Quellen

Biemann, C., Riedl, M.: Text: Now in 2D! A framework for lexical expansion with contextual similarity. In: Journal of Language Modelling 1, S. 55–95, 2013

Bitkom: Kognitive Maschinen – Meilenstein in der Wissensarbeit. Leitfaden. Berlin 2015.

Cambria, E. et al.: SenticNet. A Publicly Available Semantic Resource for Opinion Mining. In: Commonsense Knowledge: Papers from the AAAI Fall Symposium (FS-10-02)

Cambria, E., White, B.: Jumping NLP Curves. A Review of Natural Language Processing Research. In: IEEE Computational Intelligence Magazine (5), S. 48-57, 2014

Chambers, N. et al.: Dense Event Ordering with a Multi-Pass Architecture. In: Transactions of the Association for Computational Linguistics 2, S. 273-284, 2014

Chambers, N. et al.: Identifying Political Sentiment between Nation States with Social Media. In: Proceedings for Empirical Methods in Natural Language Processing, S. 65–75, 2015

Conway, M., O’Connor, D.: Social Media, Big Data, and Mental Health: Current Advances and Ethical Implications. In: Current Opinion in Psychology 9, S. 77-82, 2016

Erickson, L.C., Thiessen, E.D.: Statistical Learning of Language: Theory, Validity, and Predictions of a Statistical Learning Account of Language Acquisition. In: Developmental Review 37, S. 66-108, 2015

Graefe, A. et al.: Readers’ perception of computer-generated news: Credibility, expertise, and readability. In: Journalism 2016, DOI: 10.1177/1464884916641269

Hirschberg, J., Manning, C.D.: Advances in Natural Language Processing. In: Science 349, S. 261-266, 2015

Ittoo, A. et al.: Text Analytics in Industry: Challenges, Desiderata and Trends. In: Computers in Industry 78, S. 96-107, 2016

Li Dong et al.: A Statistical Parsing Framework for Sentiment Classification. In: Association for Computational Linguistics 2015, doi:10.1162/COLI a 00221

Manning, C. D. et al.: The Stanford CoreNLP Natural Language Processing Toolkit. In: Proceedings of the 52nd Annual Meeting of the Association for Computational Linguistics: System Demonstrations, S. 55-60, 2014

Onan, A. et al.: Ensemble of Keyword Extraction Methods and Classifiers in Text Classification. In: Expert Systems with Applications 57, S. 232-247, 2016

Roth, M., Frank, A.: Inducing Implicit Arguments from Comparable Texts: A Framework and its Applications. In: Computational Linguistics 41, S. 625-664, 2015

Winston, P.H.: Model-Based Story Summary. In: 6th Workshop on Computational Models of Narrative, 2015

Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.