Direkt zum Inhalt
Login erforderlich
Dieser Artikel ist Abonnenten mit Zugriffsrechten für diese Ausgabe frei zugänglich.

Künstliche Intelligenz: KI erschafft KI

Schon lange versucht man, eine KI zu entwickeln, die wenige Trainingsdaten benötigen. Das ist dank übergeordneter KI-Programme, die den Aufbau von Netzen optimieren, nun gelungen.
Ein Roboterkind liest in einem Buch

Der Erfolg von künstlicher Intelligenz (KI) hängt aktuell weitesgehend von den verfügbaren Ressourcen ab. Tiefe neuronale Netze, eine bestimmte KI-Form, übertrafen beispielsweise vor zehn Jahren herkömmliche Algorithmen, weil erst zu diesem Zeitpunkt endlich genügend Daten und Rechenleistung zur Verfügung standen, um das Potenzial der Programme voll auszuschöpfen.

Heutige KI-Software ist sogar noch hungriger nach Informationen und Leistung als ihre älteren Versionen. Um sie zu trainieren, muss man die Werte von Millionen oder gar Milliarden von Parametern sorgfältig aufeinander abstimmen. Denn diese Variablen charakterisieren die riesigen Netzwerke, sie entsprechen unter anderem der Stärke der Verbindungen zwischen den künstlichen Neuronen. Ziel ist es, nahezu ideale Werte zu finden, damit das Programm eine bestimmte Aufgabe bestmöglich meistert. Dieser als Optimierung bekannte Prozess erweist sich allerdings als überaus schwierig. Es ist sehr aufwändig, die Netze bis zu diesem Punkt zu trainieren. »Das kann Tage, Wochen oder sogar Monate dauern«, so Petar Veličković, wissenschaftlicher Mitarbeiter bei DeepMind in London.

Das könnte sich bald ändern …

Von »Spektrum der Wissenschaft« übersetzte und bearbeitete Fassung des Artikels »Researchers Build AI That Builds AI« aus »Quanta Magazine«, einem inhaltlich unabhängigen Magazin der Simons Foundation, die sich die Verbreitung von Forschungsergebnissen aus Mathematik und den Naturwissenschaften zum Ziel gesetzt hat.

Kennen Sie schon …

Spektrum Kompakt – Quantencomputer - Neue Erkenntnisse und Verfahren

Diskutiert und selten gesehen: der Quantencomputer verspricht Fortschritt von Technik bis Medizin - doch stecken seine Berechnungen noch in den Kinderschuhen. Wie funktionieren die futuristischen Rechner und weshalb genügt der heimische PC ihren Zwecken teilweise nicht?

Spektrum - Die Woche – Wo Bäume mehr schaden als nützen

Drei Milliarden neue Bäume in der EU, zehn Milliarden in den USA, 70 Milliarden in China. Doch die ambitionierten Ziele für Aufforstungen könnten lokale Ökosysteme und Tierbestände gefährden. Außerdem in der aktuellen »Woche«: wieso der Hype um ultradünne Halbleitermaterialien berechtigt ist.

Spektrum der Wissenschaft – Das Geheimnis der Dunklen Energie

Seit ihrer Entdeckung ist der Ursprung der Dunklen Energie rätselhaft. Neue Teleskope und Theorien sollen Antworten geben. Außerdem: Mit DNA-Spuren aus Luft oder Wasser lässt sich die Verbreitung verschiedenster Arten störungsfrei erfassen. Lassen sich riesigen Süßwasservorkommen, die unter mancherorts unter dem Meeresboden liegen, als Reserven nutzen? RNA-Ringe sind deutlich stabiler als lineare RNA-Moleküle und punkten daher als Arzneimittel der nächsten Generation. Ein Mathematiker ergründete auf Vanuatu, wie die Sandzeichnungen der Bewohner mit mathematischen Graphen zusammenhängen.

Schreiben Sie uns!

Beitrag schreiben

Wir freuen uns über Ihre Beiträge zu unseren Artikeln und wünschen Ihnen viel Spaß beim Gedankenaustausch auf unseren Seiten! Bitte beachten Sie dabei unsere Kommentarrichtlinien.

Tragen Sie bitte nur Relevantes zum Thema des jeweiligen Artikels vor, und wahren Sie einen respektvollen Umgangston. Die Redaktion behält sich vor, Zuschriften nicht zu veröffentlichen und Ihre Kommentare redaktionell zu bearbeiten. Die Zuschriften können daher leider nicht immer sofort veröffentlicht werden. Bitte geben Sie einen Namen an und Ihren Zuschriften stets eine aussagekräftige Überschrift, damit bei Onlinediskussionen andere Teilnehmende sich leichter auf Ihre Beiträge beziehen können. Ausgewählte Zuschriften können ohne separate Rücksprache auch in unseren gedruckten und digitalen Magazinen veröffentlicht werden. Vielen Dank!

  • Quellen

Knyazev, B. et al.: Parameter Prediction for Unseen Deep Architectures. ArXiv: 2110.13100, 2021

Zhang, C. et al.: Graph HyperNetworks for Neural Architecture Search. ArXiv: 1810.05749, 2018

Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.