Direkt zum Inhalt

Zwischen Ahnung und Analyse: Wie viel Wissenschaft steckt in Vorhersagen?

Prognosen sind allgegenwärtig – ob bei Pandemien, Kriegen oder der Entwicklung von KI. Doch wie verlässlich sind diese Vorhersagen, wenn selbst Experten und Algorithmen oft falschliegen?
Eine Glaskugel am Ostseestrand, in der sich Strand und Meer spiegeln
Ein Blick in die Glaskugel soll die Zukunft vorhersagen. Beim Forecasting setzen die Fachleute auf bewährtere Methoden – aber auch diese werden kritisiert.

Vermutlich seit den Anfängen der Kultur selbst florieren Orakel, Horoskope und Kristallkugeln: Der Mensch will wissen, was die Zukunft bringt. Allerdings hatten Vorhersagen gesellschaftlicher Entwicklungen schon immer eine ziemlich niedrige Trefferquote – ganz gleich, ob sie von Magiern oder Experten stammen. So soll IBM-Chef Thomas Watson im Jahr 1943 behauptet haben, die Welt werde vielleicht fünf Computer benötigen. Und noch 1946 war Filmproduzent Darryl Zanuck überzeugt, das Fernsehen werde sich nicht durchsetzen, »weil niemand jeden Abend in eine Sperrholzkiste starren will«.

Während früher Mönche und Sterndeuter aus Bibelzitaten oder der Anordnung von Planeten und Sternbildern die Zukunft zu lesen versuchten, verlässt man sich heute auf Forecasting-Plattformen, Thinktanks und künstliche Intelligenz. Sie alle sollen voraussagen, welche Trends künftig wichtig werden. Der »Forecaster« Misha Yagudin ist überzeugt: Man kann lernen, kompetitive Prognosen zu treffen. Das Vorgehen klingt moderner – aber ist es auch wissenschaftlicher?

Einige Kritiker, darunter der Mediziner, Unternehmer und Wissenschaftsautor Thomas Grüter, sind skeptisch: Denn viele der Vorhersagen sind nicht verifizierbar. Der Erfolg solcher Institute hänge oft weniger von der Qualität ihrer Prognosen ab als vielmehr vom richtigen Marketing: »Wer regelmäßig auf internationalen Konferenzen erscheint und frühere Treffer geschickt inszeniert, gewinnt leichter Kundschaft.«

Prognosen als Teamsport: Die Methode Samotsvety

Der junge Forecaster Yagudin ist Mitgründer der internationalen Vorhersagegruppe Samotsvety, die 2020 einen der renommiertesten Wettbewerbe auf INFER gewann, einer Plattform für quantitative Vorhersagen. Die Gruppe zählt inzwischen 15 Mitglieder weltweit und arbeitet ausschließlich mit öffentlich zugänglichen Informationen. Insiderwissen? Brauchen sie nicht. Die Kunst einer guten Prognose bestehe darin, im Datenstrom Muster zu erkennen, die andere übersehen. »Oft hat eine kleine Beobachtung mehr Gewicht als 1000 Fakten«, sagt Yagudin.

Ein Beispiel dafür ist die Anekdote über einen US-amerikanischen Unternehmer, der in den 1940er Jahren bemerkt haben soll, dass der Staat verstärkt Uranminen aufkaufte – und damit indirekt auf das damals streng geheime Manhattan-Projekt stieß, erzählt Yagudin die Geschichte, die sich nicht lückenlos nachprüfen lässt. »Er wusste nicht, dass es um eine Atombombe geht. Aber er erkannte ein ungewöhnliches Muster.«

Und diese Fähigkeit lässt sich trainieren. Denn wir alle treffen ständig Entscheidungen auf Basis von Prognosen: »Wenn ich in einem Start-up anfange, schätze ich dessen Erfolgschancen ein. Wenn ich Bürgermeister bin, muss ich das Pandemierisiko bewerten, um zu entscheiden, ob neue Krankenhäuser gebaut werden sollen«, erklärt Yagudin.

Seine Gruppe funktioniert wie ein Debattierklub mit Wahrscheinlichkeiten: »Wir wählen eine interessante Frage, analysieren sie zunächst unabhängig voneinander, diskutieren dann intensiv – und kommen so der Wahrheit hoffentlich näher.« Ein Schlüssel zum Erfolg von Samotsvety liegt demnach in der Vielfalt: Menschen mit unterschiedlichen Denkweisen kommen zusammen und führen produktive Diskussionen. »In der Regel sind diejenigen, die früher gut prognostiziert haben, auch in Zukunft erfolgreich.«

»Gute Prognostiker erkennt man nicht daran, dass sie sich seltener irren, sondern daran, dass bei 15 Prozent Wahrscheinlichkeit ein Ereignis auch in etwa 15 von 100 Fällen eintritt«Misha Yagudin, Forecaster

Die Mitglieder lassen sich mit dem Begriff »Füchse« beschreiben – ein Begriff aus der Prognoseforschung des Psychologen Philip E. Tetlock. Füchse denken breit und flexibel, nutzen viele Informationsquellen, sind offen für neue Erkenntnisse und passen ihre Einschätzungen an, wenn sich die Faktenlage ändert. Sie akzeptieren Unsicherheiten und denken in Wahrscheinlichkeiten.

Viele Menschen verstehen Vorhersagen hingegen als eine klare Aussage. Soll ich mich gegen Risiko X versichern oder nicht? Und wenn das Ereignis nicht eintritt, heißt es schnell: »Ihr habt euch geirrt.« Doch so funktioniere Prognostik nicht, betont Yagudin. Eine Wahrscheinlichkeit von 51 Prozent bedeute nicht, dass ein Ereignis eintreten werde – nur, dass es etwas wahrscheinlicher ist als nicht. Entscheidend sei die langfristige Genauigkeit über viele Vorhersagen hinweg. »Gute Prognostiker erkennt man nicht daran, dass sie sich seltener irren, sondern daran, dass bei 15 Prozent Wahrscheinlichkeit ein Ereignis auch in etwa 15 von 100 Fällen eintritt.«

Prognostik als Handwerk: Kalibrierung statt Kristallkugel

Um das Handwerk des Vorhersagens zu erlernen, gründete Yagudin gemeinsam mit Kolleginnen und Kollegen die Bildungsplattform Quantified Intuitions. Sie soll dabei helfen, Prognosekompetenz zu entwickeln – also den Umgang mit Wahrscheinlichkeiten. Die Zielgruppe: Menschen, die sich für analytisches Denken und Entscheidungsfindung interessieren und die ihre Fähigkeiten verbessern wollen, Überzeugungen sinnvoll zu begründen und bei Bedarf zu revidieren. Auf der Website gibt es Tools, mit denen sich das so genannte Kalibrieren trainieren lässt. Gemeint ist damit die Fähigkeit, sagen zu können: »Ich glaube, dass dieses Ereignis mit einer Wahrscheinlichkeit von 70 Prozent eintritt« – und dass bei 100 solcher Aussagen ungefähr 70 tatsächlich zutreffen.

Dazu bietet die Plattform verschiedene Trainingsformate: Im Calibration Game zum Beispiel müssen Nutzer Fragen beantworten und zugleich angeben, wie sicher sie sich sind – etwa in Form von Konfidenzintervallen. Ziel ist es, die eigene Treffsicherheit realistisch zu bewerten. Beim »Pastcasting« wird die Prognosefähigkeit anhand von Fragen zu bereits bekannten, dem Nutzer aber nicht vertrauten Ereignissen getestet. Dadurch erhält man unmittelbares Feedback und kann die eigene Intuition gezielt nachjustieren. Solche Methoden stammen aus der Forschung zur kognitiven Psychologie und helfen, Intuition in Zahlen zu übersetzen.

»Weil die Zukunft nur einmal eintritt, kann man nicht objektiv entscheiden, wer Recht hat. Wissenschaft aber lebt davon, dass Aussagen nachvollziehbar und überprüfbar sind«Thomas Grüter, Mediziner

Den Mediziner Thomas Grüter überzeugt das nicht. Denn Wahrscheinlichkeitsaussagen seien in vielen Fällen kaum praxisrelevant: »Wenn jemand hört, er habe ein fünfprozentiges Risiko, an Krebs zu erkranken – was soll er damit anfangen?« Die Lebensplanung des Einzelnen hänge nur davon ab, ob er tatsächlich krank werde oder nicht. Auch bei globalen Risiken werde es schwierig: Manche bezifferten das Risiko eines Atomkriegs mit 30 Prozent, andere mit fünf. »Weil die Zukunft eben nur einmal eintritt, kann man nicht objektiv entscheiden, wer Recht hat. Naturwissenschaft lebt aber davon, dass Aussagen nachvollziehbar und überprüfbar sind.«

Im Jahr 2021 gelang es dem Team von Samotsvety, den Krieg in der Ukraine vorherzusagen – ein Erfolg, der der Gruppe breite Bekanntheit verschaffte. Mit Hellsehen hatte diese Prognose nichts zu tun, sondern mit systematischer Analyse. »Viele wollten damals nicht glauben, dass es zu einer groß angelegten Invasion kommen könnte. Doch es gab Hinweise, auf die man achten musste: der Truppenaufmarsch an der Grenze, ungewöhnlich lange Manöver, Geheimdienstberichte«, erklärt Yagudin. Die Forecasting-Gruppe ging zunächst davon aus, dass ein Krieg zwar unwahrscheinlich, aber möglich sei; mit einer geschätzten Wahrscheinlichkeit von 15 Prozent pro Jahr. Als sich die Lage weiter zuspitzte, etwa durch anhaltende Truppenbewegungen, passte man die Einschätzung schrittweise an. Irgendwann lag sie bei über 50 Prozent. »Da war uns klar: Die Invasion ist fast unausweichlich«, sagt der Forecaster.

Für Grüter sind solche Berechnungen wenig überzeugend. Etwa drei Wochen vor Kriegsbeginn sei auch für ihn ersichtlich gewesen, dass Russland einen Angriff plane – nicht auf Basis von Wahrscheinlichkeiten, sondern wegen politischer Logik. Vier Tage vor dem russischen Angriff hat er seine Argumente in einem Blogbeitrag festgehalten. Das Ultimatum an die NATO und die USA war für ihn ein klares Signal: Solche Forderungen stelle man nicht ohne konkrete Absicht. Prognosen in Prozenten hält er in solchen Fällen für wenig hilfreich – am Ende zähle, ob man den Ernst der Lage erkennt, nicht, mit welcher Zahl man ihn beziffert.

»Je weiter ein Ereignis in der Zukunft liegt, desto größer die Unsicherheit – und desto ungenauer die Prognosen«Misha Yagudin, Forecaster

Forecaster geben zu, dass sich die Zukunftsszenarien nur innerhalb eines begrenzten Zeitraums vorhersagen lassen. »Ein bis drei Jahre sind realistisch«, so Yagudin. In diesem Zeitraum könne man noch auf analytische Ansätze zurückgreifen, die professionellen Prognostikern fundierte Einschätzungen erlauben. »Unsere Daten zeigen: Je weiter ein Ereignis in der Zukunft liegt, desto größer die Unsicherheit – und desto ungenauer die Prognosen.«

In der Regel interessieren sich viele Akteure aber weniger für ferne Zukunftsszenarien als für konkrete Risiken in naher Zeit: Droht ein Engpass bei Ölimporten? Ist eine Versicherung gegen geopolitische Risiken sinnvoll? Für solche Fragen greifen Hedgefonds oder Versicherungen auf Plattformen wie Polymarket zurück. »Dort wetten Menschen mit Geld darauf, ob ein Ereignis eintritt oder nicht – und das führt zu aggregierten Wahrscheinlichkeiten, die auf der kollektiven Einschätzung vieler Teilnehmer beruhen«, weiß Yagudin.

Die Zukunft der KI – und wer sie voraussagt

Immer mehr Zukunftsprognosen drehen sich um die künftigen Fähigkeiten und Einsatzgebiete von künstlicher Intelligenz (kurz: KI). Yagudin hat AI Digest gegründet, ein Projekt, das wichtige Trends in der KI-Entwicklung sichtbar macht. Das dazugehörige Team analysiert laufend neue Agentensysteme und tauscht sich dabei mit anderen Forschenden aus.

Einer davon, der US-amerikanische KI-Forscher Daniel Kokotajlo, veröffentlichte im Jahr 2021 auf dem AI Alignment Forum eine detaillierte Vorhersage der KI-Entwicklung bis 2026. Er erwartete zum Beispiel, dass KI-Modelle bis dahin in der Lage sein würden, Bilder zu erzeugen, die so realistisch sind, dass sie menschliche Betrachter täuschen können. Doch er ging auch davon aus, dass die Chip-Knappheit bis 2024 durch den Bau neuer Fabriken behoben sein würde – in der Realität hat sich die Situation aber nicht entspannt. Solche Rückblicke helfen dabei, einzuschätzen, wie gut jemand tatsächlich in die Zukunft blickt.

Im März 2025 veröffentlichte die gemeinnützige Organisation METR eine neue Methode zur Bewertung von KI-Fähigkeiten, die sich auf die benötigte Dauer stützt, bis ein KI-Modell eine Aufgabe erfolgreich abgeschlossen hat. Dieser Ansatz misst den Umfang von Problemen, die ein KI-Modell mit einer bestimmten Erfolgswahrscheinlichkeit bewältigen kann, basierend auf der Zeit, die ein menschlicher Experte für dieselbe Aufgabe benötigen würde. Die Studie ergab, dass die KI-Systeme bis 2030 in der Lage sein könnten, Projekte eigenständig durchzuführen, die derzeit menschliche Arbeitskräfte mehrere Wochen oder sogar Monate beschäftigen.

»Schon im selben Jahr erreichten KI-Systeme Ergebnisse, die ich erst drei Jahre später erwartet hatte. Das war ein ziemlich klarer Fehlschlag«Misha Yagudin, Forecaster

Das rasante Tempo der KI-Technologien hat selbst Yagudin überrascht. 2021 sagte er die Leistungsfähigkeit künftiger KI-Systeme im Lösen mathematischer Aufgaben vorher – und lag deutlich daneben. »Schon im selben Jahr erreichten die Systeme Ergebnisse, die ich erst drei Jahre später erwartet hatte. Das war ein ziemlich klarer Fehlschlag«, gibt er zu.

Mit dieser Fehleinschätzung stand er nicht allein. Auf der Vorhersageplattform Metaculus lässt sich nachvollziehen, wie sich mit dem Erscheinen neuer KI-Modelle die Einschätzungen darüber, wann ein starker KI-Agent (also ein System, das eigenständig komplexe Aufgaben löst, Ziele verfolgt und sich an neue Situationen anpassen kann) zu erwarten sei, regelmäßig in Richtung naher Zukunft verschieben. »Wir bewegen uns schneller vorwärts, als es selbst die kühnsten Optimisten für möglich hielten«, sagt Yagudin.

Wer entscheidet in Zukunft: Mensch oder Maschine?

Der Forecaster hat eine düstere Prognose auf Lager: KI-gestützte Assistenten könnten künftig kriminelle oder terroristische Handlungen erleichtern. Wenn Systeme entstehen, die klüger sind als Menschen, dann könnten sie sehr viel Macht und Ressourcen konzentrieren. »Falls solche Systeme Entscheidungen treffen, die nicht im Sinne der Demokratie sind, wird es gefährlich«, warnt Yagudin. Er bietet aber auch andere Zukunftsaussichten: »Wenn wir es schaffen, einen Teil der geistigen Arbeit sinnvoll zu automatisieren, könnte das echte technologische Durchbrüche bringen – und vielleicht eine robustere, nachhaltigere Wirtschaft.«

Der aus seiner Sicht vielversprechendsten KI-Trend sei die psychologische Selbsthilfe. Was früher ein Therapeut übernommen habe, könne bereits heute eine KI leisten; wertfrei, jederzeit verfügbar: »Künftig könnten Menschen digitale Begleiter an ihrer Seite haben, mit denen sie jederzeit sprechen können.« Grüter zeigt sich jedoch skeptisch. Heutige KI-Technologien seien letztlich nur Kommunikationssimulatoren: »Psychologische Hilfe funktioniert nicht ohne echtes Gegenüber; Menschen bleiben soziale Wesen.«

»Viel besser als ein Zeitungshoroskop hat es bisher niemand geschafft, die Zukunft vorherzusagen«Thomas Grüter, Mediziner

Noch sind es Menschen, die versuchen, die Zukunft zu berechnen – doch schon bald könnte das die künstliche Intelligenz übernehmen. Dass KI ihn, den Forecaster, eines Tages überflüssig machen könnte, hält Yagudin für wenig wahrscheinlich. » Die KI hat uns Menschen zwar im Schach geschlagen – aber wir spielen noch immer Schach.«

Ob KI oder Mensch, Grüter hält Zukunftsvorhersagen weiterhin aus wissenschaftlicher Sicht für wenig belastbar. KI kann zwar verborgene Muster erkennen, aber die Modelle liefern – je nach Trainingsdaten – sehr unterschiedliche Ergebnisse. Damit sei die Technologie kaum verlässlicher als menschliche Experten. Als Beispiel nennt Grüter das jährliche »Global Risks«-Ranking des Weltwirtschaftsforums: Dort gelten regelmäßig jene Ereignisse als größte Zukunftsgefahr, die gerade aktuell sind. 2022 war es die Pandemie, heute sind es Atomkriege oder Großmachtkonflikte – Themen, die in den Jahren zuvor kaum Beachtung fanden. »Das wird mit der KI nicht anders sein. Viel besser als ein Zeitungshoroskop hat es bisher niemand geschafft, die Zukunft vorherzusagen.«

WEITERLESEN MIT »SPEKTRUM +«

Im Abo erhalten Sie exklusiven Zugang zu allen Premiumartikeln von »spektrum.de« sowie »Spektrum - Die Woche« als PDF- und App-Ausgabe. Testen Sie 30 Tage uneingeschränkten Zugang zu »Spektrum+« gratis:

Jetzt testen

(Sie müssen Javascript erlauben, um nach der Anmeldung auf diesen Artikel zugreifen zu können)

  • Quellen
Kwa, T. et al.: Measuring AI ability to complete long tasks. ArXiv: 2503.14499, 2025

Schreiben Sie uns!

Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.

Partnerinhalte

Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.