Direkt zum Inhalt

Atlas der digitalen Welt: Warum wissen wir so wenig über die digitale Welt?

Zu keinem Feld existieren mehr Daten und Informationen als zu den digitalen Medien. Doch was tatsächlich im Netz geschieht, wissen wir nicht: Wer macht was wo und wie lange?
DatenvisualisierungLaden...

Einleitung

Wie groß ist eigentlich das Internet?

Kennen Sie die Geschichte von der totalen Transparenz digitaler Medien? Vom Segen des Internet, durch das jede beliebige Information sofort per Mausklick in Millisekunden verfügbar ist? Und von der Kehrseite der Medaille: Dass jede unserer Bewegungen im Netz ständig überwacht und in Form von Big Data überall sofort verfügbar gemacht wird? Dass wir im Zeitalter der totalen Transparenz leben? Hört sich das für Sie irgendwie bekannt an?

Aber irgendetwas stimmt hier nicht.

Denn wie ist es dann erklärbar, dass wir über das Internet VIEL ZU WENIG wissen?

Möglicherweise schütteln Sie jetzt den Kopf. Die meisten Menschen verweisen an dieser Stelle darauf, dass es ja unglaublich viele Informationen über das Internet und digitale Medien gibt – nicht zuletzt im Netz selbst, das vollgepfropft ist mit Facts und Listicles und Studien. Gibt man bei Google etwa »Internet Statistics« ein, werden einem knapp zwei Milliarden Ergebnisse angeboten. Da könnte man sich ja schon mal informieren, nicht wahr?

Egal, wie viele Daten im Netz produziert werden – wir wissen zu wenig über die digitale Welt

Dennoch wiederholen wir unsere Frage noch einmal. Und behaupten erneut, dass Laien wie Experten über viele grundlegende Fragen digitaler Medien weitgehend im Dunkeln tappen.

Was wissen wir, was wissen wir nicht?

Vergessen Sie jetzt mal die ganzen Mikro-Informationen, die Sie kennen (Post X von Y hat wie viele Likes bekommen, Kylie Jenner hat soundsoviele Follower auf Instagram etc.).

Google-Treffer zum Suchbegriff »Internet Statistics«:
1 920 000 000 (Abrufdatum: 19.03.2020)

Stellen wir probeweise einmal ein paar grundsätzlichere Fragen:

  • Welche Ausmaße hat das Internet? Welche Inhalte stehen darin? Welche davon werden überhaupt genutzt, welche dagegen nicht? Welche Kategorien davon sind für die Nutzer eigentlich jeweils wie wichtig, machen welche Anteile des gesamten Netzes aus?
  • Welche Rolle spielen die verschiedenen Endgeräte (Desktop, Smartphone, Tablet) bei der Nutzung dieser Angebote und Aktivitäten?
  • Was machen die User eigentlich genau mit digitalen Medien? Shoppen, E-Mails schreiben, Social Media nutzen, Gambling und so fort: Wie wichtig sind diese verschiedenen Aktivitäten eigentlich im Verhältnis zueinander? Auf welchen Endgeräten finden sie jeweils statt?
Gerade wenn es um einfache Fragen geht, gibt es kaum Antworten

Denken wir dann an die Netzgiganten wie Google, Facebook, Amazon. Wir wissen, dass sie groß sind. Aber wie groß sind sie eigentlich genau? Nicht in Bezug auf ihre Umsätze (klar, die kennen wir), sondern auf ihre spezifische Rolle innerhalb des digitalen Universums. Denken wir einmal an Google: Wie groß ist eigentlich die Suchmaschine von Google im Verhältnis zu Google Maps im Verhältnis zu Gmail?

Wir kennen aus dem Fernsehen etwa die gute alte Einschaltquote. Was wäre denn zum Beispiel die »Einschaltquote« von Facebook verglichen mit Google oder Amazon?

Sicher können Sie jetzt anfangen zu googeln, und sicher werden Sie irgendwelche ziemlich beliebigen Informationen herausbekommen. Sie werden vielleicht einen Marktanteil finden von Google, aber eben nur im Markt der Suchmaschinen (Maps? Gmail?), ohne zu wissen, wie der sich nun zum gesamten Netz verhält. Der Marktanteil wird meist auf Befragungen basieren (deren Zuverlässigkeit häufig schlecht ist) oder bestenfalls Reichweiten zugrunde legen, ohne dass die tatsächlichen Nutzungsweisen bekannt sind.

Sie werden auf eine Unmenge von Studien und Statistiken treffen, bei denen oft nicht erklärt wird, auf welche Weise die Daten überhaupt gewonnen wurden. Noch schlimmer sind die millionenfach produzierten Listicles, die mittlerweile als Clickbait das Netz fluten: »135 insane Social Media Stats that Marketeers will have to know in 2020!« Alles wird mit allem verglichen, auch wenn die Daten aus völlig unvergleichbaren und häufig fadenscheinigen Quellen stammen.

Wir sehen den Wald vor lauter Bäumen nicht

Und klar können Sie zu all diesen Fragen Detailstudien finden. Stellen wir uns nun vor, Sie hätten genau dies versucht und zur Beantwortung unserer allgemeinen Fragen alles herausgesucht, was sie irgendwie und irgendwo ermittelt hätten. Und stellen wir uns vor, dass wir auch vorläufig die Zweifel an der Qualität ignorieren. Dann stellt sich immer noch das eigentliche Problem:

Wie soll man diese Millionen winziger Mikro-Informationssplitter dann in einen Zusammenhang bringen? Sie wissen meist nicht einmal, auf welche Weise die Informationen gemessen wurden. Sie haben keine Möglichkeit, die vollständig unterschiedlich erhobenen Daten und Zahlen irgendwie in ein Verhältnis zueinander zu setzen. Oft sind sogar die Werte hinter den einzelnen Parametern gar nicht miteinander vergleichbar, obwohl dieselben Begriffe verwendet werden (»Sessions«, »Impressions« etc.).

Fragwürdige Faktenflut vs. Mangel an Grundlagenstudien

Ist das nicht ein erstaunlicher Befund? Vergleichen wir das einmal mit der Vermessung der »echten« Welt: Stellen Sie sich vor, Sie wüssten zum Beispiel, dass Asien irgendwie »groß« ist und auch, dass im Osten »sehr viele Menschen leben«. Dass es da noch einen Kontinent gibt, im Süden irgendwo, auch sehr groß, Afrika genannt. Sie hätten auch ein paar sehr spezifische Informationen, wie etwa, dass Kairo 30°3‘ nördlicher Breite und 31°14‘ östlicher Länge liegt, nur dass Sie leider keine Ahnung haben, wie viele Menschen da eigentlich wohnen und in welchem Land sich diese Stadt überhaupt befindet (irgendwo in Afrika).

Dafür wüssten Sie aber zum Beispiel von der Stadt Fulda (und zu vielen anderen einzelnen, aber thematisch unzusammenhängenden Gegenständen) nicht nur die Postleitzahl und die Vorwahl, sondern auch die Tiefe des Flusses Fulda – und zwar für 27 Messstellen auf den Millimeter genau, ebenso wie die Wassertemperatur, zudem noch die Windgeschwindigkeit über Wasser, und das in Echtzeit, auf drei Stellen hinter dem Komma genau (diese Daten werden Ihnen natürlich zehntelsekundengenau real time über ein Dashboard vermittelt).

Ist es nicht seltsam, dass wir uns im Falle von digitalen Medien mit einer solchen Datenlage zufriedengeben, wenn man bedenkt, dass die digitale Transformation ein Thema mit allerhöchster gesellschaftlicher Relevanz ist?

Jeder, der sich in irgendeiner Form mit digitalen Medien beschäftigt, lebt also in einer paradoxen Welt. Sicher, zu keinem Feld existieren mehr Daten, Informationen und Statistiken. Aber es fehlen Antworten auf die grundsätzlichen Fragen, und wir verstehen die Zusammenhänge nicht mehr.

Wir geben uns mit einer erstaunlich schwachen Datenlage zufrieden

Erstaunlich ist, dass dieser Befund für alle gilt: Für interessierte Laien, für Schüler und Studenten. Für kleine und große Unternehmen. Für Politiker oder politisch Interessierte. Für digitale Nerds. Für Menschen, die sich Sorgen um Datenschutz oder die Smartphone-Nutzung ihrer Kinder machen, für SocialMedia-Experten, Marketingprofis, Mediaplaner oder CDOs der Unternehmen.

Wir benötigen einen allgemeinen Referenzrahmen, um die digitale Welt zu verstehen

Dieses Buch ist aus der Erkenntnis entstanden, dass uns ein allgemeiner Referenzrahmen fehlt, der uns helfen könnte, die Unzahl digitaler Einzeldaten zu kontextualisieren. Die Notwendigkeit eines solchen Projekts hat sich einerseits über langjährige Erfahrung im digitalen Management ergeben, aber auch und vor allem bei der universitären Lehre. Wie soll man Studierende auf dem Feld der digitalen Medien hervorragend ausbilden, wenn ein solides und belastbares Datenfundament fehlt?

Nur durch einen »ganzheitlichen Kompass« lassen sich alle Fakten einordnen

Das ist übrigens eine unbefriedigende Situation für uns alle, aber insbesondere für ein universitäres Fach wie etwa die Medienwissenschaft. Die Menge an Informationen, die Wissenschaftlern zur Verfügung steht, ist ja nur ein Bruchteil der Daten, die große Digital-Unternehmen wie Google, Amazon, Facebook besitzen. Diese Unternehmen eröffnen präzise und belastbare Informationen aber nur ihren Kunden, und das sind dann eben auch kundenspezifische Daten (sicherlich auch aus Datenschutzgründen). Dagegen stellen sie ihre Informationen kaum der wissenschaftlichen Forschung und der Öffentlichkeit zur Verfügung.

Das Resultat ist ein typisches Symptom des oben beschriebenen Paradoxes: Digitale Großunternehmen wissen quasi alles über das digitale Universum im Kompetenzfeld des eigenen Konzerns. Digitale Experten in der Wirtschaft wissen sicherlich ungeheuer viel, aber meist über recht kleine Ausschnitte. Ein Beispiel: Wenn ein Unternehmen etwa eine große Webseite unterhält, weiß es beispielsweise ganz genau, wie viele User an welchem Tage wie viele Sekunden auf dieser Plattform waren etc. Aber es fehlt auch hier den Profis häufig der Kontext und der Abgleich mit dem großen Ganzen, etwa ein Gefühl für die Verteilung des gesamten Traffic im digitalen Universum.

Zielsetzung dieses Buchs ist, eine solche 360°-Vermessung für das digitale Universum in Deutschland vorzulegen. Zu diesem Zweck wurden sämtliche im Markt befindliche Datenlösungen geprüft, wobei sich das Crossmedia Link Panel der GfK (Gesellschaft für Konsumforschung) als eine wissenschaftlich und qualitativ besonders hochwertige Datenbasis erwies.

Wichtige Fachbegriffe – einfach erklärt

Panel

Im Gegensatz zu der typischen Form einmaliger Befragungen beruhen Panels darauf, dass bei einer repräsentativen Zahl von Panel-Teilnehmern in wiederkehrenden Abständen immer dieselben Daten erhoben werden. Aus diesem Grund handelt es sich bei Panels um besonders hochwertige, aber auch sehr kosten- und arbeitsintensive wissenschaftliche Datenerhebungen.

Für diese Einschätzung gibt es einen einfachen Grund: Das Panel der GfK misst im Gegensatz zu anderen Erhebungen keine subjektiven Selbstbeschreibungen der Nutzer, sondern dokumentiert reale Mediennutzung bei einer repräsentativen Stichprobe von 16.000 Usern. Diese Erfassung des echten Nutzungsverhaltens erfolgt sekundengenau, URL-spezifisch, lässt sich trennscharf über die verschiedenen Endgerätekategorien (Desktop, Smartphone, Tablet) auflösen, hochgranular auswerten und über die verschiedenen Zeitperioden vergleichen.

Der Ursprungspunkt des Projekts war eine Bitte der Universität Köln an die GfK, diese bislang unveröffentlichten Daten für Forschungszwecke unentgeltlich zur Verfügung zu stellen. Erfreulicherweise hat sich die GfK schnell, flexibel und uneigennützig dazu bereit erklärt, was das Ergebnis dieser Kooperation und Partnerschaft überhaupt erst ermöglicht hat. Timo Thomsen hat zusätzlich seine Data-Analytics-Expertise als Co-Autor eingebracht.

Die Daten und Informationen, auf denen dieses Buch basiert, werden der Öffentlichkeit hier erstmals zugänglich gemacht

Die in diesem Buch aufbereiteten Daten basieren auf einem außerordentlich leistungsstarken Panel. Es ist überhaupt erst durch diesen enorm hohen Aufwand dieser Panel-Messungen möglich, dass eine ganzheitliche Beschreibung digitaler Medien auf der Grundlage ein und desselben zusammenhängenden Datensatzes überhaupt realisierbar wurde.

Lesermeinung

Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.