Direkt zum Inhalt

Jugend im Netz: Brauchen Social Media Grenzen?

Im Internet lauern viele Gefahren für Kinder und Jugendliche. Könnte eine verbindliche Altersgrenze für Instagram, TikTok und Snapchat sie besser schützen?
Ein Kind mit einem rosa Rucksack steht auf einer Treppe und schaut auf ein Smartphone. Es hält sich mit einer Hand am Geländer fest. Die Umgebung wirkt wie ein Schulgebäude.
Schon Grundschulkinder besitzen ein Smartphone und bewegen sich damit teils selbstständig in digitalen Räumen.

Dieser Artikel wurde erstmals am 10.11.2025 veröffentlicht.

Lina und Mailin, die eigentlich anders heißen, sind 13 Jahre alt. Beide haben ein eigenes Smartphone und finden es im Alltag praktisch. »Ich schreibe viel mit Freundinnen auf WhatsApp und bin in einer Klassengruppe und so«, erzählt Mailin. Sie habe auch einige kleinere Gruppen, zum Beispiel für Schulprojekte. »Man kann sich damit leicht verständigen, das ist einfacher als ein Brief«, fügt Lina hinzu. E-Mails? Die Frage lässt beide schmunzeln: Das nutzen sie so gut wie gar nicht, höchstens mal für die Schule.

Das Handy gehört für die zwei Mädchen schon eine ganze Weile zum Alltag. Mailin bekam ihres mit zehn Jahren und war dann sofort auf WhatsApp unterwegs. Lina musste länger warten: »Meiner Mutter war es wichtig, dass ich nicht so früh damit anfange. Deshalb habe ich erst mit elf oder zwölf ein Handy bekommen.« Neben WhatsApp nutzen die beiden vor allem YouTube. Seit Kurzem hat Mailin außerdem Snapchat und vernetzt sich auch dort mit Freundinnen.

All das könnte für die beiden vorerst ein Ende haben. Denn gerade wird – zuweilen hitzig – diskutiert, ob soziale Medien bis zu einem bestimmten Alter verboten werden sollten. Vielleicht bis 13, dann hätten Mailin und Lina Glück: Diese Grenze empfiehlt etwa die Nationale Akademie der Wissenschaften Leopoldina in einem Diskussionspapier vom August 2025. Zwischen 13 und 15 solle der Zugang dann aber auch nur mit elterlicher Zustimmung möglich sein.

Andere Stimmen, etwa die des Grünen Cem Özdemir, der zum Ende der Ampel-Regierung kurzzeitig Bundesminister für Bildung und Forschung war, wünschen sich sogar eine Sperre bis 16 Jahre. Dann müssten Lina, Mailin und viele andere junge Menschen ihre Apps erst mal ganz aufgeben.

Wie die Diskussion in Deutschland weitergeht, bleibt abzuwarten. Die aktuelle Bundesbildungsministerin Karin Prien von der CDU hat dazu eine Expertenkommission angekündigt, die sich generell um einen besseren Jugendschutz im Internet kümmern soll. Darunter auch um die Frage nach möglichen Altersgrenzen für Social-Media-Plattformen.

Australien hat 2024 als erstes westliches Land ein gesetzliches Mindestalter für soziale Medien beschlossen – ähnliche Regelungen gibt es aber auch zum Beispiel in China. Ab Dezember 2025 dürfen Kinder und Jugendliche unter 16 Jahren in Australien offiziell keine Accounts mehr bei Plattformen wie Instagram, TikTok oder Snapchat anlegen. Auch YouTube ist von der Maßnahme betroffen. Anbieter müssen das Alter ihrer Nutzenden prüfen und riskieren bei Verstößen Geldstrafen von bis zu 50 Millionen australischen Dollar, umgerechnet gut 28 Millionen Euro. 15-Jährige oder Jüngere können die Inhalte zwar weiterhin ansehen, dürfen jedoch kein eigenes Nutzerprofil mehr anlegen. Denn erst mit einer persönlichen Anmeldung entstehen individuell zugeschnittene Feeds – und genau die fördern das endlose Scrollen, so der Gedanke.

Australien gilt damit als Testfall für viele andere Länder, die ähnliche Schritte prüfen. Die Regierung begründet das Vorhaben auch mit wachsendem öffentlichem Druck: In mehreren Umfragen befürworten mehr als drei Viertel der Eltern eine strengere Alterskontrolle, weil sie sich von den Plattformen alleingelassen fühlen. Zugleich regt sich Kritik von Pädagoginnen und Pädagogen, die befürchten, dass die Regelung vor allem symbolischen Charakter hat. Down Under wagt einen Schritt, den viele andere Demokratien bislang scheuen. Auch weil die Folgen schwer abzuschätzen sind.

Zeit für Digitales

Dass Handlungsbedarf besteht, scheint jedenfalls offensichtlich: In der aktuellen DAK-Studie zur Mediensucht gaben 94 Prozent der befragten Mädchen und 90 Prozent der Jungen zwischen 10 und 17 Jahren an, mindestens einmal wöchentlich Social Media zu nutzen. Täglich bewegten sich rund sieben von zehn Jugendlichen in den entsprechenden Apps. Und zwar nicht nur »mal kurz«: An Wochentagen verbrachten sie im Schnitt mehr als zweieinhalb Stunden damit, an den Wochenenden sogar fast vier pro Tag.

Oft leiden reale Kontakte darunter. Dafür gibt es längst ein eigenes Wort: »Phubbing« – das Ignorieren des Gegenübers durch ständige Smartphone-Nutzung, zusammengesetzt aus den englischen Begriffen »phone« und »snubbing«, also jemanden brüskieren. Mehr als jedes dritte befragte Kind berichtet davon, sich schon mal nicht wahrgenommen gefühlt zu haben, weil die Familie oder Freunde und Freundinnen stattdessen auf ihre Handys schauten. Umgekehrt passiert das den Eltern auch. In der DAK-Studie wird allerdings nicht unterschieden, ob Phubbing in der Familie oder unter Gleichaltrigen auftrat.

Hinzu kommen die Risiken der digitalen Welt: Cybermobbing, Cybergrooming, Hass- und Gewaltposts sowie das hohe Suchtpotenzial. Die Diskussion um diese Probleme ist nicht neu – und tatsächlich haben einige Plattformen eigene Altersbeschränkungen eingeführt. Auf TikTok etwa dürfen Kinder unter 13 Jahren theoretisch keine Videos posten oder kommentieren und erhalten bloß ausgewählte Inhalte. Zwischen 13 und 15 dürfen sie lediglich mit Freundinnen und Freunden interagieren. Eltern können zudem eingeschränkt mitkontrollieren, was ihre Kinder sehen. Auch WhatsApp nennt in seinen Nutzungsbedingungen ein Mindestalter von 13 Jahren.

Das Problem dabei bringt Stephan Dreyer vom Leibniz-Institut für Medienforschung in Hamburg auf den Punkt: »Das sind nur Vertragsbedingungen, die werden sparsam durchgesetzt und liegen im Ermessen der Anbieter.« Es gebe demnach keine gesetzliche Regelung wie etwa im Jugendmedienschutz mit den Altersfreigaben für Filme oder auf Packungen von Computerspielen. »Das geht bei diesen Plattformen nicht, weil das gesamte Angebot sehr unterschiedliche Inhalte hat.« Einzelne Posts könnten vielleicht mit Hinweisen wie »ab 18 Jahren« versehen werden, doch die Verantwortung der Anbieter greife erst, wenn sie von problematischen Inhalten wüssten. Prävention sehe anders aus. Wäre eine gesetzliche Regelung also der richtige Schritt?

»Es ist kaum belegt, welche Einflüsse tatsächlich auf soziale Medien zurückzuführen sind«Isabel Brandhorst, Psychologin

Befürwortende verweisen auf mögliche negative Auswirkungen sozialer Medien auf Kinder und Jugendliche. So fand etwa eine 2022 veröffentlichte Übersichtsstudie 68 wissenschaftliche Artikel zu ungünstigen Effekten: In 19 davon ging es um Depressionen, in jeweils 15 um Ernährung und psychische Probleme, andere berichteten von Schlafstörungen, Sucht, Ängsten, Verhaltensproblemen, sexuellen Schwierigkeiten, einem negativen Selbstbild, zu wenig Bewegung und mehr. 2021 untersuchte ein chinesisches Forschungsteam der Southwest University in Chongqing mehr als 3000 Studierende. Dabei fand es einen Zusammenhang zwischen übermäßiger TikTok-Nutzung und Gedächtnisproblemen, Depressionen und Angstsymptomen – ohne jedoch Ursache und Wirkung benennen zu können.

Trotz solcher Hinweise bleibt die Forschungslage dünn, betont Isabel Brandhorst, Leiterin der Forschungsgruppe Internetnutzungsstörungen am Universitätsklinikum Tübingen: »Es ist kaum belegt, welche Einflüsse tatsächlich auf soziale Medien zurückzuführen sind.« Zu viele Faktoren spielten hinein – von der Pandemie bis hin zu Sorgen um den Klimawandel. Wie die chinesische Studie stützen sich viele Untersuchungen stark auf Korrelationen. Das bedeutet: Sie zeigen Zusammenhänge, können aber nicht klären, ob soziale Medien wirklich Auslöser oder lediglich Begleitfaktor bestimmter Probleme sind. Gerade diese Unschärfe macht es so schwierig, eindeutige Schlüsse zu ziehen.

Zudem beziehen sich viele Studien gar nicht auf Minderjährige. »Wir nehmen an, dass Social Media für Kinder besonders schädlich sind, weil sie noch wenig Impulskontrolle haben und kaum reflektieren können, was gerade passiert. Aber belastbare Belege fehlen«, sagt Brandhorst. Forschung mit unter 16-Jährigen sei schwierig, weil immer auch die Zustimmung der Eltern nötig sei. Entsprechend beziehen sich viele Analysen auf ältere Jugendliche oder junge Erwachsene.

Wackelige Details

Einige Studien betrachten die Lage differenzierter. So fand ein systematisches Review von 2025 zu TikTtok keine robuste Evidenz für negative Folgen. Vielmehr komme es auf das individuelle Nutzungsverhalten und die psychologischen Merkmale der Jugendlichen an. Ein Beispiel: Wer lange passiv durch den Feed scrollt, ist oft unzufriedener mit dem Leben; wer aktiv Inhalte erstellt, berichtet dagegen von höherer Lebenszufriedenheit. Werden solche Aspekte in Studien nicht abgefragt, kann das die Effekte schnell verzerren. Auch bei Schönheitsidealen ergibt sich kein eindeutiges Bild. Zwar gibt es Untersuchungen, die eine geringere Zufriedenheit mit dem eigenen Körper und ein größeres Risiko für Essstörungen durch Apps wie TikTok beobachten. Andere Analysen finden hingegen keinen signifikanten Zusammenhang.

Skeptisch sieht Brandhorst auch feste Altersgrenzen: »Wenn man die Frage rein neurologisch-klinisch beantworten wollte, läge das passende Alter wohl eher bei Anfang 20.« Doch selbst Erwachsene unterschieden sich stark in ihrer Impuls- und Selbstkontrolle. »Zwischen 14 und 16 Jahren beobachten wir einen Peak psychischer Erkrankungen – eine Grenze bei 13 Jahren erscheint deshalb fragwürdig.« Dennoch sieht Brandhorst einen Vorteil: »Ein Verbot könnte eine gesellschaftliche Diskussion anstoßen und solchen Eltern den Rücken stärken, die Social Media mit einem schlechten Gefühl erlauben.«

Die Leopoldina formuliert in ihrem Statement den Wunsch, »für 13- bis 17-Jährige sollen die sozialen Netzwerke zudem altersgerecht gestaltet werden – beispielsweise bei den algorithmischen Vorschlägen, durch ein Verbot von personalisierter Werbung oder durch die Unterbindung besonders suchterzeugender Funktionen wie Push-Nachrichten und endloses Scrollen«. Dass das in der Realität umsetzbar ist, kann sich Isabel Brandhorst aber nur schwer vorstellen: »Ich persönlich bin sehr pessimistisch, dass die Anbieter die Anwendung so gestalten, dass sie wirklich kinderfreundlich ist, weil sie dann nämlich nichts mehr daran verdienen.«

Chancen bleiben außen vor

Lina und Mailin haben bisher wenig schlechte Erfahrungen gemacht. »Manchmal kommen komische perverse Sticker oder homophobe oder rassistische Kommentare in einem Gruppenchat«, sagt Lina. »Als mal so was passiert ist, hat eine Freundin dem Typen dann im Chat die Meinung gesagt und dann kam nichts mehr.« Ein Verbot fände Lina schlimm, obwohl sie die Argumente dafür verstehen kann. »Ich finde eher, die einzelnen Personen sollten entfernt werden, die etwas Blödes schreiben, so wird das bei uns gemacht.«

Tatsächlich sprechen sich auch verschiedene Fachleute gegen eine solche Altersbeschränkung aus. Der Vizepräsident des Kinderschutzbundes, Joachim Türk, sagte dem Redaktionsnetzwerk Deutschland, Kinder müssten zwar geschützt werden, hätten aber auch ein Recht auf digitale Teilhabe. Dazu brauche es altersgerechte Angebote. Pauschale Verbote dagegen würden Jugendliche später unvorbereitet in die Erwachsenenwelt entlassen.

Das gilt umso mehr, als soziale Medien für die jungen Menschen auch Chancen bieten. Dort können sie sich kreativ ausdrücken, Gleichgesinnte und Unterstützung finden – besonders wichtig für marginalisierte Gruppen.

Viele Heranwachsende informieren sich in sozialen Medien über Politik und aktuelle Themen. Das birgt Risiken, da Falschinformationen schwer zu erkennen sind. Objektives Wissen bleibt zudem schlechter haften als bei klassischen Medien. Eine aktuelle Studie aus dem Jahr 2025 legt jedoch nahe, dass es vor allem auf die Art der Präsentation ankommt. Arbeiten Info-Accounts mit interaktiven Fragen zu ihren Posts, können sie damit genauso effektiv Wissen vermitteln wie ein Newsletter – und sind für junge Menschen möglicherweise deutlich interessanter. Gerade hier würde ein Verbot zu kurz greifen, fürchtet die Gymnasiallehrerin und Medienexpertin Anika Osthoff vom Anne-Frank-Gymnasium in Werne, Nordrhein-Westfalen: »Wenn wir darüber reden, digitale Räume einzuschränken und zu verbieten, dann müssen wir genauso darüber sprechen, wo die analogen Räume sind, in denen sich die Kinder und Jugendlichen dann aufhalten und informieren können.«

Was ist wirklich sinnvoll und machbar?

Stephan Dreyer spricht noch einen oft unbeachteten, rechtlichen Aspekt an: die Kinderrechte. Sie bestehen aus drei Säulen: Schutz, Befähigung und Teilhabe. »Dazu gehört auch, Kinder in Entscheidungen einzubeziehen. Ich würde mir eine Lösung wünschen, die ihre Rechte mitbedenkt.« Sein Vorschlag: ein Basis-Account, bei dem zunächst alle problematischen Funktionen und Inhalte gesperrt sind. Wer älter ist, könnte stufenweise mehr freischalten – nach Altersverifikation.

»Alle Eltern müssen sich damit auseinandersetzen«Anika Osthoff, Gymnasiallehrerin

Technisch sei das möglich, so der Medienrechtler. »Altersfeststellungsverfahren gibt es im deutschen Recht seit 2002. Über 100 sind als geeignet anerkannt.« Sie reichen vom Vorzeigen des Ausweises per Webcam über biometrische Schätzungen bis hin zu sogenannten walletbasierten Verfahren, bei denen ein offizielles Dokument im Smartphone hinterlegt wird.

Solche Altersfeststellungen könnten also genutzt werden, um ein Verbot durchzusetzen – oder die Angebote der Plattformen altersgerecht zu gestalten. Vollständig sicher können sie freilich nie sein: Sobald ein Kind beispielsweise den Account der Eltern nutzt, kann es weiterhin alles sehen und tun. Spätestens hier kommt in jedem Fall die Pflicht der Familie ins Spiel, die Minderjährigen ausreichend zu schützen.

Kommunikation in Familie und Schule

Laut einer Befragung des Bundesamts für Sicherheit in der Informationstechnik sprechen weniger als ein Drittel der Eltern mit ihren Kindern über Risiken im Netz, bevor sie ein internetfähiges Gerät anschaffen. Auch Mailin redet mit ihrer Mutter kaum über die sozialen Medien. Informiert ist sie trotzdem: »Das Thema Cybermobbing und so hatten wir alles in der Schule. Da kamen mehrmals Polizisten zu uns und haben uns alles erklärt.« Dazu gab es Arbeitsaufträge und Nachbesprechungen. Mailin fand das gut und achtet sehr genau darauf, wer in den Apps ihre Informationen sehen kann. Die Standortbestimmung hat sie als Erstes ausgeschaltet, und sie nimmt nur Anfragen von Leuten an, die sie bereits aus dem nichtdigitalen Leben kennt.

Dass viele junge Menschen die Netzwerke sehr differenziert betrachten, zeigt auch ein narratives Review aus Großbritannien. Die Autorinnen identifizierten darin die Hauptthemen, die 13- bis 17-Jährige beschäftigen: Sie erleben soziale Netzwerke als Ort des Selbstausdrucks, der Unterstützung und des Engagements – zugleich aber als Raum ständiger Vergleiche, sozialen Drucks und potenzieller Kränkungen.

Das verdeutlicht, was viele Fachleute fordern: Statt pauschaler Verbote braucht es Vorbereitung und Begleitung. »Das Wichtigste ist, im Gespräch zu bleiben – so banal das klingt«, sagt Anika Osthoff. Eltern sollten sich stets dafür interessieren, was ihre Kinder online tun. »Natürlich wäre es schön, wenn sie nicht zu früh ein Smartphone bekämen.« Derzeit sei das jedoch schlicht realitätsfremd.

Wie kann es funktionieren?

Ein Tipp, den Osthoff Eltern geben möchte: »Ich würde den Kindern unbedingt sagen, dass Algorithmen trainierbar sind.« Ganz kontrollieren lasse sich der Feed zwar nie. »Aber wer versteht, wie Algorithmen funktionieren, kann sich eine Bubble schaffen, in der Inhalte erscheinen, die ihn wirklich weiterbringen.«

Den Einwand, viele Erziehungsberechtigte hätten weder Zeit noch Wissen, lässt Osthoff nicht gelten: »Alle Eltern müssen sich damit auseinandersetzen – so wie sie sich auch informieren, welcher Kinderwagen am besten passt oder welche Nahrung geeignet ist.« Auch Schulen sieht sie in der Pflicht: Digitale Bildung lasse sich in fast jedes Fach integrieren, sofern Lehrkräfte entsprechend geschult seien. Fortbildungen seien daher entscheidend. Im Idealfall sollte Medienbildung fest im Stundenplan verankert sein.

Forschende, die in verschiedenen Publikationen Vorschläge für eine sinnvolle Unterstützung beim Medienkonsum von Kindern und Jugendlichen zusammengetragen haben, sehen Handlungsbedarf auf mehreren Ebenen. So sollte man die Medienkenntnis von Eltern und Kindern gleichermaßen stärken. Gleichzeitig dürften Minderjährige nur Zugriff auf altersgerechtes Material haben und müssten Ausgleich in der realen Welt erfahren – etwa durch feste Routinen, guten Schlaf und Bewegung. Wie der optimale Umgang mit den sozialen Medien aussieht, sei individuell verschieden. Letztendlich braucht es jedoch wohl eine Mischung aus Kontrolle, Bildung, Befähigung und gegenseitigem Verständnis.

WEITERLESEN MIT »SPEKTRUM +«

Im Abo erhalten Sie exklusiven Zugang zu allen Premiumartikeln von »spektrum.de« sowie »Spektrum - Die Woche« als PDF- und App-Ausgabe. Testen Sie 30 Tage uneingeschränkten Zugang zu »Spektrum+« gratis:

Jetzt testen

(Sie müssen Javascript erlauben, um nach der Anmeldung auf diesen Artikel zugreifen zu können)

  • Quellen

Conte, G. et al., European Child & Adolescent Psychiatry 10.1007/s00787–024–02581-w, 2025

Deutsches Zentrum für Suchtfragen des Kindes- und Jugendalters (DZSKJ), Problematische Mediennutzung bei Kindern und Jugendlichen in Deutschland, 2025

Nationale Akademie der Wissenschaften Leopoldina, Soziale Medien und die psychische Gesundheit von Kindern und Jugendlichen, 2025

Popat, A., Tarrant, C., Clinical Child Psychology and Psychiatry 10.1177/13591045221092884, 2023

Schreiben Sie uns!

Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.

Partnerinhalte

Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.