Ab dem 10. Dezember werden in Australien 2025 Social-Media-Konten von unter 16-Jährigen auf Plattformen wie TikTok eingefroren oder gelöscht. Das neue Gesetz, das Minderjährigen unter 16 Jahren untersagt, eigene Accounts auf bestimmten Plattformen zu besitzen oder anzulegen, findet international große Beachtung.[1] Viele Regierungen, Eltern, Lehrkräfte sowie pädagogische und psychologische Fachkräfte sehen darin einen längst überfälligen Schritt zum Schutz junger Menschen vor den Risiken digitaler Räume. Auch in Deutschland werden die Rufe nach einem gesetzlichen Mindestalter für Social Media lauter, unter anderem in einer Petition mit rund 34.000 Unterschriften, die im November 2025 im Bundestag behandelt wurde.[2] Die teils hitzige Debatte zeigt: Die Frage nach wirksamem Kinder- und Jugendmedienschutz ist komplex. Es geht um Zuständigkeiten, rechtliche Angemessenheit[3] und vor allem um die Perspektive der Kinder und Jugendlichen selbst.
Digitale Kinderrechte
Es steht völlig außer Frage: Junge Menschen begegnen im Internet, besonders jedoch auf sogenannten Social-Media-Plattformen und speziell auf TikTok, ernsthaften Inhalts-, Kontakt-, Verhaltens- oder Vertragsrisiken wie Desinformation, Cybergrooming, extremistische oder pornografische Inhalte, Gewaltdarstellungen, Kostenfallen, Hassrede, Datenmissbrauch, die Verherrlichung von Ess-Störungen oder auch simuliertem Glücksspiel. Diese Phänomene können junge Menschen nachhaltig in ihrer psycho-sozialen und sozialethischen Entwicklung beeinträchtigen, vor allem, wenn intransparente Mechanismen der Plattformen dafür sorgen, dass suchtähnliches Verhalten gefördert wird. Gleichsam – und hierauf beruft sich auch das 2021 novellierte Jugendschutzgesetz – gilt für Kinder auch im Netz die UN-Kinderrechtskonvention. Sie wurde 1989 von der Generalversammlung der Vereinten Nationen verabschiedet und ist 1992 in Deutschland in Kraft getreten. Die Prämisse der UN-KRK aus Artikel 3, die sich auch in Artikel 24 Absatz 2 der EU-Grundrechtecharta wiederfindet, lautet, dass grundsätzlich das Wohl des Kindes eine vorrangige Erwägung „bei allen Kinder betreffenden Maßnahmen öffentlicher Stellen oder privater Einrichtungen“ sein muss.[4] Aus kinderrechtlicher Perspektive bedeutet dies jedoch nicht die grundsätzliche Abschirmung von Kindern vor digitalen Angeboten, sondern dass die politische Garantie ihres Wohls neben dem Schutz – auch durch gesetzliche Regelungen und Verbote – auch durch die Befähigung zur sicheren und kompetenten Nutzung als auch durch Teilhabe an der Mitgestaltung dieser digitalen Welt erfolgt. Moderner und zeitgemäßer Jugendmedienschutz versteht sich insofern als „vom Kind her gedacht“ und auf der Basis eines austarierten Kinderrechte-Dreiecks von Schutz, Befähigung und Teilhabe.[5] Für das gute Aufwachsen von Kindern und Jugendlichen in der digitalen Welt ist infolgedessen ein regulatorischer Rahmen notwendig, der die staatliche Medienaufsicht stärkt und Plattformanbieter in die Pflicht nimmt, der aber auch altersgerechte Medienangebote für junge Menschen fördert und Medienkompetenzentwicklung in allen Bereichen von Bildung und Erziehung verankert: in der Schule, in der Kinder- und Jugendhilfe, aber auch in der Erwachsenenbildung und somit in der Unterstützung von Eltern bei der Bewältigung ihrer Erziehungsaufgaben unter Berücksichtigung der Rechte ihrer Kinder. Komplexe Probleme, so die Einschätzung aus kinderrechtlicher Perspektive, benötigt komplexe Antworten und das Zusammenspiel verschiedener Akteure, die ihre Verantwortung ernst nehmen.
Eltern beklagen Vertrauensverlust
Nun bewerten die Befürworter eines staatlichen Social-Media-Verbots diese kinderrechtliche Argumentation dahingehend, dass sich der Staat hier seiner Verantwortung entziehe, wissenschaftliche Erkenntnisse ignoriere sowie die Sorgen und Erziehungsrealitäten von Eltern nicht ausreichend ernst nehme. TikTok, Instagram, Snapchat und Co. arbeiteten gegen sie, während es ihr Anliegen sei, „die Bildschirmzeit ihrer Kinder zu begrenzen“.
„In der öffentlichen Debatte zeigt sich vor allem eines: Viele Eltern fühlen sich allein gelassen und zweifeln daran, dass Politik wirksame Lösungen umsetzt oder Plattformbetreiber ohne Druck ihre Geschäftsmodelle umstellen.“
Dr. Anna Grebe
Medienkompetenzförderung als Mittel zur Resilienzförderung, so die Initiatorinnen der oben genannten Petition, sei kein angemessener Ansatz, um den schwerwiegenden Risiken und den suchtfördernden Plattform-Designs zu begegnen. Mit dem Verweis auf Australien sprechen sie sich für ein Zugangsverbot für Unter-16-Jährige aus, das nicht durch die Einverständniserklärung der Eltern ausgehebelt werden könne, sowie für eine zuverlässige Altersüberprüfung, die nicht mit einem Klick überlistet werden könne. Auch die Bundesregierung erkennt den Handlungsbedarf und hat eine Kommission zum Kinder- und Jugendschutz in der digitalen Welt eingesetzt, deren Ergebnisse für 2026 angekündigt sind. Ein kurzfristiges gesetzliches Mindestalter ist jedoch nicht geplant. Stattdessen werden technische Lösungen wie eine europäische Altersverifikations-App im Rahmen der EUDI-Wallet (European Digital Identity Wallet) diskutiert. In der öffentlichen Debatte zeigt sich vor allem eines: Viele Eltern fühlen sich allein gelassen und zweifeln daran, dass Politik wirksame Lösungen umsetzt oder Plattformbetreiber ohne Druck ihre Geschäftsmodelle umstellen.
Wirksamer Schutz durch Kompetenzförderung
Vertreter kinderrechtsbasierter Ansätze sehen sich zunehmend in der Defensive, da ihnen oft vorgeworfen wird, den Schutz junger Menschen nicht ernst genug zu nehmen. Dabei sind einfache Lösungen gesellschaftlich attraktiver, obwohl die Problemlagen komplex sind. Zudem sind Kinderrechte und ihre Verbindlichkeit in Politik, Schule und Öffentlichkeit wenig bekannt, und nicht zuletzt wurde die verlässliche Förderung von Medienbildung über Jahre vernachlässigt, sodass ihre positiven Effekte eher als Ausnahme, denn als Regel wahrgenommen werden. Dabei ist Medienbildung zentral, um Kinder und Jugendliche zu einem kritischen, sicheren und reflektierten Umgang mit digitalen Medien zu befähigen. Sie hilft, Desinformation zu erkennen, Privatsphäre zu schützen, Cybergrooming zu entlarven und digitale Chancen für Bildung, Kreativität und gesellschaftliche Teilhabe zu nutzen. Der kompetente Umgang mit Social Media wird am besten durch begleitete Nutzung erlernt – durch Eltern, Lehrkräfte und pädagogische Fachkräfte. Jugendliche benötigen Räume, in denen sie ihr Verhalten reflektieren können, ohne stigmatisiert zu werden, auch wenn sie Regeln umgehen. Zudem gelten Meinungsfreiheit und das Recht auf Information auch für junge Menschen im digitalen Raum. Eine starre Altersgrenze von 16 Jahren hätte erhebliche Auswirkungen auf politische Meinungsbildung und Teilhabe, zumal viele 16-Jährige in Deutschland bereits bei Landtags- oder Kommunalwahlen wahlberechtigt sind.[6] Darüber hinaus haben junge Menschen ein Recht auf sichere, kinderfreundliche und altersgerechte digitale Angebote. Nicht zuletzt: Auch Plattformanbieter sind in der Pflicht, sich an die Kinderrechte zu halten und müssen zwingend dafür Sorge tragen, dass Kinder geschützt werden. Der Digital Services Act (DSA) legt hier empfindliche Sanktionsinstrumente vor, die einer strengen Durchsetzung bedürfen.
Rechte schützen statt Verantwortungsdiffusion
Und was sagen Kinder eigentlich über ihr Verhältnis zu Social Media bzw. zu einem Social-Media-Verbot? Obschon sich manchen Umfragen folgend eine relative Mehrheit der befragten jungen Menschen in Deutschland selbst für ein Mindestalter von 16 Jahre für Social Media ausspricht, zeigt sich im Fragen-Design nicht, ob den Befragten andere Möglichkeiten des wirksamen Schutzes bekannt sind.[7] Sehr verbreitet unter jungen Menschen ist jedoch die Forderung nach der Verankerung von Medienbildung als Pflichtfach sowie die Qualifizierung der Lehrkräfte, damit sie Schülerinnen und Schüler besser in der digitalen Welt begleiten können. In Australien wurde nach der Verabschiedung des „Social Media Minimum Age Act“ im Zuge einer Studie des Digital Media Research Centres deutlich, dass die Teilnehmenden zwischen 12 und 15 Jahren sehr wohl die Risiken kennen, die TikTok und Co. mit sich bringen, sich aber durch das Verbot der Erwachsenen nicht gesehen und gehört und in ihrer Lebenswelt nicht ernstgenommen fühlen.[8] Ihre Erwartung an Plattformen, an die Regierung, die Eltern, Lehrerinnen und Lehrer, an die pädagogische Fachkräfte ist, sie als vulnerable Gruppe nach besten Kräften dabei zu unterstützen, eine sichere Erfahrung im Internet zu machen, Spaß zu haben, kreativ zu sein, sich zu vernetzen und zu informieren und einfach auch mal abzuhängen. Und sie befürchten, es keinem erzählen zu können, wenn sie mit gefährlichen Inhalten oder Interaktionen konfrontiert werden, weil sie das Verbot ignoriert oder umgangen haben.
Ein Verbot nach australischem Vorbild greift daher zu kurz. Es vernachlässigt rechtliche und technische Realitäten und setzt auf eine scheinbar einfache Lösung. Die Folge wäre weniger die Stärkung von Resilienz und den Rechten junger Menschen, sondern ein langfristiger Vertrauensverlust in Erwachsene und ihre politische Problemlösekompetenz – ein fatales Signal für eine Zukunft der Demokratie.
Paz Olivares Droguett
Dr. Anna Grebe (*1983) forscht, lehrt, podcastet und publiziert an den Schnittstellen von Medien, Politik und Partizipation. Nach einer medienwissenschaftlichen Promotion an der Universität Konstanz und beruflichen Stationen bei verschiedenen Stiftungen und Verbänden in Berlin, Linz und NRW unterstützt sie nun als selbstständige Beraterin deutschlandweit Akteure in Politik, Verwaltung und Zivilgesellschaft in den Bereichen Jugendpolitik und Jugendbeteiligung.
[1] Auf der Verbotsliste stehen: auf TikTok, Instagram, YouTube, Snapchat, X, Facebook, Reddit, Twitch, Kick und Threads. Folgende Plattformen sind vom Verbot ausgenommen: Roblox, Pinterest, YouTube Kids, Discord, WhatsApp, Lemon8, GitHub, LEGO Play, Steam, Google Classroom, Messenger, LinkedIn. Die australische Regierung betont, dass es sich hierbei um dynamische Listen handle, sodass jederzeit weitere Plattformen unter den „social media ban“ fallen könnten. https://www.theguardian.com/media/2025/dec/05/social-media-ban-or-delay-australia-list-under-16-explainer-guide-when-what-apps-included-getting-banned (zuletzt abgerufen am 6.12.25).
[2] https://www.bundestag.de/presse/hib/kurzmeldungen-1125920 (zuletzt abgerufen am 7.12.25).
[3] Eine ausführliche rechtliche Einordung der Debatte nimmt Dr. Stephan Dreyer vor: https://leibniz-hbi.de/die-huerden-eines-social-media-verbots-in-deutschland/ (zuletzt abgerufen am 6.12.25).
[4] https://www.bzkj.de/resource/blob/243586/f9b37a9d2e3f01bec72ac66ccffe235d/20243-rechte-von-kindern-in-digitalen-diensten-schuetzen-data.pdf (zuletzt abgerufen am 7.12.25).
[5] Nach Artikel 49 Absatz 1 DSA benennen die Mitgliedsstaaten eine oder mehrere zuständige Behörden, die für die Beaufsichtigung der Anbieter von Vermittlungsdiensten und die Durchsetzung des DAS zuständig sind. Die Bundeszentrale für Kinder- und Jugendmedienschutz (BzKJ) ist nach dem Digitale- Dienste-Gesetz (DDG) mit ihrer unabhängigen „Stelle zur Durchsetzung von Kinderrechten in digitalen Diensten“ (KidD) eine zuständige Behörde, die die Aufsicht über die Regelungsbereiche von Artikel 14 Absatz 3 und Artikel 28 Absatz 1 DSA ausübt.
[6] Vgl. auch die Erkenntnisse von Faas et. al. (Hrsg.): Überraschende Wahl, überraschende Stimmen Junge Menschen und die vorgezogene Bundestagswahl 2025. https://collections.fes.de/publikationen/id/1912786 (zuletzt abgerufen am 7.12.25).
[7] https://www.ifo.de/DocDL/sd-2025-09-wedel-etal-ifo-bildungsbarometer-2025.pdf (zuletzt abgerufen am 7.12.25).
[8] Osman et. Al. (2025): Young Australians’ perspectives on the social media minimum age legislation. Brisbane: Digital Media Research Centre, Queensland University of Technology. Online verfügbar unter https://apo.org.au/node/332901 (zuletzt abgerufen am 7.12.25).