Soziale Medien sind zentraler Bestandteil der Lebenswelt junger Menschen. Sie können Räume für Austausch, Information und Selbstentfaltung sowie Bildung und Beteiligung bieten. Plattformbetreiber nutzen dies massiv aus, indem sie durch suchtfördernde Designs eine exzessive Nutzung und damit maximale Profite erreichen wollen.
Diese Designs, belastende Inhalte und algorithmisch verstärkte Körper- und Leistungsnormen wirken sich negativ auf die psychische und körperliche Gesundheit aus – gerade von jungen Menschen. Das darf so nicht weiter gehen! Kinder und Jugendliche müssen in einer digitalen Welt gesund und entwicklungsgerecht Aufwachsen können. Wir müssen den Schutz von Kindern stärken, ihre altersgerechte Teilhabe sichern und ihre Befähigung zu einem kompetenten Umgang fördern:
1. Sichere Standardeinstellungen für alle: Wir wollen, dass Plattformen sich grundlegend ändern. Das Problem sind ihre Geschäftspraktiken, nicht die jungen Menschen. Designs wie Endlos-Scrollen, Autoplay und personalisierte Feeds zielen darauf, Aufmerksamkeit zu binden und Nutzungszeit zu maximieren. Es braucht sichere und gut moderierte Plattformen, ohne suchtfördernde Designs und schädliche Inhalte. Risikoreiche Funktionen wie Autoplay und Belohnungssysteme sollten standardmäßig deaktiviert und Schutzmechanismen wie beispielsweise Pausenhinweise aktiviert sein. KI-generierte Inhalte müssen gekennzeichnet werden.
2. Geltende Gesetze endlich durchsetzen: Die Plattformbetreiber setzen den Digital Services Act (DSA) insbesondere beim Schutz Minderjähriger bislang nicht ausreichend um. Wir fordern die Bundesregierung auf, sich bei der EU-Kommission für eine konsequente Durchsetzung des DSA unter Anwendung wirksamer Sanktionen einzusetzen. Zugleich muss sie sich für einen starken Digital Fairness Act einsetzen, um Regelungslücken zu schließen und schädliche Geschäftspraktiken stärker zu regulieren.
3. Gesetzliches Mindestalter von 14 Jahren für Social-Media-Plattformen: Kinder brauchen Schutz, bevor Plattformen ihre Aufmerksamkeit, ihre Zeit und ihr Wohlbefinden zur Ware machen. Die Altersgrenze bietet zugleich Rückhalt und eine klare Orientierung für Eltern.
Für die Durchsetzung eines Mindestalters braucht es eine rechtssichere, verlässliche, diskriminierungsfreie, datensparsame und grundrechtsschonende Lösung. Die Bundesregierung ist in der Pflicht, sich für die Entwicklung einer solchen Lösung einzusetzen. Dabei soll ausschließlich übermittelt werden, ob die relevante Altersgrenze erreicht wird. Wir sind klar dagegen, dass sich alle Menschen für die Nutzung von Sozialen Medien umfassend ausweisen oder ihren Klarnamen angeben müssen.
4. Altersabgestuftes Verfahren: Jugendliche ab 16 Jahren sollen einzelne altersgerechte und Erwachsene sämtliche Funktionen und Inhalte freischalten können.
5. Nationale Strategie Medienkompetenz: Kinder und Jugendliche sollen digitale Technologien sicher und selbstbestimmt zu nutzen können. Medienkompetenz muss in Kita, Schule, Verein und Jugendarbeit unter Einbeziehung von Eltern und Fachkräften gestärkt werden. Die Finanzierung erfolgt über eine Digitalabgabe auf Onlinewerbeumsätze großer Tech-Konzerne.
6. Mehr öffentliche Räume für Kinder und Jugendliche: Die Freizeitgestaltung junger Menschen hängt von vorhandenen Möglichkeiten ab. Deshalb braucht es deutlich stärkere Investitionen in Freizeit-, Sport- und Kulturangebote sowie in die offene Kinder- und Jugendarbeit.
Warum braucht es einen stärkeren Schutz junger Menschen?
Als Social-Media-Plattformen im Sinne dieses Positionspapiers gelten digitale Dienste, wie TikTok, Snapchat oder Instagram, auf denen Nutzer*innen Inhalte erstellen, teilen oder verbreiten können und deren Gestaltung darauf ausgerichtet ist, Nutzer*innen durch aufmerksamkeitsbindende Designmechanismen zu einer intensiven und wiederholten Nutzung zu bewegen. In ihrer aktuellen Form sind sie aber auch mit Risiken für Entwicklung und Gesundheit verbunden.
Soziale Medien können Kindern und Jugendlichen Möglichkeiten der Teilhabe eröffnen: Sie sind mit Freund*innen in Kontakt und finden Gemeinschaften mit ähnlichen Interessen. Sie informieren sich, erwerben Fähigkeiten und beteiligen sich an Diskussionen. Dabei sind sie nicht nur Konsument*innen, sondern sind selbst kreativ, etwa durch eigene Beiträge. Gerade für junge Menschen mit wenigen analogen Teilhabemöglichkeiten können digitale Räume neue Zugänge eröffnen. Angesichts von Kürzungen in der Kinder- und Jugendarbeit gewinnen digitale Räume an Bedeutung, beispielsweise für queere Jugendliche, die dort Austausch und Gemeinschaft finden können.
Aber: Große Tech-Konzerne nutzen schädliche Designs und die algorithmische Verstärkung problematischer Inhalte, um Nutzungszeiten zu maximieren. Laut DAK-Suchtstudie (2025) ist das Nutzungsverhalten von über 20 Prozent der Kinder und Jugendlichen in Deutschland riskant und von fünf Prozent sogar pathologisch. Eine solche Nutzung geht mit verschiedenen gesundheitlichen Risiken einher. Zu den am häufigsten beschriebenen Zusammenhängen zählen depressive Symptome, Angst- und Schlafstörungen, vermindertes Selbstwertgefühl, ein gestörtes Körperbild und Essstörungen sowie sozialer Rückzug und Einsamkeit. Bei einer täglichen Nutzung sozialer Medien von mehr als drei Stunden steigt das Risiko für psychische Probleme deutlich. Zunehmend werden auch suchtähnliche Nutzungsmuster beschrieben, etwa starkes Verlangen, Kontrollverlust über die Nutzungsdauer, Nutzung trotz negativer Folgen oder Entzugserscheinungen. Teilweise zeigen sich Zusammenhänge zwischen suchtartigem Nutzungsverhalten und suizidalen Gedanken oder suizidalem Verhalten. Darüber hinaus bestehen Zusammenhänge mit gesundheitsschädlichem Verhalten, etwa erhöhtem Alkohol-, Tabak- oder Drogenkonsum, geringerer körperlicher Aktivität und ungesunder Ernährung.
Die Risiken für die Gesundheit wiegen besonders schwer bei Kindern und Jugendlichen, da sich Gehirn, Psyche, Identität, Selbstwertgefühl und soziale Kompetenzen noch entwickeln. Gleichzeitig reagiert das Belohnungssystem des jugendlichen Gehirns besonders sensibel auf soziale Bestätigung und kurzfristige Belohnungsreize. Treffen diese neurobiologischen Entwicklungsbedingungen auf Plattformdesigns, die gezielt auf schnelle Belohnung, soziale Bestätigung und algorithmische Verstärkung emotionaler Inhalte ausgerichtet sind, entsteht ein strukturelles Risiko für problematische Nutzungsmuster. Die Persönlichkeitsentwicklung verläuft in zeitlich begrenzten Entwicklungsfenstern, deren Versäumnis später kaum nachgeholt werden kann. Verbringen Kinder zu viel Zeit im digitalen Raum, können Erfahrungen im analogen Raum fehlen, die für eine gesunde Persönlichkeitsentwicklung essenziell sind. Zudem sind negative Auswirkungen auf die kognitive und motorische Entwicklung möglich, etwa auf Lese- und Schreibkompetenzen.
Neben diesen nutzungsbezogenen Risiken gibt es durch fehlende Schutzmechanismen eine regelmäßige Konfrontation mit problematischen Inhalten und Akteur*innen. Junge Menschen sind in sozialen Medien Hassrede, Cybermobbing, Cybergrooming sowie Gewalt-, Pornografie- und extremistischen Inhalten ausgesetzt. Anstatt junge Menschen zu schützen, fördern Plattformbetreiber die Ausspielung extremer und polarisierender Inhalte durch algorithmische Verstärkung.
Soziale Medien sind für junge Menschen die wichtigste Informationsquelle – auch für politische und gesellschaftliche Informationen. Daher ist es problematisch, dass algorithmische Verstärkung und schwindender Wille zur Moderation von Inhalten aufseiten der Plattformbetreiber auch die Verbreitung von Desinformationskampagnen begünstigt. Diese Problematik erreicht durch KI-generierte Deepfakes sowie die Integration von KI-Chatbots zunehmende Brisanz. Die Verbreitung von Desinformation auf Social-Media-Plattformen stellt eine Herausforderung für den demokratischen Diskurs und die politische Meinungsbildung dar, die uns als Gesellschaft insgesamt betrifft, junge Menschen aber im Besonderen.
Welche Regeln braucht es für Soziale Medien?
Sichere Standardeinstellungen für alle Nutzer*innen
Ein wirksamer Kinder- und Jugendmedienschutz muss an den strukturellen Geschäftsmodellen und Designmechanismen ansetzen. Ein Mindestalter darf nicht dazu führen, dass Plattformbetreiber weitermachen dürfen wie bisher. Ihr Geschäftsmodell belohnt Hass, Hetze und Desinformation und setzt auf süchtigmachende Funktionen. Das ist nicht nur ein Problem für junge Menschen, sondern für unsere gesamte Gesellschaft. Daher braucht es einen Paradigmenwechsel für Social-Media-Plattformen: Wir fordern verpflichtend sichere Standardeinstellungen für alle Nutzer*innen. Bestimmte Funktionen und Inhalte, beispielsweise personalisierte Werbung sowie Endlos-Scrolling, algorithmische Verstärkung emotionaler Inhalte, Autoplay und interaktionsbasierte Belohnungssysteme müssen standardmäßig für alle Nutzer*innen deaktiviert sein. Gleichzeitig müssen bestimmte Schutzfunktionen standardmäßig aktiviert sein. Dazu gehören Pausenhinweise sowie die Beschränkung der angezeigten Inhalte auf jugendfreie Inhalte. Plattformbetreiber müssen ihre Empfehlungs-Algorithmen offenlegen, damit sowohl Nutzer*innen als auch Forschende deren Funktionsweise und Wirkung nachvollziehen können. Nutzer*innen müssen die Möglichkeit haben, selbst zu entscheiden, welche Inhalte in ihren Feeds erscheinen. Bei Problemen müssen niedrigschwellige und altersgerechte Meldewege zur Verfügung stehen. Ergänzend bedarf es plattformunabhängiger Unterstützungsangebote. Die zuständigen Aufsichtsbehörden wie die unabhängige „Stelle zur Durchsetzung von Kinderrechten in digitalen Diensten“ bei der Bundeszentrale für Kinder- und Jugendmedienschutz, der Digital Services Coordinator sowie das System von zertifizierten Meldestellen für rechtswidrige Inhalte („Trusted Flagger”) müssen gestärkt werden. Allerdings hat die Bundesregierung noch nicht einmal die Hälfte der vorgesehenen Stellen beim Digital Services Coordinator besetzt.
Gesetzliches Mindestalter von 14 Jahren
Ein solches Mindestalter begrenzt die Nutzung sozialer Medien in besonders sensiblen frühen Entwicklungsphasen, ohne Jugendlichen grundsätzlich den Zugang zu verwehren. Die Risiken von sozialen Medien für Kinder unter 14 Jahren sind potenziell hoch – entsprechend gilt für sie das Vorsorgeprinzip. Diese Altersgrenze sollte regelmäßig wissenschaftlich evaluiert werden. Sie bietet Eltern, Bezugspersonen und Lehrkräften einen Rahmen, um eine frühere Einrichtung von Social-Media-Accounts zu untersagen.
Altersabgestuftes Verfahren
Die mit der Nutzung von sozialen Medien verbundenen Risiken und Chancen verändern sich je nach Alter und Entwicklungsstand. Vor diesem Hintergrund braucht es ein altersabgestuftes Verfahren für den Zugang zu bestimmten Funktionen. Die altersabgestufte Freischaltung von Funktionen (Opt-in-Modell) sollte sich an den aktuellen Forschungsergebnissen aus verschiedenen Disziplinen orientieren und unter Beteiligung junger Menschen bestimmt werden. Für Jugendliche ab 16 Jahren sollte die freiwillige Freischaltung einzelner Funktionen und Inhalte wie z.B. Livestreams möglich sein. Dies wird ihrer gewachsenen Einsichtsfähigkeit gerecht und wahrt ihre Rechte, etwa auf politische Teilhabe. Ab einem Alter von 18 Jahren sollte eine freiwillige Freischaltung weiterer Funktionen möglich sein, wie Endlos-Scrolling, Autoplay, interaktionsbasierte Belohnungssysteme sowie für Erwachsene bestimmte Inhalte und personalisierte Werbung.
Technische Verfahren zur Altersfeststellung
Die technische Umsetzung der Altersfeststellung muss zwingend rechtsstaatlich, diskriminierungsfrei, grundrechtsschonend, datensparsam und sicher ausgestaltet sein. Eine Technikfolgenabschätzung muss durchgeführt werden. So, wie sie derzeit von der Bundesregierung und in Europa ausgestaltet werden, bergen aber auch sie Gefahren für die IT-Sicherheit und von zu hohen Grundrechtseingriffen. Ein formales Identifikationsverfahren darf lediglich auf Basis von Zero-Knowledge-Proofs und Zero-Data-Retention funktionieren. Unbefugter Zugriff Dritter auf die Kommunikation im Verifikationsprozesses muss ausgeschlossen sein, ebenso wie die Diskriminierung von Personen ohne Ausweisdokumente. Verfahren, die diese Standards nicht erfüllen und beispielsweise auf Biometrie oder Verhaltenserkennung setzen, lehnen wir ab. Gerade Identifikationsverfahren, die wie die EuDI-Wallet auf Freiwilligkeit setzen, können nur durch eine hohe Sicherheit und einen starken Grundrechtsschutz das Vertrauen der Nutzer*innen gewinnen.
Konsequente Umsetzung des Digital Services Act
Online-Dienste wie Social-Media-Plattformen werden in der Europäischen Union durch europäisches Recht reguliert, insbesondere durch den Digital Services Act (DSA). Nationale Maßnahmen müssen damit vereinbar sein und auf europäischer Ebene koordiniert werden, um Fragmentierung und Umgehungsmöglichkeiten zu vermeiden. Derzeit zeigt sich jedoch ein erhebliches Umsetzungsdefizit. Die EU-Kommission setzt die bestehenden Vorgaben, insbesondere zum Schutz Minderjähriger (Artikel 28 DSA und die dazugehörigen Leitlinien), bislang nicht mit der notwendigen Konsequenz durch. Die Bundesregierung und die EU-Kommission müssen großen Plattformbetreibern klare, verbindliche Fristen zur Umsetzung der im DSA festgelegten Pflichten setzen und deren Einhaltung konsequent überwachen und sanktionieren. Verstöße dürfen nicht länger folgenlos bleiben. Wir setzen uns außerdem für einen harmonisierten europäischen Rechtsrahmen ein. So wollen wir Rechtsunsicherheiten vermeiden.
Einsatz für starken Digital Fairness Act
Gleichzeitig muss die Bundesregierung auf europäischer Ebene für einen Digital Fairness Act (DFA) eintreten, der manipulative Designs stärker reguliert. Die EU-Kommission will Ende 2026 einen Entwurf für den DFA vorlegen, der – anders als der DSA – horizontal über Plattformen hinaus wirkt. Denn manipulative Designs finden sich überall im Netz und in Apps. Bisherige Regulierungslücken im DSA und anderen Verbraucherschutzrichtlinien müssen geschlossen werden. Wir brauchen eine einheitliche Definition von sogenannten „dark patterns“ im europäischen Recht. Der DFA muss personalisierte Werbung, Gamification, den Umgang mit Fake Accounts und Bots, Influencer-Marketing regulieren und weitere verbraucherschützende Maßnahmen umfassen.
Wie gelingt ein gesundes Aufwachsen in einer digitalen Gesellschaft?
Staatliche Regulierung und Altersgrenzen allein befähigen Kinder und Jugendliche nicht zu souveräner Mediennutzung. Neben sozialen Medien müssen auch Games, Messenger, Streamingplattformen und KI-Anwendungen wie Social Bots und Dynamiken wie Cybermobbing oder Sharenting berücksichtigt werden. Da sich Technik und Nutzungsverhalten schnell verändern, muss die Medienkompetenz junger Menschen grundlegend gestärkt werden, um sie auf künftige Herausforderungen vorzubereiten.
Nationale Strategie Medienkompetenz
Wir fordern eine Nationale Strategie Medienkompetenz mit verlässlicher Finanzierung der digitalen Bildungsinfrastruktur, Investitionen in die Lehrkräftebildung, einem Bundesprogramm Schulsozialarbeit mit Schwerpunkt auf Medienpädagogik sowie einer Aufklärungskampagne für Eltern und junge Menschen, die bereits im frühkindlichen Alter ansetzt.
Stärkere koordinierende Rolle des Bundes
Bund und Länder sollen bei digitalen Medienkompetenzen enger kooperieren und gemeinsame Standards festlegen. Daneben braucht es einen Nationalen Fonds für Medienkompetenz, der eine finanzielle Grundlage für Bildungsangebote bietet. Dieser Fonds finanziert sich aus der Besteuerung von Onlinewerbeumsätzen großer Digitalplattformen. Wir beteiligen damit große Tech-Konzerne am Ausbau von Medienkompetenzangeboten. Eine Koordinationsstelle Digitale Medienkompetenz bündelt Angebote, identifiziert Trends, entwickelt Standards, stellt Lehr- und Lernmaterialien bereit und vernetzt Akteure. Bestehende Angebote sollen ausgebaut, bundesweit ausgerollt und in relevante Bundesprogramme integriert werden, wie etwa in den Frühen Hilfen, bei „Respekt Coaches“, „Demokratie Leben!” und im „Startchancen-Programm“.
Kinder und Jugendliche brauchen Dialog- und Experimentierräume, in denen Kompetenzen und der Umgang mit digitalen Inhalten und Tools erlernt werden können. Deshalb braucht es deutlich stärkere Investitionen in nicht-kommerzielle, altersgerechte digitale Angebote für Kinder und Jugendliche, etwa moderierte Chat-Räume, KI-Tools, Kinderwebseiten und -apps.
Eltern brauchen klare Informationen und Beratung, um ihre Vorbildfunktion und Vorsorgepflicht bei der Mediennutzung ihrer Kinder wahrnehmen zu können. Zudem benötigen sie kostenfreie und geprüfte Tools für Plattformen und Apps, um die Mediennutzung ihrer Kinder begleiten zu können.
Ausbau der Forschung
Die Bundesregierung sollte wissenschaftliche Studien zu Nutzung und Auswirkungen sozialer Medien und anderer Online-Dienste auf Lernen, Konzentrationsfähigkeit sowie die psychische und körperliche Gesundheit von Kindern und Jugendlichen fördern. Zugleich braucht es eine bessere empirische Grundlage, um Medienkompetenz in verschiedenen Altersgruppen zu bewerten und neue Risiken frühzeitig zu erkennen.
Stärkung von Qualitätsjournalismus und digitaler Öffentlichkeit
Qualitativ hochwertige, professionelle journalistische Informationsangebote sollen leicht zugänglich und erkennbar sein. Dazu gehören die Zulassung von Outlinks, Zertifizierungen für Qualitätsjournalismus (z. B. Journalism Trust Initiative), Kennzeichnungen für KI-generierte Inhalte, Priorisierung journalistischer Inhalte sowie Tools zur Erkennung von Deepfakes und Desinformation. Insbesondere bedarf es einer konsequenten, auch finanziellen, Unterstützung souveräner, gemeinwohlorientierter Infrastrukturen. Dazu gehören dezentrale soziale Netzwerke wie Mastodon oder EuroSky, auf denen eine europäische digitale Öffentlichkeit aufbaut.
Förderung von Freizeitangeboten
Kinder und Jugendliche müssen sich bewegen und ihre Umgebung aktiv erkunden, um soziale, kognitive und motorische Fähigkeiten zu entwickeln. Für mehr Angebote und Alternativen zum digitalen Medienkonsum, fordern wir stärkere Investitionen in Freizeit-, Sport- und Kulturangebote sowie in die offene Kinder- und Jugendarbeit. Bund, Länder und Kommunen sollten die Kinder- und Jugendhilfe mit ihren gewachsenen Aufgaben dauerhaft sichern, etwa über einen Fonds.