| Veranstaltung: | LDK-Emden 2026 |
|---|---|
| Tagesordnungspunkt: | 6. Weitere Anträge |
| Antragsteller*in: | Landesvorstand (dort beschlossen am: 24.04.2026) |
| Status: | Eingereicht |
| Eingereicht: | 25.04.2026, 10:25 |
wA16neu: Digitale Teilhabe und Jugend schützen – Plattformen in die Pflicht nehmen
Antragstext
Die aktuelle Debatte um Social Media Verbote für Kinder und Jugendliche ist aus
unserer Sicht zu verkürzt und einseitig. Kinder und Jugendliche haben ein Recht
auf Schutz, aber ebenso auf Teilhabe. Auch im digitalen Raum gelten die
Grundrechte auf Informations- und Meinungsfreiheit. Die UN-
Kinderrechtskonvention umfasst ausdrücklich auch das Recht junger Menschen, an
gesellschaftlicher Kommunikation teilzuhaben. Soziale Medien sind für viele
Kinder und Jugendliche mittlerweile ein zentraler Kommunikations- und
Informationsraum.
Gleichzeitig sind die Risiken real. Plattformmechanismen wie endlose Feeds,
algorithmische Verstärkung, gezielte Aufmerksamkeitslenkung und suchtfördernde
Designs können Kinder und Jugendliche belasten, gefährden und in ihrer
Entwicklung beeinträchtigen. Die möglichen negativen Auswirkungen sind bereits
vielfach belegt, von Konzentrationsschwierigkeiten bis zu Schlafstörungen und
Depressionen. Digitale Tech-Konzerne kommen ihrer Verantwortung für den Schutz
junger Menschen aktuell nicht nach. Daher besteht Handlungsbedarf!
Unser Ziel ist es, jungen Menschen digitale Teilhabe zu ermöglichen. Dafür
bedarf es jedoch Rahmenbedingungen und Regeln, die Kinder und Jugendliche nicht
zum Spielball der Profitinteressen der Tech-Konzerne machen. Das Spannungsfeld
zwischen Schutz und Teilhabe wollen wir produktiv auflösen und setzen uns für
sichere Social Media Plattformen für alle Altersgruppen ein. Pauschale Social
Media Verbote für Kinder und Jugendliche halten wir als Lösung für das Thema
nicht für zielführend, da wir auch Antworten auf das Recht für Teilhabe junger
Menschen geben müssen. Deswegen erwarten wir von der Kommission, dass sie ihre
Handlungsmöglichkeiten auf europäischer Ebene konsequent und kurzfristig nutzen
und Jugendlichen die Möglichkeit bieten, sich sicher in den sozialen Medien zu
bewegen. Gleichzeitig erkennen wir an, dass es altersdifferenzierte
Regulierungen und Einschränkungen braucht, solange die jeweiligen Plattformen
unsere Kinder und Jugendlichen nicht schützen. Das Ziel muss aber sein,
gleichzeitig weiter darauf hinzuwirken, die Plattformen parallel auf Kinder- und
Jugendschutz zu verpflichten.
Da auch jüngere Kinder sich auf diesen Plattformen tummeln, setzen wir uns für
die Entwicklung von sicheren digitalen Angeboten für Kinder unter 14 Jahren ein.
Diese Angebote sollen unter Beteiligung von Kindern und Jugendlichen gestaltet
werden. Für Kinder und Jugendliche sollen nur solche Plattformen zugänglich
sein, die den Anforderungen des Jugendschutzes nach dem Digital Services Act
entsprechen. Plattformen, die gegen diese Vorgaben verstoßen, sollen für
Minderjährige gesperrt werden. Parallel müssen die Betreiber konsequent und
wirksam sanktioniert werden und darauf hingewirkt werden, dass die Regeln des
Digital Services Act eingehalten werden, damit Kinder und Jugendliche nicht in
ihrem Recht zur Teilhabe beschnitten werden.
Viele junge Menschen empfinden pauschale Verbotsdebatten zu Recht als ungerecht,
gerade weil analoge Räume für sie vielerorts schwinden. Jugendzentren schließen,
Treffpunkte gehen verloren und freie Räume werden seltener. Wer junge Menschen
zusätzlich pauschal aus digitalen Räumen ausschließen will, verkennt ihre
Lebensrealität. Zugleich haben junge Menschen selbst oft ein hohes Bewusstsein
für die Gefahren und Suchtpotentiale sozialer Medien und fordern Regulierung und
wirksamen Schutz ein. Genau deshalb müssen wir sie auch vor suchtmachenden
Algorithmen, Gewaltbildern, Pornographie und gezielter Desinformation schützen.
Das geht aber nicht über ihre Köpfe hinweg: Wir setzen uns dafür ein, jungen
Menschen in dieser Debatte auf Augenhöhe zu begegnen und sie zu beteiligen.
Die Risiken sozialer Medien sind nicht auf junge Menschen beschränkt. Menschen
aller Altersgruppen können anfällig für Desinformation, Abhängigkeit und
manipulative Inhalte sein. Unser Ziel sind sichere digitale Räume für alle
Altersgruppen. Der wichtigste und längst überfällige Schritt besteht deshalb
darin, die Anbieter stärker in die Verantwortung zu nehmen und die bereits
vorhandenen gesetzlichen Möglichkeiten konsequent umzusetzen und auszuschöpfen.
Der Digital Services Act gibt dafür einen klaren Rahmen vor. Plattformen müssen
verpflichtet werden, Risiken wirksam zu minimieren, Schutzmechanismen umzusetzen
und ihre Algorithmen so anzupassen, dass suchtfördernde, manipulative und
entwicklungsgefährdende Wirkweisen eingedämmt werden.
Wir fordern daher, dass die EU Kommission und die zuständigen Behörden die
bestehenden Regelungen des Digital Services Act endlich entschlossen anwenden
und durchsetzen. Nicht Kinder und Jugendliche dürfen primär reglementiert
werden, sondern die Anbieter und die von ihnen eingesetzten Mechanismen müssen
wirksam kontrolliert, beschränkt und gegebenenfalls sanktioniert werden. Wo
Konzerne systematisch gegen Schutzstandards verstoßen oder ihre Marktmacht
missbrauchen, müssen auch weitergehende Eingriffe möglich sein – bis hin zur
Zerschlagung übermächtiger Strukturen.
Für uns ist klar: Die Verantwortung darf nicht einseitig auf Kinder, Jugendliche
und Erziehungsberechtigte abgewälzt werden.
Dennoch ist der Schutz von Kindern und Jugendlichen auch eine Aufgabe der
Erziehungsberechtigten. Deshalb wollen wir weiter darüber informieren, welche
bestehenden Möglichkeiten es bereits gibt, etwa über die im Jugendmedienschutz-
Staatsvertrag angelegten Schutzoptionen. Erziehungsberechtigte sollen besser
erreicht, aufgeklärt und unterstützt werden, damit sie diese Aufgabe gut
wahrnehmen können. Wo weiterer Unterstützungsbedarf besteht, wollen wir passende
Angebote schaffen.
Ebenso wichtig ist eine weitere Stärkung der digitalen Medienkompetenz in der
Schule, verbunden mit echter Ermächtigung zur digitalen Teilhabe. Kinder und
Jugendliche müssen in die Lage versetzt werden, Plattformmechanismen zu
verstehen, Risiken zu erkennen und selbstbestimmt mit digitaler Kommunikation
umzugehen. Digitale Prävention, Medienbildung und kritische Plattformkompetenz
sollen deshalb frühzeitig und verbindlich vermittelt werden.
Altersüberprüfungen im Internet dürfen dabei nicht zu neuen Risiken führen. Sie
dürfen nicht zum Einfallstor für Überwachung, Datenmissbrauch oder eine
schleichende staatliche Kontrolle des Internets werden. Wo Alterskontrollen
eingesetzt werden, müssen sie datensparsam, anonym und grundrechtskonform
ausgestaltet sein, etwa auf Grundlage datenschutzfreundlicher technischer
Verfahren wie Zero Knowledge Proofs.
Begründung
wa16neu ist die geeinte Neufassung zu wa16 und den Änderungsanträgen