# Das trojanische Pferd der Kontrolle
## Wie aus Jugendschutz und Altersverifikation ein Kontrollsystem für alle werden kann
Was als Schutz für Minderjährige verkauft wird, kann sich als Infrastruktur für Kontrolle entpuppen. Die Debatte über Social-Media-Verbote, Altersverifikation und digitale Regulierung betrifft nicht nur Jugendliche. Sie betrifft die Zukunft freier Öffentlichkeit selbst.
Es gibt politische Projekte, die kommen nicht als Drohung daher.
Sie kommen als Fürsorge.
Sie tragen kein Schild mit der Aufschrift Kontrolle.
Sie tragen ein Schild mit der Aufschrift Schutz.
Schutz der Kinder.
Schutz vor Hass.
Schutz vor Desinformation.
Schutz der Demokratie.
Und genau deshalb sind sie so gefährlich.
Denn wenn Macht sich nicht mehr offen rechtfertigen muss, sondern moralisch verkleidet auftritt, wird Widerstand schwer. Wer widerspricht, steht sofort unter Verdacht. Wer bremst, gilt als kaltherzig. Wer nach den Folgen fragt, soll angeblich gegen Kinder, gegen Sicherheit oder gegen Anstand sein.
Genau an diesem Punkt beginnt der Betrug.
Die aktuelle Debatte über Social-Media-Verbote für Jugendliche ist deshalb weit mehr als eine Debatte über TikTok, Instagram oder Bildschirmzeit. Sie ist ein Testfall. Ein politischer Hebel. Ein Infrastrukturprojekt. Und womöglich der Einstieg in etwas, das in Europa viel zu viele immer noch nicht sehen wollen: der schrittweise Umbau des offenen Netzes in einen kontrollierten, identifizierten und verwalteten Raum.
**Ich sage es klar:**
Das eigentliche Thema ist nicht Jugendschutz.
Das eigentliche Thema ist Macht über digitale Öffentlichkeit.
**Das Video bzw. die Aussage von Prof. Dr. Christian Rieck, auf die sich dieser Beitrag bezieht:**
## Der erste Schritt klingt harmlos
Es beginnt immer mit einem moralisch schwer angreifbaren Satz: **Wir müssen die Kinder schützen.**
Und natürlich muss man Kinder schützen. Vor Suchtmechaniken. Vor Pornografie. Vor Gewalt. Vor algorithmisch verstärkter Manipulation. Wer das bestreitet, hat das Problem nicht verstanden.
Aber genau hier beginnt die politische Gefahr.
Denn in dem Moment, in dem der Staat oder supranationale Regulierer aus einem realen Schutzproblem ein **Identifikationsproblem** machen, verschiebt sich die Achse. Dann geht es nicht mehr nur um Jugendschutz. Dann geht es um Infrastruktur. Um Durchsetzung. Um Zugriff. Um die technische Frage, **wer sich im Netz künftig überhaupt noch anonym bewegen darf**.
Das ist der Punkt, an dem viele wegsehen. Und das ist der Punkt, an dem sie aufwachen sollten.
Australien ist längst nicht mehr Theorie. Dort gilt das Gesetz seit dem **10. Dezember 2025**: Altersbeschränkte Social-Media-Plattformen müssen „reasonable steps“ unternehmen, damit **Unter-16-Jährige keine Accounts halten**. Sanktionen treffen nicht die Jugendlichen oder ihre Eltern, sondern die Plattformen. Parallel dazu stützt sich die Umsetzung auf Altersprüfungs- und Age-Assurance-Verfahren. Offizielle Leitlinien verweisen ausdrücklich auf technische Altersprüfung, auf Umgehungsrisiken und auf Durchsetzungsfragen. ([eSafety Commissioner][1])
Und genau da liegt der Kern:
Sobald ein Staat ein Nutzungsverbot oder eine starre Altersgrenze ernsthaft durchsetzen will, braucht er eine **Infrastruktur zur Altersfeststellung**. Nicht für die paar Kinder. Für **alle**. Denn man kann nur dann feststellen, dass jemand minderjährig ist, wenn man zuvor prüft, wer oder was da vor einem sitzt.
Das ist kein ideologischer Punkt. Das ist banale technische Logik.
## Der Preis der Technik ist nie nur Technik
Die australischen offiziellen Unterlagen sind in einem Punkt bemerkenswert offen: Die eingesetzten Methoden sind nicht magisch, nicht neutral und nicht perfekt. Die eSafety-Leitlinien verweisen auf den staatlich beauftragten Trial, der festhält, dass die Genauigkeit nahe an rechtlichen Schwellen sinkt und es weiter Herausforderungen bei bestimmten Gruppen gibt, unter anderem bei Menschen mit dunklerer Haut sowie bei Nutzern im Bereich **16 bis 20 Jahre**. Außerdem wird in den Leitlinien ausdrücklich auf Werkzeuge zur Erkennung von Umgehung, etwa über VPN-Konstellationen, Bezug genommen. ([eSafety Commissioner][2])
Das bedeutet:
Wer Altersverifikation politisch fordert, fordert nicht einfach „ein bisschen mehr Schutz“. Er fordert in der Praxis mindestens eines dieser Dinge:
– Dokumentenprüfung
– biometrische Schätzung
– Drittanbieter für Altersnachweise
– zusätzliche Prüfketten bei unklaren Fällen
– Systeme gegen Umgehung
– mehr Datenschnittstellen zwischen Plattform, Verifikator und Nutzer
Und mit jedem dieser Schritte wächst nicht Freiheit, sondern **Abhängigkeit von Prüf-Infrastruktur**.
## Das eigentliche Problem ist nicht der gute Anlass, sondern die schlechte Architektur
Hier machen sich viele etwas vor. Sie denken: „Es geht doch nur um Kinder.“
Nein. Technisch geht es nie „nur um Kinder“.
Wenn eine Plattform künftig nachweisen soll, dass ihre Nutzer alt genug sind, dann muss sie nicht nur Minderjährige abwehren. Sie muss auch Erwachsene erkennen oder wenigstens ihren Altersstatus verlässlich bestätigen lassen. Genau an diesem Punkt verwandelt sich ein Jugendschutzinstrument in eine **flächige Verifikationsarchitektur**.
Und ab da ist die Tür offen.
Nicht automatisch. Nicht zwangsläufig morgen. Aber offen.
Denn was einmal da ist, bekommt fast immer neue politische Zwecke. Erst heißt es: Jugendschutz. Dann heißt es: Schutz vor Grooming. Dann: Schutz vor Desinformation. Dann: Schutz vor Hass. Dann: Schutz der Demokratie. Und am Ende steht eine Infrastruktur, die immer mit demselben Satz verteidigt wird: **Sie ist doch schon da, jetzt müssen wir sie nur noch sinnvoll nutzen.**
Genau so funktioniert Machtzuwachs im digitalen Raum.
## Der DSA ist nicht das Klarnamengesetz – aber er ist Teil der neuen Durchsetzungsarchitektur
Hier muss man sauber bleiben: **Der Digital Services Act selbst führt keine allgemeine Klarnamenpflicht ein.** Er verpflichtet auch nicht zu allgemeiner Überwachung aller Inhalte; im Gegenteil verweist die EU ausdrücklich darauf, dass der DSA **keine allgemeinen Monitoringpflichten** auferlegt. Gleichzeitig regelt der DSA aber ein engmaschigeres Aufsichts- und Durchsetzungssystem für Online-Dienste, mit Digital Services Coordinators, Meldewegen, Risikopflichten für große Plattformen, Schutzpflichten für Minderjährige und dem Instrument der **trusted flaggers**, deren Meldungen priorisiert bearbeitet werden müssen. ([Digitale Strategie Europas][3])
Das heißt:
Wer ehrlich argumentiert, darf den DSA nicht als fertiges Zensurgesetz ausgeben. Aber genauso unehrlich wäre es, ihn als harmloses Verbraucherpapier zu verniedlichen.
Der DSA ist kein einzelner Hammer. Er ist Teil eines **Werkzeugkastens**, mit dem die EU den digitalen Raum stärker formt, beaufsichtigt und durchsetzt. Bei Minderjährigenschutz geht die Kommission seit 2025 noch einen Schritt weiter: Sie hat **Leitlinien zum Schutz Minderjähriger** und einen **Prototypen für eine Altersverifikations-App** vorgestellt. Das ist offiziell als privacy-preserving gedacht, also datensparsam. Politisch ist aber die entscheidende Botschaft eine andere: **Die Infrastruktur wird vorbereitet.** ([Digitale Strategie Europas][4])
Und Infrastruktur bleibt nie unpolitisch.
## Wer glaubt, das betreffe nur Meta, TikTok und X, hat die Reichweite des Apparats nicht verstanden
Wie weit die Logik des DSA reicht, zeigt ein Detail, das viele übersehen: Selbst **PayPal** unterhält DSA-bezogene Melde- und Transparenzstrukturen und erklärt dabei, dass seine Dienste nur „limited and ancillary opportunities“ zum Teilen von Inhalten bieten – etwa über **Profilbilder und Benutzernamen**. Genau deshalb gibt es dort Reporting-Ressourcen, Safety-Hub-Kommunikation mit Behörden und Transparenzberichte.
Das ist kein Skandal. Aber es ist aufschlussreich.
Denn es zeigt: Sobald Regulierung nicht mehr nur auf klassische Social-Media-Plattformen schaut, sondern auf jede digitale Oberfläche mit irgendeiner Form von Nutzerinhalt, wächst die Regulierungslogik tief in den Alltag hinein. Dann reden wir nicht mehr nur über TikTok. Dann reden wir über die **Normalisierung von Meldestrukturen, Prüfketten und Regulierungs-Interfaces** quer durch die digitale Wirtschaft.
## In Deutschland ist die Front längst offen
Die Debatte ist nicht abstrakt und nicht fern. In Deutschland haben sich Anfang 2026 sowohl aus dem CDU-Umfeld als auch aus der SPD deutliche Forderungen nach schärferen Social-Media-Beschränkungen für Kinder und Jugendliche formiert. Reuters berichtete über den CDU-Beschluss für strengere Altersgrenzen; ein SPD-Impulspapier ging laut netzpolitik.org noch weiter und brachte für Erwachsene **Ausweispflichten** und für nicht kooperierende Unternehmen sogar **Netzsperren** in die Debatte. ([Reuters][5])
Und hier wird es brisant:
Sobald über Altersgrenzen plus Ausweispflicht plus Netzsperren gleichzeitig gesprochen wird, ist das nicht mehr nur Jugendschutz. Dann reden wir über den Aufbau einer **politisch anschlussfähigen Kontrollarchitektur**.
Ob das am Ende exakt so beschlossen wird, ist offen.
Aber dass diese Richtung inzwischen offen gedacht und formuliert wird, ist keine Fantasie mehr.
## Anonymität ist kein Luxus von Trollen, sondern Schutzraum für Bürger
In Deutschland existiert derzeit gerade **keine** allgemeine gesetzliche Klarnamenpflicht im Netz. Im Gegenteil: § 19 Abs. 2 TDDDG verpflichtet Anbieter digitaler Dienste, anonyme oder pseudonyme Nutzung zu ermöglichen, **soweit das technisch möglich und zumutbar ist**. ([Gesetze im Internet][6])
Das ist kein juristischer Zufall. Dahinter steckt ein verfassungsnaher Gedanke:
Menschen äußern sich freier, wenn nicht jede Aussage unmittelbar ihre berufliche, soziale oder private Existenz bedrohen kann.
Wer das lächerlich findet, hat entweder nie erlebt, wie schnell ein Shitstorm, eine Meldestelle, ein Arbeitgeberkontakt oder sozialer Druck reale Folgen erzeugen können — oder er profitiert selbst davon, dass andere diesen Preis zahlen.
Anonymität schützt nicht nur die Lauten. Sie schützt die Leisen.
Sie schützt Whistleblower.
Sie schützt Opfer.
Sie schützt politisch Unbequeme.
Sie schützt Menschen mit unpopulären, abweichenden oder schlicht nicht stromlinienförmigen Ansichten.
Und nein: Das heißt nicht, dass Straftaten folgenlos bleiben sollen. Es heißt nur, dass **freie Rede nicht an öffentliche Entblößung gekoppelt sein darf**.
## Die alte Versuchung des Staates: Sicherheit gegen Freiheit tauschen – und am Ende beides verlieren
Der große politische Trick besteht darin, den Bürgern einzureden, sie bekämen mehr Sicherheit, wenn sie etwas Freiheit abgeben.
Manchmal stimmt das sogar.
Oft genug aber bekommt der Staat nur mehr Mittel, während das ursprüngliche Problem bestehen bleibt oder sich verlagert.
Genau das ist die reale Gefahr bei pauschalen Social-Media-Verboten für Jugendliche. Jugendliche weichen aus. Plattformen verschärfen ihre Prüfketten. Unproblematische Nutzer geraten in Reibung. Datenschutzrisiken wachsen. Drittanbieter verdienen an Verifikation. Politik gewöhnt sich an neue Eingriffsmöglichkeiten. Und wenn das System einmal steht, kommt die nächste Begründung garantiert.
Parallel dazu laufen auf EU-Ebene weitere Vorhaben und Übergangsregelungen im Bereich der Online-Kommunikationsüberwachung. Beim Kampf gegen Kindesmissbrauch im Netz hat der Rat Ende 2025 seine Position zu einem neuen Gesetz beschlossen; zugleich wurde eine bestehende Übergangsregelung für freiwillige Erkennungssysteme bis **3. April 2026** verlängert. Das Thema ist also nicht erledigt, sondern weiter in Bewegung. ([Rat der Europäischen Union][7])
Wer jetzt glaubt, jede einzelne Maßnahme müsse man isoliert betrachten, macht es sich zu leicht. Politik funktioniert kumulativ. Auch Kontrolle funktioniert kumulativ.
## Das trojanische Pferd ist nicht bewiesen – aber die Rampe ist gebaut
Man muss intellektuell sauber bleiben:
Niemand kann heute seriös beweisen, dass jedes Vorhaben zum Jugendschutz **zwingend** in die totale Klarnamenpflicht führt.
Aber man kann sehr wohl sagen:
1. **Altersverbote ohne Verifikation sind wirkungsschwach.**
2. **Verifikation erzeugt Infrastruktur.**
3. **Infrastruktur erzeugt Anschlussbegehren.**
4. **Anschlussbegehren erzeugen politische Ausweitung.**
Das ist keine Verschwörungstheorie. Das ist ein Muster moderner Regulierung.
Die Frage ist also nicht, ob jeder Politiker heimlich einen totalen Kontrollstaat plant.
Die Frage ist viel banaler und viel gefährlicher:
**Welche Werkzeuge schaffen wir heute, die morgen von schlechteren, nervöseren oder autoritäreren Mehrheiten benutzt werden können?**
Genau so muss man digitale Freiheit denken.
## Was stattdessen nötig wäre
Wer Kinder schützen will, muss an die Ursache ran, nicht an den Ausweiszwang für alle.
Nötig wären vor allem:
– harte Regeln gegen manipulative Suchtmechaniken
– klare Standardeinstellungen für Minderjährige
– Werbe- und Trackingbegrenzung
– bessere Durchsetzung gegen strafbare Inhalte
– medienpädagogische Kompetenz statt digitaler Entmündigung
– echte Haftung dort, wo Plattformdesign nachweislich schädlich ist
Das ist anstrengender als ein Verbotsschild.
Aber Freiheit war noch nie bequem.
## Fazit
Der gefährlichste Satz der kommenden Jahre lautet nicht: „Wir wollen Zensur.“
Der gefährlichste Satz lautet: **„Es ist doch nur zum Schutz der Kinder.“**
Denn unter diesem Schild lässt sich fast jede digitale Kontrolltechnik politisch sauber verpacken.
Der DSA ist dabei **nicht** die fertige Klarnamenpflicht. Wer das behauptet, argumentiert unsauber. Aber der DSA, die EU-Altersverifikationspläne, die Debatten über Netzsperren, Ausweispflichten, Jugendschutzverbote und neue Prüf-Infrastrukturen zeigen zusammen eine Richtung: **weg vom offenen, pseudonymen Netz – hin zu einem stärker identifizierten, stärker kontrollierten, stärker verwalteten digitalen Raum.** ([Digitale Strategie Europas][3])
Und genau deshalb ist die Warnung vor dem trojanischen Pferd nicht hysterisch, sondern vernünftig.
Wer Freiheit erhalten will, darf nicht erst protestieren, wenn die Klarnamenpflicht offen auf dem Tisch liegt.
Dann ist es zu spät.
Dann steht die Infrastruktur längst.
Das freie Netz stirbt nicht mit einem Knall.
Es stirbt in vielen kleinen, vernünftig klingenden Schritten.
Deutschland, Meinungsfreiheit und das wachsende Zensurnetzwerk
## Quellen
[1]: Social media ‚ban‘ or delay FAQ | eSafety Commissioner“
[2]: MA-Regulatory-Guidance.pdf „Social Media Minimum Age Regulatory Guidance
[3]: heuropa.eu/en/faqs/digital-services-act-questions-and-answers „Digital Services Act: Questions and Answers“
[4]: https://digital-strategy.ec.europa.eu/en/library/commission-publishesCommission publishes guidelines on the protection of minors
[5]: https://www.reuters.com/business/media-telecom/germanys-ruling-party-backs-s“Germany’s ruling party backs social media curbs for children“
[6]: gesetze-im-internet.de/ttdsg/__19.html „§ 19 TDDDG – Einzelnorm“
[7]: consilium.europa.eu/en/press/press

