Das trojanische Pferd der Altersverifikation

# Das trojanische Pferd der Kontrolle

## Wie aus Jugendschutz und Altersverifikation ein Kontrollsystem für alle werden kann

Was als Schutz für Minderjährige verkauft wird, kann sich als Infrastruktur für Kontrolle entpuppen. Die Debatte über Social-Media-Verbote, Altersverifikation und digitale Regulierung betrifft nicht nur Jugendliche. Sie betrifft die Zukunft freier Öffentlichkeit selbst.

Es gibt politische Projekte, die kommen nicht als Drohung daher.
Sie kommen als Fürsorge.

Sie tragen kein Schild mit der Aufschrift Kontrolle.
Sie tragen ein Schild mit der Aufschrift Schutz.

Schutz der Kinder.
Schutz vor Hass.
Schutz vor Desinformation.
Schutz der Demokratie.

Und genau deshalb sind sie so gefährlich.

Denn wenn Macht sich nicht mehr offen rechtfertigen muss, sondern moralisch verkleidet auftritt, wird Widerstand schwer. Wer widerspricht, steht sofort unter Verdacht. Wer bremst, gilt als kaltherzig. Wer nach den Folgen fragt, soll angeblich gegen Kinder, gegen Sicherheit oder gegen Anstand sein.

Genau an diesem Punkt beginnt der Betrug.

Die aktuelle Debatte über Social-Media-Verbote für Jugendliche ist deshalb weit mehr als eine Debatte über TikTok, Instagram oder Bildschirmzeit. Sie ist ein Testfall. Ein politischer Hebel. Ein Infrastrukturprojekt. Und womöglich der Einstieg in etwas, das in Europa viel zu viele immer noch nicht sehen wollen: der schrittweise Umbau des offenen Netzes in einen kontrollierten, identifizierten und verwalteten Raum.

**Ich sage es klar:**
Das eigentliche Thema ist nicht Jugendschutz.
Das eigentliche Thema ist Macht über digitale Öffentlichkeit.

**Das Video bzw. die Aussage von Prof. Dr. Christian Rieck, auf die sich dieser Beitrag bezieht:**

## Der erste Schritt klingt harmlos

Es beginnt immer mit einem moralisch schwer angreifbaren Satz: **Wir müssen die Kinder schützen.**
Und natürlich muss man Kinder schützen. Vor Suchtmechaniken. Vor Pornografie. Vor Gewalt. Vor algorithmisch verstärkter Manipulation. Wer das bestreitet, hat das Problem nicht verstanden.

Aber genau hier beginnt die politische Gefahr.

Denn in dem Moment, in dem der Staat oder supranationale Regulierer aus einem realen Schutzproblem ein **Identifikationsproblem** machen, verschiebt sich die Achse. Dann geht es nicht mehr nur um Jugendschutz. Dann geht es um Infrastruktur. Um Durchsetzung. Um Zugriff. Um die technische Frage, **wer sich im Netz künftig überhaupt noch anonym bewegen darf**.

Das ist der Punkt, an dem viele wegsehen. Und das ist der Punkt, an dem sie aufwachen sollten.

Australien ist längst nicht mehr Theorie. Dort gilt das Gesetz seit dem **10. Dezember 2025**: Altersbeschränkte Social-Media-Plattformen müssen „reasonable steps“ unternehmen, damit **Unter-16-Jährige keine Accounts halten**. Sanktionen treffen nicht die Jugendlichen oder ihre Eltern, sondern die Plattformen. Parallel dazu stützt sich die Umsetzung auf Altersprüfungs- und Age-Assurance-Verfahren. Offizielle Leitlinien verweisen ausdrücklich auf technische Altersprüfung, auf Umgehungsrisiken und auf Durchsetzungsfragen. ([eSafety Commissioner][1])

Und genau da liegt der Kern:
Sobald ein Staat ein Nutzungsverbot oder eine starre Altersgrenze ernsthaft durchsetzen will, braucht er eine **Infrastruktur zur Altersfeststellung**. Nicht für die paar Kinder. Für **alle**. Denn man kann nur dann feststellen, dass jemand minderjährig ist, wenn man zuvor prüft, wer oder was da vor einem sitzt.

Das ist kein ideologischer Punkt. Das ist banale technische Logik.

## Der Preis der Technik ist nie nur Technik

Die australischen offiziellen Unterlagen sind in einem Punkt bemerkenswert offen: Die eingesetzten Methoden sind nicht magisch, nicht neutral und nicht perfekt. Die eSafety-Leitlinien verweisen auf den staatlich beauftragten Trial, der festhält, dass die Genauigkeit nahe an rechtlichen Schwellen sinkt und es weiter Herausforderungen bei bestimmten Gruppen gibt, unter anderem bei Menschen mit dunklerer Haut sowie bei Nutzern im Bereich **16 bis 20 Jahre**. Außerdem wird in den Leitlinien ausdrücklich auf Werkzeuge zur Erkennung von Umgehung, etwa über VPN-Konstellationen, Bezug genommen. ([eSafety Commissioner][2])

Das bedeutet:
Wer Altersverifikation politisch fordert, fordert nicht einfach „ein bisschen mehr Schutz“. Er fordert in der Praxis mindestens eines dieser Dinge:

– Dokumentenprüfung
– biometrische Schätzung
– Drittanbieter für Altersnachweise
– zusätzliche Prüfketten bei unklaren Fällen
– Systeme gegen Umgehung
– mehr Datenschnittstellen zwischen Plattform, Verifikator und Nutzer

Und mit jedem dieser Schritte wächst nicht Freiheit, sondern **Abhängigkeit von Prüf-Infrastruktur**.

## Das eigentliche Problem ist nicht der gute Anlass, sondern die schlechte Architektur

Hier machen sich viele etwas vor. Sie denken: „Es geht doch nur um Kinder.“
Nein. Technisch geht es nie „nur um Kinder“.

Wenn eine Plattform künftig nachweisen soll, dass ihre Nutzer alt genug sind, dann muss sie nicht nur Minderjährige abwehren. Sie muss auch Erwachsene erkennen oder wenigstens ihren Altersstatus verlässlich bestätigen lassen. Genau an diesem Punkt verwandelt sich ein Jugendschutzinstrument in eine **flächige Verifikationsarchitektur**.

Und ab da ist die Tür offen.

Nicht automatisch. Nicht zwangsläufig morgen. Aber offen.

Denn was einmal da ist, bekommt fast immer neue politische Zwecke. Erst heißt es: Jugendschutz. Dann heißt es: Schutz vor Grooming. Dann: Schutz vor Desinformation. Dann: Schutz vor Hass. Dann: Schutz der Demokratie. Und am Ende steht eine Infrastruktur, die immer mit demselben Satz verteidigt wird: **Sie ist doch schon da, jetzt müssen wir sie nur noch sinnvoll nutzen.**

Genau so funktioniert Machtzuwachs im digitalen Raum.

## Der DSA ist nicht das Klarnamengesetz – aber er ist Teil der neuen Durchsetzungsarchitektur

Hier muss man sauber bleiben: **Der Digital Services Act selbst führt keine allgemeine Klarnamenpflicht ein.** Er verpflichtet auch nicht zu allgemeiner Überwachung aller Inhalte; im Gegenteil verweist die EU ausdrücklich darauf, dass der DSA **keine allgemeinen Monitoringpflichten** auferlegt. Gleichzeitig regelt der DSA aber ein engmaschigeres Aufsichts- und Durchsetzungssystem für Online-Dienste, mit Digital Services Coordinators, Meldewegen, Risikopflichten für große Plattformen, Schutzpflichten für Minderjährige und dem Instrument der **trusted flaggers**, deren Meldungen priorisiert bearbeitet werden müssen. ([Digitale Strategie Europas][3])

Das heißt:
Wer ehrlich argumentiert, darf den DSA nicht als fertiges Zensurgesetz ausgeben. Aber genauso unehrlich wäre es, ihn als harmloses Verbraucherpapier zu verniedlichen.

Der DSA ist kein einzelner Hammer. Er ist Teil eines **Werkzeugkastens**, mit dem die EU den digitalen Raum stärker formt, beaufsichtigt und durchsetzt. Bei Minderjährigenschutz geht die Kommission seit 2025 noch einen Schritt weiter: Sie hat **Leitlinien zum Schutz Minderjähriger** und einen **Prototypen für eine Altersverifikations-App** vorgestellt. Das ist offiziell als privacy-preserving gedacht, also datensparsam. Politisch ist aber die entscheidende Botschaft eine andere: **Die Infrastruktur wird vorbereitet.** ([Digitale Strategie Europas][4])

Und Infrastruktur bleibt nie unpolitisch.

## Wer glaubt, das betreffe nur Meta, TikTok und X, hat die Reichweite des Apparats nicht verstanden

Wie weit die Logik des DSA reicht, zeigt ein Detail, das viele übersehen: Selbst **PayPal** unterhält DSA-bezogene Melde- und Transparenzstrukturen und erklärt dabei, dass seine Dienste nur „limited and ancillary opportunities“ zum Teilen von Inhalten bieten – etwa über **Profilbilder und Benutzernamen**. Genau deshalb gibt es dort Reporting-Ressourcen, Safety-Hub-Kommunikation mit Behörden und Transparenzberichte.

Das ist kein Skandal. Aber es ist aufschlussreich.

Denn es zeigt: Sobald Regulierung nicht mehr nur auf klassische Social-Media-Plattformen schaut, sondern auf jede digitale Oberfläche mit irgendeiner Form von Nutzerinhalt, wächst die Regulierungslogik tief in den Alltag hinein. Dann reden wir nicht mehr nur über TikTok. Dann reden wir über die **Normalisierung von Meldestrukturen, Prüfketten und Regulierungs-Interfaces** quer durch die digitale Wirtschaft.

## In Deutschland ist die Front längst offen

Die Debatte ist nicht abstrakt und nicht fern. In Deutschland haben sich Anfang 2026 sowohl aus dem CDU-Umfeld als auch aus der SPD deutliche Forderungen nach schärferen Social-Media-Beschränkungen für Kinder und Jugendliche formiert. Reuters berichtete über den CDU-Beschluss für strengere Altersgrenzen; ein SPD-Impulspapier ging laut netzpolitik.org noch weiter und brachte für Erwachsene **Ausweispflichten** und für nicht kooperierende Unternehmen sogar **Netzsperren** in die Debatte. ([Reuters][5])

Und hier wird es brisant:
Sobald über Altersgrenzen plus Ausweispflicht plus Netzsperren gleichzeitig gesprochen wird, ist das nicht mehr nur Jugendschutz. Dann reden wir über den Aufbau einer **politisch anschlussfähigen Kontrollarchitektur**.

Ob das am Ende exakt so beschlossen wird, ist offen.
Aber dass diese Richtung inzwischen offen gedacht und formuliert wird, ist keine Fantasie mehr.

## Anonymität ist kein Luxus von Trollen, sondern Schutzraum für Bürger

In Deutschland existiert derzeit gerade **keine** allgemeine gesetzliche Klarnamenpflicht im Netz. Im Gegenteil: § 19 Abs. 2 TDDDG verpflichtet Anbieter digitaler Dienste, anonyme oder pseudonyme Nutzung zu ermöglichen, **soweit das technisch möglich und zumutbar ist**. ([Gesetze im Internet][6])

Das ist kein juristischer Zufall. Dahinter steckt ein verfassungsnaher Gedanke:
Menschen äußern sich freier, wenn nicht jede Aussage unmittelbar ihre berufliche, soziale oder private Existenz bedrohen kann.

Wer das lächerlich findet, hat entweder nie erlebt, wie schnell ein Shitstorm, eine Meldestelle, ein Arbeitgeberkontakt oder sozialer Druck reale Folgen erzeugen können — oder er profitiert selbst davon, dass andere diesen Preis zahlen.

Anonymität schützt nicht nur die Lauten. Sie schützt die Leisen.
Sie schützt Whistleblower.
Sie schützt Opfer.
Sie schützt politisch Unbequeme.
Sie schützt Menschen mit unpopulären, abweichenden oder schlicht nicht stromlinienförmigen Ansichten.

Und nein: Das heißt nicht, dass Straftaten folgenlos bleiben sollen. Es heißt nur, dass **freie Rede nicht an öffentliche Entblößung gekoppelt sein darf**.

## Die alte Versuchung des Staates: Sicherheit gegen Freiheit tauschen – und am Ende beides verlieren

Der große politische Trick besteht darin, den Bürgern einzureden, sie bekämen mehr Sicherheit, wenn sie etwas Freiheit abgeben.
Manchmal stimmt das sogar.
Oft genug aber bekommt der Staat nur mehr Mittel, während das ursprüngliche Problem bestehen bleibt oder sich verlagert.

Genau das ist die reale Gefahr bei pauschalen Social-Media-Verboten für Jugendliche. Jugendliche weichen aus. Plattformen verschärfen ihre Prüfketten. Unproblematische Nutzer geraten in Reibung. Datenschutzrisiken wachsen. Drittanbieter verdienen an Verifikation. Politik gewöhnt sich an neue Eingriffsmöglichkeiten. Und wenn das System einmal steht, kommt die nächste Begründung garantiert.

Parallel dazu laufen auf EU-Ebene weitere Vorhaben und Übergangsregelungen im Bereich der Online-Kommunikationsüberwachung. Beim Kampf gegen Kindesmissbrauch im Netz hat der Rat Ende 2025 seine Position zu einem neuen Gesetz beschlossen; zugleich wurde eine bestehende Übergangsregelung für freiwillige Erkennungssysteme bis **3. April 2026** verlängert. Das Thema ist also nicht erledigt, sondern weiter in Bewegung. ([Rat der Europäischen Union][7])

Wer jetzt glaubt, jede einzelne Maßnahme müsse man isoliert betrachten, macht es sich zu leicht. Politik funktioniert kumulativ. Auch Kontrolle funktioniert kumulativ.

## Das trojanische Pferd ist nicht bewiesen – aber die Rampe ist gebaut

Man muss intellektuell sauber bleiben:
Niemand kann heute seriös beweisen, dass jedes Vorhaben zum Jugendschutz **zwingend** in die totale Klarnamenpflicht führt.

Aber man kann sehr wohl sagen:

1. **Altersverbote ohne Verifikation sind wirkungsschwach.**
2. **Verifikation erzeugt Infrastruktur.**
3. **Infrastruktur erzeugt Anschlussbegehren.**
4. **Anschlussbegehren erzeugen politische Ausweitung.**

Das ist keine Verschwörungstheorie. Das ist ein Muster moderner Regulierung.

Die Frage ist also nicht, ob jeder Politiker heimlich einen totalen Kontrollstaat plant.
Die Frage ist viel banaler und viel gefährlicher:
**Welche Werkzeuge schaffen wir heute, die morgen von schlechteren, nervöseren oder autoritäreren Mehrheiten benutzt werden können?**

Genau so muss man digitale Freiheit denken.

## Was stattdessen nötig wäre

Wer Kinder schützen will, muss an die Ursache ran, nicht an den Ausweiszwang für alle.

Nötig wären vor allem:

– harte Regeln gegen manipulative Suchtmechaniken
– klare Standardeinstellungen für Minderjährige
– Werbe- und Trackingbegrenzung
– bessere Durchsetzung gegen strafbare Inhalte
– medienpädagogische Kompetenz statt digitaler Entmündigung
– echte Haftung dort, wo Plattformdesign nachweislich schädlich ist

Das ist anstrengender als ein Verbotsschild.
Aber Freiheit war noch nie bequem.

## Fazit

Der gefährlichste Satz der kommenden Jahre lautet nicht: „Wir wollen Zensur.“
Der gefährlichste Satz lautet: **„Es ist doch nur zum Schutz der Kinder.“**

Denn unter diesem Schild lässt sich fast jede digitale Kontrolltechnik politisch sauber verpacken.

Der DSA ist dabei **nicht** die fertige Klarnamenpflicht. Wer das behauptet, argumentiert unsauber. Aber der DSA, die EU-Altersverifikationspläne, die Debatten über Netzsperren, Ausweispflichten, Jugendschutzverbote und neue Prüf-Infrastrukturen zeigen zusammen eine Richtung: **weg vom offenen, pseudonymen Netz – hin zu einem stärker identifizierten, stärker kontrollierten, stärker verwalteten digitalen Raum.** ([Digitale Strategie Europas][3])

Und genau deshalb ist die Warnung vor dem trojanischen Pferd nicht hysterisch, sondern vernünftig.

Wer Freiheit erhalten will, darf nicht erst protestieren, wenn die Klarnamenpflicht offen auf dem Tisch liegt.
Dann ist es zu spät.
Dann steht die Infrastruktur längst.

Das freie Netz stirbt nicht mit einem Knall.
Es stirbt in vielen kleinen, vernünftig klingenden Schritten.

Deutschland, Meinungsfreiheit und das wachsende Zensurnetzwerk

## Quellen

[1]: Social media ‚ban‘ or delay FAQ | eSafety Commissioner
[2]: MA-Regulatory-Guidance.pdf „Social Media Minimum Age Regulatory Guidance
[3]: heuropa.eu/en/faqs/digital-services-act-questions-and-answers „Digital Services Act: Questions and Answers“
[4]: https://digital-strategy.ec.europa.eu/en/library/commission-publishesCommission publishes guidelines on the protection of minors
[5]: https://www.reuters.com/business/media-telecom/germanys-ruling-party-backs-s“Germany’s ruling party backs social media curbs for children“
[6]: gesetze-im-internet.de/ttdsg/__19.html „§ 19 TDDDG – Einzelnorm
[7]: consilium.europa.eu/en/press/press

Deutschland, Meinungsfreiheit und das wachsende Zensurnetzwerk

Deutschland, Meinungsfreiheit und das wachsende Zensurnetzwerk

Wie gut gemeinter Schutz schleichend zur Kontrolle des öffentlichen Diskurses wird

In den letzten Jahren habe ich auf diesem Blog immer wieder vor einer Entwicklung gewarnt, die viele zunächst für übertrieben hielten:
dass Meinungsfreiheit in Deutschland nicht durch ein einzelnes Gesetz bedroht wird – sondern durch ein Zusammenspiel aus Regulierung,
Institutionen und moralischem Druck.

Damals waren es vor allem Beobachtungen und politische Entscheidungen.
Heute liegen erstmals systematische Daten, Netzwerkanalysen und Förderübersichten vor, die zeigen:
Diese Entwicklung ist real, strukturiert – und weiter fortgeschritten, als viele ahnen.


Worum es hier nicht geht

Dieser Text ist keine Verteidigung von Hass, Beleidigungen oder Hetze.
Er ist auch kein Angriff auf Datenschutz, Demokratie oder den Rechtsstaat.

Im Gegenteil.

Es geht um eine nüchterne Frage:

Was passiert, wenn gut gemeinter Schutz beginnt, den öffentlichen Diskurs zu verwalten?


Der Ausgangspunkt: Schutzgesetze mit berechtigtem Ziel

Beginnen wir dort, wo die meisten zustimmen:

  • Die DSGVO sollte persönliche Daten schützen.
  • Das NetzDG sollte strafbare Inhalte schneller entfernen.
  • Der Digital Services Act (DSA) soll Plattformen verantwortlicher machen.

All diese Regelwerke entstanden aus realen Problemen:
Datenmissbrauch, gezielte Hetze, Desinformation, digitale Gewalt.

Das Ziel war richtig.

Doch Gesetze wirken nicht isoliert.
Sie schaffen Strukturen, Anreize und neue Machtverteilungen.


Der schleichende Übergang: vom Schutz zur Steuerung

Was sich verändert hat, ist nicht ein einzelnes Verbot, sondern das System dahinter:

  • Inhalte werden nicht nur gelöscht, sondern bewertet.
  • Meinungen werden nicht verboten, sondern markiert.
  • Nutzer werden nicht zensiert, sondern sichtbar oder unsichtbar gemacht.

Statt klarer Verbote entsteht ein Vorfeld der Kontrolle:
Melden, Flaggen, Priorisieren, Drosseln.

Oft automatisiert.
Oft ausgelagert.
Oft ohne klaren Rechtsweg.


Neue Daten, neue Klarheit: die liber-net-Untersuchung

Genau hier setzt die Arbeit des internationalen Forschungsnetzwerks
liber-net an, koordiniert unter anderem vom australischen Forscher
Andrew Lowenthal.

Über Monate hinweg wurde untersucht:

  • welche Organisationen in Deutschland an Inhaltskontrolle beteiligt sind
  • wie sie miteinander vernetzt sind
  • wer sie finanziert
  • welche Rolle staatliche Stellen spielen

Das Ergebnis ist keine Meinung, sondern eine systematische Kartierung:

  • über 330 Behörden, NGOs, Stiftungen, Thinktanks und Initiativen
  • über 420 Förderprogramme und Geldflüsse
  • enge Verflechtungen zwischen Staat und angeblich unabhängigen Akteuren

Deutschland ist dabei kein Randfall,
sondern ein zentraler Knotenpunkt dieses Systems.

Weiterführende Quellen:


Warum das kein „Geheimplan“ ist – aber trotzdem gefährlich

Hier agiert kein dunkler Masterplan.
Was wir sehen, ist etwas Banaleres – und gerade deshalb Gefährlicheres:

  • Förderlogiken
  • politische Zielvorgaben
  • institutionelle Selbstverstärkung
  • moralische Rahmungen wie „Haltung“ oder „Verantwortung“

Viele Akteure handeln subjektiv überzeugt davon, das Richtige zu tun.
Doch Systeme haben Wirkungen – unabhängig von Absichten.


Trusted Flagger, NGOs und ausgelagerte Macht

Ein zentrales Element sind sogenannte „Trusted Flagger“:
Organisationen, die Inhalte melden, bewerten oder priorisieren dürfen –
oft bevorzugt von Plattformen und Behörden.

Formal sind sie zivilgesellschaftlich und unabhängig.
Praktisch jedoch häufig staatlich finanziert, politisch eingebunden
und strukturell privilegiert.

Der Staat muss dadurch nicht mehr selbst zensieren.
Er ermöglicht, delegiert und koordiniert.

Rechtlich sauber – demokratisch problematisch.


Die größte Gefahr: Selbstzensur

Die folgenreichste Konsequenz ist nicht das Löschen von Beiträgen,
sondern das, was vorher passiert:

  • Menschen formulieren vorsichtiger
  • Kritik wird abgeschwächt
  • kontroverse Gedanken bleiben unausgesprochen

Nicht, weil sie verboten sind,
sondern weil unklar ist, welche Konsequenzen drohen.

Das ist keine freie Debatte mehr.
Das ist angepasste Kommunikation.


Warum Deutschland besonders anfällig ist

Deutschland bringt eine besondere Mischung mit:

  • historische Schuldnarrative
  • moralische Überhöhung politischer Ziele
  • geringe Toleranz gegenüber Abweichung
  • enge Verflechtung von Staat und Zivilgesellschaft

Das führt zu einem Klima, in dem Regulierung als Tugend gilt
und Widerspruch schnell delegitimiert wird.

Dieses Modell wird inzwischen auf EU-Ebene exportiert.


Fazit: Datenschutz ja – Diskursverwaltung nein

Datenschutz ist wichtig.
Der Schutz vor Gewalt ist notwendig.
Demokratie braucht Regeln.

Aber Demokratie braucht vor allem eines:

offene, unbequeme, auch falsche Meinungen – ohne Angst vor Sanktionen.

Wenn Meinungsfreiheit nur dort gilt, wo sie niemanden stört,
ist sie keine Freiheit mehr.

Haltung statt Hormon.
Nicht jede gut gemeinte Regel schützt –
manche formen stillschweigend Macht.

Deutschland im Zensurnetz – Wie Meinungsfreiheit, Regulierung und Überwachung zusammenspielen


Quellen & weiterführende Artikel

„Das Zensurnetzwerk: Regulierung und Repression im heutigen Deutschland“


Deutschland im Zensurnetz – Wie Meinungsfreiheit, Regulierung und Überwachung zusammenspielen

Deutschland, Meinungsfreiheit und das wachsende Zensurnetzwerk

Warum unsere Warnungen kein Alarmismus waren – und wie staatliche & private Netzwerke die Rede kontrollieren

In den letzten Jahren habe ich wiederholt davor gewarnt, dass Meinungsfreiheit unter Druck gerät.
Nicht durch spontane Entscheidungen Einzelner, sondern durch systematische, koordinierte Strukturen – staatlich wie privat.

Meine früheren Texte zu diesem Thema findest du hier:


Was sich verändert hat – und warum das wichtig ist

Du kannst diese Artikel lesen – und du wirst Muster erkennen:

• schleichende Verschiebung von Freiheit zu Kontrolle
• Regulierung, die mehr überwacht als schützt
• staatliche wie private Akteure, die Sprache vorfiltern
• eine wachsende Bereitschaft, Meinungsäußerungen zu sanktionieren

Doch bis vor kurzem waren das eher *Warnsignale* als *harte Daten*.
Jetzt gibt es eine systematische Kartierung, die belegt, was viele nur gefühlt haben:
Deutschland ist **kein Randfall**, sondern **ein zentraler Knotenpunkt eines wachsenden Netzwerks zur Inhaltskontrolle im Netz**.


Die liber-net Forschung: Systematisch statt sensationslustig

Eine internationale Forschergruppe um Andrew Lowenthal (liber-net) hat über Monate Daten zusammengetragen, die weit über einzelne Fälle hinausgehen:

  • eine Karte führender Inhaltskontroll-Organisationen in Deutschland
  • eine Datenbank mit über 330 beteiligten Regierungsbehörden, NGOs, Think Tanks, Stiftungen und Netzwerken
  • eine Fördermittel-Datenbank mit über 420 Zuschüssen und Projekten
  • Infografiken, die strategische Verflechtungen sichtbar machen

Diese Daten basieren nicht auf Meinungen, sondern auf überprüfbaren Fakten: Wer finanziert wen, wer arbeitet zusammen, welche Organisationen haben Einfluss auf Inhalte im Netz?

Dabei geht es nicht um einzelne Terror- oder Hate-Speech-Filter. Es geht um ein System – ein Netzwerk – das Einfluss nimmt auf:

  • was wir sehen
  • was wir sagen
  • wie wir es sagen
  • und wie Algorithmen und Behörden darauf reagieren

Worum geht es wirklich?

Einige Kernpunkte aus der liber-net-Analyse sind:

  • nicht nur staatliche Stellen sind involviert, sondern auch NGOs, Stiftungen und Think Tanks
  • viele Akteure präsentieren sich als unabhängig – sind es aber nicht
  • Förderströme spielen eine zentrale Rolle bei der Agenda-Setting-Kontrolle
  • einige Programme wirken auf Inhalte direkt ein, andere über indirekte Normsetzung

Liber-net selbst weist darauf hin, dass nicht jede Organisation automatisch „Zensor“ ist – aber das Netzwerk als Ganzes zeigt **systemische Muster von Kontrolle und Einfluss**, die weit über zufällige Zusammenarbeit hinausgehen.


Verflechtung von Staat, NGOs und „Trusted Flagger“

Was besonders auffällt: In Deutschland existieren mehrere **staatlich gestützte oder finanzierte Strukturen**, die vorrangig Online-Inhalte identifizieren, klassifizieren und melden – teilweise unter dem Etikett „Schutz vor Hass“, „Prävention“ oder „Demokratieerhalt“.

Ein Beispiel sind sogenannte **„Trusted Flagger“**, also Organisationen, die von Behörden und Plattformen bevorzugt werden, um Inhalte zu melden oder zu bewerten.
Einige davon agieren als NGOs, andere als Initiativen, die sich als zivilgesellschaftlich präsentieren – obwohl sie eng mit staatlichen Förderprogrammen und Regulierungsprojekten verflochten sind.

Das allein wäre kein Problem, wenn es klare Regeln gäbe. Aber was fehlt, ist:

  • Transparenz über Prioritäten und Kriterien
  • öffentliche Debatte über Verantwortlichkeit
  • Checks and Balances im Sinne einer freien Gesellschaft

Warum das mehr ist als „ein bisschen Zensur“

Viele Kritiker sagen: „Es ist doch nur gegen Hate Speech.“
Doch das Problem ist strukturell:

  • Definitionen von „Desinformation“ sind nicht einheitlich
  • wer entscheidet, was legitime Kritik ist?
  • Welche algorithmischen Filter greifen wann?
  • Wer kontrolliert die Kontrollierenden?

Wenn diese Fragen nicht öffentlich, offen und demokratisch beantwortet werden, dann wird aus Schutz schnell **Kontrolle**, aus Warnung schnell **Unterdrückung**, aus Prävention schnell **Normsetzung** – ohne demokratische Legitimation.


Selbstzensur als unterschätzte Gefahr

Eine der verheerendsten Folgen dieser Entwicklung ist **Selbstzensur**:

  • Nutzer vermeiden Kritik, bevor sie sie äußern
  • Debatten verkümmern, bevor sie beginnen
  • Plattform-Algorithmen verstärken Konformität
  • Räume für Dissens schrumpfen

Selbst wenn niemand direkt Inhalte zensiert, entsteht ein Klima, in dem **Menschen sich selbst beschneiden**, weil sie Konsequenzen fürchten – sei es Reputationsverlust, Sperre, Löschung oder juristische Schritte.


Verbindung zu deiner Perspektive: Technik, Macht, Freiheit

In vielen meiner früheren Artikel habe ich gezeigt, dass Überwachung, Regulierung und Machtkonzentration nicht getrennt von Technologie zu sehen sind.
Ob es um NetzDG geht, um Plattformregulierung oder um digitale Infrastruktur – wer Technologie kontrolliert, kontrolliert auch Kommunikation.

Deshalb sind Projekte wie CREO oder Diskussionen über Privatsphäre kein „Nerd-Kram“. Sie sind Teil derselben Debatte:
**Wer besitzt, kontrolliert Bedeutung – und damit Freiheit.**


Schlusswort

Wir haben nicht übertrieben, wir haben nicht ins Blaue geraten.
Wir haben strukturelle Tendenzen benannt, die jetzt – mit Daten, Netzwerken und Förderströmen – sichtbar werden.

Die Freiheit der Rede ist kein automatisches Grundrecht, das von allein bleibt.
Sie ist ein Prozess, der verteidigt, benannt und immer wieder erneuert werden muss.

Haltung statt Hormon.

Meinungsfreiheit wird nicht durch staatliche Kontrolle garantiert – sondern durch öffentliche Debatte und demokratische Kontrolle.

Weitere Informationen und Quellen:

🔗 Das vollständige liber-net-Dossier zu Deutschland:
https://liber-net.org/germany/

🔗 Rede von Andrew Lowenthal im EU-Parlament:
https://liber-net.org/liber-net-director-speaks-at-the-eu-parliament/

Zum PDF-Inhalt springen