Autonomie im Netz: Ein Appell für wahre Meinungsfreiheit in Europa

EU-Beraterin Francesca Bria im F.A.Z

In allen Punkten vertraue ich der Lobbyisten-Burg EU und den öffentlich-rechtlichen Medien sowie einem eigenen EU-Twitter und KI noch viel weniger. Die Erfahrung hat gezeigt, wie Bürger durch die fragwürdige Politik der EZB getäuscht wurden. Es ist bekannt, wie Ursula von der Leyen und Christine Lagarde das Ganze über Emmanuel Macron und Angela Merkel ins Rollen gebracht haben. Ist das, was Frau Francesca Bria im FAZ-Interview demokratisch nennt?

Ich betrachte das als eine Phase, ein Freising im Ganzen. Die eingeführte DSGVO ist die unterste Schublade. Sie bedient nicht die Meinungsfreiheit, sondern eher die Meinungshoheit der politischen Eliten in Europa. Das kann man nur einem Teil der Bevölkerung verkaufen, der links orientiert ist. Doch niemals konservativen Menschen.

Die EU ist ein Lobbyisten-Bunker, der jetzt schon zu tief greifende Einschnitte vornimmt. So lange Bürger bei wichtigen Gesetzesvorhaben nicht befragt werden und gegen ihre eigenen Interessen entschieden wird, traue ich dem politischen Establishment überhaupt nicht. Ein europäischer Twitter würde nicht in Meinungsbildung münden, sondern eher in gelenkte Meinungsbildung. Daher lehne ich diese Vorhaben ab und nutze meine eigenen Möglichkeiten.

Mir reicht es, unsaubere Informationen von einem Sender wie Phoenix in Deutschland über die EU zu hören. Ich möchte in allen Prozessen eingebunden sein und mit meinem eigenen Verstand entscheiden und nicht durch eine gesteuerte KI oder MML aus dem Hause EU. Darauf kann ich, wie viele weitere europäische Bürger, gerne verzichten. Ich nutze das Netz, weil ich es kann und weil ich besser damit umgehen kann als irgendwelche abgehobenen Bürokraten in Brüssel, Straßburg oder Berlin.

Keine Überwachung, weder durch die Tech-Konzerne in Amerika oder Europa. Autarkie für meine Daten und mich und wie ich, was nutze. Ob mobil oder per LAN oder WLAN. Ich würde euch anraten und helfe gerne dabei, dass Ihr mehr überwacht werdet. Denn der Politik kann man nicht trauen. Viele europäische Bürger sehen das genauso. Daher: Nein danke zu Ihren Visionen, Frau Bria.

https://www.faz.net/aktuell/feuilleton/medien/eu-beraterin-bria-wir-brauchen-ein-anti-twitter-19050414.html#void

Die Herausforderungen des Datenschutzes

in einer Ära der digitalen Transformation

Einleitung:

In den kommenden Jahren wird sich Deutschland, unabhängig davon, ob nun die Ampelkoalition oder eine nachfolgende Regierung an der Macht ist, wahrscheinlich verstärkt mit dem Thema Datenschutz auseinandersetzen müssen. Insbesondere die CDU und die FDP könnten hierbei eine entscheidende Rolle spielen. Interessanterweise geben wir bereits jetzt auf vielfältige Weise Daten ab und täuschen uns dabei vielleicht selbst. Möglicherweise tragen hierzu die Politik und die Mainstream-Medien bei, die in diesem Bereich oft unzureichend ausgebildet sind.

Hauptteil:

In einer sich ständig verändernden Welt, in der „die bösen Russen“ oder „das böse China“ oft als Sündenböcke herangezogen werden, sollte Deutschland einen aktiven Beitrag zur Entwicklung von Technologien leisten, die über die bloße, moralisch getriebene Politik hinausgehen. Anstatt uns lediglich als Teppichvorleger der Amerikaner zu positionieren, sollten wir den Datenschutz so gestalten, dass wir einen Einfluss darauf haben können.

Michael Lüders hat es treffend formuliert: Deutschland agiert momentan eher als Kellner denn als Akteur auf der globalen Bühne. Es ist an der Zeit, den Datenschutz so zu gestalten, dass er langfristig Bestand hat. Doch das lässt sich nicht erreichen, wenn wir nur die Kellner sind, und sicherlich nicht mit Politikern wie Ursula von der Leyen in der EU.

Geopolitisch zusammenhänge, die bis in die Digitalisierung reichen.

Schlussfolgerung:

Der einzige Politiker, der diese Situation anscheinend wirklich erkannt hat, ist Emmanuel Macron. Der Rest der politischen Führung, inklusive Christian Lindner und seine FDP, können wir getrost vergessen. Wenn wir nicht endlich einen anderen Kurs einschlagen, wird der Datenschutz auf der Strecke bleiben und wir werden jegliche Kontrolle verlieren. Daher sollten wir nicht nur auf ein Thema fokussieren, sondern auch Alternativen suchen und uns an deren Entwicklung beteiligen.

Im politischen Berlin und in Brüssel/ Straßburg scheint das derzeit kaum möglich zu sein, abgesehen von Lobbyarbeit. Daher sehe ich die Lage für Deutschland und die EU als sehr schwierig an. Wir kämpfen gegen eine Vielzahl von Problemen, einschließlich Klimawandel, alternder Bevölkerung, Innovation, Digitalisierung, KI, maschinellem Lernen und Infrastrukturproblemen.

Abschließende Gedanken:

Europa hat sich in ein Museum seiner selbst verwandelt. Selbst Begriffe wie „Digitalisierung“ und „Datenschutz“ scheinen überholt. Es ist dringend an der Zeit, dass wir unsere Denkweise und Strategien aktualisieren, um mit den rasanten Veränderungen Schritt halten zu können.

Dieser Blogbeitrag soll dazu anregen, die Themen Datenschutz und Digitalisierung kritisch zu betrachten und eine aktive Rolle bei der Gestaltung unserer digitalen Zukunft zu übernehmen.

Ist das Mutig den sozialen Netzwerken Stirn zu bieten oder doch Protektionismus & DSGVO?

Es ist lobenswert, dass Norwegen den großen Social-Media-Plattformen mit dem Ausspielen personalisierter Werbung entgegenwirkt, aber wir müssen uns fragen, ob diese Aktion wirklich effektiv ist. Bisher wurden noch keine ernsthaften Alternativen zu diesen Plattformen geschaffen, und ohne sie könnten wir uns in einer unerwünschten Position der Abhängigkeit von der Technologie des Silicon Valley befinden.

Zwar kann es verlockend sein, sich gegen diese Tech-Riesen zu stellen und zu versuchen, den Datenschutz unserer Bürger zu schützen, aber es ist auch wichtig zu bedenken, dass wir auf ihre Innovationen und Technologien angewiesen sind. Im Vergleich zu den technologischen Kapazitäten dieser Unternehmen steht Europa noch am Anfang seiner digitalen Reise.

Es scheint mir, dass die EU-Kommission und bestimmte Mitgliedstaaten gerne die Vorzüge dieser Technologien nutzen, aber gleichzeitig versuchen, sich von den Nachteilen und Verantwortlichkeiten zu distanzieren. Beispielsweise berufen sie sich auf die Datenschutz-Grundverordnung (DSGVO), um Privatsphäre und Datenkontrolle zu fördern, während sie gleichzeitig Gesetze wie die Chatkontrolle erlassen, die diese Privatsphäre potenziell untergraben.

Ich befürchte, dass diese inkohärente Haltung zum digitalen Wandel sich letztlich als kontraproduktiv erweisen könnte. Indem sie versuchen, die Kontrolle über die digitale Landschaft zu behalten, könnten sie die technologische Entwicklung in Europa tatsächlich behindern und uns weiter in die Abhängigkeit von externen Technologieanbietern treiben.

Am Ende bleibt die Frage, ob die Bürger bereit sind, diese Doppelmoral in Bezug auf Datenschutz und digitale Kontrolle zu akzeptieren. In Anbetracht der zunehmenden Bedeutung des digitalen Raums in unserem Leben ist es unerlässlich, dass wir diese Frage ernsthaft in Betracht ziehen und klare, kohärente und verantwortungsvolle politische Strategien für die Zukunft unserer digitalen Gesellschaft entwickeln!

Wir sehen es expliziert in Deutschland wie mit Datenschutz und der Vorstellung wie von Lindner & seiner FDP damit umgegangen wird und Ihre Vorstellungen. Mein Fazit bis wir einigermaßen aufschließen könnten, wären mehr als 10 Jahre an Dauer und das mit sehr vielen Argumenten für das Für und Wider.

Es wird spannend, wo die Reise hingeht.

Reblog via Tomas Rudl

Der norwegischen Datenschutzaufsicht ist der Geduldsfaden gerissen. Weil Meta anhaltend EU-Recht verletzt, untersagt die Behörde dem Werbekonzern das Ausspielen personalisierter Werbung – vorerst für drei Monate.

Facebook und Instagram dürfen in Norwegen keine personalisierte Werbung mehr ausspielen. – Alle Rechte vorbehalten IMAGO / Rüdiger Wölk

Meta darf auf seinen Online-Diensten Facebook und Instagram vorerst keine personalisierte Werbung für norwegische Nutzer:innen mehr ausspielen. Das gab heute die norwegische Datenschutzbehörde Datatilsynet bekannt. Das Verbot greift ab Anfang August und gilt zunächst für drei Monate. Zwischenzeitlich soll Meta seine Dienste anpassen und weiter anhaltende Rechtsverletzungen abstellen, so die Datenschützer:innen.

„Invasive kommerzielle Überwachung zu Marketingzwecken ist heute eines der größten Risiken für den Datenschutz im Internet“, erklärt die Behörde. Meta halte eine Unmenge an Daten von Norweger:innen vor, darunter auch sensible Daten. Viele Nutzer:innen würden jedoch nicht restlos verstehen, welcher „intrusiven Profilbildung“ sie ausgesetzt seien, wenn sie Metas Angebote nutzten, heißt es in der Anordnung der Behörde. Ihre Rechte müssten geschützt werden.

Meta zunehmend unter Druck

Der norwegische Vorstoß folgt auf eine Reihe von Gerichtsurteilen und Beschlüssen europäischer Datenschützer:innen, die allesamt am Geschäftsmodell von Meta sägen. Zuletzt hatte der Europäische Gerichtshof (EuGH) entschieden, dass Meta mit seiner Auslegung der Datenschutzgrundverordnung (DSGVO) gegen EU-Recht verstoßen hat. Zuvor hatte die irische Datenschutzbehörde, nach einer Intervention des Europäischen Datenschutzausschusses (EDPB), eine satte Millionenstrafe über Meta verhängt, weil das Unternehmen die DSGVO verletzt hat.

Trotz alledem hat Meta seine Praxis seither nicht merklich geändert – so begründet das US-Unternehmen etwa die Verarbeitung personenbezogener Daten neuerdings mit einem „berechtigten Interesse“, anstatt sich rechtskonform eine informierte Einwilligung abzuholen. Offenkundig hat der Konzern mit seiner Verschleppungstaktik die Geduld der norwegischen Datenschützer:innen überstrapaziert. Das anhaltende Ignorieren der irischen Auflagen würde nach „sofortigen Maßnahmen zum Schutz der Rechte und Freiheiten“ betroffener europäischer Bürger:innen verlangen, heißt es in der Anordnung. Norwegen ist zwar nicht EU-Mitglied, die DSGVO gilt für das Land im Europäischen Wirtschaftsraum (EWR) aber dennoch.

Indes verbietet Datatilsynet weder Facebook noch Instagram, genausowenig personalisierte Werbung an sich. So stehe es Meta frei, beispielsweise Informationen wie Geschlecht, Alter oder Wohnsitz für Targeting zu verwenden, die die Nutzer:innen etwa in ihre Biographie auf dem jeweiligen Meta-Dienst eingetragen haben. Auch Tracking von Nutzer:innen und weitergehende Personalisierung der Werbeeinblendungen ist möglich, betont die Behörde – allerdings nur mit einer informierten Einwilligung, die ihren Namen auch verdient.

Meta beklagt Rechtsunsicherheit

Meta macht die aus seiner Sicht undurchschaubare Rechtslage für die ständigen Rechtsverletzungen verantwortlich. „Die Debatte um die Rechtsgrundlagen wird schon seit Längerem geführt, Unternehmen sind in diesem Bereich nach wie vor mit mangelnder Rechtssicherheit konfrontiert“, schreibt eine Unternehmenssprecherin auf Anfrage. Man arbeite konstruktiv mit der irischen Datenschutzbehörde zusammen. Die Entscheidung der norwegischen Aufsicht werde nun geprüft, unmittelbare Auswirkungen auf Metas Dienste habe sie nicht, so die Sprecherin.

Grundsätzlich ist die irische Datenschutzbehörde für die Aufsicht von Meta zuständig, da das Unternehmen dort seinen europäischen Sitz unterhält. Allerdings können nationale Behörden wie jene in Norwegen in Notfällen temporär eigene Maßnahmen ergreifen. Datatilsynet sieht die Bedingungen dazu erfüllt: „Wenn wir jetzt nicht eingreifen, würden die Datenschutzrechte der Mehrheit der Norweger:innen auf unbestimmte Zeit verletzt“, argumentiert die Behörde.

Die auf Datenschutz spezialisierte Nichtregierungsorganisation NOYB (None Of Your Business) hält die Entscheidung der norwegischen Datenschutzbehörde für „spannend“. „Sie scheint ein klarer Versuch zu sein, die irische Datenschutzbehörde zu umgehen“, heißt es in einer ersten Reaktion der NGO. Fünf Jahre nach der Beschwerde von NOYB, die als Ausgangspunkt der Auseinandersetzung gilt, habe die irische Datenschutzbehörde ihre eigene Entscheidung gegen Meta immer noch nicht durchgesetzt, so der NOYB-Programmdirektor Romain Robert.

Nach dem Sommer könnte die Angelegenheit dem Europäischen Datenschutzausschuss vorgelegt werden, kündigt Datatilsynet an. Der Ausschuss, in dem die europäischen Datenschutzbehörden versammelt sind, könnte das personalisierte Werbeverbot nach Ablauf der drei Monate verlängern. Zudem drohen die norwegischen Datenschützer:innen dem Meta-Konzern eine Geldbuße von bis zu einer Million Kronen (knapp 89.000 Euro) täglich an, sollte sich das Unternehmen nicht an die Vorgaben halten. Meta kann sich gegen die Entscheidung vor einem Bezirksgericht in Oslo wehren.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus 

Big Brother is watching you? Die Wahrheit über die Überwachungskameras

Ihr denkt, ihr seid unbeobachtet? Falsch gedacht! Überall lauern Überwachungskameras – in der U-Bahn, am Arbeitsplatz, im Supermarkt. Doch welche Ausmaße hat die Überwachung tatsächlich und wer profitiert davon? Wir haben uns auf die Suche nach der Wahrheit gemacht!

1.Einleitung: Big Brother is watching you?

Big Brother is watching you? Diese Aussage klingt wie ein Zitat aus einem dystopischen Roman, aber in der heutigen Welt ist sie leider Realität. Überwachungskameras sind überall und können uns beobachten, ohne dass wir es merken. Obwohl sie zur Verbesserung der Sicherheit eingesetzt werden, gibt es auch viele Bedenken bezüglich der Privatsphäre und des Missbrauchs von Kameras. In diesem Blog-Artikel werden wir genauer untersuchen, was Überwachungskameras sind, wo sie eingesetzt werden und welche Vor- und Nachteile sie bieten. Am Ende werden Sie ein besseres Verständnis dafür haben, was Big Brother wirklich bedeutet und wie er unser Leben beeinflusst.

2. Was sind Überwachungskameras?

Überwachungskameras sind ein wichtiger Bestandteil der modernen Sicherheitsinfrastruktur. Sie werden eingesetzt, um öffentliche Plätze wie Bahnhöfe, Flughäfen und Einkaufszentren zu überwachen und Verbrechen zu verhindern. Auch in Wohngebieten und Unternehmen werden Überwachungskameras immer häufiger eingesetzt, um Einbrüche und Vandalismus zu verhindern. Die Kameras können auch dazu beitragen, die Sicherheit von Mitarbeitern und Kunden zu erhöhen. Allerdings haben Überwachungskameras auch Nachteile. Zum einen fühlen sich Menschen durch die ständige Überwachung kontrolliert und beeinträchtigt in ihrer Privatsphäre. Zum anderen können Kameras auch missbraucht werden, um unerlaubt in private Bereiche einzudringen oder sensible Daten zu sammeln. Insgesamt ist es wichtig, die Vor- und Nachteile von Überwachungskameras abzuwägen und sicherzustellen, dass sie nur dort eingesetzt werden, wo es wirklich notwendig ist. Big Brother is watching you? Ja, aber es liegt an uns sicherzustellen, dass diese Überwachung nicht missbraucht wird und unsere Freiheit nicht einschränkt.

3. Wo werden Überwachungskameras eingesetzt?

Wo werden Überwachungskameras eingesetzt? Diese Frage beschäftigt viele Menschen und ist ein wichtiger Aspekt im Zusammenhang mit dem Thema „Big Brother is watching you“. Überwachungskameras finden sich mittlerweile an vielen Orten, wie zum Beispiel in öffentlichen Verkehrsmitteln, auf Bahnhöfen und Flughäfen, in Einkaufszentren oder auch in Unternehmen. Ziel ist es dabei meistens, die Sicherheit zu erhöhen und Straftaten zu verhindern oder aufzuklären. Doch auch Privatpersonen setzen, zunehmend Überwachungskameras ein, um ihr Eigentum zu schützen oder ihre Kinder im Auge zu behalten. Dabei muss jedoch beachtet werden, dass nicht alle Einsatzorte legal sind und der Datenschutz gewahrt werden muss. Die Diskussion, um den Einsatz von Überwachungskameras wird somit auch in Zukunft weitergehen und es bleibt abzuwarten, wie sich die Technologie weiterentwickelt und welche Auswirkungen dies auf unsere Gesellschaft haben wird.In England haben sie sich entschieden, Sie einzusetzen im Geschäft. Was wir hoffentlich in dem restlichen Europa & Deutschland nicht zulassen werden.

4. Welche Vorteile bieten Überwachungskameras?

Überwachungskameras sind aus unserem Alltag nicht mehr wegzudenken. Ob in öffentlichen Verkehrsmitteln, Einkaufszentren oder auf der Straße – sie sind allgegenwärtig. Doch was sind die Vorteile von Überwachungskameras? Zunächst einmal dienen sie der Sicherheit. Sie können dazu beitragen, Kriminalität zu verhindern und Straftäter zu erfassen. Auch bei der Aufklärung von Verbrechen können Überwachungskameras eine große Hilfe sein. Zudem gibt es viele Bereiche, in denen Überwachungskameras zur Kontrolle eingesetzt werden, wie zum Beispiel in Produktionsstätten oder im öffentlichen Verkehrswesen. Hier sorgen sie für eine effektive Arbeitsweise und können Unfälle verhindern. Auch im privaten Bereich finden Überwachungskameras immer häufiger Anwendung, um das eigene Heim vor Einbrüchen zu schützen. Doch trotz aller Vorteile gibt es auch Nachteile von Überwachungskameras, auf die im weiteren Verlauf dieses Artikels noch eingegangen wird.

5. Die Nachteile von Überwachungskameras

Überwachungskameras sind allgegenwärtig und werden immer häufiger eingesetzt, um die Sicherheit von öffentlichen Plätzen, Gebäuden oder auch privaten Wohnungen zu erhöhen. Doch was viele Menschen nicht wissen ist, dass Überwachungskameras auch einige Nachteile mit sich bringen können. Zum einen kann das permanente Gefühl der Überwachung zu einem Unwohlsein führen und das Gefühl der Privatsphäre einschränken. Es besteht die Möglichkeit, dass sich Menschen nicht mehr frei bewegen und ausleben können, da sie ständig beobachtet werden. Zum anderen besteht auch die Gefahr des Missbrauchs von Überwachungsaufnahmen durch Dritte. Wenn Kameras in den falschen Händen landen oder unautorisierte Personen Zugang zu den Aufnahmen haben, kann dies schwerwiegende Folgen für die betroffenen Personen haben. Auch gibt es Fälle von Missbrauch durch Mitarbeiter, die Zugang zu den Kameras haben und diese nutzen, um private Informationen über Personen zu sammeln. Insgesamt sollten wir uns bewusst sein, dass Überwachungskameras nicht nur Vorteile bieten, sondern auch einige Nachteile mit sich bringen können. Wir müssen uns Gedanken darüber machen, welche Auswirkungen eine permanente Überwachung auf unsere Gesellschaft hat und wie wir sicherstellen können, dass unsere Privatsphäre gewahrt bleibt.

6. Fazit: Big Brother is watching you – die Wahrheit über die Überwachungskameras

Fazit: Big Brother is watching you – die Wahrheit über die Überwachungskameras Es ist unbestreitbar, dass Überwachungskameras in unserer Welt allgegenwärtig geworden sind. Obwohl sie in einigen Fällen dazu beitragen können, Verbrechen aufzuklären und abzuschrecken, gibt es auch viele Nachteile, die nicht ignoriert werden dürfen. Die Tatsache, dass wir uns ständig beobachtet fühlen müssen, kann uns das Gefühl geben, unsere Privatsphäre zu verlieren und uns unwohl fühlen lassen. Es ist auch wichtig zu bedenken, dass Überwachungskameras keine Garantie für Sicherheit bieten und dass sie oft nur dazu dienen, das Risiko von Kriminalität zu minimieren. In vielen Fällen wird die Verwendung von Überwachungskameras als eine bedrohliche Form der Überwachung empfunden. Es ist leicht zu verstehen, warum Menschen sich unwohl fühlen könnten bei dem Gedanken daran, dass ihre Bewegungen rund um die Uhr aufgezeichnet werden. Es gibt jedoch auch Argumente dafür, dass Überwachungskameras dazu beitragen können, Verbrechen zu verhindern und letztendlich mehr Sicherheit für alle zu schaffen. Letztendlich müssen wir alle selbst entscheiden, wie wir mit der Präsenz von Überwachungskameras umgehen wollen. Es ist wichtig zu erkennen, dass es sowohl Vor- als auch Nachteile gibt und dass wir uns bewusst sein sollten, wie diese Technologie eingesetzt wird und welchen Einfluss sie auf unser Leben hat. Wir sollten uns nicht einfach damit abfinden, dass Big Brother uns beobachtet, sondern sollten uns aktiv dafür einsetzen, dass unsere Privatsphäre und Freiheit respektiert werden.

Reblog via Tomas Rudl

Wer auf den britischen Inseln im Supermarkt einkauft, muss damit rechnen, biometrisch überwacht zu werden. Der Dienstleister Facewatch versorgt hunderte Läden mit Gesichtserkennung in Echtzeit, um angebliche Ladendiebe zu erkennen. Alles legal, sagt die Aufsichtsbehörde.

In britische Supermärkte ist Videoüberwachung mit Gesichtserkennung in Echtzeit eingezogen. Gemeinfrei-ähnlich freigegeben durch unsplash.com Fotos: unsplash.com / Montage: netzpolitik.org

Wer die Website des britischen Überwachungsunternehmens Facewatch aufruft, erhält ein Hinweisschild eingeblendet. „Alles legal“, versichert es sinngemäß. Vier Jahre lang habe die Datenschutzbehörde ICO die Firma untersucht und letztlich festgestellt, dass alles rechtens sei. Auch eine amtliche Zertifizierung garantiere, dass sich das Londoner Unternehmen an den Verhaltenskodex für Betreiber von Überwachungskameras halte.

Ähnlich gestaltete Hinweisschilder finden sich inzwischen auch offline, vor hunderten kleinen wie großen Geschäften und Handelsketten im Vereinigten Königreich, darunter Spar oder Sports Direct. Wer die Läden betritt, wird durchleuchtet: Überwachungskameras zeichnen die Gesichter der Kund:innen auf und übertragen die biometrischen Daten an Systeme, die sie mit einer Datenbank abgleichen. Darin finden sich Gesichtsdaten von Menschen, bei denen ein „begründeter Verdacht“ besteht, dass es sich um Ladendiebe oder sonstwie auffällige Kund:innen handelt. Bei einem Treffer schlägt das System Alarm und benachrichtigt Ladenmitarbeiter:innen. Die können dann ein aufmerksames Auge auf die Verdächtigen werfen oder sie gleich aus dem Laden komplimentieren.

Invasive Technik inzwischen Alltagspraxis

Während die EU derzeit heftig debattiert, ob und in welchem Ausmaß biometrische Echtzeit-Überwachung zugelassen werden soll, ist die Praxis auf der britischen Insel zum Alltag geworden – nicht nur bei staatlichen Ermittlungsbehörden, sondern auch im privaten Supermarkt um die Ecke. Läppische 250 Pfund, umgerechnet knapp 290 Euro, kostet ein Monatsabo beim Dienstleister Facewatch. Enthalten ist der Benachrichtigungsservice sowie die Möglichkeit, selbst Aufnahmen von Verdächtigen in die Datenbank einzupflegen.

Möglich machen das rasant sinkende Kosten für Gesichtserkennung in Echtzeit. Neben einer eigenen Software setzt Facewatch auf Amazon Rekognition, um sich abzusichern. Nicht einmal zwei Cent kostet eine Abfrage bei dem Cloud-Dienst, nach 500.000 Checks wird es günstiger. Doch die Technik ist gefährlich, weil sie zu Fehlern neigt und schnell diskriminieren kann. Das weiß auch Amazon: Öffentlichkeitswirksam hatte das Unternehmen vor einigen Jahren die Polizei von seinem Angebot ausgeschlossen, seither hat es das Moratorium auf unbestimmte Zeit verlängert. Indes sind private Abonnenten, die polizeiähnliche Aufgaben erfüllen, davon offenkundig nicht erfasst.

Das führt zu Problemen. So wurde etwa in Bristol eine Frau des Geschäfts verwiesen, weil es zehn Monate zuvor einen „Vorfall“ gegeben habe und sie für ein Jahr in der Datenbank gelandet war, berichtet die New York Times. Unklar bleibt, ob es sich um einen Fehler oder ein Missverständnis gehandelt hatte. Klar ist aber, dass es um zwanzig Pfund ging – eine Bagatelle. Und dass die Frau gar nicht wusste, dass sie auf einer Blacklist gelandet war, und sich nicht wehren konnte, bevor es zu spät war.

Grünes Licht für Gesichtsüberwachung

Hinweisschilder sollen Vertrauen schaffen, hofft das britische Überwachungsunternehmen Facewatch. Screenshot Facewatch.co.uk

Tatsächlich hat Facewatch nach der ICO-Untersuchung einige Anpassungen vorgenommen. Unter anderem weisen nun mehr Hinweisschilder vor und in den Shops auf die Technik hin, zudem soll das Speichern personenbezogener Daten minimiert worden sein und sich der Fokus auf Wiederholungstäter:innen richten, schreibt der zuständige ICO-Beamte Stephen Bonner in einem Blog-Beitrag. Das soll Fälle wie den in Bristol unmöglich machen. Ansonsten gibt es aber grünes Licht für die Durchleuchtung im Supermarkt: „Innovative Lösungen, die Unternehmen bei der Kriminalitätsprävention unterstützen, liegen im öffentlichen Interesse und sind ein Nutzen für die Gesellschaft“, schreibt Bonner.

In der breiten Öffentlichkeit scheint aber bis heute nicht so ganz durchgedrungen zu sein, wie weit die Massenüberwachung im Vereinigten Königreich mittlerweile reicht. Als die Boulevardzeitung Daily Mail im Frühjahr enthüllte, dass unter anderem mit Sports Direct eine der größten Sportketten das System von Facewatch einsetzt, sorgte dies für einen veritablen Skandal. Dutzende Parlamentsabgeordnete protestierten, ein breit unterstützter offener Brief der Grundrechteorganisation Big Brother Watch warnte vor der Technik.

„Trotz ihres invasiven Charakters hat sich Gesichtserkennung in Echtzeit als ungenau und als unwirksames Instrument im Kampf gegen Kriminalität erwiesen“, heißt es in dem Brief. Bisher fielen 87 Prozent der vom eigenen System der Metropolitan Police generierten Warnungen ungenau aus. Unverhältnismäßig stark seien schwarze Menschen und Frauen betroffen, heißt es weiter: „In einem öffentlichen Umfeld können solche Fehlidentifikationen äußerst belastend für die betroffene Person sein und können weitreichendere Auswirkungen auf ihr Leben und ihren Lebensunterhalt haben.“

Bislang sind die Warnungen ungehört verpufft, Sports Direct und andere Läden bauen ihre Überwachungssysteme weiter aus. Dabei war erst letzte Woche bekannt geworden, dass die ICO-Untersuchung von Facewatch zahlreiche Rechtsverstöße zutage gefördert hatte. Eine Strafe gab es dafür nicht, der Aufsichtsbehörde reichten nur sanfte Anpassungen des Überwachungssystems. Dies berührt das Grundproblem der Technik jedoch nicht, schreibt Big Brother Watch: „Wir halten daran fest, dass die Datenverarbeitung durch Facewatch Datenschutz- und Menschenrechtsstandards nicht entspricht.“


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Die Grünen stimmen für #Chatkontrolle – eine Gefahr für unsere Grundrechte!

Die Grünen haben für eine Verschärfung der gestimmt und damit eine große Gefahr für unsere Grundrechte geschaffen! Wir alle müssen jetzt handeln, um den Schutz unserer Privatsphäre und Meinungsfreiheit zu sichern.

Die Grünen und ihre Entscheidung für

Die Grünen und ihre Entscheidung für sind ein brisantes Thema, das unsere Grundrechte bedroht. Es ist beunruhigend zu sehen, wie eine Partei, die sich für Freiheit und Bürgerrechte einsetzt, eine solche Entscheidung mit trifft. Zumal Sie immer dagegen waren. Ich meine, dass die CDU & CSU das Fass aufgemacht haben, ist nichts Neues. Von den Grünen hätte man es am allerwenigsten erwartet. Die würde bedeuten, dass alle Chatnachrichten von Nutzern auf Plattformen wie WhatsApp oder Facebook von der Polizei überwacht werden können. Dies stellt einen massiven Eingriff in unsere Privatsphäre dar und gefährdet unser Recht auf freie Meinungsäußerung. Es ist wichtig zu verstehen, dass die keine Lösung für das Problem der Kriminalität im Internet ist. Im Gegenteil, sie kann dazu führen, dass Menschen sich nicht mehr trauen, ihre Meinungen frei zu äußern oder sensible Informationen auf andere Weise austauschen zu gedenken. Was mehr zum einen mehr an Kosten verursachen wird, sie zu überwachen. Es besteht auch die Gefahr von Missbrauch durch Regierungen oder andere autoritäre Kräfte. Es ist daher dringend erforderlich, dass wir uns gegen die wehren und unsere Grundrechte schützen. Wir sollten uns bewusst sein, welche Grundrechte bedroht sind und wie wir uns dagegen wehren können. Eine Möglichkeit besteht darin, verschlüsselte Chat-Apps zu verwenden oder VPNs zu nutzen, um unsere Online-Aktivitäten zu schützen. Es gibt noch mehr an Möglichkeiten. Doch wird ein Teil es an Usern treffen, die nicht so technisch affin sind. Letztendlich müssen wir uns bewusst sein, dass es bei der nicht nur um eine politische Entscheidung geht. Es geht um den Schutz unserer Grundrechte und Freiheiten im digitalen Zeitalter. Wir dürfen nicht zulassen, dass unsere Freiheit und Privatsphäre durch autoritäre Maßnahmen eingeschränkt werden. Es ist an der Zeit, dass wir uns gemeinsam gegen die und andere Bedrohungen unserer Grundrechte erheben.

Welche Grundrechte sind durch bedroht?

Die ist ein brisantes Thema, das uns alle betrifft. Denn durch die Überwachung unserer Chatverläufe werden unsere Grundrechte auf Privatsphäre und Meinungsfreiheit bedroht. Insbesondere die von einer Partei wie den Grünen, wo wir das überhaupt nicht erwartet haben. Sich für die Einführung von auszusprechen, was bei vielen Aktivisten und Bürgerrechtlern für Empörung gesorgt hat. Denn damit würde nicht nur die Freiheit der Kommunikation eingeschränkt, sondern auch das Recht auf informationelle Selbstbestimmung verletzt werden. Die Überwachung von Chatverläufen bedeutet auch eine Einschränkung des Rechts auf freie Meinungsäußerung, da viele Menschen sich nicht mehr trauen würden, ihre Meinungen offen zu äußern. Dass, wir doch an Studien schon in etlichen Zeitungen mitgeteilt bekommen haben. Das Recht auf Privatsphäre ist ein wichtiges Grundrecht, das durch massiv bedroht wird. Denn jeder Mensch hat das Recht darauf, dass seine persönlichen Daten geschützt werden und niemand unbefugt darauf zugreifen kann. Wenn wir uns nicht gegen diese Bedrohung unserer Grundrechte wehren, riskieren wir eine schleichende Erosion unserer Freiheitsrechte und einen massiven Vertrauensverlust in den Staat und seine Institutionen. So wie in die EU und Kommissionen. Die letztendlich nicht mehr sehr vertrauenswürdig für viele Bürger ist.

Die Gefahren von und wie man sich schützen kann

Die Gefahren von sind enorm und betreffen uns alle. Wenn wir unsere Grundrechte nicht schützen, kann dies zu einer Einschränkung unserer Freiheit führen. Es gibt viele Möglichkeiten, wie man sich vor Chatkontrolle schützen kann. Die einfachste Methode ist die Verwendung von End-to-End-Verschlüsselung, um sicherzustellen, dass nur Sie und der Empfänger Ihre Nachrichten lesen können. Eine weitere Möglichkeit ist die Verwendung von VPNs (Virtual Private Networks), um Ihre Online-Aktivitäten zu verschleiern und Ihre Privatsphäre zu schützen. Es ist auch wichtig, auf verdächtige Aktivitäten in Ihrem Netzwerk zu achten und sicherzustellen, dass Sie starke Passwörter verwenden. Es ist jedoch auch wichtig, sich bewusst zu sein, dass es keine 100% sichere Methode gibt, um sich vor Chatkontrolle zu schützen. Wir müssen uns alle für unsere Rechte einsetzen und uns gegen Maßnahmen aussprechen, die unsere Freiheit einschränken. Insgesamt sollten wir uns bewusst sein, dass unsere Grundrechte durch Chatkontrolle bedroht sind und dass es an uns allen liegt, uns dagegen zu wehren. Wir müssen sicherstellen, dass wir unsere Privatsphäre schützen und uns für unsere Freiheit einsetzen. Nur so können wir sicherstellen, dass wir in einer freien und demokratischen Gesellschaft leben können.

Fazit: Wie kann man die Gefahren von minimieren, ohne unsere Grundrechte zu gefährden?

Wir haben herausgefunden, dass es einige notwendige Schritte gibt, um sich vor den Gefahren von zu schützen. Es ist wichtig, vertrauenswürdige Chat-Dienste zu wählen, die Ende-zu-Ende-Verschlüsselung bieten und vertrauliche Informationen schützen. Ebenso empfehlenswert ist es, die neuesten Technologien zur Datensicherheit zu nutzen, um Ihre sensiblen Daten zu schützen. Letztlich kommt es darauf an, dass Sie verantwortungsbewusst mit Ihren Chatdiensten umgehen und Ihre Daten in jeder Situation sicher halten. Daher ist es zu empfehlen, autark sich im Netz zu bewegen. Auf diese Weise können wir uns nicht nur vor schützen, sondern auch unsere Rechte auf Privatsphäre und Meinungsfreiheit aufrechterhalten. Nutzen Sie also die modernsten Technologien und potenziellen Mittel, um Ihre Daten vor dem Zugriff Dritter zu schützen. Lesen Sie weiter in unseren Blogs, um mehr über dieses Thema zu erfahren und halten Sie sich immer auf dem Laufenden über neue Entwicklungen!

Reblog via Constanze

Die Idee einer anlasslosen Chatkontrolle stößt auf Widerstand in der Wissenschaft: Dreihundert Unterzeichner eines internationalen offenen Briefes melden „ernsthafte Vorbehalte“ gegen den Vorschlag an. Namhafte Forscher und Wissenschaftler aus mehr als dreißig Ländern wenden sich mit technischen Argumenten gegen die geplante systematische Überwachung.

Wie sich eine KI die Kontrolle von Chatnachrichten vorstellt (Diffusion Bee)

Gute Argumente im politischen Kampf um die Chatkontrolle liefert heute ein internationaler offener Brief aus der Welt der Wissenschaft. Mehr als dreihundert Unterzeichner aus über dreißig Ländern richten sich damit an die Europa-Parlamentarier und alle Mitgliedsländer des Rates der Europäischen Union. Wer den Brief liest, wird sich unweigerlich fragen, wie es möglich sein kann, dass die EU-Kommission ihren Plan angesichts der offenkundigen technischen Unsinnigkeit weiterverfolgt.

Die hierzulande oft nur kurz Chatkontrolle genannte Verordnungsidee ist international unter dem Begriff Child Sexual Abuse Regulation bekannt und soll dem Kampf gegen sexuelle Missbrauchsdarstellungen dienen. Die geplante EU-Gesetzgebung soll Internet-Dienstleister verpflichten, nach illegalen Inhalten zu suchen, die Gewalt und Missbrauch von Kindern zeigen, und diese an ein EU-Zentrum zu senden. Dafür sollen nach einer behördlichen Anordnung massenhaft Nachrichten, Bilder, E-Mails oder Sprachnachrichten von Nutzern gescannt werden. Für den Fall von Ende-zu-Ende-verschlüsselten Diensten muss diese Rasterung auf den Geräten der Nutzer selbst vollzogen werden. Der technische Begriff dafür ist Client-Side-Scanning (CSS).

Zu den Unterzeichnern des offenen Briefes zählen namhafte internationale Wissenschaftler der Informatik und angrenzender Fachgebiete und profilierte Verschlüsselungsforscher. Darunter sind auch einige renommierte Wissenschaftler wie der Brite Ross Anderson, die Australierin Vanessa Teague, die Schweizerin Carmela Troncoso und preisgekrönte US-Forscher wie Ron Rivest, Bruce Schneier, Susan Landau oder Matt Blaze, die bereits im Jahr 2021 eindringlich und mit technischem Blick vor den Risiken des Client-Side-Scannings (pdf) gewarnt hatten.

Sie betonen nun in dem offenen Brief nochmals, dass CSS ist eine gefährliche Technologie sei und weder sicher noch effektiv, um solch verbotenes Material zu finden. Es gäbe schlicht keine Software, die eine sinnvolle technische Lösung wäre. Auch „in den nächsten zehn bis zwanzig Jahren“ sei eine derartige Technologie nicht zu erwarten. Zudem entstünden substantielle Gefahren sowohl für die Privatsphäre als auch für die Sicherheit von Menschen.

Lauter fälschliche Verdachtsfälle

Schon die Sinnhaftigkeit der technischen Umsetzung der Regulierungsidee bezweifeln die Wissenschaftler: Sie melden „ernsthafte Vorbehalte“ an, ob die Technologien wirksam sein können für den Zweck der Verordnung. Denn jeder, der das möchte, könnte Scanning-Software umgehen oder auf andere Technologien setzen, um verbotenes Material zu tauschen.

Die Wissenschaftler verweisen auf das lange bekannte und bewiesene Problem, dass Scanning-Technologien, die auf Hash-Funktionen beruhen, leicht getäuscht werden können. Nimmt man beispielsweise auch nur kleine Änderungen an einem Bild vor, errechnet sich ein anderer Hash-Wert, weswegen die Scanning-Software daran scheitert, das Bild als ein bereits bekanntes zu erkennen.

Zu erwarten sei zudem eine sehr große Zahl an fälschlich als Verdachtsfälle gemeldeten Dateien, die zugleich nennenswerte Ressourcen binde, die dann dem tatsächlichen Kampf gegen die Gewaltdarstellungen fehlen würden. Außerdem würde für jeden Einzelnen ständig die Gefahr drohen, fälschlich unter Verdacht zu geraten, verbotenes Material zu tauschen. Solche Falschmeldungen seien bei Einsatz von Verfahren der Künstlichen Intelligenz „eine statistische Gewissheit“ und auch nicht vermeidbar.

Stop scanning us

Wir berichten von Anfang an über die Chatkontrolle. Unterstütze uns dabei!

Dass eine solche anlasslose Überwachung von individueller Kommunikation den europäischen Grundrechten entspricht, wird schon länger erheblich bezweifelt. Chatkontrolle sei aber auch technisch gesehen der falsche Weg, resümieren nun die Wissenschaftler.

Was man tun sollte, um Kinder besser vor Gewalt zu schützen: auf die Communitys setzen. Durch existierende Regelungen wie das Plattformgesetz DSA seien Anbieter bereits verpflichtet, es den Nutzern bei Beschwerden und Anzeigen gegen verbotenes Material leichter zu machen. Das würde ganz praktisch und im Gegensatz zu maschinellen Verfahren nämlich tatsächlich sinnvolle Hinweise auf verbotene Gewaltdarstellungen bringen.


Hier der Brief im Vorlaut.

The text below is an open letter on the position of scientists and researchers on the EU’s proposed Child Sexual Abuse Regulation.


Dear Members of the European Parliament,
Dear Member States of the Council of the European Union,

Joint statement of scientists and researchers on EU’s proposed Child Sexual Abuse Regulation: 4 July 2023
The signatories of this statement are scientists and researchers from across the globe.

First and foremost, we acknowledge that child sexual abuse and exploitation is a very serious crime which can cause lifelong harm to survivors. It is the responsibility of government authorities, with the support of companies and communities, to undertake effective interventions which prevent this crime and react to it quickly when it does happen.

The European Commission has proposed a law with the stated aim of stopping the spread of child sexual abuse material online and of grooming of children online. To do so, the law allows authorities to compel providers of any apps or other online services to scan the messages, pictures, emails, voice mails and other activities of their users. In the case of end-to-end encrypted apps, the claim is that this scanning can be done on users’ devices – so-called ‘Client-Side Scanning’ (CSS).

The effectiveness of the law (at its stated aims) relies on the existence of effective scanning technologies. Unfortunately, the scanning technologies that currently exist and that are on the horizon are deeply flawed. These flaws, which we describe in detail below, means that scanning is doomed to be ineffective. Moreover, integrating scanning at large scale on apps running in user devices, and particularly in a global context, creates side-effects that can be extremely harmful for everyone online, and which could make the Internet and the digital society less safe for everybody.

As the problems we describe speak to measures that are at the core of the EU’s legislative proposal, it is our professional recommendation as scientists that such a proposal be not taken forward. It is not feasible or tenable to require private companies to use technologies in ways that we already know cannot be done safely – or even at all. Given the horrific nature of child sexual abuse, it is understandable, and indeed tempting, to hope that there is a technological intervention that can eradicate it. Yet, looking at the issue holistically, we cannot escape the conclusion that the current proposal is not such an intervention.

Passing this legislation undermines the thoughtful and incisive work that European researchers have provided in cybersecurity and privacy, including contributions to the development of global encryption standards. Such undermining will weaken the environment for security and privacy work in Europe, lowering our ability to build a secure digital society.

The proposed regulation would also set a global precedent for filtering the Internet, controlling who can access it, and taking away some of the few tools available for people to protect their right to a private life in the digital space. This will have a chilling effect on society and is likely to negatively affect democracies across the globe.

We therefore strongly warn against pursuing these or similar measures as their success is not possible given current and foreseeable technology, while their potential for harm is substantial.

1. Detection technologies are deeply flawed and vulnerable to attacks
Tools used for scanning for known Child Sexual Abuse Material (CSAM) must not contain CSAM material itself as this would bring major risks. Thus, the only scalable technology to address this problem is by transforming the known content with a so-called perceptual hash function and by using a list of the resulting hash values to compare to potential CSAM material. A perceptual hash function needs to achieve two goals: (i) it should be easy to compute yet hard to invert and (ii) small changes to an image should result in small changes to the hash output, which means that even after image manipulation the known image can still be detected. While this sounds easy, after more than two decades of research there has been no substantial progress in designing functions that meet these properties.

Research has shown that for all known perceptual hash functions, it is virtually always possible to make small changes to an image that result in a large change of the hash value which allows evasion of detection (false negative). Moreover, it is also possible to create a legitimate picture that will be falsely detected as illegal material as it has the same hash as a picture that is in the database (false positive). This can be achieved even without knowing the hash database. Such an attack could be used to frame innocent users and to flood Law Enforcement Agencies with false positives – diverting resources away from real investigations into child sexual abuse.

These attacks are not theoretical: for concrete designs such as Photo DNA, Facebook’s PDQ hash function and Apple’s NeuralHash function, efficient attacks have been described in the literature. The only way to avoid such attacks for the time being is by keeping the description of the perceptual hash function secret. This “security by obscurity” not only goes against basic security engineering principles but, in practice, is only feasible if the perceptual hash function is known only to the service provider. In the case of end-to-end encryption, the hashing operation needs to take place on the client device. Thus, keeping the design secret is an illusion.

As scientists, we do not expect that it will be feasible in the next 10-20 years to develop a scalable solution that can run on users’ devices without leaking illegal information and that can detect known content (or content derived from or related to known content) in a reliable way, that is, with an acceptable number of false positives and negatives.

The proposal of the European Commission goes beyond the detection of known content. It also requires that newly generated images or videos with CSAM need to be detected based on “artificial intelligence” tools. In addition, the proposal requires that grooming in communication services including both text and audio should be detected using similar techniques. While some commercial players claim that they have made progress, the designs remain secret and no open and objective evaluation has taken place that demonstrates their effectiveness. Moreover, the state of the art in machine learning suggests that this is way beyond what is feasible today. In fact, any time that client-side designs have been evaluated (as in the case of prototypes funded by the UK Home office) they have been found to be neither effective nor compliant with privacy and human-rights law.
AI tools can be trained to identify certain patterns with high levels of precision. However, they routinely make errors, including mistakes that to a human seem very basic. That is because AI systems lack context and common sense. There are some tasks to which AI systems are well-suited, but searching for a very nuanced, sensitive crime — which is what grooming behaviour is — is not one of these tasks.

At the scale at which private communications are exchanged online, even scanning the messages exchanged in the EU on just one app provider would mean generating millions of errors every day. That means that when scanning billions of images, videos, texts and audio messages per day, the number of false positives will be in the hundreds of millions. It further seems likely that many of these false positives will themselves be deeply private, likely intimate, and entirely legal imagery sent between consenting adults.

This cannot be improved through innovation: ‘false positives’ (content that is wrongly flagged as being unlawful material) are a statistical certainty when it comes to AI. False positives are also an inevitability when it comes to the use of detection technologies — even for known CSAM material. The only way to reduce this to an acceptable margin of error would be to only scan in narrow and genuinely targeted circumstances where there is prior suspicion, as well as sufficient human resources to deal with the false positives — otherwise cost may be prohibitive given the large number of people who will be needed to review millions of texts and images. This is not what is envisioned by the European Commission’s proposal.

The reporting system put forward in the draft CSAM proposal is likely to encourage novel attacks on detection technologies. This is because right now, providers have the discretion to sift out obvious false alerts. Under the new system, however, they would be required to report even content that seems unlikely to be CSAM. Besides the attacks we mention, many more are starting to appear in specialized academic venues, and we expect many more are being prepared by those motivated to share illicit material.

Finally, it has been claimed that detecting CSAM should be feasible as scanning for computer viruses is a widely deployed technology. While superficially both seem similar, there are essential differences. First, when a computer virus is detected, the user is warned and the virus can be removed. Second, a virus can be recognized based on a small unique substring, which is not the case for a picture or video: it would be very easy to modify or remove a unique substring with small changes that do not change the appearance; doing this for a virus would make the code inoperable. Finally, machine learning techniques can sometimes identify viral behaviour, but only when such behaviour can be precisely defined (e.g. code that copies itself) and thus detected. This is in opposition to defining CSAM for which clear boundaries cannot easily be established.

2. Technical Implications of weakening End-to-End Encryption
End-to-end encryption is designed so that only the sender and recipient can view the content of a message or other communication. Encryption is the only tool we have to protect our data in the digital realm; all other tools have been proven to be compromised. The use of link encryption (from user to service provider and from service provider to user) with decryption in the middle as used in the mobile telephone system is not an acceptable solution in the current threat environment. It is obvious that end-to-end encryption makes it impossible to implement scanning for known or new content and detection of grooming at the service provider.

In order to remedy this, a set of techniques called “Client-Side Scanning” (CSS) has been suggested as a way to access encrypted communications without breaking the encryption. Such tools would reportedly work by scanning content on the user’s device before it has been encrypted or after it has been decrypted, then reporting whenever illicit material is found. One may equate this to adding video cameras in our homes to listen to every conversation and send reports when we talk about illicit topics.

The only deployment of CSS in the free world was by Apple in 2021, which they claimed was state-of-the-art technology. This effort was withdrawn after less than two weeks due to privacy concerns and the fact that the system had already been hijacked and manipulated.

When deployed on a person’s device, CSS acts like spyware, allowing adversaries to gain easy access to that device. Any law which would mandate CSS, or any other technology designed to access, analyse or share the content of communications will, without a doubt, undermine encryption, and make everyone’s communications less safe as a result. The laudable aim of protecting children does not change this technical reality.

Even if such a CSS system could be conceived, there is an extremely high risk that it will be abused. We expect that there will be substantial pressure on policymakers to extend the scope, first to detect terrorist recruitment, then other criminal activity, then dissident speech. For instance, it would be sufficient for less democratic governments to extend the database of hash values that typically correspond to known CSAM content (as explained above) with hash values of content critical of the regime. As the hash values give no information on the content itself, it would be impossible for outsiders to detect this abuse. The CSS infrastructure could then be used to report all users with this content immediately to these governments.

If such a mechanism would be implemented, it would need to be in part through security by obscurity as otherwise it would be easy for users to bypass the detection mechanisms, for example by emptying the database of hash values or bypassing some verifications. This means that transparency of the application will be harmed, which may be used by some actors as a veil to collect more personal user data.

3. Effectiveness
We have serious reservations whether the technologies imposed by the regulation would be effective: perpetrators would be aware of such technologies and would move to new techniques, services and platforms to exchange CSAM information while evading detection.

The proposed regulation will harm the freedom of children to express themselves as their conversations could also be triggering alarms. National criminal law enforcement on-the-ground typically deals in a nuanced way with intimate messages between teenagers both around the age of consent. These technologies change the relationship between individuals and their devices, and it will be difficult to reintroduce such nuance. For other users, we have major concerns of the chilling effects created by the presence of these detection mechanisms.

Finally, the huge number of false positives that can be expected will require a substantial amount of resources while creating serious risks for all users to be identified incorrectly. These resources would be better spent on other approaches to protect children from sexual abuse. While most child protection work must be local, one way in which community legislation might help is by using existing powers (DMA/DSA) to require social network services to make it easier for users to complain about abuse, as it is user complaints rather than AI that in practice lead to the detection of new abuse material.

List of signatures to this open letter.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.