netzpolitik.org
Bitte aktualisieren Sie PHP auf Version 8.2.0 (zurzeit: 8.1.2-1ubuntu2.22). Info
Auf dem heutigen „Gipfel zur Europäischen Digitalen Souveränität“ verkündete die Bundesregierung nicht weniger als einen radikalen Kurswechsel: Digitale Souveränität versteht sie vor allem als Rennen um die „Innovationsführerschaft“. Dafür will sie hart erkämpfte Regularien schleifen. Die Zivilgesellschaft durfte nur zuschauen.

Bundeskanzler Friedrich Merz (CDU) und der französische Präsident Emmanuel Macron haben zu einem Gipfel geladen, dem „Gipfel zur Europäischen Digitalen Souveränität“. Entsprechend hoch waren die Erwartungen: Ein Aufbruchssignal sollte von dem Gipfel ausgehen – an Europa, aber auch in die USA und nach China. Im Fokus stand dabei das Bestreben, in der EU die digitale Souveränität zu stärken. Darunter verstanden alle Beteiligten das Ziel, im digitalen Sektor die wirtschaftlichen Abhängigkeiten zu außereuropäischen Anbietern zu reduzieren.
Um dieses Ziel zu erreichen, will das deutsch-französische Tandem nicht nur bestehende Schutzrechte abbauen, sondern Regulierung vom Kopf auf die Füße stellen. „Product first, regulation second“, lautete das Credo von Digitalminister Karsten Wildberger (CDU). Erst müsse man das Produkt bauen, so der Minister, und danach die Risiken evaluieren. Die KI-Verordnung verfolgt bislang den genau entgegengesetzten Ansatz: eine risikobasierte Regulierung, bevor eine neue Technologie auf den Markt kommt.
Angesichts dieser Agenda verwundert es nicht, dass Vertreter:innen der Zivilgesellschaft nur einen Platz im Zuschauerraum erhielten. Und es ist sicher kein Zufall, dass die EU-Kommission just einen Tag nach dem Gipfel ihren „Digitalen Omnibus“ vorstellen wird – ein umfassendes Gesetzespaket, das darauf abzielt, Verbraucher:innenrechte und KI-Regulierung in der EU zu schleifen.
Die EU zum Spitzenreiter machen
Merz und Macron hielten zum Abschuss des Gipfels Reden, in denen sie ihre Vorstellungen der gemeinsamen Zusammenarbeit skizzierten. Auf den rund zehn Panels des Tages saßen unter anderem Bundesdigitalminister Wildberger, seine französische Amtskollegin Anne Le Hénanff und EU-Kommissions-Vizepräsidentin Henna Virkkunen. Daneben waren Vertreter:innen von großen europäischen Unternehmen wie SAP, Telekom, Mistral und Siemens vertreten.
Wildberger betonte, die EU gemeinsam mit Frankreich zum „Spitzenreiter bei Schlüsseltechnologien“ machen zu wollen. Und „digitale Souveränität geht nicht ohne KI“, betonte der Minister. Seine französische Amtskollegin Le Hénanff unterstrich, dass Frankreich und Deutschland „von dem Ehrgeiz getrieben“ seien, Unternehmen wettbewerbsfähiger zu machen.
In diesem Sinne ging es auf dem Gipfel viel um Wertschöpfung und Innovationsgeist, Hochleistungsrechner und Quantenforschung. Und alle Seiten betonten, dass es nun wichtig sei, ins Machen zu kommen und das Tempo zu erhöhen. Das Rennen sei noch nicht vorbei, die Aufholjagd könne aber nur gelingen, wenn man „den Fuß von der Bremse“ nehme, so Wildberger.
Weniger Hürden, mehr Überholspur
Die Regierung verengt den Begriff der digitalen Souveränität damit auf ökonomische Aspekte. Besonders deutlich wurde das in der Keynote von Bundeskanzler Merz. Der forderte nicht weniger als die „Innovationsführerschaft“ für Europa, um so der Dominanz der USA und Chinas zu entkommen. Die EU-Staaten sollten bereit sein, dafür den entsprechenden Ordnungsrahmen zu schaffen, dann aber sei die Wirtschaft am Zuge. Macron forderte in seiner Keynote unter anderem weniger Regulierung: „Wenn wir den USA und China das Feld überlassen, haben wir eine gute Regulierung, aber regulieren am Ende nichts mehr.“
Beide verwiesen auf den „Digitalen Omnibus“, den die EU-Kommission morgen vorstellt. Das umfassende Gesetzespaket verfolgt ebenfalls das Ziel, den Fuß von der Bremse zu nehmen. Laut Kommission soll es Regeln vereinfachen, überlappende Gesetze in Einklang bringen und Bürokratie abbauen. Der im Vorfeld von netzpolitik.org veröffentliche Zwischenstand lässt hier allerdings wenig Gutes erahnen.
Demnach will die Kommission die Datenschutzgrundverordnung erheblich schwächen und die Umsetzung zentraler Teile der KI-Verordnung für zwölf Monate aussetzen. Vor allem sensible personenbezogene Daten sowie Hochrisiko-Systeme bei sogenannter Künstlicher Intelligenz wären von den Änderungen betroffen. Das Ziel ist es also, Regulierung zu bremsen, damit Start-ups auf die Überholspur kommen.
Deklaration für mehr Deregulierung
Die Kommission treibt damit ebenfalls jene Umkehr an, die auch das deutsch-französische Tandem forciert: Erst mal machen, dann regulieren. Auf eine griffige Formel brachte das Vorgehen der Parlamentarische Staatssekretär im Digitalministerium, Thomas Jarzombek, am Gipfeltag. Er strebt eine Disruption „wie vor 150 Jahren“ an. Damals wurde das Auto erfunden und niemand habe darüber diskutiert, ob es Verkehrstoten geben kann, so der Staatssekretär. Von diesem damaligen Geist brauche man heute wieder mehr, statt sich mit „regulatorischen Dingen“ selbst im Wege zu stehen.
Ins gleiche Horn stößt offenbar der Wortlaut der „Declaration for European Digital Sovereignty“. Die von Österreich initiierte Abschlusserklärung des Gipfels wird am Abend verabschiedet und ist rechtlich nicht bindend. Sie formuliert den Anspruch der EU, in kritischen Bereichen künftig unabhängig von Drittstaaten zu bleiben. Dafür brauche es langfristig auch private Investitionen in Hochleistungsrechner, Halbleiterfertigung oder Quantenforschung. Gleichzeitig aber müsse die EU private regulatorische Hürden abbauen, wie das Handelsblatt berichtet.
Zivilgesellschaft als fünftes Rad am Wagen
Nennenswerte Kritik am Deregulierungs-„Aufbruch“ der Bundesregierung war auf dem Gipfel nicht zu hören. Das könnte damit zusammenhängen, dass die Zivilgesellschaft auf den Panels nicht vertreten war, sagte Julia Pohle vom Wissenschaftszentrum für Sozialforschung in Berlin (WZB) gegenüber netzpolitik.org. „Die hätten womöglich über Gemeinwohl und Nachhaltigkeit gesprochen und das scheint nicht zum offiziellen Diskurs zu passen.“ Dass europäische digitale Souveränität demokratischen Werten und Grundrechten dienen soll, fiel damit hinten runter, so Pohle.
Auch Henriette Litta, Geschäftsführerin bei der Open Knowledge Foundation Deutschland, zeigte sich enttäuscht. Zwar begrüße sie, dass der Gipfel eine konsequente europäische Perspektive einnehme. „Ansonsten gab es aber keine Diskussionen und auf der Bühne kamen nur blumige Konsenspositionen vor“, sagte Litta gegenüber netzpolitik.org.
Rund 70 Vertreter:innen der Zivilgesellschaft hatten laut Digitalministerium zugesagt, zu dem Gipfel zu kommen. Insgesamt 150 Einladungen hatte das Ministerium zuvor an zivilgesellschaftliche Organisationen verschickt. Einige von ihnen hatten bereits vor dem Gipfel die Sorge geäußert, dass der geplante Gipfel sich auf Großprojekte und KI fokussiere. Weder diese Sorge noch die Forderungen aus der Zivilgesellschaft wurden jedoch angehört.
So hatten das Bündnis „Offene Netzwerke und demokratische Öffentlichkeit. Dezentral, souverän und fürs Gemeinwohl!” und die Agora Digitale Transformation unter anderem öffentliche Investitionen in digitale Infrastrukturen gefordert. Als Beispiel nannten sie eine jährliche Förderung in Höhe von 30 Millionen Euro für das Fediverse sowie mehr Präsenz öffentlicher Behörden und Ministerien auf offenen Plattformen. Außerdem schlugen sie vor, dass freie und offene Software ohne Gewinnerzielungsabsicht gemeinnützig werden müsse, um die digitale Souveränität zu stärken.
Keine dieser vorgeschlagenen Maßnahmen hat die Bundesregierung auf ihrem Gipfel aufgegriffen. Vielleicht wollte sie auch die Harmonie des Tages nicht stören.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Universitäten dürfen bei Online-Prüfungen die Studierenden nicht schrankenlos überwachen. Eine Betroffene von der Universität Erfurt hat geklagt und jetzt gewonnen: Gesichtserkennung und Biometrie sind tabu beim sogenannten Proctoring.

Während der Pandemie nutzten viele Universitäten sogenannte Proctoring-Systeme. Diese sollen Betrug bei Online-Prüfungen der Studierenden verhindern, zeichnen sich aber durch tiefe Eingriffe in Datenschutz und Privatsphäre aus. So mussten die Studierenden teilweise ihr gesamtes Zimmer filmen, einer Gesichtserkennung zustimmen und dem Überwachungssystem Zugriff auf quasi den ganzen Computer geben. Schon damals gab es Beschwerden von Studierenden und Landesdatenschutzbeauftragten.
Die Gesellschaft für Freiheitsrechte (GFF) kritisierte in einem Gutachten, dass die Grundrechte der Studierenden bei Online-Prüfungen unter die Räder geraten seien. Die Nichtregierungsorganisation suchte damals nach Betroffenen und klagte zusammen mit diesen gegen die invasive Software. Nun hat das Thüringer Oberlandesgericht am Montag über eine Klage entschieden und klargestellt, dass die Videoüberwachung von Studierenden bei Online-Prüfungen rechtswidrig ist, wenn dabei biometrische Daten verarbeitet werden. Das verstoße gegen die Datenschutzgrundverordnung, heißt es in der Pressemitteilung der GFF.
Betroffene erhält Schadenersatz
In dem in Thüringen entschiedenen Fall nutzte die Universität Erfurt demnach die Anwendung Wiseflow, die die Studierenden unter anderem mittels Gesichtserkennung überwacht. Damit wollte die Universität sicherstellen, dass stets die gleiche Person vor dem Monitor sitzt. Wiseflow verarbeitete biometrische Daten und leitete sie darüber hinaus an den Dienstleister Amazon Web Services weiter. Diese Praxis hat das Gericht nun für rechtswidrig erklärt und der Klägerin zudem einen Schadensersatz zugesprochen.
„Die Software hat damals starke Ängste in mir ausgelöst. Ich wusste nicht, wie sie funktioniert und was mit meinen Daten passiert. Aber ich hatte keine andere Wahl, weil ich mit meinem Studium vorankommen wollte“, erklärt Klägerin Jennifer Kretzschmar. „Ich bin froh, dass das Gericht jetzt festgestellt hat, dass die Überwachung rechtswidrig war. Hoffentlich achtet die Universität die Grundrechte der Studierenden bei Prüfungen künftig.“
Die GFF geht davon aus, dass das Urteil auch Signalwirkung für andere Bereiche, etwa die Überwachung am Arbeitsplatz, habe.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Die EU-Staaten einigen sich auf eine gemeinsame Position zur Chatkontrolle. Internet-Dienste sollen Kommunikation freiwillig lesen dürfen, werden aber nicht dazu verpflichtet. Wir veröffentlichen das eingestufte Verhandlungsprotokoll und den Gesetzentwurf. Nach dem formellen Beschluss beginnen die Trilog-Verhandlungen.

Die EU-Staaten haben sich auf eine gemeinsame Position zur Chatkontrolle geeinigt. Wir veröffentlichen den Gesetzentwurf.
Letzte Woche hat die Rats-Arbeitsgruppe das Gesetz besprochen. Wir veröffentlichen ein weiteres Mal das eingestufte Protokoll der Sitzung.
Morgen wollen die Ständigen Vertreter die Position offiziell beschließen.
Drei Jahre Streit
Seit dreieinhalb Jahren streiten die EU-Institutionen über die Chatkontrolle. Die Kommission will Internet-Dienste verpflichten, die Inhalte ihrer Nutzer anlasslos auf Hinweise zu Straftaten zu durchsuchen und diese bei Verdacht an Behörden zu schicken.
Das Parlament bezeichnet das als Massenüberwachung und fordert, nur unverschlüsselte Inhalte von Verdächtigen zu scannen.
Eine Mehrheit der EU-Staaten will eine verpflichtende Chatkontrolle. Eine Sperrminorität lehnt das jedoch ab. Jetzt hat sich der Rat auf einen Kompromiss geeinigt. Internet-Dienste werden nicht zur Chatkontrolle verpflichtet, dürfen aber eine freiwillige Chatkontrolle durchführen.
Absolute rote Linien
Die dänische Ratspräsidentschaft will den Gesetzentwurf „schnellstmöglich“ durch den Rat bringen, „damit die Trilogverhandlungen zeitnah begonnen werden können“. Das Feedback der Staaten soll sich auf „absolute rote Linien“ beschränken.
Die Mehrheit der Staaten „unterstützten den Kompromissvorschlag“. Mindestens 15 sprachen sich dafür aus, darunter Deutschland und Frankreich.
Deutschland „begrüßte sowohl die Streichung der verpflichtenden Maßnahmen als auch die dauerhafte Verankerung freiwilliger Maßnahmen“.
Italien sieht auch die freiwillige Chatkontrolle skeptisch. „Man befürchte, das Instrument könne auch auf andere Delikte ausgeweitet werden, daher habe man Schwierigkeiten, den Vorschlag zu unterstützen.“ Politiker haben bereits gefordert, die Chatkontrolle auf andere Inhalte auszuweiten.
Absoluter Minimalkonsens
Andere Staaten bezeichneten den Kompromiss „als absoluten Minimalkonsens“. Sie haben sich „eigentlich mehr gewünscht – insbesondere im Sinne von Verpflichtungen“. Einige Staaten „zeigten sich deutlich enttäuscht über die vorgenommenen Streichungen“.
Vor allem Spanien „sah verpflichtende Maßnahmen weiterhin als erforderlich an, leider sei eine umfassende Einigung dazu nicht möglich gewesen“. Auch Ungarn „sah Freiwilligkeit als alleiniges Konzept als zu wenig an“.
Spanien, Ungarn und Bulgarien schlugen „eine Verpflichtung für die Anbieter vor, zumindest in offenen Bereichen aufdecken zu müssen“. Die dänische Ratspräsidentschaft „bezeichnete den Vorschlag als ehrgeizig, griff ihn aber nicht auf, um weitere Diskussionen zu vermeiden“.
Dänemark wies explizit auf die Überprüfungsklausel hin. Damit „halte man sich die Möglichkeit von Aufdeckungsanordnungen zu einem späteren Zeitpunkt offen“. Ungarn betonte, „dass diese Möglichkeit auch genutzt werden müsse“.
Keine Verpflichtung
Die dänische Ratspräsidentschaft hatte öffentlich verkündet, dass die Chatkontrolle nicht verpflichtend sein soll, sondern freiwillig.
Der ausformulierte Kompromissvorschlag war jedoch widersprüchlich. Den Artikel zur verpflichtenden Chatkontrolle hatte sie gestrichen. Ein anderer Artikel sagte jedoch, dass Dienste auch freiwillige Maßnahmen durchführen sollen.
Mehrere Staaten haben gefragt, ob diese Formulierungen „zu einer faktischen Verpflichtung führen könnten“. Die Juristischen Dienste stimmten zu: „Die Formulierung sei in beide Richtungen auslegbar“. Die Ratspräsidentschaft „stellte klar, dass es im Text lediglich eine Verpflichtung zur Risikominderung gäbe, nicht aber eine Verpflichtung zur Aufdeckung“.
Am Tag nach der Sitzung verschickte die Ratspräsidentschaft den wahrscheinlich endgültigen Gesetzentwurf des Rats. Darin steht explizit: „Keine Bestimmung dieser Verordnung ist so auszulegen, dass sie den Anbietern Aufdeckungspflichten auferlegt.“
Schaden und Missbrauch
Die verpflichtende Chatkontrolle ist nicht das einzige Problem im geplanten Gesetz. Auch die freiwillige Chatkontrolle ist eigentlich verboten. Die EU-Kommission kann ihre Verhältnismäßigkeit nicht belegen. Viele lehnen die freiwillige Chatkontrolle ab, darunter die EU-Kommission, der Europäische Datenschutzbeauftragte und die deutsche Datenschutzbeauftragte.
Eine Reihe an Wissenschaftlern kritisiert den Kompromissvorschlag. Die freiwillige Chatkontrolle bezeichnen sie als nicht angemessen. „Ihr Nutzen ist nicht nachgewiesen, während das Potenzial für Schaden und Missbrauch enorm ist.“
Das Gesetz fordert auch verpflichtende Altersprüfungen. Die Wissenschaftler kritisieren, dass Altersprüfungen „ein inhärentes und unverhältnismäßiges Risiko schwerwiegender Datenschutzverletzungen und Diskriminierung mit sich bringen, ohne dass ihre Wirksamkeit garantiert ist“. Auch die Bundesdatenschutzbeauftragte befürchtet eine „weitgehende Abschaffung der Anonymität im Netz“.
Jetzt folgt Trilog
Die EU-Staaten werden diese Punkte nicht weiter diskutieren. Die dänische Ratspräsidentschaft „bekräftigte, am Kompromissvorschlag ohne die spanischen Vorschläge festzuhalten“.
Morgen tagen die Ständigen Vertreter der EU-Staaten. Im Dezember tagen die Justiz- und Innenminister. Diese beiden Gremien sollen den Gesetzentwurf als offizielle Position des Rats beschließen.
Danach folgt der Trilog. Dort verhandeln Kommission, Parlament und Rat, um aus ihren drei eigenen Gesetzentwürfen einen Kompromiss zu erzielen.
Hier ist das Dokument in Volltext:
- Geheimhaltungsgrad: Verschlusssache – Nur für den Dienstgebrauch
- Datum: 13. November 2025
- An: Auswärtiges Amt
- Kopie: BKAmt, BMI, BMJV, BMF, BMWE, BMBFSFJ
- Betreff: Sitzung der RAG Strafverfolgung am 12. November 2025
- Zweck: Zur Unterrichtung
- Geschäftszeichen: 350.80
Sitzung der RAG Strafverfolgung am 12. November 2025
I. Zusammenfassung und Wertung
Schwerpunkt der Sitzung bildete TOP 3 – Proposal for a Regulation of the European Parliament and of the Council laying down rules to prevent and combat child sexual abuse (11596/25). Grundlage der Aussprache bildete der mit Dok. 14092/25 am 6. November von der DNK Präsidentschaft übermittelte Kompromisstext.
Die Mehrzahl der wortnehmenden MS brachten ihre Unterstützung für den jüngsten Kompromissvorschlag zum Ausdruck.
Nachdem Vorsitz eine ausreichende Mehrheit für den Kompromisstext festgestellt hatte, kündigt er Vorlage im AStV am 19. November (I-Punkt) sowie im JI-Rat im Dezember an.
II. Im Einzelnen
TOP 1: Adoption of the agenda
Annahme ohne Änderungen.
TOP 2: Information by the Presidency
Präs. verwies auf die nächsten Sitzungen der Temporary Core Group zu den Polizei-Netzwerken (als VSK) am 25.11. und der RAGS-P am 03.12.2025. Schriftliche Bemerkungen zu dem Papier der Präs. zu den Polizei-Netzwerken vom 06.11. würden bis 13.11.2025 erbeten.
TOP 3: Proposal for a Regulation of the European Parliament and of the Council laying down rules to prevent and combat child sexual abuse (14092/25)
Vorsitz eröffnete die Sitzung zunächst mit einer Zusammenfassung der am Text vorgenommenen inhaltlichen Änderungen, verwies auf den äußerst knappen Zeitplan aufgrund des Auslaufens der Interims-VO und kündigte eine schnellstmögliche Behandlung im AStV und Dezember-JI-Rat an, damit die Trilogverhandlungen zeitnah begonnen werden können. MS seien ausdrücklich gebeten, sich auf eine kurze Bewertung des Kompromisstextes und absolute rote Linien zu beschränken.
Zahlreiche wortnehmende MS (DEU, FRA, AUT, LUX, SVN, LVA, LTU, SVK, MLT, ROU, IRL, CYP, wohl auch POL, FIN, EST) unterstützten den Kompromissvorschlag, wenngleich der Regelungsumfang teilweise als absoluter Minimalkonsens betrachtet wurde (ESP, LTU, BGR) und man sich eigentlich mehr – insbesondere im Sinne von Verpflichtungen – gewünscht habe.
DEU trug weisungsgemäß vor und begrüßte sowohl die Streichung der verpflichtenden Maßnahmen als auch die dauerhafte Verankerung freiwilliger Maßnahmen sowie die Beibehaltung des EU-Zentrums und bekräftigte dessen Bedeutung.
ESP sah verpflichtende Maßnahmen weiterhin als erforderlich an, leider sei eine umfassende Einigung dazu nicht möglich gewesen. Daher schlage man – unterstützt von BGR und HUN – eine Verpflichtung für die Anbieter vor, zumindest in offenen Bereichen aufdecken zu müssen. Es sei zahlreiches CSAM offen abrufbar. Um zumindest dessen Verbreitung zu verhindern, müsse eine Verpflichtung der Anbieter möglich. Zudem solle in Artikel 43 eine Funktion des EU-Zentrums verankert werden, die es dem EU-Zentrum ermögliche, die Anbieter zur Ordnung zu rufen, wenn diese ihren Verpflichtungen nicht nachkommen.
Vorsitz bezeichnete den Vorschlag ESPs als ehrgeizig, griff ihn aber nicht auf, um weitere Diskussionen zu vermeiden. Mittels Überprüfungsklausel halte man sich die Möglichkeit von Aufdeckungsanordnungen zu einem späteren Zeitpunkt offen.
POL unterstützte grundsätzlich die Richtung des Textes, legte aber weiterhin einen Prüfvorbehalt ein und kündigte an, die endgültige Positionierung nachzuliefern.
Auch HUN sah Freiwilligkeit als alleiniges Konzept als zu wenig an und legte PV ein. Zudem bitte man den JD-Rat um Einschätzung, ob nach dem jüngsten Textvorschlag innerhalb E2EE Kommunikation aufgedeckt werden könne (ähnlich HRV). Ein Ausschluss freiwilliger Maßnahmen in E2EE sei eine rote Linie. Generell dürfe es keinen Rückschritt hinter den status quo geben.
Vorsitz entgegnete daraufhin, Rechtsgrundlage sei weiterhin die DSGVO. Der aktuelle Textvorschlag sei keine Verschlechterung, sondern eine Verbesserung, da er gewährleiste, dass die Anbieter das, was sie bisher erfolgreich täten, auch weiterhin tun könnten und zudem die Zusammenarbeit auf EU-Ebene gefördert werde.
FIN verwies auf die Notwendigkeit der Befassung des eigenen Parlaments (auch SWE), sah den Vorschlag aber grundsätzlich positiv. CZE legte ebenfalls PV mit Hinweis auf die laufende Regierungsbildung ein.
ITA legte Prüfvorbehalt ein und verwies auf seine Ausführungen im AStV am 05.11.. Zu überlegen sei, ob im Rahmen ausschließlich freiwilliger Aufdeckungen das Recht auf Privatsphäre der Nutzer ausreichend gewahrt werden könne. Man befürchte, das Instrument könne auch auf andere Delikte ausgeweitet werden, daher habe man Schwierigkeiten, den Vorschlag zu unterstützen.
Vorsitz verwies diesbezüglich auf die soliden Rechtssysteme mit entsprechenden Garantien in den MS, die die Basis des Vorschlages bilden.
FRA erinnerte eindringlich, dass man schnell vorankommen und eine Lösung finden müsse.
SVN, LTU, SVK, NLD und LVA sahen die Verhinderung einer Regelungslücke als oberste Priorität und begrüßten die Streichung der verpflichtenden Aufdeckungsanordnungen. Das EU-Zentrum werde unterstützt.
NLD bat zudem JD-Rat um Einschätzung, ob die Formulierungen in Artikel 4 und 5 ggf. zu einer faktischen Verpflichtung führen könnten.
Vorsitz stellte klar, dass es im Text lediglich eine Verpflichtung zur Risikominderung gäbe, nicht aber eine Verpflichtung zur Aufdeckung.
ROU, SWE und HRV zeigten sich deutlich enttäuscht über die vorgenommenen Streichungen, erklärten sich aber aufgrund der eingefügten Überprüfungsklausel dennoch mit dem Vorschlag einverstanden. HRV ergänzte, dass diese Möglichkeit auch genutzt werden müsse. SWE sah die Überprüfungsklausel jedoch als zu komplex an.
IRL unterstrich, der Ergänzung in Art. 14a und 18aa betreffend die Notwendigkeit einer richterlichen Bestätigung innerhalb 72 Stunden nicht zustimmen zu können, da dies im common law System nicht möglich sei (ebenso MLT).
HUN bemängelte, die Frage nach E2EE sei nicht angemessen beantwortet worden. Probleme diesbezüglich habe es bislang nur im Rahmen privater Kommunikation gegeben, der ESP Vorschlag beziehe sich aber ausschließlich auf open spaces.
Vorsitz stellte klar, dass man nicht vorhabe, diese Punkte erneut zu diskutieren. Es solle weiterhin möglich bleiben, was auch jetzt möglich sei und bat JD-Rat um Beantwortung zu Art. 1 Abs 5.
JD-Rat führte zu Art. 1 Abs. 5 aus, dass er keine Änderung der Interims-VO sähe. Die Ausnahmen dürften angewendet werden, wenn eine Rechtsgrundlage dafür gegeben ist. Den Providern werde nicht verboten, Maßnahmen innerhalb E2EE Inhalten zu ergreifen. Art. 1 Abs 5 ändere nichts an der jetzigen Rechtslage. Die Frage von NLD zu einer faktischen Verpflichtung sei schwierig zu beantworten. Es sei zwar nicht verpflichtend, eine bestimmte Maßnahme zu ergreifen, aber die Formulierung sei in beide Richtungen auslegbar.
KOM betonte den Mehrwert und die Relevanz des EU-Zentrums und stimmte ESP zu, in Bezug auf Aufdeckungsanordnungen in öffentlich zugänglichen Bereichen. Auch öffentlich sei viel CSAM verfügbar, daher sei der Vorschlag gut und wichtig und es sei nur schwer vorstellbar, dass eine aktive Suche nach CSAM durch das EU-Zentrum auf Widerstand stoßen könnte.
Vorsitz bedankte sich für die breite Unterstützung und bekräftigte, am Kompromissvorschlag ohne die ESP Vorschläge festzuhalten. Man werde jedoch versuchen, vor Übersendung an den AStV eine textliche Lösung – z.B. einen Verweis auf nationales Recht – zu den von MLT und IRL vorgetragenen Bedenken zu finden.
[…]
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Deutschland folgt dem globalen Trend von weniger Freiheiten im Netz. Insgesamt verschlechtert sich dieses Jahr die Lage in 27 Ländern. Das zeigt der aktuelle „Freedom on the Net“-Report.

Der „Freedom on the Net“-Bericht wird einmal jährlich von der Nichtregierungsorganisation (NGO) Freedom House herausgegeben. Auch der diesjährige setzt die Tradition der vorausgegangenen Berichte fort. Zum 15. Mal in Folge zieht das Freedom House eine negative Bilanz, wenn es um Zugangsbeschränkungen, Limitationen für Inhalte und Verstöße gegen Nutzerrechte im Internet geht.
Anhand dieser drei Kategorien bewertet das Freedom-House-Team mit externen Fachleuten 72 Länder, in denen 89 Prozent aller Internet-Nutzer*innen leben. Die NGO nutzt dafür einen Fragenkatalog, der Themen wie staatliche Zensur oder die für den Zugang zum Internet nötige Infrastruktur abdeckt. Jedes Land bekommt so einen Wert zwischen 1 und 100 zugeordnet. Damit entsteht auch ein Gesamteindruck der globalen Lage der Freiheit des Internets.
Um die globale Lage steht es laut Bericht schlecht: Den 27 Ländern mit Punktverlusten stehen nur 17 mit Verbesserungen gegenüber. Auch Deutschland büßte drei Punkte ein. Vermehrtes Vorgehen von Politikern gegen Memes und Kritik im Netz, Einschüchterung von Journalist*innen durch Rechtsextreme und Cyberangriffe aus Russland spielten hier laut Freedom House eine Rolle.
Kritik und Zukunftsvisionen
Auch die USA verloren drei Punkte im Vergleich zum Vorjahr. Allerdings liegt der durch den Bericht untersuchte Zeitraum zwischen Juni 2024 und Mai 2025. Die Untersuchung schließt also nur die ersten vier Monate der zweiten Amtszeit von Donald Trump ein.
Freedom House erhielt bis zur Aussetzung der US-Auslandshilfen finanzielle Unterstützung vom US-amerikanischen Staat. Weitere Unterstützer von Freedom House sind das niederländische Außenministerium und Google. Freedom House betont allerdings seine Unabhängigkeit gegenüber Weisungen von Spendern.
Um die Freiheit des Internets wieder zu stärken, spricht die Organisation sich für eine Zusammenarbeit zwischen Gesetzgebern, Unternehmen und Akteuren aus der Zivilgesellschaft aus. Eine große Chance für den erleichterten Zugang zum Internet sieht Freedom House in satellitenbasierten Internetdienstleistern. Eine mögliche Altersverifikation online und ähnliche Maßnahmen, die Anonymität im Netz abbauen, lehnt die NGO hingegen ab. Zwischen Chancen und negativen Entwicklungen bleibt für Freedom House aber eins klar:
Die Faktoren, die zur Verbesserung der Internetfreiheit führen, sind von Land zu Land unterschiedlich, jedoch ist unabhängiger zivilgesellschaftlicher Aktivismus ein konstanter Motor für Veränderung und der Förderung der Achtung der Menschenrechte.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Die Debatten werden feindseliger, die politischen Machtverhältnisse verschieben sich. Wir halten dagegen: Mit investigativen Recherchen, Analysen, Leaks und einem langen Atem kämpfen wir für die Grund- und Freiheitsrechte aller. Dafür brauchen wir deine Unterstützung. In diesem Jahr fehlen uns noch 443.000 Euro.

Mit der vollen Härte des Rechtsstaats … glitch … im großen Stil abschieben … distortion … im Stadtbild noch dieses Problem … bug … Wir werden sie entzaubern … error!
Die Debatten werden feindseliger, die politischen Machtverhältnisse verschieben sich. Rechtsradikale Parteien legen in Umfragen weiter zu. Die „politische Mitte“ übernimmt deren Rhetorik und Forderungen. Immer lauter werden die Rufe, die Brandmauer einzureißen und die Rechtsradikalen „in die Verantwortung zu nehmen“. Um sie „zu entzaubern“.
All das befeuert eine menschen- und grundrechtsfeindliche Politik. Es zerstört Empathie und zersetzt den gesellschaftlichen Zusammenhalt.
Und es ist mehr als nur ein Glitch in der politischen Matrix. Wir stehen an einem Demokratie-Kipppunkt.
Jetzt oder nie
Wir halten dagegen. Wir wollen eine freie, offene und solidarische Gesellschaft. Wir kämpfen gemeinsam für die Grundrechte aller.
- Wir brennen für Grund- und Freiheitsrechte. Mit unserer journalistischen Arbeit hinterfragen wir die Scheinlösungen autoritärer Law-and-Order-Politik. Wir kämpfen für informationelle Selbstbestimmung, Meinungs- und Versammlungsfreiheit, für Verbraucher:innen- und Datenschutz, Transparenz und Informationsfreiheit. Und wir verstärken die Stimmen der demokratischen Zivilgesellschaft.
- Wir fackeln nicht lange. Der Überwachungsstaat ist nicht erst ein Problem, wenn er von Rechtsradikalen übernommen wird. Deshalb berichten wir schon dann, wenn neue Kontrolltechnologien an Geflüchteten getestet werden. Wenn Arbeitssuchende durchleuchtet werden. Wenn chronisch Kranke ihre Daten hergeben müssen. Weil auch sie eine starke Lobby brauchen – und weil sich eine offene und freie Gesellschaft gerade im Umgang mit Marginalisierten zeigt.
- Wir schlagen Alarm. Wir nehmen die Allianz von milliardenschweren Tech-Bros mit der rechtsradikalen US-Regierung ins Visier. Wir haken nach, wenn Politiker:innen ihre Absprachen mit der Privatwirtschaft unter den Teppich kehren wollen. Wir gehen in journalistischen Vollkontakt, wenn die Chatkontrolle eingeführt werden soll. Und wir zerren das Geschäft der Databroker ans Licht, die millionenfach unsere Werbeprofile verhökern. Mit unseren Recherchen legen wir den Finger in die Wunde. Wir lösen Debatten aus. Wir verändern etwas.
Deine Spende an uns ist eine Spende für Grundrechte. Und für den Erhalt der freien und offenen Gesellschaft. Eine Gesellschaft, in der alle gut leben können.
Es geht um alles. Jetzt oder nie.
Wir brauchen noch 443.000 Euro!
netzpolitik.org macht seit mehr als 20 Jahren gemeinwohlorientierten Journalismus mit Haltung. Unsere Arbeit finanzieren wir fast ausschließlich durch Spenden unserer Leser:innen. Damit wir sie im nächsten Jahr fortsetzen können, fehlen uns aktuell noch 443.000 Euro.
Unterstütze uns mit einer einmaligen Spende – oder noch besser: mit einem Dauerauftrag, damit wir langfristig planen können. Schon kleine Beträge ab 5 Euro helfen uns! Deine Spende ermöglicht es auch, dass uns alle lesen können, die uns derzeit nicht finanziell unterstützen können. Wir sind transparent in der Verwendung der Spenden.
Du kannst unsere Arbeit auch unterstützen, indem du einen limitierten Hoodie oder einen Kunstdruck in unserem Kampagnen-Shop kaufst – oder ihn verschenkst. 🎁 Oder du machst einfach beides: Spenden und schöne Dinge kaufen. 🤓
PS: Falls du selbst gerade nicht spenden kannst, erzähl bitte anderen, warum sie uns unterstützen sollten. Und dass Spenden an uns steuerlich absetzbar sind.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Eine EU-Transparenzdatenbank soll öffentlich besser nachvollziehbar machen, wie Online-Dienste Inhalte moderieren. Doch eine aktuelle Studie zeigt grundlegende Mängel auf und warnt: Die Datenbank kann, so wie sie aufgebaut ist, ihre Ziele gar nicht erreichen.

Wie oft löschen Online-Dienste eigentlich Inhalte ihrer Nutzer:innen? Welche Gründe geben sie an, wenn sie eingreifen? Welche Inhalte laufen besonders Gefahr, von den Anbietern wegmoderiert zu werden? Und wie genau verbreiten sich illegale Inhalte im Netz?
Zumindest einen Teil dieser Fragen soll eine eigens eingerichtete, öffentlich zugängliche EU-Datenbank beantworten. Sie ist Teil des Digital Services Act (DSA), mit dem die EU auf die Übermacht von Online-Diensten reagiert hat. Das Digitalgesetz schreibt weltweit erstmals verbindliche Regeln für Anbieter fest, die unter anderem zu mehr Transparenz im digitalen Raum sorgen und zugleich Nutzer:innen mehr Rechte verschaffen sollen.
Nach einem leicht holpernden Start befüllen inzwischen über 200 Anbieter die Datenbank, wie aus ihren Statistiken hervorgeht. Demnach haben sie in den vergangenen sechs Monaten knapp vier Milliarden Moderationsentscheidungen an die Datenbank übermittelt. Fast die Hälfte davon wurden vollständig automatisiert getroffen. Meist sollen die Nutzer:innen gegen die Hausregeln der Anbieter verstoßen haben. Illegale Produkte auf Online-Marktplätzen wie Google Shopping machen demnach den Löwenanteil der Inhalte aus, zu denen sie den Zugang gesperrt haben.
„Datenbank erfüllt ihre Ziele nicht“
Eine aktuelle Studie der Universität Zürich übt nun scharfe Kritik an der Datenbank sowie ihrem zugrundeliegenden Design. Zwar stelle die DSA-Transparenzdatenbank einen Schritt in Richtung Transparenz dar, weise aber weiterhin erhebliche Mängel auf, heißt es in der Studie. So habe sie mit eingeschränkter Benutzerfreundlichkeit und Zugänglichkeit zu kämpfen, zudem würden Schlüsseldaten für die Überprüfung und Überwachung der Verbreitung illegaler Inhalte fehlen. Ferner gebe es Bedenken hinsichtlich der Konsistenz, Zuverlässigkeit und Validität der Daten, welche die Online-Dienste nahezu in Echtzeit an die Datenbank melden müssen.
„Entsprechend erfüllt die Datenbank ihre Ziele nicht“, schreibt das vierköpfige Forschungsteam um Professorin Natascha Just. Einige Defizite könnten sich wohl mit den konkreten Empfehlungen und Vorschlägen beheben lassen, die das Team in den Raum stellt. Zugleich plädieren die Forschenden jedoch auch „für eine Überprüfung der regulatorischen Ziele selbst“, die der gegenwärtige Ansatz verfehle.
Es ist bemerkenswert, dass „eigentlich zwei von drei Zielen, die für die Datenbank formuliert wurden, mit dem Setup gar nicht erreicht werden können“, sagt Samuel Groesch, Ko-Autor der Studie, gegenüber netzpolitik.org. So soll die Datenbank ein Monitoring der Verbreitung von illegalen Inhalten ermöglichen, und sie soll Moderationsentscheidungen überprüfbar machen, sagt der Forscher. „Beides ist aber mit den verfügbaren Daten nicht möglich.“
Wer entscheidet, was illegal ist?
Dies beginne schon dabei, die Erkenntnisse aus dem Datenmaterial sicher zu interpretieren, wenn man erstmal die Grafiken und Balkendiagramme im Dashboard der Datenbank hinter sich lässt. Denn bei genauerer Betrachtung werde schnell klar, sagt Groesch, dass „Definitionen, Reporting und Dokumentation viele Schwachstellen“ haben, sodass eine verlässliche Interpretation kaum möglich ist.
Illustrieren lässt sich das am Beispiel vermeintlich illegaler inhalte. Mit der Datenbank lässt sich zwar die Anzahl und der Anteil der Inhalte abfragen, die Plattformen als illegal eingestuften haben. Wie bisher liegt dies aber im Ermessensspielraum der Anbieter selbst: „Die Plattformen müssen Inhalte nicht auf Rechtmäßigkeit prüfen und können illegale Inhalte auch als Verstöße gegen Community Standards klassifizieren“, sagt Groesch.
Dies sei für die Plattformen einfacher, aber „damit werden diese Inhalte im Datenbank-Output nicht als illegal ausgewiesen“. Auf dieser Basis lasse sich keine verlässliche Aussage darüber treffen, wie hoch der Anteil illegaler Inhalte tatsächlich ist. Zudem könne der aktuelle Zustand zu falschen Aussagen verleiten, indem nur sehr wenige Inhalte als illegal gemeldet werden und das Problem geringer erscheint, als es womöglich ist.
Zumindest die EU-Kommission nutzt die Datenbank
Auf diese Schwächen angesprochen, verweist die EU-Kommission auf den gesetzlichen Rahmen, den ihr der DSA vorgibt. Relevant ist insbesondere Artikel 17 der EU-Verordnung. Der Abschnitt macht den Anbietern eine Reihe an Vorgaben, wie sie sich gegenüber Nutzer:innen verhalten müssen, wenn sie ihre Inhalte moderieren und gegebenenfalls einschränken. Genau diese Entscheidungen und Begründungen gegenüber Nutzer:innen fließen danach in die Transparenzdatenbank ein und bilden ihre Datengrundlage. „Die technischen Anforderungen der DSA-Transparenzdatenbank spiegeln diese rechtlichen Anforderungen wider“, sagt eine Sprecherin der Kommission zu netzpolitik.org.
Sinnlos sei die Datenbank keineswegs, beteuert die Sprecherin. So sei die Datenbank zum einen „eine wertvolle Ressource für die Überwachung der Einhaltung des DSA durch die Kommission“. Zum anderen sei die Studie aus Zürich samt ihrer Verbesserungsvorschläge nicht nur „willkommen“, sondern ein Beispiel für einen „wachsenden Korpus wissenschaftlicher Literatur zur Inhaltsmoderation“, der vor dem DSA in dieser Form nicht möglich gewesen wäre.
Plattformen stärker zur Rechenschaft ziehen
Ähnlich legt auch die Nichtregierungsorganisation AlgorithmWatch den Status Quo aus. Zwar würden die Autor:innen der Studie „zurecht“ die Schwächen der Transparenzdatenbank thematisieren, sagt Eva Lejla Podgoršek. Ein grundsätzliches Versagen beim Erreichen ihrer Ziele könne sie der Datenbank jedoch nicht attestieren.
Selbst wenn sich die Verbreitung illegaler Inhalte nicht im Detail belastbar monitoren lasse, spiele aus Sicht zivilgesellschaftlicher Organisationen ein weiteres, wenn auch nicht explizit formuliertes, Ziel eine wichtige Rolle: „Nämlich Plattformen stärker zur Rechenschaft zu ziehen und mehr Einblick in die bislang undurchsichtige Praxis der Inhaltsmoderation zu gewinnen. Vorher gab es gar keine Daten – jetzt immerhin einige, wenn diese auch (noch) unzureichend sind“, so Podgoršek.
Auch der Schweizer Forscher Groesch will mit der „kritischen Analyse der Datenbank nicht die generelle Existenz in Zweifel ziehen“. Doch trotz der verbesserten Transparenz rund um die Moderationspraktiken der Anbieter seien die Ziele, so wie sie jetzt formuliert seien, nicht erreichbar. Zudem bestehe die Gefahr, dass „überhöhte Erwartungen erzeugt, die nicht eingelöst werden können“, sagt Groesch.
Daran würden auch die Verbesserungsvorschläge des Forschungsteams kaum etwas ändern, etwa trennscharfe Kategorien, mehr Dokumentation seitens der Online-Dienste sowie erweitertes Reporting. „Für die tiefgehende Überprüfung von Moderationsentscheidungen müsste stets der moderierte Content vorliegen“, sagt Groesch. Allerdings wäre es offenkundig problematisch, wenn derartiges Material öffentlich und an einer Stelle gesammelt zugänglich wäre.
Datenbank „Teil eines größeren Transparenzrahmens“
Zugleich sieht der DSA einen speziellen Zugang für die Forschung vor. Dieser erlaubt potenziell tiefere Einblicke in die Funktionsweise der Online-Dienste, sobald sich die Anlaufschwierigkeiten wie Klagen von Anbietern gelegt haben. Ob die Transparenzdatenbank hierbei eine Rolle spielen kann, bleibt jedoch offen. „Inwieweit Daten aus der Transparenzdatenbank mit dem Datenzugang für die Forschung nach Artikel 40 DSA verbunden werden können, um auch einzelne Entscheidungen überprüfbar zu machen, wird sich in Zukunft noch zeigen“, so Groesch.
In jedem Fall sei die Datenbank in Kombination mit anderen Mechanismen des DSA Teil eines größeren Transparenzrahmens, sagt Podgoršek von AlgorithmWatch. Entscheidend sei dabei, dass sämtliche Bestandteile, einschließlich der Risikobewertungen und des Datenzugangs für die Forschung, zuverlässig funktionieren. „Aus unserer Sicht besteht hier aktuell noch erheblicher Verbesserungsbedarf, ohne den die Transparenzdatenbank nur eingeschränkt aussagekräftig ist.“
Korrektur, 18.11.: Es geht um die „Konsistenz, Zuverlässigkeit und Validität“ der Echtzeitdaten und nicht der halbjährlichen Berichte. Wir haben die Stelle präzisiert.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Die Regierungskoalition des Landes Berlin hat ihr neues Polizeigesetz nach einer Anhörung von Sachverständigen nur minimal angepasst. Bei der automatisierten Gesichtserkennung soll die Überwachung sogar noch weiter ausgebaut werden als bisher geplant.

Die Berliner Schwarz-Rote Landesregierung möchte der Hauptstadt ein neues Polizeigesetz (ASOG) verpassen. An diesem gab es schon bei der Sachverständigenanhörung Ende September viel Kritik. Dort sprachen Expert:innen von einer „Abkehr von der grundrechtsfreundlichen Politik“: So soll neben einem automatischen Datenabgleich mit biometrischen Daten auch er Einsatz von Videoüberwachung mit Verhaltensscannern sowie der Einsatz von Staatstrojanern möglich werden.
Heute fand die 2. Lesung im Berliner Innenausschuss statt. Eingeflossen ist die Kritik der Sachverständigen in einen aktualisierten Vorschlag jedoch kaum, laut Opposition hat sie die Koalition in ihrem Änderungsantrag nicht ausreichend berücksichtigt. Von Kosmetik ist die Rede.
Besonders brisant: Eine Änderung erweitert nun sogar die Befugnisse der Polizei noch einmal. Demnach soll die Polizei künftig biometrische Daten zu Gesichtern und Stimmen auch von Kontakt- und Begleitpersonen der Verdächtigen mittels automatisierter Anwendungen biometrisch mit öffentlich zugänglichen Daten aus dem Internet abgleichen dürfen.
„Grundrechtsbeeinträchtigungen unbeteiligter Personen“
In einer Stellungnahme (PDF) kritisiert die Berliner Datenschutzbeauftragte, dass die ausdrückliche Einbeziehung von Kontakt- und Begleitpersonen den Personenkreis der Betroffenen erheblich erweitere. Damit würde die Streubreite des ohnehin intensiven Eingriffs weiter erhöht. Die Polizei erlange einen „erheblichen Beurteilungsspielraum“. Entsprechend berge das Gesetz das Risiko, dass Personen einbezogen werden, die tatsächlich in keiner Weise an der Straftatenbegehung beteiligt sind.
Dabei verweist die Datenschützerin, dass dies im Kontext der biometrischen Fernidentifizierung, die bereits aufgrund der Nutzung künstlicher Intelligenz und der Vielzahl durchsuchter Internetquellen eine hohe Streubreite aufweist, zu einer „Potenzierung der Grundrechtsbeeinträchtigungen unbeteiligter Personen“ führe. Die Datenschutzbeauftragte hält dies für nicht verhältnismäßig.
Einfallstor für eine Superdatenbank
Kritik kam in der Ausschusssitzung von den Grünen und der Linken. Gegenüber netzpolitik.org mahnte der grüne Innenpolitiker Vasili Franco, dass die Kritik aus der Sachverständigenanhörung nicht genug berücksichtigt worden sei. „Stattdessen wird der biometrische Abgleich im Internet von Kontakt- und Begleitpersonen und die weitgehende Verwendung von Verkehrs- und Nutzungsdaten zur Erstellung von Persönlichkeitsprofilen möglich gemacht. Durch das Polizeigesetz kann zukünftig jedermann in Berlin zur Gefahr gemacht werden, sobald man in das Visier der Polizei gerät“, so Franco weiter.
Dass in der Vergangenheit Informationen durch Sicherheitsbehörden nicht rechtzeitig zusammengeführt wurden, dürfe nicht als Einfallstor für eine Superdatenbank und Datenanalysen mit unklarer Zweckbestimmung dienen, so Franco. „Ein gutes Polizeigesetz muss konkrete Antworten darauf geben, was die Polizei darf und was sie nicht darf.“
„Grundrechtseingriffe von extremer Intensität“
Auch der linke Innenpolitiker Niklas Schrader sagt, dass die Koalition mit ihrem Änderungsantrag vor allem redaktionelle und kosmetische Änderungen vorgenommen habe. „Insgesamt bleibt es bei einem massiven Überwachungsausbau, den CDU und SPD planen“, sagt Schrader gegenüber netzpolitik.org.
Mit neuen Instrumenten wie der KI-gestützten Videoüberwachung mit Verhaltensanalyse oder der Verknüpfung und automatisierte Auswertung von Polizeidaten könnten potentiell alle Berliner:innen polizeilich erfasst werden, so Schrader weiter. Das geplante ASOG enthalte „verfassungsrechtlich bedenkliche Regelungen und Grundrechtseingriffe von extremer Intensität und Streubreite“. Sein Fazit fällt dementsprechend kritisch aus: „SPD und CDU in Berlin oder CSU in Bayern, das nimmt sich in der Innenpolitik mittlerweile nichts mehr.“
Protest von Bürgerrechtsorganisationen
Mehrere Bürgerrechtsorganisationen hatten zuletzt die Pläne für das neue Polizeigesetz kritisiert und einen Stopp des Gesetzgebungsverfahrens gefordert. In einem offenen Brief monieren die Organisationen den möglichen Einsatz einer orts- und verhaltensübergreifenden Analyseplattform zum biometrischen Abgleich mit über das Internet öffentlich zugänglichen personenbezogenen Daten und die automatisierte Verhaltensmustererkennung.
Zudem lasse das Polizeigesetz zu, dass Datenbestände der Polizei losgelöst von konkreten Anlässen dauerhaft zusammengeführt werden könnten. Hierdurch entstünde eine Superdatenbank mit „Möglichkeiten zum Erstellen von Bewegungsprofilen, Verhaltensmuster- und Sozialkontaktanalysen“. In einem Interview mit der taz kritisierte Lukas Theune, Geschäftsführer des Republikanischen Anwalt:innenverbandes (RAV), der Gesetzentwurf solle der Polizei gläserne Bürger:innen ermöglichen.
Das neue Polizeigesetz soll am 4. Dezember im Berliner Angeordnetenhaus beschlossen werden.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Digitale Souveränität ist ein Thema, das nicht nur Europa betrifft. Daher lohnt es sich, bei dem Thema global zu denken. Das ist ein Kraftakt, aber der Bedarf ist enorm. Ein Kommentar.

Die Bundesregierung lädt zum „Gipfel zur Europäischen Digitalen Souveränität“. Erwartet werden rund 900 Fachleute aus Politik, Wirtschaft und Zivilgesellschaft. Am Dienstag wollen sie in Berlin über technologische Unabhängigkeit und Digitalisierung sprechen.
Im Mittelpunkt steht das deutsch-französische Tandem, das hier vorangehen will. Daniela Schwarzer, Vorständin der Bertelsmann Stiftung, sprach jüngst von einer „historischen Chance für Europa“. Sie hat recht: Mehr digitale Souveränität ist zwingend notwendig – und zugleich eine einmalige Möglichkeit, Europas digitale Zukunft neu zu gestalten. Dafür wäre zu wünschen, dass sich „digitale Souveränität“ nun nicht nur im Gipfeltitel, sondern endlich auch im politischen Handeln widerspiegelt.
Doch warum eigentlich nur europäische digitale Souveränität? Ganzheitlich gedacht – von Chips über Code bis zu Produktionskapazitäten – ist sie ein gewaltiger Kraftakt. Beim Code, also den Anwendungen, von KI-Modellen über Office-Software bis zu IT-Sicherheitslösungen, hat Europa eine solide Ausgangsbasis. In manch anderen Bereichen muss es diese erst noch aufbauen.
Code kann universell sein
Gerade deshalb sollte der Blick weiter reichen: Warum den Code nur europäisch denken, wenn er universell sein kann? Wie beim Internet zu seinen Anfängen: offene Standards, weltweite Zugänglichkeit, gemeinsame Weiterentwicklung. Europa könnte digitale Souveränität als globale Führungsaufgabe begreifen – und zumindest auf der Code-Ebene weltweit bereitstellen.
Denn die Herausforderungen – Abhängigkeiten, Sicherheitsrisiken, hohe Kosten – betreffen nicht nur Europa. Auch Brasilien, Kenia oder Indonesien stehen vor denselben Problemen. Digitale Souveränität sollte daher nicht am Bosporus oder an der Straße von Gibraltar enden, sondern als internationales Angebot verstanden werden: als Beitrag zur globalen Zusammenarbeit, zur Entwicklungszusammenarbeit wie zur Außenwirtschaft.
Dafür braucht es politische Grundsatzentscheidungen – und darauf aufbauend gezielte Förderungen und Prioritäten. Zentral wäre ein klarer Fokus auf Open Source: Transparenz, Nachvollziehbarkeit und Anpassungsfähigkeit als Grundprinzip. Warum nicht gebündelte europäische – oder globale – Kapazitäten für ein voll konkurrenzfähiges offenes Alternativsystem zu Microsoft Office aufbauen?
Teure, gute Investitionen
Solche Vorhaben kosten insgesamt Milliarden, aber sie wären gut investiert: in Unabhängigkeit, Innovation und Sicherheit. Europa hat die Chance, Vorreiter einer neuen, offenen Digitalära zu werden – statt Nachzügler im Wettlauf weniger IT-Großkonzerne.
Das deutsch-französische Tandem könnte hier mit gutem Beispiel vorangehen. Warum etwa Millionen an den US-Konzern Palantir zahlen, um Polizeisoftware zu lizenzieren, statt eine eigene, grundrechtskonforme Lösung zu entwickeln? Eine europäische Anwendung, die verschiedene Datenquellen rechtskonform durchsuchbar macht, könnte Polizeiarbeit effizienter und zukunftsfester machen. Die Blackbox Palantir oder zu weitreichende Analysen wären damit passé.
Oder warum keine Medienplattform schaffen, die Inhalte grenzüberschreitend bündelt, KI-gestützt übersetzt und so hochwertige Informationen weltweit zugänglich macht?
Offene Standards senken Markteintrittsbarrieren, fördern Innovation und tragen zum Bürokratierückbau bei, in dem sie Abstimmungsaufwand für gleich gelagerte Problemlösungen reduzieren. Durch standardisierte interoperable Verfahren und Systeme können Prozesse effizienter gestaltet werden.
Der Bedarf ist enorm.
Derzeit wird in Deutschland viel über den Aufbau eines Deutschland-Stacks gesprochen, einzelne Bundesländer präsentieren eigene Lösungen. Gleichzeitig ist Deutschland bereits international als Gründungsmitglied der GovStack-Initiative für die Digitale Verwaltung unterwegs. Die GovStack-Initiative unterstützt weltweit Regierungen bei der Erstellung von flexiblen, kostengünstigeren digitalen Lösungen nach dem Baukastenprinzip. Darauf sollte man jetzt aufbauen.
Digitale Souveränität ist tatsächlich eine historische Chance – aber nur, wenn wir sie global denken: als Aufbruch in eine offene, freie und nachhaltige digitale Welt. Denn der Bedarf an Alternativen zu US-amerikanischen oder chinesischen Angeboten ist enorm. Europa kann den nächsten Schritt der Digitalisierung mitgestalten – wenn es Mut hat, seine Souveränität zu teilen.
Malte Spitz ist Mitglied im Nationalen Normenkontrollrat und unter anderem Berichterstatter für das neue Bundesministerium für Digitales und Staatsmodernisierung. Außerdem ist er Mitgründer und Generalsekretär der Gesellschaft für Freiheitsrechte.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Die 46. Kalenderwoche geht zu Ende. Wir haben 20 neue Texte mit insgesamt 142.154 Zeichen veröffentlicht. Willkommen zum netzpolitischen Wochenrückblick.

Liebe Leser:innen,
mit Omnibussen assoziiere ich eigentlich gute Dinge. Sie sind für alle da, wie ihr lateinischer Namensursprung klarmacht. Omnibusse gibt es aber nicht nur im öffentlichen Nahverkehr, sondern auch in der Gesetzgebung. Und da ist der Omnibus diese Woche in meiner Gunst deutlich gesunken.
Genauer gesagt der „digitale Omnibus“, den die EU-Kommission bald offiziell präsentieren will. Vor rund einer Woche haben wir vorläufige Entwürfe zu dem Digitalgesetzespaket veröffentlicht. Es geht dabei um grundlegende Änderungen, etwa an der Datenschutzgrundverordnung und der KI-Verordnung der EU. Aber das sind keine Änderungen zum Guten für Nutzer:innen – mit dem Paket werden wichtige Grundsätze der Gesetze geschliffen.
Die Reaktionen waren deutlich: 120 zivilgesellschaftliche Organisationen nannten die Pläne den „größten Rückschritt für digitale Grundrechte in der Geschichte der EU“. Fraktionen aus dem EU-Parlament von Liberalen bis zu den Grünen sehen die Vorreiterrolle Europas in der Digitalpolitik bedroht.
Es ist aber nicht der einzige Omnibus, der wie ein Räumpanzer grundrechtliche Garantien mit der Schaufel aus dem Weg schafft. Das EU-Parlament stimmte am Donnerstag für das „Omnibus-I“-Paket – und schwächte damit das Lieferkettengesetz der EU extrem ab. Das torpediert nicht nur menschenrechtliche Standards, sondern die Europäische Volkspartei hat dafür auch eine Mehrheit mit den Rechtsaußen-Fraktionen erreicht und eine Brandmauer abgerissen.
Ich finde: Omnibusse, egal ob im Verkehr oder in der Gesetzgebung, sollten für alle da sein und nicht nur ein Geschenk an Unternehmen. Omnibusse, die allein im Zeichen des Bürokratieabbaus durch Grundrechte rasen, müssen wir stoppen.
Ein gutes Wochenende wünscht euch
anna
Degitalisierung: Sei ein Esel
Menschen sind irgendwie auch Herdentiere, die kopflos in eine Richtung mitlaufen. Im KI-Enthusiasmus müssen wir aber nicht blind aufgescheuchten Innovationsherdentieren folgen. Dafür brauchen wir vielleicht nur ein besseres Wappentier, das mehr Bewusstsein hat als jede sogenannte künstliche Intelligenz. Von Bianca Kastl –
Artikel lesen
Palantir in Baden-Württemberg: Polizei soll mit deinen Daten Software trainieren dürfen
Eine Änderung des Polizeigesetzes von Baden-Württemberg soll der Landespolizei erlauben, Software mit personenbezogenen Daten zu trainieren und zu testen. Sie könnte damit auch Klarnamen oder Gesichtsfotos unschuldiger und unverdächtiger Personen in Systeme wie von Palantir einspeisen. Von Martin Schwarzbeck –
Artikel lesen
Menschenrechte: Das Grundrecht auf digitale Integrität und sein Erfolg in der Schweiz
In immer mehr Kantonen in der Schweiz wird ein neues Grundrecht auf digitale Integrität verankert. In Zürich wird darüber am 30. November abgestimmt. Bislang verfängt das Konzept, welches das Persönlichkeitsrecht um das Digitale erweitern will, allerdings nur in der Schweiz. Von Markus Reuter –
Artikel lesen
„Trumpsche Gesetzgebungspraktiken“: Max Schrems kritisiert Grundrechte-Kahlschlag
Die Europäische Kommission plant offenbar eine DSGVO-Reform mit der Abrissbirne. Der Datenschutzexperte Max Schrems und die Organisation noyb lassen kein gutes Haar an dem Vorschlag, den wir veröffentlichten. Die Pläne würden „40 Jahre europäische Grundrechtsdoktrin über den Haufen“ werfen. Von Ingo Dachwitz –
Artikel lesen
Interne Dokumente: EU-Staaten wollen Chatkontrolle-Gesetz ohne weitere Änderungen
Die EU-Staaten wollen Internet-Diensten dauerhaft eine freiwillige Chatkontrolle erlauben. Viele Staaten bedauern, dass es keine ausreichende Mehrheit für eine verpflichtende Chatkontrolle gibt. Weitere Änderungen lehnen sie strikt ab. Wir veröffentlichen das eingestufte Verhandlungsprotokoll und den neuen Gesetzentwurf. Von Andre Meister –
Artikel lesen
Polizeigesetz: Auch NRW will mit deinen Daten Überwachungs-Software füttern
Die Polizei von Nordrhein-Westfalen soll künftig personenbezogene Daten wie Klarnamen oder Gesichtsbilder nutzen dürfen, um damit Überwachungs-Software zu trainieren. Die geplante Gesetzesänderung reiht sich ein in ähnliche Projekte in anderen Bundesländern. Von Martin Schwarzbeck –
Artikel lesen
Grundsatzentscheidung: GEMA klagt erfolgreich gegen OpenAI
Dürfen KI-Unternehmen urheberrechtlich geschützte Liedtexte zum Training ihrer Modelle verwenden? Das Landgericht München gibt in dieser Grundsatzfrage Musiklizenzenverwalter GEMA recht. OpenAI habe mit ChatGPT gegen Urheberrecht verstoßen und soll nun Schadensersatz zahlen. Von Paula Clamor –
Artikel lesen
„Künstliche Intelligenz“: Ursula von der Leyen als Papagei der Tech-Bosse
EU-Kommissionspräsidentin Ursula von der Leyen macht sich die Übertreibungen der Tech-Bosse über „Künstliche Intelligenz“ zu eigen. Dagegen protestieren nun Wissenschaftler: Die EU sollte eher ein Auge auf die Fehlentwicklungen bei der KI haben, statt den Tech-Bossen die Füße zu küssen. Ein Kommentar. Von Constanze –
Artikel lesen
Rechte von Beschäftigten: Niemand soll durch einen Algorithmus gefeuert werden
EU-Abgeordnete fordern neue Regeln für den Einsatz von Algorithmen am Arbeitsplatz. Beschäftigte sollen wissen, wann KI über sie entscheidet und wie das funktioniert. Bei besonders sensiblen Entscheidungen sollen Menschen immer das letzte Wort haben. Von Anna Ströbele Romero –
Artikel lesen
Anhörung zum MAD-Gesetz: „Eine Erweiterung im Verborgenen ist untunlich“
Dass es ein neues MAD-Gesetz geben soll, begrüßten Sachverständige im Bundestag. Doch selbst wenn der Entwurf für eine neue Rechtsgrundlage des Militärgeheimdiensts auf Gegenliebe stößt, kritisierten die Fachleute, dass die Geheimdienstbefugnisse nicht abschließend definiert werden sollen. Von Anna Biselli –
Artikel lesen
Fingerabdrücke und Gesichtsbilder: EU-Staaten uneins über US-Zugriff auf Polizeidaten
Washington fordert transatlantischen Zugriff auf biometrische Polizeidatenbanken. Das geforderte Abkommen betrifft alle 43 Teilnehmer des Programms für visafreie Reisen. Nun werden die Positionen der EU-Mitglieder dazu bekannt. Von Matthias Monroy –
Artikel lesen
Hungrig nach Daten: Das geheimnisvolle KI-Programm von Europol
Die EU-Polizeiagentur Europol ist nicht nur an immer mehr Daten interessiert, sondern experimentiert auch mit KI-Tools, um sie zu verarbeiten. Ob automatische Einstufung von Missbrauchsdarstellungen oder Gesichtserkennung – den KI-Ambitionen stehen nur schwache Kontrollmechanismen gegenüber. Von Gastbeitrag, Apostolis Fotiadis, Giacomo Zandonini und Luděk Stavinoha –
Artikel lesen
Digitale Souveränität: Neues Bündnis fordert mehr Engagement für offene Netzwerke
In der kommenden Woche treffen sich in Berlin die Regierungschefs von Deutschland und Frankreich mit der EU-Kommission zu einem Souveränitätsgipfel. Ein neues Bündnis aus der Zivilgesellschaft stellt vier Forderungen auf, um mit offenen sozialen Netzwerken unabhängiger zu werden. Von Markus Reuter –
Artikel lesen
Digitaler Omnibus: „Größter Rückschritt für digitale Grundrechte in der Geschichte der EU“
Die Europäische Kommission arbeitet an Plänen für einen Kahlschlag bei ihren Regeln für die digitale Welt. Das belegen unter anderem Dokumente, die wir veröffentlicht haben. Im Europäischen Parlament und in der Zivilgesellschaft formiert sich dagegen massiver Widerstand. Von Ingo Dachwitz –
Artikel lesen
Verschärftes Aufenthaltsgesetz: Kölner Ausländeramt hortet Handys von Geflüchteten
Seit Jahresbeginn hat das Ausländeramt Köln 130 Datenträger von Geflüchteten eingezogen – und gibt sie „bis zur Ausreise“ nicht mehr zurück. Andere Städte sind deutlich zurückhaltender. Das Ministerium in NRW will mit der Praxis nichts zu tun haben. Von Chris Köver –
Artikel lesen
Baden-Württemberg: Grüne geben Polizeidaten für Palantir frei
Die grün-schwarze Regierung in Stuttgart winkt die automatisierte polizeiliche Datenanalyse und damit den Einsatz von Software von Palantir durch. Die Grünen machten das nach einem politischen Kuhhandel zu einem Nationalpark möglich. Eine „Experimentierklausel“ im Gesetz gibt außerdem polizeiliche Datenschätze für kommerzielle Unternehmen frei. Von Constanze –
Artikel lesen
Digital Markets Act: EU-Kommission unterstellt Google Diskriminierung von Nachrichtenseiten
Eine Spam-Richtlinie von Google führt womöglich dazu, dass Medien in den Suchergebnissen immer wieder ausgeblendet werden. In der Konsequenz verlieren sie Werbeeinnahmen. Grund genug für die EU-Kommission, um ein zweites Verfahren nach dem Digital Markets Act gegen den Konzern Alphabet zu eröffnen. Von Anna Ströbele Romero –
Artikel lesen
EU rüstet auf: Drohnenverteidigung soll Menschen an Grenzen abwehren
Die EU-Kommission plant eine umfassende Drohnenabwehr für die Außengrenzen der Europäischen Union. Sie soll allerdings nicht nur gegen russische Drohnen, sondern auch gegen Migrant*innen eingesetzt werden. Davon profitiert vor allem die Rüstungsindustrie, während Menschenrechte auf der Strecke bleiben. Von Timur Vorkul –
Artikel lesen
Digitale Souveränität: Think Tank empfiehlt mehr Investitionen in Big-Tech-Alternativen
Vor dem Gipfel zur europäischen digitalen Souveränität werden die Appelle an die Bundesregierung lauter, gemeinwohlorientierte Alternativen zu Facebook und Co. zu stärken. Offene Netzwerke wie das Fediverse sollen mit konkreten Maßnahmen aus der Nische geführt werden. Von Markus Reuter –
Artikel lesen
#302 Off The Record: Über Zahlen und Daten, die Geschichten erzählen
In der neuen Folge unseres Hintergrund-Podcasts lernt ihr unsere Geschäftsführerin Anke kennen und erfahrt, warum wir mit den Databroker Files weitermachen. Außerdem sprechen wir darüber, was netzpolitik.org und eine Zeitung in den 90ern gemeinsam haben. Von Ingo Dachwitz –
Artikel lesen
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
In der neuen Folge unseres Hintergrund-Podcasts lernt ihr unsere Geschäftsführerin Anke kennen und erfahrt, warum wir mit den Databroker Files weitermachen. Außerdem sprechen wir darüber, was netzpolitik.org und eine Zeitung in den 90ern gemeinsam haben.

Lernt Anke Prochnau kennen, unsere Geschäftsführerin und Vorständin! Sie erzählt uns von ihrer Zeit bei der taz in den 90ern; von den Jahren bei attac, als dem Bündnis die Gemeinnützigkeit aberkannt wurde; und von den Geschichten, die ihr die Zahlen über netzpolitik.org erzählen. Auch ein brandheißer Filmtipp unserer Team-Cineastin darf nicht fehlen.
Ganz andere Geschichten erzählen die Daten, mit denen Sebastian und Ingo in den letzten Monaten gearbeitet haben: metergenaue Standorte von Spitzenpersonal der EU, die wir und unsere internationalen Recherchepartner von Datenhändlern erhielten. Sie sprechen von einer unkontrollierten Gefahr für sehr viele Menschen und vom Versagen der Europäischen Union beim Datenschutz.
In dieser Folge: Anke Prochnau, Ingo Dachwitz und Sebastian Meineck.
Produktion: Serafin Dinges.
Titelmusik: Trummerschlunk.
Hier ist die MP3 zum Download. Wie gewohnt gibt es den Podcast auch im offenen ogg-Format. Ein maschinell erstelltes Transkript gibt es im txt-Format.
Unseren Podcast könnt ihr auf vielen Wegen hören. Der einfachste: in dem Player hier auf der Seite auf Play drücken. Ihr findet uns aber ebenso bei Apple Podcasts, Spotify und Deezer oder mit dem Podcatcher eures Vertrauens, die URL lautet dann netzpolitik.org/podcast.
Wir freuen uns auch über Kritik, Lob, Ideen und Fragen entweder hier in den Kommentaren oder per E-Mail an podcast@netzpolitik.org.
Links und Infos
Hausmitteilungen
- Die ersten Texte unserer Praktikantin Paula
- Die ersten Texte unserer Brüssel-Korrespondentin Anna
- Der Transparenzbericht für das 3. Quartal von netzpolitik.org
Aus dem Maschinenraum
- Abschiedszeilen der taz Bremen für Anke 1997: „D-Anke“!
- Blogpost von Attac: „Zehn Jahre ohne Gemeinnützigkeit“
- Ankes Filmtipp: Mr. Nobody Against Putin
Thema des Monats: Databroker Files
- Der Haupttext der neuen EU-Recherche: Datenhändler verkaufen metergenaue Standortdaten von EU-Personal
- Die Zusammenfassung der neuen EU-Recherche: Das Wichtigste zur Spionage-Gefahr durch Handy-Standortdaten in der EU
- Bericht über die neuen Sicherheitsempfehlungen der EU-Kommission: Rundmail warnt EU-Angestellte vor Gefahr durch Tracking
- Leak zum digitalen Omnibus: EU-Kommission will Datenschutzgrundverordnung und KI-Regulierung schleifen
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Vor dem Gipfel zur europäischen digitalen Souveränität werden die Appelle an die Bundesregierung lauter, gemeinwohlorientierte Alternativen zu Facebook und Co. zu stärken. Offene Netzwerke wie das Fediverse sollen mit konkreten Maßnahmen aus der Nische geführt werden.

Nach dem Bündnis „Offene Netzwerke“ hat nun auch die Agora Digitale Transformation ein Policy Paper veröffentlicht und empfiehlt mehr Investitionen in und Projekte für offene Plattformen. Europas digitale Öffentlichkeit hänge heute an der Infrastruktur weniger globaler Plattformkonzerne. Was als Komfort begonnen habe, sei längst ein sicherheits-, wirtschafts- und demokratiepolitisches Risiko geworden. Deswegen bestehe Handlungsbedarf, um die digitale Souveränität zu stärken. Der Zeitpunkt für die Veröffentlichung ist bewusst gewählt, denn am 18. November findet in Berlin der „Gipfel zur Europäischen Digitalen Souveränität“ des Digitalministeriums statt.
Grundidee der Empfehlungen ist, dass „bestehende, funktionierende Lösungen aus der Nische in den Mainstream“ geführt werden sollen. Die bestehenden „Nischen-Plattformen“ könnten aufgrund einer Reihe von Mängeln und Herausforderungen ihr Marktpotenzial nicht verwirklichen. Dazu gehören laut dem Papier (PDF) unter anderem Design, Produktentwicklung, Rechtssicherheit, Skalierbarkeit oder auch der Schutz vor Desinformation.
Geld für Entwicklung
Die Agora zählt sowohl das Fediverse wie auch das auf dem AT-Protokoll aufbauende BlueSky zu den offenen Plattformen. Um diese zu fördern, seien mehrere Schritte nötig. Dazu zählt der Thinktank Innovationsförderung und Wissensaustausch. Zur Koordination des Themengebietes empfehlen die Autor:innen die Gründung einer „Agentur für resiliente Kommunikation (ARK)“, diese könne Synergien mit der Bundesagentur für Sprunginnovationen SPRIND und der ebenfalls dort angesiedelten Sovereign Tech Agency (STA) nutzen.
Bei der Innovationsförderung sollen konkrete Verbesserungen offener Plattformen bei der Nutzbarkeit oder der Produktentwicklung angeschoben werden, ebenso sollen Ressourcen für den Aufbau eigener Plattform-Instanzen öffentlicher und zivilgesellschaftlicher Träger bereitgestellt werden.
Beim Thema Rechtssicherheit erwarten sich die Autoren unter anderem Rechtshilfe für Startups im Bereich der offenen Plattformen, ebenso wie eine Art Open-Source-Datenbank zur Erkennung von Darstellungen sexualisierter Gewalt gegen Kinder sowie die Anerkennung der Gemeinnützigkeit des Unterhalts offener Plattforminfrastruktur.
Mehr öffentliche Inhalte auf offene Plattformen
Gleichzeitig solle zu den offenen Plattformen geforscht werden. Hierbei stellt sich Agora unter anderem Potenzialanalysen vor, die Chancen und Bedarfe gemeinwohlorientierter Plattformen und Protokolle für Wirtschaft, Sicherheit und Demokratie in Deutschland und Europa konkret aufzeigen und identifizieren.
Auf der Inhaltsebene empfehlen die Autor:innen, dass öffentlich-rechtliche Inhalte nicht nur über die Mediatheken, sondern auch über offene Plattforminfrastrukturen zugänglich gemacht werden. Wie auch das Bündnis „Offene Netzwerke“ fordert Agora die Einführung des „+1-Prinzips“. Dieses zielt auf die Bundesregierung, Behörden sowie öffentliche Institutionen ab, die öffentliche Mittel nutzen, um auf kommerziellen Plattformen zu kommunizieren.
Sie sollen mindestens eine gemeinwohlorientierte Plattform gleichwertig aktiv bespielen müssen. Nutzer:innen, die auf dem Laufenden bleiben möchten, wären damit nicht gezwungen, Accounts bei kommerziellen Plattformen anzulegen. Gleichzeitig könne das „+1-Prinzip“ dezentrale Netzwerke zusätzlich beleben und stärken, so die Hoffnung.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Die EU-Kommission plant eine umfassende Drohnenabwehr für die Außengrenzen der Europäischen Union. Sie soll allerdings nicht nur gegen russische Drohnen, sondern auch gegen Migrant*innen eingesetzt werden. Davon profitiert vor allem die Rüstungsindustrie, während Menschenrechte auf der Strecke bleiben.

Geht es nach den Plänen der EU-Kommission, sollen Drohnenabwehrsysteme künftig die Außengrenzen der Europäischen Union schützen. Die geplante Aufrüstung richtet sich jedoch nicht nur gegen potenziell militärische Bedrohungen etwa aus Russland, sondern auch gegen Menschen auf der Flucht. Recherchen von netzpolitik.org zeigen, dass sich zuständige Behörden mit konkreten Plänen bedeckt halten – während Menschenrechtler*innen eindringlich warnen.
Die Pläne zur europäischen Drohnenabwehr sehen aktuell ein EU-weites System zur Erkennung, Verfolgung und Neutralisierung von fremden Drohnen vor. Allerdings soll es auch für zivile Zwecke eingesetzt werden. Demnach soll es „helfen, nicht verteidigungsbezogene Bedrohungen oder andere Gefahren zu bewältigen, die an jeder EU-Grenze auftreten können“, heißt es im Vorschlag der EU-Kommission. Dazu gehören neben dem Schutz kritischer Infrastrukturen auch transnational organisierte Kriminalität und die „Instrumentalisierung von Migration“.
Umfassendes Aufrüstungsprogramm
Das europäische Anti-Drohnensystem ist eines von vier zentralen Projekten eines umfassenden Aufrüstungsprogramms „Defense Readiness Roadmap 2030“, mit dem sich die EU-Kommission etwa auf einen potenziellen Angriff Russlands vorbereiten will. Die militärische Großmacht überzieht die Ukraine seit nunmehr knapp vier Jahren unter anderem mit massiven Luftangriffen. Den 16-seitigen Entwurf stellte die Kommission am 16. Oktober vor.
Neben der „Europäischen Drohnenabwehr-Initiative“ sieht dieser Fahrplan für die Verteidigung des Staatenbundes auch die „Eastern Flank Watch“ vor, die die Verteidigung östlicher Mitgliedstaaten verbessern soll, sowie einen Raketenabwehrschirm und ein Weltraumschutzschild. Die Drohnenabwehr hat demnach besondere Dringlichkeit und soll bis Ende 2027 voll funktionsfähig sein.
Technisch soll das System aus einer Mischung aus Maschinengewehren und Kanonen, Raketen, Flugkörpern und Abfangdrohnen bestehen, die feindliche Drohnen rammen oder in deren Nähe explodieren können. Auch die Ausstattung mit elektronischen Störsystemen und Laserwaffen ist geplant.
Wie alles begann
Angesichts des gehäuften Eindringens mutmaßlich russischer Drohnen in den EU-Luftraum seit September dieses Jahres sind Rufe nach einer verstärkten Drohnenabwehr laut geworden.
Die NATO setzt bislang vor allem millionenteure Kampfflugzeuge, Hubschrauber und Patriot-Raketen ein, um feindliche Drohnen abzuschießen, die nur wenige Tausend Euro kosten. Das Militärbündnis hat auch Kampfflugzeuge nach Estland entsandt, nachdem jüngst drei russische Kampfjets in den estnischen Luftraum eingedrungen waren.
Weitere Vorfälle von nicht identifizierten Drohnen über Flughäfen in Dänemark und Deutschland in den zurückliegenden Wochen bestärkten die europäischen Staats- und Regierungschefs offenkundig darin, dass die EU dringend einen besseren Schutz vor Flugsystemen ohne Pilot*innen benötigt.
Zu Beginn hatten EU-Kommissionspräsidentin Ursula von der Leyen (CDU) und Vertreter*innen östlicher EU-Staaten noch für einen sogenannte Drohnenwall an der östlichen EU-Flanke geworben. Diese Idee hatte von der Leyen am 1. Oktober bei einem informellen Treffen der Staats- und Regierungschefs in Kopenhagen vorgestellt.
Vom „Drohnenwall“ zur „European Drone Defence Initiative“
Allerdings reagierten die Vertreter*innen etlicher EU-Staaten sowohl auf das Konzept als auch auf den Namen skeptisch. In den darauffolgenden Tagen zweifelte unter anderem der französische Präsident Emmanuel Macron an, dass sich entlang der rund 3.000 Kilometer langen EU-Außengrenze mit Russland ein solcher Drohnenwall errichten lasse. Die Regierungschef*innen Italiens und Griechenlands, die Postfaschistin Giorgia Meloni und der Konservative Kyriakos Mytsotakis, kritisierten, dass von dem Militärprojekt vor allem östliche Mitgliedsländer profitieren würden. Andere Regierungsvertreter*innen mahnten, dass Brüssel sich damit zu sehr in Fragen der nationalen Verteidigung einmische.
Die Kommission weitete das Projekt daraufhin auf die gesamte EU aus und versah ihn zugleich mit einem neuen Namen: European Drone Defence Initiative. Außerdem überzeugte sie offenbar zögerliche EU-Mitgliedsstaaten mit dem Argument, dass das neue Drohnenabwehr-System künftig auch beim Grenzschutz und gegen undokumentierte Migration eingesetzt werden soll.
Waffen gegen „Migration als Waffe“?
Damit traf sie offenkundig einen Nerv. Anfang Oktober hatte das Europäische Parlament in seinem Beschluss zu den wiederholten Verletzungen des Luftraums der EU-Mitgliedstaaten betont, dass auch die Südflanke der EU vor „direkten Sicherheitsherausforderungen“ stehe.
Knapp zwei Wochen später plädierte Meloni dafür, dass die EU auch gegen jene Bedrohungen aufrüsten müsse, „die aus den Konflikten und der Instabilität im Nahen Osten, in Libyen, im Sahel und am Horn von Afrika entstehen.“ In Anspielung auf Putin sagte sie: „Wir wissen, dass unsere Rivalen in diesen Regionen ebenfalls sehr aktiv sind. Gleichzeitig sind wir uns der Risiken bewusst, die aus dem Terrorismus und der Instrumentalisierung von Migration erwachsen können.“
Mit dem wachsenden Einfluss Russlands in Libyen warnten Politiker*innen wie Meloni, aber auch der EU-Migrationskommissar Magnus Brunner, dass Russland die Migration aus dem nordafrikanischen Land als „Waffe“ gegen die EU instrumentalisieren könnte. Seit Jahren werfen sowohl die Kommission als auch verschiedene europäische Regierungschefs Russland und Belarus vor, einen „hybriden Krieg“ gegen die EU zu führen, indem sie fliehende Menschen aus dem Mittleren Osten und Afrika an die polnische EU-Grenze schleusen und sie zu einem undokumentierten Übertritt nötigen. NGOs gehen davon aus, dass Dutzende Menschen wegen dieser Politik ihr Leben verloren haben.
Rüstungsunternehmen als „die wahren Profiteure des Vertreibungskreislaufs“
Dass Menschen, die sich auf den Weg zu den EU-Grenzen machen, als Bedrohung gesehen werden, die es zu neutralisieren gilt, stelle eine ernste Gefahr für Migrant*innen in ohnehin prekären Situationen dar, warnt Chris Jones, Leiter der britischen Bürgerrechtsorganisation Statewatch gegenüber netzpolitik.org. „Der Einsatz von Drohnenabwehr-Systemen zur Überwachung und Kontrolle von Migration würde im Kontext der aktuellen Migrationspolitik Menschen unweigerlich in extreme Gefahr bringen“, so Jones weiter.
Chloé Berthélémy von der Bürgerrechtsorganisation European Digital Rights (EDRi) kritisiert, dass die Verschmelzung von militärischen und zivilen Anwendungen „vor allem dem militärisch-industriellen Komplex“ zugutekomme. „Diese florierende Industrie ist für viele Waffenexporte aus Europa in andere Regionen der Welt verantwortlich, die wiederum die Ursachen für Vertreibung vorantreiben: Menschen sind gezwungen, vor Konflikten, Krieg und Armut zu fliehen“, sagt Berthélémy. Dieselben Unternehmen erzielten nun zusätzliche Gewinne, indem sie Überwachungs- und Verteidigungstechnologien als vermeintliche Lösung für Migration verkaufen.
„Die Rüstungsunternehmen erweisen sich damit als die wahren Profiteure des Vertreibungskreislaufs“, so Berthélémy weiter. „Das Geld, was die EU für den Ausbau von Militär- und Überwachungssystemen ausgibt, könnte stattdessen in die tatsächliche Unterstützung und Aufnahme von Menschen investiert werden, die Schutz suchen.“
Projekt soll Anfang 2026 starten
Am 23. Oktober einigten sich die EU-Staats- und Regierungschefs auf einem Gipfeltreffen in Brüssel vorerst darauf, für konkrete Projekte zur besseren Verteidigung gegen Drohnen zusammenzuarbeiten. Die in der Abschlusserklärung gefundene Formulierung bleibt dabei deutlich hinter dem ambitionierten Plan der EU-Kommission zurück – weder der Name noch die Fristen zur Fertigstellung haben hier Eingang gefunden.
Laut Gipfelerklärung will die EU ihre Drohnenabwehr-Initiative mit Hilfe zweier Quellen finanzieren: Einerseits will sie auf das 150 Milliarden Euro schwere „Security Action For Europe“-Darlehen (SAFE) zugreifen, andererseits auf das Programm für die europäische Verteidigungsindustrie (EDIP), das insgesamt 1,5 Milliarden Euro bereitstellt. Das SAFE-Darlehen ist ein Kreditprogramm der Europäischen Union, das es Mitgliedstaaten ermöglicht, zu niedrigen Zinsen Kredite aufzunehmen, um etwa Waffen zu kaufen.
Bis zum Ende dieses Jahres sollen sich Mitgliedsstaaten, die die Drohnenabwehr-Initiative anführen wollen, zunächst in einer sogenannten „Fähigkeitskoalition“ einfinden. Lettland und die Niederlande haben sich bereits dazu bereit erklärt. Der Start des Projekts ist auf Anfang 2026 terminiert.
Bundespolizei setzt bereits Drohnen ein
Wir haben uns bei den Regierungen verschiedener EU-Staaten erkundigt, wie sie zu der geplanten zivilen Anwendung der Drohnenabwehr stehen.
Das lettische Verteidigungsministerium schrieb uns daraufhin nur, dass „die nationale Verteidigung und die Stärkung der kollektiven Sicherheit die vorrangigen Ziele bleiben“.
Das polnische Verteidigungsministerium schrieb, dass es bereits über ein breites Spektrum an Technologien verfüge, das zur Überwachung und Verteidigung der eigenen Grenzen zum Einsatz komme. Im Hinblick auf die mögliche zivil-militärische Anwendung der Drohnenabwehr hoffe das Ministerium, dass die „Umsetzung dieses wichtigen Vorzeigeprojekts unsere Bemühungen zur Sicherung der gemeinsamen EU- und NATO-Grenzen unterstützt wird“.
Die Bundespolizei setzt jetzt schon Drohnen für die Grenzfahndung entlang von grenzüberschreitenden Straßen „zur Dokumentation und Aufklärung relevanter Vorfälle“ ein.
Weder das deutsche Verteidigungsministerium noch das Bundesinnenministerium (BMI) wollten sich zu unserer Anfrage äußern, ob die Bundesrepublik plant, die europäische Drohnenabwehr im Kampf gegen undokumentierte Migration einzusetzen.
Auf unsere Frage, mit welcher Position sich die Regierung in die Diskussion des Projekts eingebracht hat, schrieb eine BMI-Sprecherin nur, dass die genaue Ausgestaltung der geplanten Drohnenabwehr derzeit noch Gegenstand laufender Abstimmungen auf nationaler und europäischer Ebene sei. Und ein Sprecher des Verteidigungsministeriums teilte gegenüber netzpolitik.org mit, dass das deutsche Verteidigungsministerium in den kommenden Jahren 10 Milliarden Euro in Drohnen und Drohnenabwehr investieren werde.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Eine Spam-Richtlinie von Google führt womöglich dazu, dass Medien in den Suchergebnissen immer wieder ausgeblendet werden. In der Konsequenz verlieren sie Werbeeinnahmen. Grund genug für die EU-Kommission, um ein zweites Verfahren nach dem Digital Markets Act gegen den Konzern Alphabet zu eröffnen.

Die EU-Kommission hat heute ein neues Verfahren gegen Alphabet, den Mutterkonzern von Google, eröffnet. Grund dafür ist ein möglicher Verstoß gegen den Digital Markets Act (DMA). Demnach vermutet die Kommission, dass die weltgrößte Suchmaschine manche Nachrichten-Websites diskriminiert.
Das EU-Gesetz schreibt besonders großen Online-Diensten vor, dass sie ihre Marktmacht nicht missbrauchen dürfen, um dem Wettbewerb im digitalen Raum zu schaden. Doch in der Google Suche, die von der EU-Kommission als sogenannter Gatekeeper eingestuft wurde, würden möglicherweise keine fairen und diskriminierungsfreien Verhältnisse herrschen. Immer wieder würden Medienseiten in den Ergebnissen ausgeblendet oder heruntergestuft. Doch warum passiert das?
Google hat seit dem Vorjahr eine neue Spam-Richtlinie im Einsatz: die Richtlinie zum Missbrauch des Website-Rufs („Site Reputation Abuse Policy“). Damit soll erkannt werden, wenn bei der Suchmaschinenoptimierung (SEO) getrickst wird. Konkret geht es beispielsweise darum, dass Websites Inhalte von Drittanbietern hosten, die laut Google eigentlich nicht zu ihren Inhalten passen und Nutzende „verwirren“ würden. Drittanbieter würden dabei den Ruf und die Vertrauenswürdigkeit der Site nutzen, um in den Suchergebnissen weiter oben aufzutauchen. Als Beispiel gibt Google eine gekaperte medizinische Website an, die die Werbeseite eines Drittanbieters zu den „besten Casinos“ hostet.
Medien verlieren wichtige Einnahmen
Die EU-Kommission sieht darin ein Problem. In der Praxis könne die Richtlinie dazu führen, dass Inhalte wie Preisvergleiche oder Produktbewertungen auf einer Nachrichtenseite fälschlicherweise als Spam erkannt und die betreffenden Subdomains aus den Suchergebnissen ausgeblendet würden. Dadurch würden Nachrichtenseiten Besuche auf ihre Website („Traffic“) verlieren und dementsprechend auch Einnahmen, sagte ein Kommissionsbeamter am Donnerstag gegenüber der Presse. Außerdem hätten die Nachrichtenseiten kaum Möglichkeiten, sich gegen potenzielle Fehlentscheidungen von Google zu wehren.
Google argumentiert, dass es qualitativ hochwertige Suchergebnisse anzeigen will und deswegen so handelt. Das Problem ist durchaus real, die Frage ist nur, ob Google damit diskriminierungsfrei umgeht.
Konkrete Fälle, die geschätzte Anzahl betroffener Medien und die ungefähre Höhe der Einnahmeverluste will die Kommission aufgrund der laufenden Ermittlungen nicht preisgeben. Sie erklärt zudem, dass Google News nicht Teil der Untersuchung sei, weil der Dienst kein Gatekeeper sei und nicht vom DMA erfasst werde. Ebenso werde die KI-Zusammenfassung in der Google Suche, die auch zu einem Verlust von Klicks auf Webseiten führt, nicht konkret untersucht. Jedoch behalte man Marktentwicklungen im Auge, so ein Kommissionsbeamter.
Früheres Verfahren läuft noch
Das Verfahren soll in 12 Monaten zum Abschluss kommen. Wie in solchen Untersuchungen üblich, wird die Kommission vorläufige Ergebnisse mit Alphabet teilen, ebenso denkbare Vorschläge, was der Konzern ändern sollte. Zugleich will sich die EU-Kommission mit Herausgebern austauschen. Parallel dazu läuft noch ein anderes Verfahren gegen Alphabet. Dieses bezieht sich auf die Bevorzugung von Google-eigenen Angeboten in den Suchergebnissen.
Sollte die Kommission am Ende ihrer Ermittlungen einen Verstoß feststellen, kann sie eine Strafe von bis zu zehn Prozent des weltweiten Jahresumsatzes des Konzerns verhängen.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Die grün-schwarze Regierung in Stuttgart winkt die automatisierte polizeiliche Datenanalyse und damit den Einsatz von Software von Palantir durch. Die Grünen machten das nach einem politischen Kuhhandel zu einem Nationalpark möglich. Eine „Experimentierklausel“ im Gesetz gibt außerdem polizeiliche Datenschätze für kommerzielle Unternehmen frei.

Das Ergebnis war nicht überraschend: Der Landtag in Baden-Württemberg hat gestern ein neues Polizeigesetz beschlossen. Die grün-schwarze Mehrheit im Parlament schafft damit die Rechtsgrundlage für den Einsatz der Software von Palantir. Sie soll ab dem zweiten Quartal 2026 einsatzbereit sein.
Vorausgegangen war ein Streit um die Beschaffung des Palantir-Systems. Denn Beamte im Innenministerium von Thomas Strobl (CDU) hatten bereits im Frühjahr den Vertrag dafür geschlossen. Die notwendige Rechtsgrundlage gab es zu diesem Zeitpunkt noch gar nicht. Der grüne Koalitionspartner war von den Verantwortlichen im Ministerium erst im Nachhinein in Kenntnis gesetzt worden und betont nun, der Vertrag sei „ohne unsere Zustimmung“ entstanden.
Die Grünen reagierten erst ungehalten, einigten sich aber mit dem Koalitionspartner über einen politischen Deal. Es ging dabei um den Nationalpark Schwarzwald. Die Grünen pressten nach SWR-Informationen der mitregierenden CDU eine Vergrößerung um 1.500 Hektar ab, wenn im Gegenzug Palantir abgenickt würde.
Die Grünen in der Landesregierung mögen Bauchschmerzen gehabt haben, aber sie stimmten dafür. In der grünen Basis fand der Deal wenig Anklang: In mehreren grünen Kreisverbänden wie in Ulm, Tübingen, Mannheim oder Karlsruhe sprach sich die Parteibasis gegen den Einsatz von Palantir aus. Ein Parteimitglied startete eine Petition an den baden-württembergischen Landtag, die mehr als 13.000 Unterstützer unterzeichneten und kurz vor dem gestrigen Beschluss im Petitionsausschuss noch zu Kontroversen führte.
Palantir alternativlos?
Beim Streit um die Software des US-Konzerns geriet die Frage in den Hintergrund, ob die gesetzliche Regelung zur Erlaubnis der automatisierten polizeilichen Datenanalyse den verfassungsrechtlichen Vorgaben entspricht. Denn der baden-württembergische Landesdatenschutzbeauftragte Tobias Keber hatte in einer Stellungnahme eine ganze Reihe von Kritikpunkten aufgeworfen und im Petitionsausschuss nochmal unterstrichen.
Doch der Streit um den US-Konzern dominierte die Diskussion. Es ging nicht mehr darum, ob und welche Form von polizeilicher Massendatenauswertung kommen soll, sondern nur noch um den Vertragspartner.
„Wir hätten lieber keinen Vertrag mit Palantir“, sagte Oliver Hildenbrand, innenpolitischer Sprecher der Grünen-Fraktion. Über die Erlaubnis zu einer massenhaften Datenfahndung über Polizeidatenbanken hinweg, die nun beschlossen ist und Millionen Menschen betreffen wird, wurde hingegen kaum noch gesprochen.
Die Grünen wollten der Polizei das Instrument nicht über Jahre vorenthalten, fügte Hildenbrand an, und meint damit konkret die Software von Palantir. Damit stützt er die Argumentation von Innenminister Strobl, der Palantir als „technologischen Marktführer auf dem Gebiet“ und mithin als praktisch alternativlos bezeichnet hatte. Das jedoch ist alles andere als unumstritten, wie die Konkurrenten des Konzerns nicht müde werden zu betonen.
Palantir
Wir berichten mehr über Palantir als uns lieb wäre. Unterstütze unsere Arbeit!
Die Grünen im Ländle betonen, dass Palantir nur für fünf Jahre im Einsatz sein soll. Die grüne Landtagsfraktion verspricht: „Wir wollen auf eine einsatzbereite Alternative umsteigen – so schnell wie möglich und spätestens bis 2030.“ Ein eigens eingebrachter Entschließungsantrag soll den Ausstiegswillen unterstreichen.
Ob die polizeilichen Nutzer aber tatsächlich schon nach kurzer Zeit wieder aussteigen werden, ist keineswegs sicher. Denn Palantir-Systeme sind nicht interoperabel mit alternativen Produkten. In ein anderes System umzusteigen, ist entsprechend aufwendig. Die Polizeien in den Bundesländern Hessen und Nordrhein-Westfalen, die bereits Palantir-Nutzer sind, zeigen das: Die selbstverschuldete Abhängigkeit besteht trotz Kritik seit vielen Jahren und bis heute.
„Experimentierklausel“ gibt Polizeidaten frei
Mit der Änderung des Polizeigesetzes hat die Mehrheit im Landtag die Polizeidaten für Palantir freigegeben, aber zugleich die Datentore noch viel weiter geöffnet. Denn auch die Verarbeitung von Daten „bei der Entwicklung, dem Training, dem Testen, der Validierung und der Beobachtung von IT-Produkten einschließlich KI-Systemen und KI-Modellen außerhalb von rein wissenschaftlichen Forschungsarbeiten“ ist nun erlaubt. Diese von Strobls Innenministerium „Experimentierklausel“ genannte Regelung allein ist ein Dammbruch, der kommerziellen Unternehmen Zugriffe auf hoheitliche Datenschätze erlaubt, die niemals für solche Zwecke erhoben wurden.
Dass selbst „KI-Systeme und KI-Modelle“ dabei explizit enthalten sind, versieht diese Datenfreigabe für Entwicklung und Tests mit einem unkontrollierbaren Element. Denn einmal als Trainingsdaten beispielsweise in KI-Sprachmodelle eingegangen, sind die Daten kaum rückholbar. Als Begründung dient blanker Pragmatismus: „KI-Anwendungen benötigen […] zur Entwicklung und zum Testen realitätsnahe Trainingsdaten.“ Dazu brauche man „die Nutzung polizeispezifischer – in aller Regel auch personenbezogener – Daten“ eben.
Ignoranter gegenüber dem Grundsatz der Zweckbindung, der zum Kern des Grundrechts auf informationelle Selbstbestimmung gehört, geht es wohl kaum. Wenn sich dagegen juristischer Widerstand regen würde, wäre das nicht überraschend. Doch unterdessen könnten kommerzielle Unternehmen über diese „Experimentierklausel“ den polizeilichen Datenschatz längst gehoben haben.
Dobrindt plant ebenfalls Datenanalyse
Die Zustimmung im Ländle könnte ein Vorgeschmack auf die anstehenden Diskussionen für die Pläne im Bund sein, die seit dem Sommer bekannt sind: Auch Bundesinnenminister Alexander Dobrindt (CSU) will die Datenbestände der Polizeien des Bundes zusammenführen und analysieren lassen. Das hatten CDU, CSU und SPD im Koalitionsvertrag vereinbart. Ob Dobrindt dafür auch auf Palantir setzen wird, ließ er bisher offen.
Allerdings sind die Grünen im Bund in der Opposition und erklärter Gegner von sowohl Palantir als auch Massendatenauswertungen. Sie wollen den US-Konzern meiden und setzen sich deutlich ab vom Milliardär und Palantir-Mogul Peter Thiel. Sie wenden sich auch generell gegen die polizeiliche automatisierte Datenauswertung, denn sie lehnen „jede Form digitaler Massenüberwachung ab, von der Chatkontrolle über die anlasslose Vorratsdatenspeicherung und öffentliche Gesichtserkennung bis hin zum Einsatz von Palantir-Software“.
Das schreiben die Grünen-Bundesvorsitzende Franziska Brantner und der stellvertretende Grünen-Fraktionsvorsitzende Konstantin von Notz in einem Sechs-Punkte-Plan von letzter Woche. Dass konkret Palantir und generell eine automatisierte Datenfahndung alternativlos seien, sehen sie offenbar anders als ihre Parteifreunde im Süden.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Seit Jahresbeginn hat das Ausländeramt Köln 130 Datenträger von Geflüchteten eingezogen – und gibt sie „bis zur Ausreise“ nicht mehr zurück. Andere Städte sind deutlich zurückhaltender. Das Ministerium in NRW will mit der Praxis nichts zu tun haben.

Es ist eine beeindruckende Zahl. 130 „Datenträger“ hat das Ausländeramt der Stadt Köln seit Anfang des Jahres eingezogen, teilt ein Sprecher der Stadt mit. In der Regel handelt es sich um Mobiltelefone von ausreisepflichtigen Menschen. Das Amt darf sie durchsuchen, um nach Hinweisen auf die Identität zu suchen, wenn Menschen sich nicht anderweitig ausweisen können.
Die Besonderheit in Köln: Die Behörde nimmt den Menschen ihre Datenträger nicht nur ab. Sie behält sie auch ein – „bis zur Ausreise“. Die Rechtsgrundlage dafür hatte die Ampelregierung im vergangenen Jahr geschaffen, als sie das Aufenthaltsgesetz verschärfte.
Kölner Amt auf ambitioniertem Alleingang
Eine Anfrage von netzpolitik.org bei anderen Städten und dem zuständigen Fluchtministerium in Nordrhein-Westfalen zeigt: Das Ausländeramt befindet sich mit seiner Praxis auf einem zwar rechtlich gedeckten, aber auffälligen Alleingang. Die Ausländerbehörde in Düsseldorf etwa zieht gar keine Datenträger ein, schreibt eine Sprecherin.
In Dortmund durchsuche die Behörde zwar Datenträger, gebe sie aber unmittelbar nach dem Auslesen der Daten wieder zurück. Die jährlichen Zahlen lägen hier „im höheren einstelligen Bereich“.
In Essen hat die Ausländerbehörde im laufenden Jahr bislang nur einen Datenträger eingezogen. Auch hier teilt die Behörde mit: „Nach der Auswertung des Datenträgers erhalten die betroffenen Personen ihre Datenträger wieder zurück.“
Wir sind ein spendenfinanziertes Medium
Unterstütze auch Du unsere Arbeit mit einer Spende.
Ohne Handy geht heute fast nichts mehr
Warum nimmt ausgerechnet das Ausländeramt in Köln so vielen Menschen ihre Handys ab? Zum Vergleich: In ganz Nordrhein-Westfalen hatten Ausländerbehörden von Jahresbeginn bis Ende Juni nur 344 Datenträger eingezogen.
Und warum behält das Amt in Köln die Datenträger laut der Einzugsbescheinigung „bis zur Ausreise“? Auch im bundesweiten Vergleich ist Köln mit dieser Praxis offenbar alleine. Das Aufenthaltsgesetz erlaubt diese Durchsuchungen bereits seit 2015, sie sind in fast allen Bundesländern inzwischen Standard. Anfragen von netzpolitik.org zeigen jedoch: Weder in München noch in Berlin, Bremen oder Stuttgart behalten die Behörden eingezogene Geräte nach der Auswertung weiter ein.
In der Praxis bedeutet „bis zur Ausreise“: auf unbestimmte Zeit. Denn wie lange ein Abschiebeverfahren dauert, kann sich stark unterscheiden, sagt etwa der Jurist Davy Wang von der Gesellschaft für Freiheitsrechte. „In bestimmten Fällen ist eine Abschiebung faktisch gar nicht möglich, etwa weil Herkunftsstaaten eine Rücknahme verweigern oder gesundheitliche Gründe eine Abschiebung verhindern.“ Die Wirkung des Paragrafen komme damit faktisch einer Enteignung gleich.
Die Betroffenen müssen unterdessen ohne ihr wichtigstes Kommunikationsmittel auskommen und verlieren die wichtigste Verbindung zu ihren Familien. Hinzu kommt: Ohne Handy geht heutzutage auch darüber hinaus fast nichts mehr – vom Online-Banking bis zum Fahrkartenkauf.
Aus technischer Sicht ist die Verschärfung im Aufenthaltsrecht zudem unnötig. Die Behörden fertigen beim Auslesen ohnehin eine digitale Kopie der Daten auf den Geräten an, selbst Daten aus der Cloud dürfen sie dabei mitspeichern. Danach ist es nicht mehr notwendig, das Gerät selbst weiter einzubehalten. „In dieser Reichweite wäre die Norm eine reine Repressionsmaßnahme“, sagt auch der auf Migrationsrecht spezialisierte Rechtsanwalt Matthias Lehnert.
„Ausländerbehörden entscheiden in eigener Zuständigkeit“
Im zuständigen Ministerium für Familie, Flucht und Integration in NRW, geführt von der Grünen Josefine Paul, will man von einer Weisung, die Datenträger einzubehalten, nichts wissen. „Die Ausländerbehörden entscheiden in eigener Zuständigkeit, ob sie von dieser Möglichkeit Gebrauch machen“, schreibt eine Sprecherin. Es sei also nicht so, dass Datenträger im Land grundsätzlich bis zur Ausreise einbehalten würden.
Dass Mobiltelefone durchsucht und ausgewertet werden, stehe zudem erst als „Ultima Ratio“ am Ende einer Reihe von anderen Maßnahmen, betont die Sprecherin. Es gelte der Grundsatz der Verhältnismäßigkeit. Das Aufenthaltsgesetz erlaubt die Durchsuchung nur, wenn andere „mildere Mittel“ ausgeschöpft sind.
Erst durch einen Hinweis aufgefallen
Das Ausländeramt Köln kümmert sich als zentrale Anlaufstelle um die Belange von Ausländer*innen in der Stadt. Seit 2022 leitet die Juristin Christina Boeck die Behörde.
Dass das Amt die Datenträger nicht nur einzieht, sondern auch einbehält, ist erst durch den Hinweis einer betroffenen Geflüchteten an die Linken-Abgeordnete Clara Bünger aufgefallen. Bünger, die auch im Innenausschuss des Bundestags sitzt, hat daraufhin die Bundesregierung gefragt, wie das Einziehen der Handys mit dem Recht auf Privatsphäre vereinbar sei. Die Antwort war knapp: Der Vollzug des Aufenthaltsrechts sei Ländersache.
Doch zumindest lenkte sie die Aufmerksamkeit auf die neue Gesetzeslage. Auf Nachfrage von netzpolitik.org bestätigte ein Sprecher der Stadt Köln Anfang September, dass das Ausländeramt seit Jahresbeginn 130 Datenträger auf Grundlage der neuen Regelung eingezogen habe. Das Gesetz ist schon seit Februar 2024 in Kraft, aus dem Jahr davor gebe es jedoch keine Zahlen.
Alles netzpolitisch Relevante
Drei Mal pro Woche als Newsletter in deiner Inbox.
„Sobald andere Maßnahmen zur Identitätsfeststellung ausgeschöpft oder nicht erfolgversprechend sind, wird der Person bei ihrer Vorsprache angeboten, den Datenträger freiwillig zur Durchsicht vorzulegen“, schreibt der Sprecher. „Ist die freiwillige Mitwirkung nicht zielführend oder wird sie abgelehnt, wird die Person zur Herausgabe des Datenträgers aufgefordert. Wenn sie dieser Verpflichtung nicht nachkommt und tatsächliche Anhaltspunkte für den Besitz vorliegen, können die Person, die von ihr mitgeführten Sachen und die Wohnung durchsucht werden.“
Die betroffene Frau aus Köln hat ihr Smartphone nach unserer Berichterstattung über den Fall doch noch zurück bekommen – entgegen dem, was auf der Einzugsbescheinigung stand. Sie lebt derzeit mit einer monatlichen Duldung in Köln. An der Gesetzeslage ändert das allerdings nichts. Laut Aufenthaltsgesetz können Ausländerbehörden weiterhin selbst entscheiden, ob sie die eingezogenen Geräte wieder aushändigen oder „bis zur Ausreise“ verwahren.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Die Europäische Kommission arbeitet an Plänen für einen Kahlschlag bei ihren Regeln für die digitale Welt. Das belegen unter anderem Dokumente, die wir veröffentlicht haben. Im Europäischen Parlament und in der Zivilgesellschaft formiert sich dagegen massiver Widerstand.

Das erklärte Ziel von Ursula von der Leyen ist es, die Europäische Union in ihrer zweiten Amtszeit als Präsidentin der EU-Kommission wirtschaftlich und geopolitisch zu stärken. Erreichen will sie das offenbar auch durch einen weitgehenden Rückbau des Regelwerkes für die digitale Welt, welches die EU in den vergangenen zehn Jahren gestrickt hat. Davon zeugen Entwürfe für ein geplantes Gesetzespaket, die wir am vergangenen Freitag veröffentlicht haben.
Vier Regulierungsbereiche stehen im Fokus des sogenannten „digitalen Omnibus“: der Datenschutz, Regeln für die Datennutzung, Cyber-Sicherheit und die KI-Verordnung. Der Begriff Omnibus („für alle“) wird in der Gesetzgebung verwendet, wenn mehrere Rechtsakte zeitgeich geändert werden. Offizielles Ziel des umfangreichen Reformvorhabens ist die Vereinfachung und Vereinheitlichung unterschiedlicher Digitalgesetze.
Diese stehen derzeit nicht nur durch Tech-Konzerne und die US-Regierung unter Druck. Auch europäische Unternehmen und mächtige Politiker:innen wie der deutsche Bundeskanzler Friedrich Merz fordern lauthals den Abbau vermeintlich überbordender Bürokratie.
Am 19. November sollen die Pläne für den digitalen Omnibus offiziell vorgestellt werden. Nun wenden sich zahlreiche zivilgesellschaftliche Organisationen gegen die geleakten Pläne und auch mehrere Fraktionen im EU-Parlament kündigen Widerstand an.
Zivilgesellschaft warnt vor historischem Rückschritt
„Das wäre der größte Rückschritt für digitale Grundrechte in der Geschichte der EU“, heißt es in einem heute veröffentlichten Brief von mehr als 120 zivilgesellschaftlichen Organisationen. Was als „technische Straffung“ der EU-Digitalgesetze präsentiert werde, sei „in Wirklichkeit ein Versuch, heimlich Europas stärkste Schutzmaßnahmen gegen digitale Bedrohungen abzubauen“.
Zu den Unterzeichner:innen gehören Organisationen der digitalen Zivilgesellschaft, Gewerkschaften und Verbraucherschutzorganisationen aus ganz Europa, darunter European Digital Rights (EDRi), Amnesty International und Access Now. Aus Deutschland haben unter anderem der Chaos Computer Club, AlgorithmWatch, die Digitale Gesellschaft, D64, HateAid, das Zentrum für Digitalrechte und Demokratie, der Berufsverband der Datenschutzbeauftragten, die Deutsche Vereinigung für Datenschutz und Wikimedia Deutschland mitgezeichnet.
Konkret kritisieren sie unter anderem, dass die Kommission die gerade erst verabschiedeten Regeln für Künstliche Intelligenz in der EU aufweichen will. Eine Registrierungspflicht für hochriskante KI-Systeme müsse ebenso beibehalten werden wie Strafen für ihren unautorisierten Vertrieb. Die EU müsse zudem sicherstellen, dass KI sicher und diskriminierungsfrei entwickelt und demokratisch kontrolliert werde.
Ferner kritisieren die NGOs auch die Pläne zum Rückbau der Datenschutzgrundverordnung (DSGVO). Sie sei nicht nur eine der stolzesten Errungenschaften der EU, sondern auch eines der wenigen Gesetze, das allen Menschen die Kontrolle über ihre sensiblen Daten gebe – seien es Arbeiter:innen, Kinder oder Personen ohne gültige Papiere. Der Brief verweist in diesem Zusammenhang auch auf die Databroker Files, in denen netzpolitik.org zusammen mit internationalen Partnern gerade erst aufgedeckt hatte, wie leicht sich mit kommerziell gehandelten Daten auch Spitzenpersonal der EU ausspionieren lässt.
„Überstürzt und undurchsichtig“
Zwar gebe es dringenden Nachholbedarf bei der Durchsetzung der DSGVO, doch die Digitalgesetze der EU seien „die beste Verteidigung, die wir gegen digitale Ausbeutung und Überwachung durch in- und ausländische Akteure haben“. Wenn die Kommission der Wirtschaft das Leben leichter machen wolle, solle sie diese lieber durch konkrete Leitlinien und Werkzeuge bei der Umsetzung der Regeln unterstützen, statt diese über Bord zu werfen.
Das zivilgesellschaftliche Bündnis kritisiert dabei auch das „überstürzte und undurchsichtige Verfahren“, das demokratische Kontrolle umgehen solle. Getarnt als „Vereinfachung“ mit angeblich nur minimalen Änderungen würde nicht nur der digitale Omnibus soziale Rechte und den Umweltschutz abbauen. Ein anderes Vereinfachungspaket droht gerade parallel die neue EU-Lieferkettenrichtlinie auszuhöhlen, welche Konzerne für Menschenrechtsverletzungen im Ausland zur Verantwortung ziehen sollte.
Bereits Anfang der Woche hatte der österreichische Datenschutzaktivist Max Schrems vor einem Kahlschlag für die Grundrechte in Europa gewarnt und das Vorgehen der EU-Kommission mit „Trumpschen Gesetzgebungspraktiken“ verglichen. In einem ersten Brief hatten die von ihm gegründete Organisation noyb, der Irish Council for Civil Liberties und EDRi schon am Montag nicht mit Kritik gespart.
Sozialdemokrat:innen kündigen Widerstand an
Auch im demokratischen und pro-europäischen Lager des EU-Parlaments formiert sich parteiübergreifender Widerstand gegen die Pläne der Kommission. In offenen Briefe lehnen die Fraktionen von Sozialdemokraten, Liberalen und Grünen die Kommissionspläne sehr weitgehend ab.
Am Dienstag wandten sich führende sozialdemokratische Abgeordnete im Namen der Fraktion der Socialists & Democrats (S&D) gegen die Pläne der Kommission. In einem Schreiben an die zuständige Vizepräsidentin Henna Virkkunen heißt es: „Die S&D-Fraktion wird sich entschieden gegen jeden Versuch stellen, das Schutzniveau für unsere Bürger:innen zu senken.“
Auf vier Seiten zerpflücken die sozialdemokratischen Abgeordneten die einzelnen Vorschläge der Kommission, Schwerpunkte bilden auch hier Datenschutz- und KI-Regulierung. „Wir sind zutiefst besorgt über die vorgeschlagene Aushöhlung der Kernprinzipien der DSGVO, insbesondere über die Verwässerung der Definition von personenbezogenen Daten“, so die Parlamentarier:innen. Sie kritisieren zudem den angedachten Rückbau von Betroffenenrechten, einen geschwächten Schutz vor Werbe-Tracking und von sensiblen Daten.
„Zutiefst beunruhigt“ sind die Sozialdemokrat:innen auch über den Plan, die erst kürzlich verabschiedete KI-Verordnung zu schwächen, bevor diese überhaupt Wirkung entfalten könne. „Anstatt das Gesetz wieder zu öffnen, muss die Priorität auf der raschen Fertigstellung harmonisierter Standards und Leitlinien durch das KI-Büro liegen, um die Wechselwirkungen mit anderen Rechtsvorschriften zu klären.“
Die Abgeordneten stellen ihre Kritik zudem in einen geopolitischen Kontext: „Die globale Führungsrolle der EU im Bereich Regulierung“ werde momentan durch große Tech-Konzerne offen herausgefordert. Mit ihren Vorschlägen setze die EU-Kommission die Vorbildfunktion Europas aufs Spiel. Jetzt nachzugeben und auf Deregulierung zu setzen, schwäche die Position der EU. Der digitale Omnibus müsse „die Integrität der digitalen Rechtsordnung stärken und nicht schwächen“.
Liberale: Vereinfachung ja, aber nicht so
Auch die liberale Fraktion Renew Europe äußert sich kritisch zu den geleakten Reformplänen der Kommission. Man unterstütze das Anliegen, die europäische Wettbewerbsfähigkeit durch bessere Regulierung zu erhöhen, heißt es am Mittwochabend in einem Schreiben an Kommissionspräsidentin von der Leyen. „Wir werden uns jedoch entschieden gegen Maßnahmen wehren, die vorgeben, die Rechtslage zu vereinfachen, aber unsere Datenschutzstandards untergraben und den Schutz der Grundrechte schwächen würden.“
Konkret wenden sich die Liberalen gegen einige Maßnahmen, die die Datenschutzgrundverordnung und die KI-Verordnung aushöhlen würden. So etwa den abgeschwächten Schutz für sensible Daten und die Neudefinition personenbezogener Daten, die auf einer falschen Auslegung der Rechtsprechung des Europäischen Gerichtshofes basiere.
„Wir fordern die Kommission auf, dafür zu sorgen, dass wesentliche Änderungen am digitalen Regelwerk der EU evidenzbasiert und auf Basis angemessener Konsultation und Folgenabschätzung beruhen, insbesondere wenn es um Grundrechte geht“, so der Brief weiter. Die Kommission müsse ihren Vorschlag ändern, bevor sie ihn der Öffentlichkeit präsentiere. Europa müsse beides gemeinsam erreichen: eine wirtschaftliche Führungsrolle und die als Vorreiter für Grundrechte.
Grüne sehen Rückschritt für digitale Souveränität
Mit „großer Sorge“ habe man den kürzlich durchgesickerten Ansatz zum Digital Omnibus wahrgenommen, schreibt am Mittwochabend auch die Fraktion der Grünen im EU-Parlament an Vizepräsidentin Virkkunen. Er zeige, dass die Kommission „weit über technische Klarstellungen hinausgehen und stattdessen Gesetze aufweichen will, die den Grundstein der digitalpolitischen Errungenschaften der EU bilden“.
Neben konkreten Forderungen zum Erhalt von KI-Verordnung, DSGVO und weiteren Gesetzen betonen die Grünen, dass die Reformpläne Europas Streben nach digitaler Souveränität konterkarierten. „Durch die Priorisierung von Deregulierung und Wettbewerbsfähigkeit gegenüber strategischer Autonomie birgt der Omnibus die Gefahr, genau die Schutzmaßnahmen zu schwächen, die die EU zu einem globalen Vorreiter in der Digitalpolitik gemacht haben.“ Unter dem Druck von Big Tech und Lobbyismus der USA sowie einiger Mitgliedstaaten drohe die EU, sich in weitere Abhängigkeit zu deregulieren.
Digitale Gesellschaft kritisiert Bundesregierung
Der Verein Digitale Gesellschaft hebt in einer heute veröffentlichten Pressemitteilung auch die negative Rolle hervor, die die deutsche Regierung in der Sache spielt. Sie hatte dem Vernehmen nach mit einem Positionspapier erheblichen Einfluss auf den Anti-Regulierungskurs der EU. „Statt die Probleme der Digitalisierung in Deutschland endlich effektiv anzugehen, wird mal wieder alle Schuld auf den Datenschutz geschoben“, kritisiert Geschäftsführer Tom Jennissen.
Er erinnert daran, dass die Bundesregierung demnächst einen „europäischen Gipfel zur digitalen Souveränität“ veranstalte. „Doch statt sich endlich aus der Abhängigkeit von Big Tech zu lösen, schleift sie hinter den Kulissen den Rechtsrahmen, der genau diese Tech-Unternehmen unter Kontrolle halten soll.“
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
In der kommenden Woche treffen sich in Berlin die Regierungschefs von Deutschland und Frankreich mit der EU-Kommission zu einem Souveränitätsgipfel. Ein neues Bündnis aus der Zivilgesellschaft stellt vier Forderungen auf, um mit offenen sozialen Netzwerken unabhängiger zu werden.

Das neue Bündnis „Offene Netzwerke und demokratische Öffentlichkeit. Dezentral, souverän und fürs Gemeinwohl!” hat heute auf einer Pressekonferenz seine Forderungen für offene Netzwerke vorgestellt. Das zivilgesellschaftliche Bündnis, dem unter anderem die Digitale Gesellschaft, Wikimedia Deutschland und die Mastodon gGmbH angehören, richtet sich mit seinen Forderungen an den „Gipfel zur Europäischen Digitalen Souveränität“, der am 18. November in Berlin stattfindet.
Auf dem Gipfel wollen sich die deutsche Bundesregierung und die französische Staatsregierung gemeinsam mit den anderen EU-Mitgliedstaaten dafür einsetzen, „die digitale Souveränität Europas zu festigen“.
Es sei ein grundsätzliches Problem, dass derzeit nur einige wenige Tech-Konzerne darüber entscheiden, wie wir uns informieren, worüber wir diskutieren und damit auch, wie sich ein großer Teil der Öffentlichkeit konstituiere. „Das ist eine Gefahr für die Demokratie“, sagte Michael Kolain vom Zentrum für Digitalrechte und Demokratie. Es brauche echte Alternativen, nämlich digitale Plattformen, die dem Gemeinwohl statt Profitinteressen dienen.
Nicht nur Großprojekte und Künstliche Intelligenz
Auf der Pressekonferenz äußerten die Bündnisvertreter:innen die Sorge, dass der geplante Gipfel sich auf Großprojekte und sogenannte Künstliche Intelligenz fokussiere, während wirksame Maßnahmen schon mit deutlich weniger Ressourcen möglich wären.
Was es nicht brauche, seien europäische Nachbildungen der Plattformen durch große Industrieanbieter, die mit Milliarden an öffentlichen Steuergeldern finanziert werden. „Wer den europäischen Wirtschaftsstandort absichern möchte, sollte nachhaltige öffentliche Investitionen in digitale Infrastrukturen umsetzen, die von allen europäischen Bürger:innen genutzt werden können“, so Sandra Barthel, die für die Digitale Gesellschaft das Bündnis mit ins Leben gerufen hat.
30 Millionen jährlich fürs Fediverse
Eine Forderung des Bündnisses ist eine jährliche Förderung in Höhe von 30 Millionen Euro für das Fediverse. Unter dem Fediverse versteht man das Netzwerk aller sozialen Netzwerke, die mit dem technischen Protokoll ActivityPub miteinander kommunizieren können. Im Fediverse ist es möglich, unterschiedliche Plattformen zu betreiben, die ähnliche Funktionen haben wie Instagram, Twitter, YouTube, Facebook oder TikTok. Schon heute gibt es Millionen Accounts im Fediverse und eine aktive Community. Mit etwas Wissen und Technik können sich alle mit eigenen Instanzen am Fediverse beteiligen und selbstbestimmt mitmachen.
Für das Fediverse brauche es allerdings staatliche Subventionen. „Offene, dezentrale Netze für diese Gesellschaft können wir nur zusammen mit der Gesellschaft weiterentwickeln“, sagte Björn Staschen von Save Social – Networks For Democracy. Es gebe gute technische Grundlagen, um die vorhandenen Netze zu beleben und zu verbessern, so Staschen weiter. Zusätzlich brauche es einen politischen Rahmen und umfassende Investitionen.
Zu Beginn wolle sich das Bündnis auf die Förderung des Fediverse konzentrieren, weil dies – etwa im Gegensatz zu Bluesky – ein funktionierendes dezentrales Netzwerk sei, das von vielen unterschiedlichen Playern und Communities getragen wird.
Öffentliche Institutionen sollen offene Netzwerke nutzen
Eine weitere Forderung des Bündnisses trägt den Namen „+1-Prinzip“. Es zielt auf die Bundesregierung sowie öffentliche Institutionen ab, die öffentliche Mittel nutzen, um auf kommerziellen Plattformen zu kommunizieren. Sie sollen dazu verpflichtet werden, „mindestens eine freie, digital souveräne Alternative gleichwertig“ mitzudenken und aktiv zu bespielen, beschreibt Ralf Stockmann von Save Social das Anliegen.
Nutzer:innen, die auf dem Laufenden bleiben möchten, wären damit nicht gezwungen, Accounts bei kommerziellen Plattformen zu betreiben. Gleichzeitig würde das „+1-Prinzip“ dezentrale Netzwerke zusätzlich beleben und stärken.
Gemeinnützigkeit für offene Software
Um offene Netzwerke zu fördern, müsse freie und offene Software ohne Gewinnerzielungsabsicht gemeinnützig werden. Software werde häufig ehrenamtlich entwickelt und bilde heute zugleich die Grundlage digitaler Infrastruktur, die Staat, Wirtschaft und Gesellschaft tagtäglich nutzen. „Um dieses digitale Ehrenamt zu würdigen, Rechtssicherheit zu schaffen und die dauerhafte Pflege rechtlich wie finanziell abzusichern, braucht es endlich einen neuen Zweck der Gemeinnützigkeit“, sagt Sabine Grützmacher, ehemalige Abgeordnete der Grünen im Deutschen Bundestag.
Darüber hinaus fordert das Bündnis den Aufbau einer „pan-europäischen, multilingualen Medienplattformen“ im Rahmen der „Apply AI Strategy“ der EU-Kommission. Und hier schließt sich der Kreis: Denn diese Medienplattform müsse dem Bündnis zufolge, auf Grundlage offener Protokolle wie Mastodons ActivityPub errichtet werden. Außerdem sollten dabei zivilgesellschaftliche Akteure sowie bestehende Initiativen wie Display Europe einbezogen werden.
Dokumentation
Das Bündnis “Offene Netzwerke und demokratische Öffentlichkeit. Dezentral, souverän und fürs Gemeinwohl!” wird derzeit getragen von:
- Digitale Gesellschaft e.V.
- Save Social – Networks For Democracy
- Zentrum für Digitalrechte und Demokratie
- D64 – Zentrum für digitalen Fortschritt
- Mastodon gGmbH
- Innovationsverbund Öffentliche Gesundheit e. V.
- Cultural Broadcasting Archive – cba.media
- DisplayEurope.eu
- Newsmast Foundation
- IFTAS – federated trust and safety
- Verband Freier Rundfunk Österreich
- Free Software Foundation Europe
- Krytyka Polityczna
- Fairkom
- Wikimedia Deutschland
- Wikimedia Österreich
- Forum InformatikerInnen für Frieden und gesellschaftliche Verantwortung e. V. (FIfF)
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Die EU-Polizeiagentur Europol ist nicht nur an immer mehr Daten interessiert, sondern experimentiert auch mit KI-Tools, um sie zu verarbeiten. Ob automatische Einstufung von Missbrauchsdarstellungen oder Gesichtserkennung – den KI-Ambitionen stehen nur schwache Kontrollmechanismen gegenüber.

Kritiker bezeichnen es als Strategie zur Datenbeschaffung und Überwachung. Europol nennt es in seinem Arbeitsprogramm „Strategisches Ziel Nr. 1“: durch eine Strategie der massenhaften Datenbeschaffung zum „Kriminalinformationszentrum“ der EU zu werden.
Die Beamt*innen von Europol haben keinen Hehl daraus gemacht, dass sie Zugang zu so vielen Daten wie möglich bekommen wollen. Im Zentrum von Europols Hunger nach personenbezogenen Daten stehen wachsende KI-Ambitionen.
Diese Ambitionen werden in einem Strategiepapier der Behörde aus dem Jahr 2023 offen beschrieben. Unendlich viele Daten aus EU-Datenbanken, die fast alle Daten über EU-Bürger*innen und Migrant*innen enthalten, gehen Hand in Hand mit der Möglichkeit, KI-Tools zu nutzen.
Seit 2021 hat sich die in Den Haag ansässige EU-Polizeibehörde einer immer ehrgeizigeren, aber weitgehend geheimen Mission verschrieben, automatisierte Modelle zu entwickeln. Sie sollen die Polizeiarbeit in allen EU-Mitgliedstaaten verändern.
Diese Recherche basiert auf internen Dokumenten der Behörde, die Datenschutz- und KI-Experten analysiert haben, und wirft ernsthafte Fragen auf – nicht nur zu den Auswirkungen von Europols KI-Programms auf die Privatsphäre der Bürger*innen. Sondern auch dazu, wie sich automatisierte Prozesse ohne eine angemessene Aufsicht auf den europäischen Polizeialltag auswirken werden.
Europol teilte dem Recherche-Team auf Anfrage mit, dass es „gegenüber allen Beteiligten eine unvoreingenommene Haltung einnimmt, um sein Mandat zu erfüllen – nämlich die nationalen Behörden bei der Bekämpfung von schwerer und organisierter Kriminalität sowie Terrorismus zu unterstützen“ – und dass die Behörde „an der Spitze der Innovation und Forschung im Bereich der Strafverfolgung stehen wird“.
Massendaten bringen neue Möglichkeiten
Europol hat bei drei Hacking-Operationen der letzten Jahre eine entscheidende Rolle gespielt. 2020 und 2021 zerschlug die Behörde gemeinsam mit anderen internationalen Partnern die vermeintlich sicheren, verschlüsselten Kommunikationssysteme EncroChat, SkyECC und ANOM. Das bescherte Europol eine riesige Menge an Daten. In verschiedenen Ländern führte der Hack der Anbieter zu unzähligen Ermittlungsverfahren und Verurteilungen, viele davon wegen Drogenhandels.
Bei den Operationen agierte Europol hauptsächlich als Übergabestelle und Vermittler für Daten: von den Behörden, die diese erhielten, zu den Behörden der betroffenen Länder. Es kopierte ohne großes Aufsehen die Datensätze aus den drei Operationen in seine Datenbestände und beauftragte seine Analysten, das Material zu untersuchen. Bei EncroChat ging es dabei um mehr als 60 Millionen, bei ANOM um mehr als 27 Millionen ausgetauschte Nachrichten – eine schier unmöglich auszuwertende Menge an Material.
Diese Datendimensionen verstärkten das Interesse der Behörde, KI-Tools zu trainieren, um die Arbeit der Analysten zu beschleunigen. Die Motivation war klar: Es ging um flüchtige Kriminelle und um Menschenleben.
Im September 2021 kamen zehn Mitarbeitende der Europäischen Datenschutzbehörde nach Den Haag zum Hauptsitz von Europol. Sie sollten Europols erste Schritte beim Algorithmen-Training untersuchen. Wie sie im Oktober 2020 herausfanden, hatte Europol bereits Pläne, die EncroChat-Daten für maschinelles Lernen zu nutzen. „Das Ziel von Europol war es, sieben Machine-Learning-Modelle zu entwickeln, die einmal über den gesamten EncroChat-Datensatz laufen sollten“. Das sollte Analysten helfen, die Menge der händisch zu prüfenden Nachrichten zu reduzieren.
Bereits im Februar 2021 hatte Europol das ambitionierte Programm wieder eingestellt, als es die EU-Datenschutzbehörde nicht davon überzeugen konnte, dass es nicht notwendig sei, seine Versuche im Bereich des maschinellen Lernens zu überwachen.
Kein Grund zur Beunruhigung
Dennoch brachte die Untersuchung ans Licht, dass Europol Datenschutzvorkehrungen missachtet hatte. Die Behörde versuchte, die Entwicklung eigener KI-Modelle abzukürzen. Fast keine Unterlagen zur Überwachung des Trainings „wurden während der Zeit, in der die Modelle entwickelt wurden, erstellt“. Weiter heißt es, die Dokumente „spiegeln nur teilweise die Entwicklungspraktiken der Abteilung für Daten und KI wider”, stellten die EDSB-Mitarbeitenden fest. Der EDSB erwähnt auch, dass „Risiken im Zusammenhang von Verzerrungen beim Training und der Verwendung von ML-Modellen oder statistischer Genauigkeit nicht berücksichtigt wurden”.
Für die Analysten von Europol schien es jedoch keinen Grund zur Beunruhigung zu geben. Das geht aus Abschnitten des EDBS-Untersuchungsberichtes zu Europols frühen Machine-Learning-Tests aus dem Dezember 2022 hervor. Sie schätzten das Risiko als minimal ein, dass durch die automatisierten Verfahren eine Person fälschlicherweise in den Fokus von strafrechtlichen Ermittlungen gelangen könnte. Die in dieser Zeit entwickelten Modelle wurden aus operativen Gründen nie eingesetzt. Der Rechtsrahmen der Behörde sah kein ausdrückliches Mandat für die Entwicklung und den Einsatz von KI für Ermittlungen vor.
Das änderte sich bald, im Juni 2022 erhielt Europol neue Befugnisse. Bis dahin hatten sich die Vorhaben zur KI und die Bedeutung des Datenzugangs hin zu sexualisierten Missbrauchsdarstellungen von Minderjährigen (CSAM) verlagert. Im Mai 2022 hatte die Europäische Kommission einen Gesetzesvorschlag zur sogenannten Chatkontrolle vorgelegt, um Inhalte von Nutzer*innen auf Missbrauchsdarstellungen zu scannen. Dieses Thema rückte in den Vordergrund der politischen Agenda und löste eine polarisierende Debatte über Pläne zur Aufhebung von Ende-zu-Ende-Verschlüsselung und die Gefahren der Massenüberwachung aus.
Diejenigen, die Europols Kapazitäten ausbauen wollten, sahen in der potenziellen Nutzung von KI zum Scannen digitaler Kommunikationsgeräte aller EU-Bürger*innen eine neue Chance. Bei einem Treffen mit einem Direktor der Generaldirektion Inneres der EU-Kommission legten Europol-Vertreter nach. Sie schlugen vor, die Technologie so anzupassen, dass sie auch für andere Zwecke als zur Erkennung von Missbrauchsdarstellungen genutzt werden könne: „Alle Daten sind nützlich und sollten an die Strafverfolgungsbehörden weitergegeben werden”.
Sie forderten von der Kommission außerdem, dass Strafverfolgungsbehörden wie Europol „KI-Tools für Ermittlungen nutzen können” sollten. Beschränkungen in der damals diskutierten KI-Verordnung zur Nutzung invasiver und riskanter KI-Systeme sollten vermieden werden.
Privater Rückkanal
Die Bedenken von Europol zu Beschränkungen durch die KI-Verordnung spiegelten die Bedenken großer privatwirtschaftlicher Akteure. Es ist kein Geheimnis, dass die Vorstellungen von Europol und Unternehmen zu Innovation und Entwicklung von KI-Modellen zusammenpassen. Im Gegenteil, in Dokumenten der Behörde wird oft erwähnt, dass enge Kontakte zur Wirtschaft als strategisch wichtig angesehen werden.
Ein relevanter Ansprechpartner für Europol war Thorn – eine US-amerikanische Non-Profit-Organisation und Entwickler eines KI-gestützten CSAM-Erkennungssystems. Strafverfolgungsbehörden können das Programm nutzen, um neue und unbekannte Missbrauchsdarstellungen zu suchen.
Seit 2022 steht Thorn an der Spitze einer Kampagne zur Unterstützung des Chatkontrolle-Vorschlags in Brüssel. Der Vorschlag würde Anbietern von Kommunikationsdiensten auf Anordnung vorschreiben, KI-Klassifikatoren wie den von Thorn entwickelten zu nutzen, um Inhalte zu durchsuchen.
Weniger bekannt ist jedoch die enge Zusammenarbeit zwischen Thorn und Europol. Eine Reihe von E-Mails zwischen dem Unternehmen und Europol zwischen September 2022 und Mai 2025 wurden durch Informationsfreiheitsanfragen öffentlich. Sie zeigen, wie eng Europols Pläne zur Entwicklung eines Erkennungsprogramms mit den Empfehlungen von Thorn verknüpft waren.
Im April 2022, kurz vor Inkrafttreten der neuen Europol-Verordnung, schickte ein Europol-Beamter eine E-Mail an Thorn, um „die Möglichkeit zu prüfen, dass die Europol-Mitarbeiter, die im Bereich Kindesmissbrauch arbeiten (das Analyseprojekt-Team „Twins”), Zugang erhalten” – zu einem Zweck, der weiterhin unklar ist. Thorn schickte ein Dokument zurück und informierte Europol darüber, welche weiteren Informationen erforderlich wären, um fortzufahren. „Ich muss betonen, dass dieses Dokument vertraulich ist und nicht weitergegeben werden darf“, steht am Ende von Thorns E-Mail.
Fünf Monate später bat Europol Thorn um Hilfe dabei, Zugang zu Bildklassifizierern zu erhalten. Diese wurden in einem Projekt entwickelt, an dem Thorn mitgearbeitet hatte. Europol wollte diese testen.
Treffen zum Mittagessen mit Thorn
Nuno Moniz ist Associate Professor am Lucy Family Institute für Daten und Gesellschaft an der Universität Notre Dame. Für ihn wirft dieser Austausch ernsthafte Fragen hinsichtlich der Beziehung zwischen den beiden Akteuren auf: „Sie diskutieren Best Practices, erwarten den Austausch von Informationen und Ressourcen und behandeln Thorn im Wesentlichen als Partner der Strafverfolgungsbehörden mit privilegiertem Zugang.“

Die Korrespondenz deutet an, dass Thorn mit Europol über die technischen Details seiner eigenen Klassifizier sprach und ungewöhnlich tiefe Einblicke in die internen KI-Pläne der Behörde erhielt – Einblicke, die nach bisherigem Wissen keinem anderen externen Akteur gewährt wurden.
Die enge Zusammenarbeit zwischen Europol und Thorn ging seitdem weiter, unter anderem mit einem geplanten Treffen zum Mittagessen, gefolgt von der Präsentation des CSAM-Erkennungsprogramms von Thorn im Hauptquartier von Europol in Den Haag bei einem AP-Twins-Treffen.
In den aktuellsten Korrespondenzen, die im Rahmen dieser Recherche zugänglich gemacht wurden, zeigt ein Mail-Wechsel aus dem Mai 2025, dass Thorn mit seinen Kollegen bei Europol über seine neu gebrandeten CSAM-Erkennung diskutiert.
Europol sagt, dass es „bis heute keine CSAM-Softwareprodukte von Thorn gekauft hat“. Ein Großteil der Kommunikation mit Thorn aus den Informationsfreiheitsanfragen ist jedoch in weiten Teilen geschwärzt. Einige E-Mails wurden vollständig zurückgehalten, obwohl der Europäische Bürgerbeauftragte die Behörde aufforderte, einen breiteren Zugang zu den Dokumenten zu gewähren.
Europol behauptet, dass einige der nicht offengelegten Dokumente „strategische Informationen von operativer Relevanz über die Arbeitsmethoden von Europol im Zusammenhang mit der Verwendung von Bildklassifizierern enthalten, wobei bestimmte solche Klassifizierer konkret erwähnt werden und Gegenstand interner Beratungen, aber auch externer Diskussionen mit Thorn waren”.
Auf Anfrage zu den Recherche-Ergebnissen schrieb Thorns Policy-Direktorin Emily Slifer, dass Thorn angesichts „der Art und Sensibilität” der eigenen Tätigkeiten die Zusammenarbeit mit bestimmten Strafverfolgungsbehörden nicht kommentiere. „Wie bei all unseren Kooperationen arbeiten wir in voller Übereinstimmung mit den geltenden Gesetzen und halten uns an die höchsten Standards in Bezug auf Datenschutz und ethische Verantwortung.“
Ein Sprecher von Europol erklärte gegenüber dem Rechercheteam, dass der „Kooperationsansatz der Behörde vom Grundsatz der Transparenz geleitet wird“. „Kein einziges KI-Modell von Thorn wurde für den Einsatz bei Europol in Betracht gezogen. Daher gibt es keine Zusammenarbeit mit den Entwicklern von Thorn hinsichtlich KI-Modellen, die von Europol verwendet werden oder verwendet werden sollen.“
Lückenhafte Prüfung
Nicht nur die Beratungen zwischen Europol und Thorn bleiben opak. Die Behörde weigert sich hartnäckig, eine Reihe wichtiger Dokumente zu ihrem KI-Programm offenzulegen: von Datenschutz-Folgenabschätzungen über Informationen zu verwendeten Modellen bis hin zu Protokollen ihrer Verwaltungsratssitzungen. In vielen Fällen hat Europol die gesetzlichen Fristen für die Beantwortung von Anträgen um mehrere Wochen überschritten.
Die offengelegten Dokumente bleiben oft aus fragwürdigen Gründen stark geschwärzt. Meist nannte Europol „öffentliche Sicherheit“ oder „interne Entscheidungsprozesse“ als Begründung, um Informationen zurückzuhalten. Der Europäische Bürgerbeauftragte hat solche vagen Aussagen in seinen vorläufigen Berichten immer wieder in Frage gestellt und angemerkt, dass Europol nicht ausreichend begründet hat, wie ein Bekanntwerden seine Arbeit konkret beeinträchtigen würde.
Europol teilte dem Recherche-Team mit, dass Datenschutzfolgeabschätzungen „nicht der allgemeinen Offenlegungspflicht unterliegen“, da sie „kriminellen Akteuren Vorteile gegenüber dem Interesse der öffentlichen Sicherheit verschaffen könnten“.
Fünf Transparenzbeschwerden, die im Rahmen dieser Recherche eingereicht wurden, sind derzeit beim Europäischen Bürgerbeauftragten anhängig.
Europols offensichtliche Abneigung gegen Transparenz ist jedoch nur ein Teil einer mangelhaften Rechenschaftsarchitektur. Sie soll zumindest auf dem Papier sicherstellen, dass alle Aktivitäten von Europol grundrechtliche Standards beachten – auch die Einführung von KI-Tools.
Innerhalb von Europol fällt diese Aufgabe hauptsächlich dem Grundrechtsbeauftragten der Behörde zu. Das ist seit 2022 eine interne Kontrollinstanz, die Bedenken hinsichtlich schwacher Schutzmaßnahmen im Gegensatz zu einer Ausweitung der Befugnisse durch die Europol-Reform ausräumen soll.
2023 wurde die neu geschaffene Position mit Dirk Allaerts besetzt. Die Bedenken wegen mangelnder Aufsicht konnte das nicht ausräumen. Die Rolle genießt wenig Autorität, ihre Berichte sind nicht bindend und haben keine Durchsetzungskraft. „Der Grundrechtsbeauftragte von Europol fungiert nicht als wirksamer Schutz vor den Risiken, die mit dem zunehmenden Einsatz digitaler Technologien durch die Behörde verbunden sind. Die Rolle ist institutionell schwach und verfügt nicht über interne Durchsetzungsbefugnisse, um sicherzustellen, dass seine Empfehlungen befolgt werden“, sagt Bárbara Simão, Expertin für Rechenschaftspflichten bei Article 19. Die in London ansässige, internationale Menschenrechtsorganisation beobachtet den Einfluss von Überwachung und KI-Technologien auf die Meinungs- und Informationsfreiheit. Simão hat mehrere „unverbindliche“ Bewertungen der KI-Tools von Europol durch den FRO überprüft, die das Recherche-Team erhalten hat.
„Um seine Funktion als interne Kontrollinstanz zu erfüllen, muss der Grundrechtsbeauftragte mehr sein als eine symbolische Funktion. Er muss die eingesetzten Technologien ordnungsgemäß überprüfen und braucht echte Befugnisse”, fügte sie hinzu.
Viele der unverbindlichen Berichte des Grundrechtsbeauftragten enthalten die immer wieder kopierte Passage, dass Fähigkeiten zur gründlichen Überprüfung der KI-Tools von Europol nicht vorhanden sind. „Derzeit gibt es keine Instrumente für die grundrechtliche Bewertung von Tools, die künstliche Intelligenz nutzen. Die vom Grundrechtsbeauftragten verwendete Bewertungsgrundlage orientiert sich an einem Dokument der Strategic Group on Ethics and Technology und einer Methodik für den Umgang mit Dilemmata“, heißt es in den Berichten.

Die externe Aufsicht scheint nicht viel stärker zu sein. Der wichtigste Mechanismus – die „Joint Parliamentary Scrutiny Group“ (JPSG), in der nationale und Europa-Parlamentarier zusammenkommen, um die Aktivitäten von Europol zu überwachen – hatte nur begrenzten Zugang zu relevanten Dokumenten über die Forschungs- und Innovationsprogramme der Behörde.
Ironischerweise behauptet Europol in seiner Antwort auf die Anfragen des Europäischen Bürgerbeauftragten zu den fragwürdigen Transparenzpraktiken der Behörde, dass seine „Legitimität und Rechenschaftspflicht“ „bereits weitgehend und notwendigerweise durch die gesetzliche demokratische Kontrolle erfüllt wird, die vom Europäischen Parlament zusammen mit den nationalen Parlamenten durch die JPSG ausgeübt wird“.
Es bleibt dem EDSB überlassen, die übereilte Expansion der Behörde mit begrenzten Ressourcen und unzureichenden Befugnissen im Bereich des Datenschutzes zu überprüfen.
Daten von NCMEC
Bis zum Sommer 2023 war die Entwicklung eines eigenen CSAM-Klassifikators eine der obersten Prioritäten des KI-Programms von Europol. Ein zweiseitiges Beratungsdokument des Grundrechtsbeauftragten weist darauf hin, dass das Ziel darin bestand, „ein Tool zu entwickeln, das künstliche Intelligenz (KI) nutzt, um mutmaßliche Bilder und Videos von sexuellem Kindesmissbrauch automatisch zu klassifizieren”. In vier Zeilen ging Allaerts auf das Problem von Verzerrungen ein. Er wies darauf hin, dass eine ausgewogene Datenzusammensetzung bezüglich Alter, Geschlecht und ethnischer Zugehörigkeit notwendig sei, „um das Risiko zu begrenzen, dass das Tool CSAM nur für bestimmte ethnische Gruppen oder Geschlechter erkennt”. Die Entwicklungsphase würde in einer kontrollierten Umgebung stattfinden, um jegliches Risiko von Datenschutzverletzungen zu begrenzen.
Um das Tool zu trainieren, würde das Projekt Missbrauchsdarstellungen und Nicht-CSAM-Material verwenden. Während unklar ist, welches Material Europol für letzteres beschaffen würde, stammt das CSAM-Material größtenteils vom National Center for Missing and Exploited Children (NCMEC). NCMEC ist eine gemeinnützige Organisation aus den USA, die eng mit der US-amerikanischen Strafverfolgungsbehörden zusammenarbeitet.
Obwohl Europol die Pläne zum Training eines Erkennungsprogramms bis Ende 2023 zurückgestellt hat, fließen die vom NCMEC gelieferten Daten in das erste interne Modell ein, das im Oktober 2023 eingeführt wurde.
Die Maschine mit dem Namen EU CARES hat die Aufgabe, automatisch Daten herunterzuladen, die von US-amerikanischen Online-Dienstleistern gemeldet werden. Diese sind verpflichtet, verdächtiges Material an NCMEC zu melden. EU CARES gleicht die Daten dann mit den Beständen von Europol ab und leitet sie an die Strafverfolgungsbehörden der Mitgliedstaaten weiter.
Das Volumen des gemeldeten Materials – hauptsächlich von US-amerikanischen Digitalriesen wie Meta oder Google – wurde so groß, dass die manuelle Verarbeitung und Weitergabe nicht mehr möglich war, die Europol vor dem Einsatz von KI durchgeführt hatte.
Europol hatte in seiner eigenen Bewertung des Systems Risiken in Bezug auf „falsche Datenmeldungen durch das NCMEC“ und „falsche Treffer im Zusammenhang mit Meldungen“ festgestellt. Dennoch hat die Behörde bei ihren Berichten an den EDSB keines dieser Risiken vollständig bewertet.
Die Datenschutzbehörde betonte die „schwerwiegenden Folgen”, die Ungenauigkeiten haben könnten. Sie forderte die Europol auf, zusätzliche Maßnahmen zur Risikominderung zu ergreifen, etwa durch inkorrekt kategorisierte Informationen oder „falsche Abgleichberichte, die eine betroffene Person zu Unrecht in eine strafrechtliche Ermittlung ziehen können”. Die Folgen für eine Person wären in solchen Fällen schwerwiegend.
Als Reaktion darauf verpflichtete sich Europol, verdächtige Daten als „unbestätigt“ zu kennzeichnen, „verbesserte“ Warnungen für Auffälligkeiten hinzuzufügen und sein System zur Entfernung zurückgezogener Meldungen zu verbessern. Neben anderen Maßnahmen erklärte die Behörde, dass diese Schritte den Bedenken des EDSB hinsichtlich der Genauigkeit und der Fehler bei Querverweisen Rechnung tragen würden.
Im Februar 2025 erklärte die Europol-Direktorin Catherine De Bolle, dass EU CARES „bis Januar 2025 insgesamt 780.000 Meldungen mit ergänzenden Informationen übermittelt“ habe. Offen bleibt, wie viele davon falsch positive oder redundante Hinweise sind. Das Bundeskriminalamt, das Meldungen direkt vom NCMEC erhält, ohne das System von Europol zu nutzen, teilte auf Anfrage mit, dass von 205.728 im Jahr 2024 eingegangenen NCMEC-Meldungen 99.375 „strafrechtlich nicht relevant“ waren. Das entspricht 48,3 Prozent.
Die nächste Herausforderung: Gesichtserkennung
Obwohl Datenschutzbehörden auf Schutzmaßnahmen bei EU CARES drängten, weitete Europol den Einsatz von automatisierten Tools auf einen weiteren sensiblen Bereich aus: Gesichtserkennung.
Ab 2016 hat die Behörde mehrere kommerzielle Tools getestet und erworben. Die neueste Anschaffung, NeoFace Watch (NFW) des japanischen Technologieunternehmens NEC, sollte ein früheres internes System namens FACE ersetzen oder ergänzen, das Mitte 2020 bereits auf etwa eine Million Gesichtsbilder zugreifen konnte.
Stark geschwärzte Dokumente zeigen, dass Europol bis 2023 mit NEC an Plänen zur Datenmigration und Videoverarbeitung arbeitete. Als Europol später dem EDSB das neue Programm zur Überprüfung vorlegte, warnte dieser vor dem „Risiko einer geringeren Genauigkeit bei den Gesichtern von Minderjährigen (als eine Form der Verzerrung)” und vor einer „inkohärenten Verarbeitung”, wenn alte und neue Systeme (wie das bestehende FACE und NeoFace Watch) parallel laufen. Die Datenschutzbehörde forderte Europol auf, eine sechsmonatige Pilotphase durchzuführen, um einen akzeptablen Genauigkeitsschwellenwert zu ermitteln und falsch-positive Ergebnisse zu minimieren. Nach der Konsultation entschied Europol aus Vorsichtsmaßnahme, die Daten von Kindern unter 12 Jahren aus der Verarbeitung auszunehmen.
In seiner Vorlage an den EDSB verwies Europol auf zwei Studien des National Institute of Standards and Technology (NIST), einer US-amerikanischen Regierungsbehörde. Die Studien sollten eigentlich dazu dienen, die Entscheidung von Europol für NeoFace Watch als neues System zu untermauern. In einer der Studien gab NIST an, dass es keine „wilden Bilder“ aus dem Internet oder von Videoüberwachungskameras verwendet habe, wie sie Europol normalerweise verwenden würde.
In einem verwandten Bericht dokumentierte NIST in seinen Bewertungen des Algorithmus von NEC, dass die Verwendung von Fotos bei schlechten Lichtverhältnissen zu einer Falsch-Identizifierungsrate von bis zu 38 Prozent führe. Im Oktober 2024 wurde ein Vertrag mit NEC unterzeichnet. Gegen ähnliche Einsätze von NeoFace Watch in Großbritannien gibt es wegen Bedenken zu Verzerrungen und Datenschutz Klagen vor Gerichten.
In einer nicht bindenden Stellungnahme aus dem November desselben Jahres beschrieb der Grundrechtsbeauftragte von Europol das System als eines, das „das Risiko von Fehlalarmen erhöht“, was das Recht auf Verteidigung oder ein faires Verfahren beeinträchtigen könne. Das System wird nach der neuen KI-Verordnung der EU als Hochrisiko-System eingestuft. Dennoch gab der Grundrechtsbeauftragte das System frei und forderte die Behörde lediglich auf, bei grenzüberschreitenden Ermittlungen anzugeben, wenn das Tool eingesetzt wird, um „die Transparenz und Rechenschaftspflicht zu verbessern, die für die Aufrechterhaltung des Vertrauens der Öffentlichkeit von entscheidender Bedeutung sind“.
Der Hersteller NEC schrieb auf Anfrage, dass NeoFace Watch in der jüngsten Testrunde des NIST als „die weltweit genaueste Lösung“ abschnitt. NEC fügte hinzu, dass sein Produkt „umfangreichen unabhängigen Tests durch das National Physical Laboratory (NPL) unterzogen wurde und beim Live-Einsatz unter typischen Bedingungen keine falsch-positiven Identifizierungen aufwies“.
Hohe Genauigkeit allein macht Gesichtserkennung nicht sicher und beseitigt auch nicht die in diesem Fall dokumentierten rechtlichen Bedenken. Experten wie Luc Rocher, Professor am Oxford Internet Institute, haben gezeigt, dass die Bewertungsmethoden für die Gesichtserkennung immer noch nicht die tatsächliche Leistung in der Praxis vollständig erfassen, wo Faktoren wie Bildqualität, Bevölkerungsgröße und demografische Vielfalt zu einer erheblichen Verschlechterung der Genauigkeit führen – insbesondere bei Personen aus ethnischen Minderheiten und jungen Menschen.
Barbara Simao, Expertin bei Article 19, merkte an, dass die Betonung der technischen Performance dazu führe, „die mit Gesichtserkennungstechnologien verbundenen Risiken herunterzuspielen“, darunter die vom EDSB aufgezeigte Verzerrungen bei Minderjährigen und die von der eigenen Aufsichtsinstanz bei Europol identifizierten Gefahren für das Recht auf ein faires Verfahren.
Das Gesamtbild
Ein verbindlicher interner Fahrplan aus dem Jahr 2023 offenbart das wahre Ausmaß von Europols Bestrebungen: 25 potenzielle KI-Modelle, die von der Objekterkennung und Bildgeolokalisierung bis hin zur Deepfake-Identifizierung und der Extraktion persönlicher Merkmale reichen.
Diese Vision würde die Behörde ins Zentrum der automatisierten Polizeiarbeit in der EU befördern, da die von Europol eingesetzten Instrumente praktisch von allen Strafverfolgungsbehörden in der gesamten EU genutzt werden könnten.
Im Februar 2025 teilte Europol-Direktorin Catherine De Bolle den europäischen Gesetzgebern mit, dass die Behörde dem EDSB zehn Datenschutz-Folgenabschätzungen vorgelegt habe, sieben für bereits genutzte und drei für neue Modelle.
Mitglieder der parlamentarischen Kontrollgruppe JPSG baten Europol um einen detaillierten Bericht über sein KI-Programm. Als die Behörde diesen vorlegte, schickte sie den Abgeordneten ein vierseitiges Papier mit allgemeinen Beschreibungen ihrer internen Überprüfungsprozesse, ohne substanzielle Informationen über die KI-Systeme selbst.
Die EU-Parlamentarierin Saskia Bricmont, die Teil der JPSG ist, sagt:
Die entwickelten KI-Systeme können sehr große Risiken und Konsequenzen für Grundrechte beinhalten. Es ist von entscheidender Bedeutung, dass eine strenge und wirksame Aufsicht gewährleistet ist. Trotz der bereitgestellten Informationen ist es für die Mitglieder des EU-Parlaments nach wie vor sehr komplex, ihre Kontrollaufgabe zu erfüllen und die mit der Nutzung KI-basierter Systeme durch die Agentur verbundenen Risiken vollständig zu bewerten.
Gleichzeitig bereitet die EU-Kommission eine neue, umfassende Reform vor, um Europol zu einer „wirklich funktionsfähigen Behörde” zu machen. Das genaue Ausmaß und die Art dieser Umgestaltung ist noch unklar. Die Kommission hat jedoch vorgeschlagen, das Budget von Europol für die nächste Finanzperiode auf drei Milliarden Euro aus Steuergeldern zu verdoppeln.
Diese Recherche wurde von IJ4EU und Lighthouse Reports unterstützt und erscheint ebenfalls bei Solomon und Computer Weekly. Apostolis Fotiadis ist Journalist und recherchiert zu EU-Politik in den Bereichen Technologie, Überwachung und digitale Rechte. Giacomo Zandonini ist ein in Rom ansässiger Investigativjournalist mit einer Leidenschaft für Langformartikel, die Feldforschung mit der Analyse von Dokumenten und offenen Daten verbinden. Er berichtet über die Sicherheits- und Migrationspolitik der EU und deren Auswirkungen außerhalb der EU. Luděk Stavinoha ist Dozent für Medien und globale Entwicklung an der University of East Anglia. Er forscht zu EU-Transparenz und Migrationsmanagement.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Washington fordert transatlantischen Zugriff auf biometrische Polizeidatenbanken. Das geforderte Abkommen betrifft alle 43 Teilnehmer des Programms für visafreie Reisen. Nun werden die Positionen der EU-Mitglieder dazu bekannt.

Die britische NGO Statewatch hat ein Ratsdokument mit Positionen der EU-Mitgliedstaaten zu den geplanten Verhandlungen über die sogenannte Enhanced Border Security Partnership (EBSP) mit den Vereinigten Staaten veröffentlicht. Es zeigt die Differenzen über den von Washington seit drei Jahren geforderten transatlantischen Zugriff auf Polizeidatenbanken und darin enthaltene Fingerabdrücke und Gesichtsbilder.
Die meisten der 27 EU-Regierungen sind aufgeschlossen für Verhandlungen, fordern aber Leitplanken für eine solche Datenkooperation. Einige machen weitergehende Vorschläge.
Die US-Forderung betrifft alle 43 Teilnehmer des Visa-Waiver-Programms, darunter auch Länder wie Großbritannien, Israel, Australien oder Singapur. Sie sollen bis Ende 2026 eine „Grenzpartnerschaft“ abschließen. Andernfalls droht der Ausschluss vom visafreien Reisen in die USA.
Die EU-Kommission hat dazu vorgeschlagen, im Auftrag aller 27 Unionsmitglieder Verhandlungen für ein Rahmenabkommen zum Austausch der biometrischen Daten zu führen. Der Rat – also alle Mitgliedstaaten – soll der Kommission dazu ein Verhandlungsmandat erteilen. Für die Umsetzung eines solchen Rahmenabkommens müssen die einzelnen Länder aber anschließend eine zusätzliche bilaterale Vereinbarung mit den USA schließen.
Deutschland will US-Behörden Grenzen setzen
Die Bundesregierung zeigt sich laut dem Dokument grundsätzlich offen für ein EU-weites Abkommen, will den US-Behörden darin aber Grenzen setzen. Deutschland lehnt einen Direktzugriff US-amerikanischer Behörden auf ausländische Datenbanken ab und fordert eine Lösch-Regelung.
Stattdessen solle der Austausch über ein mehrstufiges „Treffer/Kein Treffer“-Verfahren erfolgen – eine Herausgabe der Daten soll also nur im Einzelfall und nach Prüfung durch nationale Stellen erfolgen. Unter Schengen-Staaten ist das im Vertrag von Prüm geregelt. Die USA könnten dementsprechend ein internationaler Prüm-Partner werden, so der deutsche Vorschlag.
Als erster und bislang einziger Staat erhielt Großbritannien diesen Status nach dem Brexit. Allerdings dauert die Datenabfrage nach dem „Treffer/Kein Treffer“-Prinzip mitunter Tage. Für die von den USA angestrebte Echtzeitverwendung ist dies also keine Option.
Zugleich fordert Berlin, dass die EU geschlossen gegenüber Washington auftritt, um zu verhindern, dass einzelne Mitgliedstaaten in bilateralen Abkommen weitergehende Zugeständnisse machen. Nach deutscher Ansicht müsse der transatlantische Datenaustausch „einen echten Mehrwert für die Sicherheit der EU und ihrer Mitgliedstaaten bringen, dabei aber die Grundrechte und den Datenschutz uneingeschränkt wahren“.
Einige Staaten wollen Beschränkungen
Neben Deutschland plädieren auch Italien, Frankreich, Österreich und die Niederlande dafür, den Anwendungsbereich des Abkommens klar zu begrenzen. Italien etwa fordert, dass sich die Kooperation „auf Migration und Grenzmanagement“ beschränken solle und „nicht zu einem generellen Polizeidatenaustausch“ werde. Auch Frankreich warnt vor einer schleichenden Ausweitung in Bereiche nationaler Strafverfolgung und verlangt, dass jede Datenübermittlung „menschlich überprüft“ werden müsse und nicht automatisch erfolgen dürfe.
Die Regierungen in Wien und Den Haag äußern ähnliche Vorbehalte: Der Austausch dürfe nur Daten betreffen, die im Rahmen von Grenz- oder Visaverfahren erhoben werden und nicht etwa nationale Ermittlungsakten.
Ein anderes Lager – darunter die baltischen Staaten, Tschechien und Litauen – zeigt sich hingegen offen für US-Forderungen nach direkter oder automatisierter Abfrage europäischer Datensätze, sofern Datenschutzgarantien und Gegenseitigkeit gewahrt blieben. Die litauische Delegation stellt sogar in den Raum, die Verwendung von Künstlicher Intelligenz bei der automatisierten Verarbeitung von Daten zu regeln, was andere Staaten strikt ablehnen.
Die österreichischen Vertreter äußerten die Auffassung, dass die USA eher an Daten in europäischen Informationssystemen interessiert seien als an nationalen biometrischen Datenbanken. Das bezieht sich speziell auf drei neue große EU-Systeme: das Visa-Informationssystem (VIS), das gemeinsame biometrische Abgleichsystem (sBMS) und den Gemeinsamen Identitätsspeicher (CIR). In den Kommentaren Österreichs klingt es so, als wolle das Land den USA den Zugriff auf diese EU-Daten anbieten, „um eine operationell gegenseitig vorteilhafte Lösung zu erreichen“.
Irland verweist auf sicherheitspolitische Dimension
Ein Sonderfall ist Irland. Die dortige Regierung betont, dass das Abkommen nicht nur Grenz- oder Visaangelegenheiten betreffen soll, sondern auch der Bekämpfung von Terrorismus und schwerer Kriminalität dienen müsse. Irland ist nicht Teil des Schengen-Raums. Trotzdem fordert Dublin, an den Verhandlungen teilzunehmen und argumentiert, der Austausch von Biometriedaten und Reisedokumenten könne allen Schengen-Staaten beim Kampf gegen Verbrechen und Terrorismus helfen.
Sollte Irland von dem Rahmenabkommen ausgeschlossen bleiben, befürchtet das Land erhebliche operative Schwierigkeiten bei der Umsetzung eines späteren bilateralen EBSP mit den USA, was den eigenen Status im Visa-Waiver-Programm gefährden könnte. Vor diesem Szenario warnen auch einige osteuropäische Staaten.
Deadline bis Ende 2026
Frankreich wiederum stellt die Lesart der Kommission in Frage, wonach das Rahmenabkommen in ausschließlicher EU-Kompetenz liege: Einige Aspekte, etwa der Zugriff auf nationale Datenbanken, fielen nach Ansicht von Frankreich eindeutig in die Zuständigkeit der Mitgliedstaaten. Über diese Frage hatte es vorab bereits Uneinigkeit gegeben, denn die von den US-Behörden anvisierte Nutzung der biometrischen Daten geht deutlich über Visafragen – für die die EU grundsätzlich zuständig ist – hinaus.
Mehrere im Rat in Brüssel vertretene Länder wie Österreich, die Niederlande und Estland halten den von Washington gesetzten Zeitplan für das EBSP bis Ende 2026 für unrealistisch. Ungarn fordert Konsequenzen, falls die USA für ein EU-Land den Visa-Waiver-Status einseitig beschränken. Dann müsse die EU den Datenaustausch aller Mitgliedstaaten geschlossen aussetzen.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Dass es ein neues MAD-Gesetz geben soll, begrüßten Sachverständige im Bundestag. Doch selbst wenn der Entwurf für eine neue Rechtsgrundlage des Militärgeheimdiensts auf Gegenliebe stößt, kritisierten die Fachleute, dass die Geheimdienstbefugnisse nicht abschließend definiert werden sollen.

Was soll der Militärische Abschirmdienst künftig dürfen und warum können die Feldjäger der Bundeswehr nicht rechtssicher eine Straße sperren? Die Themenbreite bei einer Sachverständigenanhörung im Verteidigungsausschuss des Bundestags war groß, es ging um den Entwurf eines Gesetzes „zur Stärkung der Militärischen Sicherheit in der Bundeswehr“. Der enthält sowohl Änderungen bei der Sicherheitsüberprüfung von Soldat:innen als auch ein komplett neues MAD-Gesetz – die Grundlage der militärgeheimdienstlichen Arbeit in Deutschland.
Sechs Fachleute – vom Generalleutnant außer Dienst bis zum Verfassungsrechtler – waren sich einig, dass eine Reform der Gesetzesgrundlagen für den MAD überfällig ist. Auch weil die Neuregelung Klarheit schafft. Denn bislang liest sich das MAD-Gesetz kompliziert.
Es verweist großflächig auf das Verfassungsschutzgesetz und so klingen die rechtlichen Grundlagen an vielen Stellen so: „Die §§ 8a und 8b des Bundesverfassungsschutzgesetzes sind mit der Maßgabe entsprechend anzuwenden, dass an die Stelle der schwerwiegenden Gefahren für die in § 3 Absatz 1 des Bundesverfassungsschutzgesetzes genannten Schutzgüter schwerwiegende Gefahren für die in § 1 Absatz 1 genannten Schutzgüter und an die Stelle des Bundesministeriums des Innern, für Bau und Heimat das Bundesministerium der Verteidigung treten.“
Das ist weder gut verständlich noch geht es auf besondere Umstände für einen Militärgeheimdienst ein.
Ein Fortschritt zum Ist-Zustand
Und so war das Echo der Fachleute recht positiv. Der Professor für Öffentliches Recht Matthias Bäcker, der bereits mehrfach gegen Polizei- und Geheimdienstgesetze vors Bundesverfassungsgericht gezogen war, nannte den Entwurf einen großen „Fortschritt im Vergleich zum aktuellen Gesetz“.
Markus Löffelmann, Professor für Sicherheitsrechte an der Hochschule des Bundes für öffentliche Verwaltung, resümierte, der Entwurf schaffe „Praktikabilität“ für den MAD und sei „fast vorbildlich“.
Kritik gab es von mehreren der Sachverständigen jedoch am unvollständigen Katalog der „nachrichtendienstlichen Mittel“, die dem MAD erlaubt sein sollen. In Paragraf 8 des Gesetzentwurfs finden sich 15 Punkte wie „verdeckte Nachforschungen und verdeckte Befragungen“ oder „Einsatz virtueller Agenten bei der Aufklärung im Internet“. Braucht der MAD weitere Befugnisse, die ähnlich eingriffsintensiv wie die bereits gelisteten sind, soll das künftig über eine Dienstvorschrift geregelt werden können – die bei Geheimdiensten in der Regel geheim bleibt.
Eine „Erweiterung im Verborgenen ist untunlich“, kritisierte in der Anhörung etwa Christian Sieh vom deutschen Bundeswehrverband. Bäcker wies darauf hin, dass sich in einigen Landesverfassungsschutzgesetzen abschließende Befugniskataloge finden. Gerade wegen der Heimlichkeit der Maßnahmen sei es geboten, die Befugnisse „rechtlich in abstrakt genereller Weise abschließend auszuführen“. Werden Befugnisse konkretisiert, dann sollte dies nicht mittels einer geheimgehaltenen Dienstvorschrift erfolgen, sondern im Zweifel in einer öffentlich einsehbaren Verordnung.
Auch Informationen aus öffentlichen Quellen können sensibel sein
Zu weit gingen einigen ebenso die Regelungen aus Paragraf 4, wonach der MAD „personenbezogene Daten aus öffentlich zugänglichen Quellen automatisiert erheben“ können soll. Laut Löffelmann bestehe da noch „viel Diskussionsbedarf“. Ihm gehen die Befugnisse zu weit, da auch Datenerhebungen aus öffentlichen Quellen einen Eingriff in die Rechte der Betroffenen darstellen würden.
Bäcker gab ebenfalls zu Bedenken, dass die Regel der „großen Sensibilität der Daten nicht Rechnung“ trage. Gerade weil Personen etwa in Sozialen Medien viel über sich preisgeben. „Da können sie die Person nackt machen“, so Bäcker. „Es ist nicht ausgeschlossen, dass ein Nachrichtendienst das mal tut. Aber der muss an strenge Regeln gebunden werden.“ In seiner Stellungnahme führt Bäcker aus, die Regelung verfehle „die verfassungsrechtlichen Anforderungen“.
Seiner Auffassung nach brauche es einen „qualifizierten nachrichtendienstlichen Verdacht“, um die Ausforschung einer Person zu rechtfertigen – selbst wenn sie mit öffentlich zugänglichen Informationen geschehe. Er empfiehlt, die sogenannten Open-Source-Intelligence-Maßnahmen differenzierter zu regeln.
Das neue MAD-Gesetz hat eine große Bedeutung
Die Neuregelung des MAD-Gesetzes dürfte sich auf weit mehr Bereiche auswirken als den Militärgeheimdienst selbst. Denn sie ist der Auftakt für eine etwa durch Verfassungsgerichtsurteile notwendig gewordene Reform auch anderer Geheimdienstgesetze. Die will Schwarz-Rot bald angehen.
Dass die Bundesregierung nicht alle Gesetze für die drei Bundesgeheimdienste MAD, BND und Verfassungsschutz parallel erarbeitet, kritisierte Konstantin von Notz, stellvertretender Fraktionsvorsitzender der Grünen im Bundestag und stellvertretender Vorsitzender des Parlamentarischen Kontrollgremiums, gegenüber netzpolitik.org: Statt die Reform ganzheitlich für alle drei Nachrichtendienste des Bundes anzugehen, legt man nun mit der Reform des MAD-Gesetzes nur einen Teil der Reform vor.“
Es kann also entweder passieren, dass das MAD-Gesetz im Zuge der allgemeinen Geheimdienstreform nach der Verabschiedung erneut überarbeitet wird. Oder aber dass Mechanismen, die nun im MAD-Gesetz landen, als Blaupause für weitere Reformen gelten.
Was dürfen die Feldjäger:innen?
Trotz der dadurch fundamentalen Bedeutung der Reform konzentrierten sich große Teile der Anhörung jedoch auf andere Aspekte des „Gesetzes zur Stärkung der Militärischen Sicherheit in der Bundeswehr“. Das enthält nämlich zusätzlich Regelungen für eine veränderte Sicherheitsüberprüfung von Soldat:innen. Bewerber:innen für die Bundeswehr sollen demnach zunächst nur noch einer Verfassungstreueprüfung unterzogen werden. Kritik gab es daran, dass der Bundestag aktuell an anderer Stelle über Änderungen des Sicherheitsüberprüfungsgesetzes debattiert und beide Änderungen nicht gemeinsam betrachtet würden.
Sehr viel Aufmerksamkeit in der Verteidigungsausschusssitzung bekamen ebenfalls die Feldjäger:innen. Besonders Oberstabsfeldwebel Ronny Schlenzig beklagte, dass auch mit dem neuen Gesetz die Militärpolizei der Bundeswehr keine Verkehrsregelungsbefugnisse bekommen sollen. Außerdem dürften sie künftig weiterhin keine Durchsuchungen oder Beschlagnahmungen durchführen, wenn jemand vor der Kaserne eine Drohne lenkt. Diese Aufgaben der örtlichen Polizei zu überlassen sei für ihn keine praktikable Option, Probleme mit Aufgabenvermischung gebe es laut Schlenzig nicht.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
EU-Abgeordnete fordern neue Regeln für den Einsatz von Algorithmen am Arbeitsplatz. Beschäftigte sollen wissen, wann KI über sie entscheidet und wie das funktioniert. Bei besonders sensiblen Entscheidungen sollen Menschen immer das letzte Wort haben.

Die Abgeordneten des Ausschusses für Arbeit und Soziales im EU-Parlament fordern, dass finale Entscheidungen über Einstellungen, Kündigungen oder Vertragsverlängerungen, Gehaltsänderungen oder Disziplinarmaßnahmen immer von einem Menschen getroffen werden. Niemand soll durch einen Algorithmus gefeuert werden, sagte der Berichterstatter Andrzej Buła von der EVP. Er bezeichnete den Berichtsvorschlag des Ausschusses als „ausgewogen“, da er sowohl Unternehmen als auch Beschäftigten zugutekomme. Arbeitgeber sollen weiterhin frei entscheiden können, welche Systeme sie nutzen. Arbeitnehmer:innen bekämen damit das Recht auf Datenschutz und Information.
Beschäftigte sollen sich etwa algorithmische Entscheidungen erklären lassen können. Außerdem sollen sie erfahren, wie entsprechende Systeme eingesetzt werden, welche Daten diese über sie sammeln und wie die menschliche Aufsicht garantiert wird, die es für alle Entscheidungen durch algorithmische Systeme geben soll. Der Ausschuss will zudem, dass Arbeitnehmer:innen zum Umgang mit diesen Systemen geschult werden.
Verbot von Verarbeitung mancher Daten
Darüber hinaus soll die Verarbeitung von gewissen Datenkategorien verboten werden. Dazu zählen psychische und emotionale Zustände, private Kommunikation und der Aufenthaltsort außerhalb der Arbeitszeit. Daten über gewerkschaftliches Engagement und kollektive Verhandlungen sollen ebenso tabu sein.
Der Antrag wurde im Ausschuss mit 41 Stimmen angenommen, bei 6 Gegenstimmen und 4 Enthaltungen. Das EU-Parlament wird in seiner Sitzung Mitte Dezember über den Ausschussvorschlag abstimmen. Anschließend hat die EU-Kommission drei Monate Zeit zu reagieren: Sie kann das Parlament entweder über die geplanten nächsten Schritte informieren oder erklären, warum sie keine entsprechende Gesetzesinitiative einleitet.
Auf Nachfrage von netzpolitik.org erklärte Kommissionssprecher Thomas Regnier am Dienstag, dass der AI Act bereits Beschäftigte schütze. Beispielsweise sei dadurch verboten, dass Arbeitgeber Systeme zur Emotionserkennung einsetzen. Das gehört zu den verbotenen Anwendungen von KI, die bereits seit Inkrafttreten der Verordnung gelten.
AI Act reicht nicht aus
Im Oktober wurde zu dem Thema eine Studie veröffentlicht, die der Ausschuss in Auftrag gegeben hatte. Darin heißt es, dass der AI Act diese Art von Systemen als risikoreiche KI-Systeme einstuft, wenn sie am Arbeitsplatz eingesetzt werden. Das zieht Verpflichtungen in Bezug auf Transparenz, menschliche Aufsicht und Konformitätsbewertungen nach sich. Jedoch gebe es Lücken. Etwa seien Arbeitgeber nicht dazu verpflichtet, Verzerrungen in Algorithmen zu erkennen und zu mindern, die Arbeitnehmer:innen diskriminieren könnten.
Außerdem müssen laut der EU-Verordnung Betroffene zwar über automatisierte oder KI-gestützte Entscheidungen informiert werden. Es gibt jedoch keine Regelung, dass manche Entscheidungen ausschließlich von Menschen getroffen werden dürfen, so wie es die Abgeordneten fordern. Weiterhin stütze sich der AI Act in der Umsetzung auf Marktüberwachungsbehörden, nicht auf Behörden für den Schutz von Grundrechten. Auch schaffe der AI Act keine spezifischen Datenschutzrechte für den Arbeitsplatz.
Die Studie verweist zudem auf die EU-Richtlinie zur Plattformarbeit von 2024, die ähnliche Aspekte behandelt. Sie gilt jedoch nur für Plattformbeschäftigte. Die Autor:innen kommen zu dem Schluss, dass die bestehenden Regelungen einen gewissen Basisschutz bieten, aber kein kohärentes Regelwerk spezifisch für den Arbeitsplatz beinhalten.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
EU-Kommissionspräsidentin Ursula von der Leyen macht sich die Übertreibungen der Tech-Bosse über „Künstliche Intelligenz“ zu eigen. Dagegen protestieren nun Wissenschaftler: Die EU sollte eher ein Auge auf die Fehlentwicklungen bei der KI haben, statt den Tech-Bossen die Füße zu küssen. Ein Kommentar.

Ursula von der Leyen steht blamiert da. Sie wollte aufspringen auf die KI-Welle, von der aber längst klar ist, dass viele damit verbundene Erwartungen übertrieben sind. Vor allem das Geraune um die alsbald kommende Künstliche Intelligenz, die uns intellektuell ebenbürtig oder uns gar in den Schatten stellen wird, verursacht bei Menschen Kopfschütteln, die sich wissenschaftlich mit dem Thema befassen.
Die EU-Kommissionspräsidentin hatte behauptet, KI werde sich schon nächstes Jahr dem menschlichen Denken und Verstehen annähern. Sie sagte das in einer Rede auf der EU-Haushaltskonferenz im Mai in Brüssel: „Als der aktuelle Haushalt ausgehandelt wurde, dachten wir, dass die KI erst um 2050 dem menschlichen Verstand nahekommt. Jetzt gehen wir davon aus, dass das bereits nächstes Jahr der Fall sein wird.“
Wissenschaftler, die zu Künstlicher Intelligenz forschen und lehren, widersprechen ihr jetzt öffentlich in einem Brief (pdf). Sie drängen von der Leyen, Abstand davon zu nehmen, dem KI-Hype hinterherzuhecheln und einer unmittelbar bevorstehenden Allgemeinen Künstlichen Intelligenz (Artificial General Intelligence, AGI) das Wort zu reden.
Sie fordern, dass die Kommission stattdessen die Behauptungen der Tech-Konzerne „sorgfältig prüfen“ und „unparteiisch und wissenschaftlich“ analysieren sollte. Potentiell sinnvolle KI würde nicht dadurch befördert, „dass unwissenschaftliche Marketingaussagen von US-Technologieunternehmen“ wiedergekäut würden.
Künstliche Intelligenz
Wir schrieben schon über maschinelles Lernen, bevor es ein Hype wurde. Unterstütze unsere Arbeit!
Was die Forscher besonders erzürnte: Anlässlich der Rede fragte ein Wissenschaftler bei der Kommission nach Belegen (pdf), wie von der Leyen auf dieses schmale AGI-Brett gekommen wäre. Als Antwort erhielt er jedoch keinerlei wissenschaftliche Fakten. Stattdessen zog die Kommission ernsthaft ein paar Blog-Einträge oder Aussagen auf Konferenzen von Tech-Broligarchen wie Anthropic-Chef Dario Amodei oder OpenAI-Chef Sam Altman als angebliche Beweise aus dem Hut.
Desinformation aus der Spitzenpolitik
Es ist gut, wenn jemand Kompetentem mal der Kragen platzt und angesehene Wissenschaftler übertriebenen Quatsch als solchen benennen und auf Fehlentwicklungen hinweisen. Denn Desinformation sollte nicht auch noch aus der Spitzenpolitik kommen. Die Kommissionspräsidentin sollte nicht eine solch kühne Behauptung in den Raum stellen, die unbelegt ist.
Die noch immer anschwellende KI-Blase blubbert nun seit drei Jahren. Weder Anthropics Claude noch OpenAIs ChatGPT rentieren sich auch nur annähernd, im Gegenteil: Sie kosten die Ex-Start-ups Unmengen Geld. Und sie kosten uns alle Unmengen Strom und Wasser und Elektronik-Hardware, die bald zu Bergen von Elektronikschrott werden könnten, wenn das drastische Wachstum der KI-Großrechenzentren so weitergeht. Die notwendige Umstellung der Energieproduktion hin zu Erneuerbaren wird buchstäblich von KI aufgefressen.
Wir sollten aufhören, Software zu anthropomorphisieren, ihnen also menschliche Fähigkeiten anzudichten. Wir müssen weg von dem Glauben an KI und dem Nachplappern von Versprechungen der Tech-Bosse. Es vernebelt nicht nur von der Leyen die Sinne, sondern auch uns, wenn wir informiert und sachlich einschätzen wollen, welche Fähigkeiten der Sprachmodelle wir wo sinnvoll einsetzen können und was schlicht Bullshit ist.
Wir müssen auch weg von einer allzu freundlichen Sichtweise auf die Tech-Konzerne. Denn sie sind eben keine Heilsbringer, denen nun auch noch mit einer Anti-DSGVO-Agenda entgegengearbeitet werden sollte. Sondern es gehört ihnen mit gesunder Skepsis begegnet sowie dem Willen, geltendes EU-Recht durchzusetzen statt rückzubauen.
Im Vergleich zu der Rede von der Leyens zur sogenannten „State of the Union“ noch im September ist eine Umkehr zu beobachten. Damals betonte die Kommissionspräsidentin in ihrer Rede noch, dass sie „europäische Unabhängigkeit“ und die „Kontrolle über die Technologien […], die unsere Volkswirtschaften antreiben“, anstrebe. Sie wolle eine gute Regulierung der US-Konzerne, sagte die CDU-Politikerin. Explizit zur Digitalregulierung posaunte sie gar: „Wir setzen unsere eigenen Standards. Und unsere eigenen Regeln.“
Davon lässt ihre Anti-DSGVO-Agenda wenig übrig. Kein Wunder, wenn sie offenbar lieber den Übertreibungen und Halbwahrheiten der Tech-Bosse als der Wissenschaft zuhört.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Dürfen KI-Unternehmen urheberrechtlich geschützte Liedtexte zum Training ihrer Modelle verwenden? Das Landgericht München gibt in dieser Grundsatzfrage Musiklizenzenverwalter GEMA recht. OpenAI habe mit ChatGPT gegen Urheberrecht verstoßen und soll nun Schadensersatz zahlen.

Fast ein Jahr hatte das Verfahren vor dem Landgericht München gedauert. Am Dienstag gab das Gericht dann der Gesellschaft für musikalische Aufführungs- und mechanische Vervielfältigungsrechte (GEMA) recht. Die GEMA verwaltet die Lizenzrechte zu den Werken vieler tausend Musiker*innen und hatte gegen den ChatGPT-Entwickler OpenAI geklagt. Das Gericht urteilte, OpenAI dürfe urheberrechtlich geschützte Songtexte nicht ohne eine entsprechende Lizenz verwenden. Außerdem verurteilte es OpenAI zu Schadensersatz. Das Urteil ist noch nicht rechtskräftig.
Bereits im November 2024 hatte die GEMA eine Klage gegen den US-amerikanischen Technologiekonzern eingereicht. Der Vorwurf: OpenAI benutze gesichert GEMA-Werke, um seine KI zu trainieren, zum Beispiel „In der Weihnachtsbäckerei“ von Rolf Zuckowski. Streitgegenstand war die Frage, ob ChatGPT diese memorisiert und dann auf Anfrage reproduziert oder nur aus ihnen lernt und sehr ähnliche Texte neu produziert.
Das Gericht schloss sich der ersteren Position und damit der GEMA an. Prof. Silke von Lewinski, Wissenschaftliche Referentin am Max-Planck-Institut für Innovation und Wettbewerb, sieht darin ein Urteil von „grundlegender Bedeutung für alle Werke, sei es Literatur, journalistische Texte, Musik, bildende Kunst, Fotografie oder jegliche andere Werke, die für Generative KI benutzt werden“.
KI-Unternehmen sollen für geschützte Werke zahlen
Es ist allerdings zu erwarten, dass OpenAI das Urteil nicht auf sich beruhen lassen wird. Auch eine Weiterverweisung an den Europäischen Gerichtshof wäre wohl möglich. OpenAI beharrt darauf, dass ChatGPT die Songtexte durch eine „sequenziell-analytische, iterativ-probabilistische Synthese“ selbst neu erstellt hätte und diese keineswegs einfach kopiert seien.
Die Klage gegen OpenAI ist nicht die einzige der GEMA gegen einen KI-Anbieter. Im Januar 2025 reichte der Verein zusätzlich Klage gegen Suno AI ein, eine Plattform, die mithilfe von Künstlicher Intelligenz Musik generiert. Suno AI erstelle Lieder, die von der GEMA geschützten Werken wie „Cheri Cheri Lady“ oder „Daddy Cool“ zum verwechseln ähnlich seien, so der Vorwurf der GEMA. Eine Anhörung hat bis jetzt noch nicht stattgefunden.
Die GEMA verfolgt mit den Klagen das Ziel, ein Lizenzmodell durchzusetzen. Wer seine KI-Modelle mit einem bestehenden Lied trainieren will, soll dafür zahlen. Ein entsprechendes Lizenz-Modell für generative KI hatte die GEMA im vergangenen Jahr eingeführt. „Die Songs unserer Mitglieder sind nicht der kostenlose Rohstoff für die Geschäftsmodelle der Anbieter generativer KI-Systeme“ sagt GEMA-CEO Tobias Holzmüller in einem Statement auf der Website. „Wer diese Songs verwenden möchte, muss eine Lizenz erwerben und die Urheberinnen und Urheber fair vergüten.“
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Die Polizei von Nordrhein-Westfalen soll künftig personenbezogene Daten wie Klarnamen oder Gesichtsbilder nutzen dürfen, um damit Überwachungs-Software zu trainieren. Die geplante Gesetzesänderung reiht sich ein in ähnliche Projekte in anderen Bundesländern.

Den Anstoß gab wohl Bayern. Das Bundesland testete Überwachungssoftware von Palantir mit den Daten echter Menschen und bekam dafür Anfang 2024 von der Landesdatenschutzaufsicht auf die Mütze. Im Januar 2025 verabschiedete daraufhin Hamburg eine Gesetzesänderung, die es der Landespolizei erlaubt, „lernende IT-Systeme“ mit persönlichen Daten von Unbeteiligten zu trainieren. Am Mittwoch wird Baden-Württemberg voraussichtlich mit einer ganz ähnlichen Gesetzesänderung nachziehen. Am kommenden Donnerstag steht dann eine fast wortgleiche Gesetzesänderung im Landtag von Nordrhein-Westfalen auf der Tagesordnung.
Auch in Nordrhein-Westfalen sollen demnach eindeutig identifizierende Informationen wie Klarnamen oder Gesichtsbilder in kommerzielle Überwachungssoftware wie beispielsweise die von Palantir eingespeist werden dürfen. Möglich ist so auch das Training von Verhaltens- oder Gesichtserkennungs-Software.
Die Landesdatenschutzbeauftragte Bettina Gayk schreibt in ihrer Stellungnahme zum Gesetzentwurf: „Die vorgesehene Regelung begegnet erheblichen verfassungsrechtlichen Bedenken.“ So sei beispielsweise die Verwendung der Daten von Menschen, die als Zeug*innen, Opfer oder Anzeigenerstattende in der Polizeidatenbank landeten, unverhältnismäßig. Als problematisch sieht sie außerdem, wenn „mit Hilfe der staatlich erhobenen und gespeicherten Daten Produkte kommerzieller Anbieter verbessert werden“.
Der Angriff auf den Datenschutz kommt per Omnibus
Die schwarz-grüne Landesregierung von Nordrhein-Westfalen hat die Trainingsgenehmigung an eine Gesetzesänderung angehängt, die das Bundesverfassungsgericht forderte. Das hatte zuvor festgestellt, dass die im Polizeigesetz von Nordrhein-Westfalen erlaubten längerfristigen Observationen mit Videoaufzeichnung unvereinbar mit dem Grundgesetz sind.
Nordrhein-Westfalen will mit der Überarbeitung des Gesetzes nun die Eingriffsschwelle für derartige Observationen erhöhen und Befugnisse anpassen. Dazu ermöglicht das Gesetzespaket, Datenanalyse-Software wie die von Palantir einzusetzen – ohne die Einschränkungen, die das Bundesverfassungsgericht fordert. Die Erlaubnis zur „Entwicklung, Überprüfung, Änderung oder zum Trainieren von IT-Produkten“ mit persönlichen Daten wurde im Omnibusverfahren dazu gepackt.
Die jeweiligen Gesetzesänderungen von Nordrhein-Westfalen, Baden-Württemberg und Hamburg ähneln sich stark. Demnach dürfen personenbezogene Daten in allen drei Ländern künftig auch ohne Anonymisierung oder Pseudonymisierung zum Training von Überwachungs-Software genutzt werden, sobald eine entsprechende Anonymisierung oder Pseudonymisierung unmöglich oder nur mit „unverhältnismäßigem Aufwand“ möglich ist. Ob letzteres zutrifft, wird dann wohl durch eine subjektive Einschätzung der Polizeien festgelegt. Die dürfen auch dann identifizierende Informationen verwenden, wenn für den Trainingszweck unveränderte Daten nötig sind.
Datenschutzbeauftragte fordert: Keine identifizierenden Informationen im Software-Training
Laut der Landesdatenschutzbeauftragten von Nordrhein-Westfalen sind die Ausnahmen von der Anonymisierungs- und Pseudonymisierungspflicht so weit, dass sie „in der Praxis letztlich zu keiner Einschränkung führen werden“. Sie fordert, die Nutzung von nicht-anonymisierten oder -pseudonymisierten Daten gänzlich auszuschließen.
Nordrhein-Westfalen, Baden-Württemberg und Hamburg wollen einhellig dennoch auch solche Daten nutzen. Ebenfalls einig sind sich die drei Länder darin, dass die Verwendung von Daten, die aus Wohnraumüberwachung gewonnen wurden, für das Softwaretraining ausgeschlossen ist. Anders als in Hamburg und in Baden-Württemberg gibt es in der Fassung von Nordrhein-Westfalen keine explizite Erlaubnis, die entsprechenden Daten auch an Dritte weiterzugeben.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Die EU-Staaten wollen Internet-Diensten dauerhaft eine freiwillige Chatkontrolle erlauben. Viele Staaten bedauern, dass es keine ausreichende Mehrheit für eine verpflichtende Chatkontrolle gibt. Weitere Änderungen lehnen sie strikt ab. Wir veröffentlichen das eingestufte Verhandlungsprotokoll und den neuen Gesetzentwurf.

Seit dreieinhalb Jahren streiten die EU-Institutionen über die Chatkontrolle. Die Kommission will Internet-Dienste verpflichten, die Inhalte ihrer Nutzer auf Straftaten zu durchsuchen und diese bei Verdacht an Behörden zu schicken. Das Parlament bezeichnet das als Massenüberwachung und fordert, nur unverschlüsselte Inhalte von Verdächtigen zu scannen.
Die EU-Staaten konnten sich bisher nicht auf eine gemeinsame Position einigen. Vor zwei Wochen hat die dänische Ratspräsidentschaft einen neuen Kompromiss vorgeschlagen. Internet-Dienste sollen freiwillig Chats kontrollieren dürfen, aber nicht dazu verpflichtet werden.
Letzte Woche haben die Ständigen Vertreter der EU-Staaten den Vorschlag diskutiert. Wir veröffentlichen ein weiteres Mal das eingestufte Protokoll der Sitzung.
Die Vertreter diskutierten auf Basis eines vier-seitigen Debatten-Papiers. Am Tag darauf hat die dänische Ratspräsidentschaft einen neuen Gesetzentwurf verschickt, den wir ebenfalls veröffentlichen.
Geisel des Datenschutzes
Die Ratspräsidentschaft sagte zum eigenen Kompromissvorschlag, „dass man sich mehr erhofft habe und mit dem eigenen Vorschlag nicht glücklich sei“. Dänemark hätte die verpflichtende Chatkontrolle gern durchgesetzt. „Die Möglichkeiten seien aber erschöpft.“
Für die Kommission sei es „sehr schwer zu akzeptieren, dass man es nicht geschafft habe, die Kinder besser vor sexuellem Missbrauch zu schützen“. Die Kommission dankte „allen Anwesenden, die versucht hätten, ein anderes und besseres Ergebnis zu erzielen“.
Einige Staaten drückten ebenfalls „ihr Bedauern aus, keine bessere Lösung gefunden zu haben“. Frankreich nutzte drastische Worte: „Wir sind eine Geisel des Datenschutzes und müssen einem Weg zustimmen, den wir eigentlich für nicht ausreichend erachten, nur weil uns nichts anders übrigbleibt.“
Gegen vermeintliche Überwachung
Der Juristische Dienst des EU-Rats hat die Chatkontrolle als rechtswidrig bezeichnet. Die Kommission lässt sich von solcher Kritik nicht beeindrucken. Stattdessen fordert sie: „Mit Blick auf die Zukunft gelte es, bei vergleichbaren Dossiers besser zu kommunizieren.“
Auch die Ratspräsidentschaft kritisiert die Medien: „Jene Medien, die heute gegen vermeintlich vorgesehene Überwachungsmaßnahmen anschreiben, [würden] schon morgen den Staat dafür kritisieren, seine Kinder nicht hinreichend zu schützen.“
Kinderschutz statt Chatkontrolle
Von Anfang an schreiben wir gegen die Chatkontrolle. Noch länger kritisieren wir den Staat für mangelnden Kinderschutz. Schon vor dem Chatkontrolle-Gesetzentwurf kritisierten wir, dass Polizei und Strafverfolger pädokriminelle Inhalte nicht löschen, sondern online lassen. Das passiert bis heute. Eine Bund-Länder-Gruppe hat einen Bericht dazu verfasst. Der soll jedoch geheim bleiben und nicht öffentlich werden.
Die Vorwürfe erinnern an die Auseinandersetzung zu Netz-Sperren in Deutschland um 2010. Schon damals hat die Bundesregierung keine umfassenden Kinderschutz-Konzepte entwickelt, sondern sich ausschließlich auf Netz-Sperren konzentriert. Die Gegner bewiesen, dass Löschen statt Sperren effektiver und nachhaltiger ist. Seitdem beweist die Bundesregierung jedes Jahr, dass wir recht hatten.
Auch in der Debatte um die Chatkontrolle gibt es viele konkrete Vorschläge für besseren Kinderschutz. Die Chatkontrolle-Befürworter verhindern, über diese konkreten Lösungen zu sprechen.
Keine weiteren Änderungen
Die Ratspräsidentschaft erhielt in der Sitzung für ihren Kompromissvorschlag „ohne Gegenstimme breite Unterstützung“. Mehrere EU-Staaten forderten, „über die von der dänischen Präsidentschaft vorgeschlagenen Änderungen hinaus keine weiteren Streichungen vorzunehmen“.
Auch der Vertreter Deutschlands empfiehlt der Bundesregierung, „die dänische Präsidentschaft weiterhin zu unterstützen“. Deutschland soll „aktiv dafür eintreten“, dass „keine weiteren Änderungen am bereits bekannten Rechtstext vorgenommen werden“.
Das sahen nicht alle Verhandler so. Die Kommission und einige Staaten wie Spanien und Ungarn forderten, die „Pflicht zur Aufdeckung von Missbrauchsdarstellungen […] zumindest für öffentlich zugängliche Webseiten beizubehalten“. Das lehnte die Ratspräsidentschaft ab, weil damit neue Fragen aufkommen und Zeit verloren geht.
Die Bundesdatenschutzbeauftragte kritisierte am Tag der Rats-Verhandlungen weitere Teile des Gesetzentwurfs. Freiwilliges Scannen erfolgt ohne Rechtsgrundlage und damit rechtswidrig. Ein Ausschluss von Jugendlichen schränkt digitale Teilhabe ein. Eine verpflichtende Altersverifikation kann zur weitgehenden Abschaffung der Anonymität im Netz führen. Und Berichtspflichten für Diensteanbieter schaffen Anreize, Scanning als faktisch verpflichtend durchzuführen.
Einvernehmen zur Stoßrichtung
Die EU-Staaten diskutierten diese Elemente am Mittwoch nicht. Die Ständigen Vertreter sprachen ausschließlich über das vier-seitige Debatten-Papier. Die Ratspräsidentschaft schlussfolgerte, dass „dass Einvernehmen zur vorgeschlagenen neuen Stoßrichtung bestehe“.
Am Donnerstag hat die dänische Ratspräsidentschaft einen neuen Gesetzentwurf verschickt. Übermorgen tagt wieder die Arbeitsgruppe Strafverfolgung. Dort werden die Staaten den Gesetzentwurf detailliert besprechen.
Hier das Dokument in Volltext:
- Geheimhaltungsgrad: Verschlusssache – Nur für den Dienstgebrauch
- Datum: 5. November 2025
- Von: Ständige Vertretung der BRD bei der EU
- An: Auswärtiges Amt
- Kopie: BKAmt, BMF, BMI, BMJ, BMWE
- Betreff: 3003. AStV (2. Teil) vom 5. November 2025
- Hier: TOP 36: (Child Sexual Abuse) Einigung auf „way forward“
- Zweck: Zur Unterrichtung
- Geschäftszeichen: Pol 350.1.3
- DKOR-ID: BRUEEU_2025-11-05_77277
Child Sexual Abuse: Einigung auf „way forward“
I. Zusammenfassung und Wertung
DNK PRÄS erhielt im heutigen AStV ohne Gegenstimme breite Unterstützung für das von ihnen vorgeschlagene (in Dokument 14032/25 skizzierte) weitere Vorgehen zur „Verordnung zur Prävention und Bekämpfung des sexuellen Missbrauchs von Kindern“.
In einem eindrücklichen Appell dankte KOM allen Anwesenden, die versucht hätten, ein anderes und besseres Ergebnis zu erzielen. Die über Internetplattformen geteilten Bilder und Filme seien regelmäßig die einzige Möglichkeit für Strafverfolgungsbehörden, um überhaupt auf sexuellen Missbrauch von Kindern aufmerksam zu werden. Die betroffenen Kinder seien meist zu jung, um zu verstehen, was ihnen widerfährt; zudem stammten die Täter nicht selten aus dem näheren Umfeld. Die von den Unternehmen (im Rahmen der freiwilligen Kooperation) bei der Aufdeckung kinderpornographischen Bildmaterials genutzten Technologien seien dieselben, die auch zur Bekämpfung von Malware und Spam eingesetzt würden: Hier wie dort gebe es keinen Einblick in Inhalte, von einer Überwachung könne deshalb keine Rede sein. Im Internet gebe es eine regelrechte Flut von Bildern und Filmen, die sexuellen Missbrauch darstellten und die Opfer immer und immer wieder an die schlimmsten Momente ihres Lebens erinnerten. Dass allein diese Bilder eine schwerwiegende Verletzung der Grundrechte der Opfer bedeuten, finde in der Diskussion aber kaum Beachtung. Insgesamt sei es für KOM sehr schwer zu akzeptieren, dass man es nicht geschafft habe, die Kinder besser vor sexuellem Missbrauch zu schützen. Es sei nun aber richtig und wichtig, voranzuschreiten, da man sich in einem Wettlauf mit der Zeit befinde. KOM dankte in diesem Zusammenhang der DNK PRÄS ausdrücklich für ihr hohes Tempo. Es müsse weiterhin alles getan werden, um die durch das Auslaufen der Interims-VO im April 2026 drohende Verschlechterung des heutigen Status Quo soweit möglich zu vermeiden (ebenso GRC). Das Bewusstsein, dass die Zeit drängt und die Triloge dauern werden, müsse nun auch in den Hauptstädten reifen. Mit Blick auf die Zukunft gelte es, bei vergleichbaren Dossiers besser zu kommunizieren.
Vorsitz stimmte diesen Ausführungen zu und merkte an, dass jene Medien, die heute gegen vermeintlich vorgesehene Überwachungsmaßnahmen anschreiben, schon morgen den Staat dafür kritisieren würden, seine Kinder nicht hinreichend zu schützen.
Mehrere MS drückten ihr Bedauern aus, keine bessere Lösung gefunden zu haben (FRA: „Wir sind eine Geisel des Datenschutzes und müssen einem Weg zustimmen, den wir eigentlich für nicht ausreichend erachten, nur weil uns nichts anders übrigbleibt“; weniger drastisch auch ESP, HUN, IRL, EST). Einige wiesen auf für sie wichtige Punkte hin, ohne dass sich hierzu ein einheitliches Bild ergeben hätte. Ich unterstützte den DNK Vorgehensvorschlag und betonte u.a. die große Bedeutung des EU-Zentrums.
Abschließend schlussfolgerte Vorsitz, dass Einvernehmen zur vorgeschlagenen neuen Stoßrichtung bestehe. DNK PRÄS werde den vorliegenden Rechtstext entsprechend überarbeiten und schnellstmöglich vorlegen.
II. Handlungsempfehlungen
Wir sollten DNK PRÄS weiterhin unterstützen und dabei schon aus Zeitgründen aktiv dafür eintreten, dass über die heute im AStV konsentierten Neuerungen hinaus keine weiteren Änderungen am bereits bekannten Rechtstext vorgenommen werden.
III. Im Einzelnen
Vorsitz skizzierte eingangs entlang Dokument 14032/25 (liegt in Berlin vor) das bisherige, erfolglose Vorgehen und den infolgedessen unterbreiteten Vorschlag, verpflichtende Aufdeckungsanordnungen aus der Verordnung zu streichen und eine dauerhafte Verlängerung der freiwilligen Zusammenarbeit nach der Interim-VO aufzunehmen. Vorsitz betonte dabei, dass man sich mehr erhofft habe und mit dem eigenen Vorschlag nicht glücklich sei, da er polizeiliche Belange und damit den Schutz von Kindern vor sexuellem Missbrauch abschwäche. Die Möglichkeiten seien aber erschöpft.
Einige MS wiesen auf für sie bedeutsame Punkte hin: Es sei wichtig, über die von DNK PRÄS vorgeschlagenen Änderungen hinaus keine weiteren Streichungen vorzunehmen, auch wenn der Mehrwert des Verordnungstexts an manchen Stellen infolge der Herausnahme verpflichtender Aufdeckungsanordnungen geringer ausfalle (FRA). Der Bürokratieaufwand sei möglichst gering zu halten (HUN). Eine Pflicht zur Aufdeckung von Missbrauchsdarstellungen solle zumindest für öffentlich zugängliche Webseiten beibehalten werden (ESP, HUN; ebenso KOM; ablehnend aber DNK PRÄS unter Hinweis auf damit einhergehende neue Fragen und infolgedessen drohenden weiteren Zeitverlusts).
Ich unterstützte den DNK Vorgehensvorschlag. DEU messe der Bekämpfung der Kinderpornographie höchste Priorität bei, eine Verstetigung der rechtlichen Grundlage bei Beachtung von Grundrechten sei von großer Bedeutung. Die Einrichtung des EU-Zentrums werde einen wichtigen Mehrwert leisten. DNK PRÄS und KOM wiesen daran anknüpfend ausdrücklich darauf hin, dass das EU-Zentrum auch ohne verpflichtende Aufdeckungen einen Mehrwert biete, etwa beim Risikomanagement, bei der Entwicklung technischer Maßnahmen zur Risikominimierung, bei der Entgegennahme von Hashwerten und der Einstufung des entsprechenden Bildmaterials als kinderpornographisch, bei der Prävention und bei der Opferbetreuung. Längerfristig sei es zudem von Vorteil, eine europäische Unabhängigkeit vom in den USA angesiedelten NCMEC zu erreichen.
Weitere Wortmeldungen blieben sehr kurz: EST unterstütze das DNK Vorgehen ausdrücklich. CZE gab an, aufgrund der neuen Regierung keine Position zu haben. LUX und SWE bekannten sich zum Kindesschutz und gaben an, sich nach Vorlage des Rechtstextes näher zu äußern.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
