netzpolitik.org

Bitte aktualisieren Sie PHP auf Version 8.2.0 (zurzeit: 8.1.2-1ubuntu2.23). Info

10.05.2026 08:34

Lehrvideos über Gefahren im Straßenverkehr sind genauso notwendig wie der Versuch, immer sicherere Autos zu bauen. Digitale Risiken sind im Vergleich dazu noch mal besonders, denn sie haben eine weitere Risikokomponente. Verknüpft damit ist eine gesamtgesellschaftliche Aufgabe.

Ein Paar Beine mit braunen Lederschuhen steht vor einem schwarzen Auto
Bitte nicht unbedacht in fremde Autos einsteigen. – Gemeinfrei-ähnlich freigegeben durch unsplash.com: Cristofer Maximilian

Die heutige Degitalisierung möchte ich mit einer Erinnerung aus meiner Kindheit einleiten. Es müsste in der ersten Klasse gewesen sein, da passierte in der Schule etwas Besonderes: Der Videowagen, sehr selten genutzt, wurde in ein großes Klassenzimmer gefahren und zwei Schulklassen sammelten sich vor einem Fernseher. Es wurde eine Videokassette in den VHS-Player geschoben und ein Film in ziemlich hartkontrastigem Schwarz-Weiß wurde abgespielt. Was folgte, war ein uns Kinder durchaus aufrüttelnder Film. In ein paar Minuten wurde uns Kindern erklärt, wie gefährlich es sein kann, in fremde Autos zu steigen. Gefahr der Kindesentführung, nicht machen, liebe Kinder. Dass ich mich heute noch an Teile dieses Films und den Vorführungskontext so genau erinnern kann, zeigt doch zumindest, dass der Film eine Wirkung auf uns Kinder gehabt haben muss.

Ich bin inzwischen kein Kind mehr, was allein schon aus der Beschreibung von Videokassetten klar werden sollte. Videokassetten im VHS-Format sind ein Aufzeichnungs- und Wiedergabesystem aus den 1970er-Jahren. Viele von den Kindern bis Minderjährigen, die heute von Social Media abgehalten werden sollen, durch Altersverifikation mit teils absurd in die Intimsphäre eingreifenden Methoden, haben solche klobigen Kassetten vielleicht noch nie zu Gesicht bekommen und das Klackern und Surren beim Einlegen einer solchen Kassette nie gehört.

Wenn ich meine Erinnerungen an die Schulzeit in Gedanken über die Jahre weitergehe, kommt mir dann der Fahrradführerschein in der vierten Klasse in den Sinn. Ging es doch auch dabei darum, Kindern beizubringen, wie sie sich sicher eigenständig im Straßenverkehr mit Fahrrädern bewegen können. Auch hier wurde viel Aufwand betrieben. Ganze Schulklassen wurden mit einem extra bestellten Bus zum nächsten Fahrradübungsplatz gefahren und durften dort im Kleinen Situationen im Straßenverkehr simulieren, um dann hoffentlich möglichst sicher auf echten Straßen unterwegs zu sein.

Ein paar Jahrzehnte später bin ich diesen pädagogischen Maßnahmen dankbar. Weil ich bisher keine kritischen Konfliktsituationen hatte, bei denen Autos eine Rolle spielten. Sei es durch eine nie stattgefundene Entziehung Minderjähriger nach § 235 StGB, wie das kleine Kind von damals, das jetzt wohl als Erwachsene nennen sollte, noch durch Unfälle im Straßenverkehr auf Fahrrädern. Es ist nicht klar nachweisbar, ob es konkret die Erziehung war, die all diese kritischen Situationen vermieden hat. Sie hatte aber zumindest im Sinne eines Präventionsparadoxons, also dem Gar-nicht-Entstehenlassen solcher kritischen Situationen, einen Anteil.

Digitalpädagogik

2026 vermisse ich einen vergleichbaren Ansatz von umfassender Digitalpädagogik, wenn wir die Versuche von Gefahrenprävention in Bezug auf den Straßenverkehr mit dem Digitalen in Relation setzen. Aber automobile Individualmobilität gibt es auch eher schon seit mehr als hundert Jahren und dieses Internet ist ja immer noch Neuland.

Wie neuartig dieses Digitale und seine Gefahren immer noch sind, zeigt sich zum Beispiel bei Julia Klöckner, als Bundestagspräsidentin immerhin im zweithöchsten politischen Amt in diesem Land. Julia Klöckner ist digital gesehen in gewisser Weise, rein bildlich gesprochen, ganz unbedarft in ein fremdes Auto eingestiegen und ihr Account wurde dann eben entführt.

Nun ist es eine mögliche Reaktion, eine eher schadenfrohe Haltung Julia Klöckner gegenüber einzunehmen oder anderen wohl auch betroffenen Teilen der Bundesregierung. Zumal Warnungen zu Phishing-Kampagnen ja durchaus seit längerem ausgesprochen wurden. Eigentlich auch schon seit Januar, zumindest nach Lektüre der relevanten Onlinemedien wie diesem hier.

Alles netzpolitisch Relevante

Drei Mal pro Woche als Newsletter in deiner Inbox.

Jetzt abonnieren

Allerdings wäre das ja nicht besonders erwachsen und ich bin ja kein schadenfrohes Kind mehr. Inzwischen bin ich im Bereich digitaler Kompetenzen ja digitale Erklärbärin – Eigenaussage meiner Webseite –, versuche immer wieder, nicht nur Technik zu erklären, sondern vor allem auch die Technikfolgen. Manchmal braucht es dazu auch eine sehr plastische, anschauliche Demonstration der Gefahren und möglichen Folgen schlechter Digitalisierung und manchmal sagen sogar ehemalige Teile der Bundesregierung, dass sie im Digitalen viel gelernt hätten. Das passiert aber oftmals erst, nachdem etwas passiert ist.

Im Falle Signal passiert aber erstaunlich wenig Selbstreflexion der Betroffenen. Vielmehr wird die Lösung in Verantwortung anderer gesucht. Signal will in Zukunft etwa selbst mehr gegen Phishing unternehmen. Der Bundestag sucht für sich die Lösung gleich in einem anderen Messenger, nämlich Wire.

Oberflächliche Diskussionen

Aus rein technischer Sicht könnte jetzt eine sehr nerdige Diskussion über die Sicherheit von Messengern und das damit verbundene Sicherheitsrisiko für Nutzer*innen entbrennen. Telefonnummern für die Nutzung wie bei Signal, wenn auch inzwischen nur zum Onboarding, seien ja ein Sicherheitsrisiko per se und E‑Mails wie bei Wire seien ja viel besser. BSI-Zertifizierungen hätte ja nur Wire, aber auch nur befristet bis 2028, weil im Gegensatz zu Signal ist das ja nicht Post-Quanten

Wire im Speziellen hat nach dem Hack auf Julia Klöckner die Gunst der Stunde genutzt und genau so eine Diskussion aufgemacht: Guck, hier ist ein besseres Produkt, weil dies und das und mehr souverän. Wire sei ganz anders, speziell für Unternehmen gedacht und so weiter.

Am Ende folgt dann zwar immer das Mantra, dass es ja keine absolute Sicherheit gebe. Ich halte die Diskussion zu diesem Zeitpunkt für falsch und eher für einen Lobbyismus-Vorstoß, um ein weiteres Produkt mit ähnlichen Problemen zu verkaufen. Gesamtgesellschaftlich ist damit wenig gewonnen, der Gewinn steigt nur für die dahinterstehenden Unternehmen. Julia Klöckner hat auch brav die Marketing-Stichpunkte von Wire im Bundestag versendet, so wirkt es zumindest von der Wortwahl her. Wire hat sich ebenso als Teil der supergeheimen KI‑Hypermega-Deutschland-App von SAP und Telekom platziert.

Nun ist es ja so, dass ich durchaus ein ganz klein wenig Erfahrung mit Informationssicherheit habe. Die Diskussionen speziell nach dem Signal-Vorfall innerhalb der Bundesregierung sind nur beschränkt nützlich. Denn Angriffe, etwa auch auf Signal, finden nach wie vor statt und schwappen weiter durch die Chatgruppen, sogar exponentiell [€] steigend. Signal wird an der ein oder anderen Stelle ein wenig am User-Interface und an Interaktionen schrauben. Es gibt öffentliche Interviews im Spiegel [€], in denen Besserung gelobt wird. Sichere Systeme sind immer ein erstrebenswertes Ziel, speziell nach Vorkommnissen wie jüngst.

Die Journalistin Eva Wolfangel hat etwa 2023 schon auf der re:publica zum Ausdruck gebracht, dass der Mensch nicht das Problem ist. Auf Phishing hereinzufallen, ist menschlich möglich und nicht vollständig verhinderbar. Es ist unabdingbar, immer weiter an per Design sicheren, aber gleichzeitig menschenzentrierten digitalen Lösungen zu arbeiten. Das wird aber allein nicht reichen.

So seltsam es klingen mag: Lehrvideos, die über die Gefahren von digitalen Tools aufklären, sind in gewisser Weise genauso notwendig wie der Versuch, immer sicherere Autos und sonstige Fortbewegungsmittel zu bauen, aber gleichzeitig Erziehung für den Straßenverkehr zu leisten. Ein kurzer Blick zum Vergleich auf die Gefahren im Straßenverkehr: Die Zahl der Unfälle im Straßenverkehr sinkt seit Jahrzehnten. Das liegt an besserer Technik und immer noch stattfindender Aufklärung. Nur gibt es diese Bildung für den Straßenverkehr eben schon ein paar Jahrzehnte und im Lehrplan ist sie seit langem institutionalisiert, wie etwa im Bildungsplan in Baden‑Württemberg.

Wir sind ein spendenfinanziertes Medium.

Unterstütze auch Du unsere Arbeit mit einer Spende.

Jetzt spenden

Das Digitale als solches ist eine Domäne, bei der die digitale Bildung ebenso wie die digitalen Möglichkeiten im ständigen Wandel sind. Es ist gut, informationstechnische Lerninhalte in die schulische Laufbahn zu integrieren. Leider wird davon aber eine Bundesregierung nicht gleich phishingresistent. Lebenslanges Lernen im Digitalen ist für die gesamte Bevölkerung notwendig, nur drüber reden hilft allein genau nichts. Kompetenzbildung im Digitalen ist eine höchstindividuelle Aufgabe, von einer Bundestagspräsidentin bis zu jedem Schulkind.

Nur sind digitale Risiken auf politischer Ebene doch besonders, denn sie haben eine weitere Risikokomponente.

Der demokratische Anteil

Der Gedanke, dass der Bundestag oder die Bundesbehörden mit Lösungen wie Wire Bund in verschiedenen Netzen wie den Netzen des Bundes vertraulich kommunizieren können, mag erst einmal eine logische Schlussfolgerung sein. Vertrauliche politische Kommunikation durch vertraulichen, geschlossenen Rahmen.

Er greift aber zu kurz. Längst sitzen die Feinde der Demokratie nicht mehr außerhalb der Politik, sie haben inzwischen Zugang zu politischen Strukturen, sind Teil von Parteien und sitzen in unterschiedlichen Parlamenten. Der Gedanke, dass die Abschottung besonders schützenswerter politischer Kommunikation weitere Sicherheit bringe, greift in einer Welt viel zu kurz, in der die Demokratie durch Feinde der Demokratie von innen heraus angegriffen wird.

Dieses Risiko der demokratiefeindlichen politischen Einflussnahme einzudämmen, auch im digitalen Raum, ist leider keine rein technische Frage mehr, es ist eine gesamtgesellschaftliche Aufgabe. Bemerkenswert dabei ist aber, dass gerade die demokratischen Parteien im Ringen um mehr innere Sicherheit noch viel mehr Systeme schaffen, bei der sich eine demokratiefeindliche Übernahme besonders lohnen wird: Verhaltensscanner in Kombination mit Gesichtserkennung, Vorratsdatenspeicherung, Schatten-IT durch Europol oder Empfehlungen, Virtual Private Network Anbieter (VPNs) zu regulieren, weil diese übergreifende Online-Alterskontrollen unterwandern könnten…

Wenn die Phishing-Angriffe auf Signal eines sein sollten, dann mehr als eine rein technische Warnung. Sie sollten auch eine Warnung sein, dass unsere Demokratie und unsere Grundrechte eben auch durch unkluges digitalpolitisches Verhalten bedroht sind. Baut man in Demokratien übermäßige Überwachungsstrukturen, lohnt es sich umso mehr, dass uns irgendwann irgendwer unsere Demokratie mit dem vermeintlich gut gemeinten Überwachungsapparat entführt. Danach hilft leider auch kein Account-Reset mehr.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

09.05.2026 11:38

netzpolitik.org im Fit-Check: Nach mehr als neun Jahren im immer gleichen Outfit hat unsere Seite einen neuen Look. Warum musste das sein und was hat’s an Nerven gekostet? Darüber sprechen wir in dieser Folge mit Ingo und Anna.

Selfie mit drei Personen in einem Studio.
Ja, schau: Ingo, anna und Chris im Podcast-Studio. CC-BY-NC 4.0: netzpolitik.org



Es ist schwer zu übersehen, wenn ihr diesen Text auf unserer Website lest: netzpolitik.org hat einen neuen Look. Nach mehr als neun Jahren, in denen sich unsere Seite optisch und auch funktional kaum verändert hat, haben wir jetzt ein neues Design. Und auch unter der Haube hat sich einiges getan.

In dieser Folge Off The Record schauen wir gemeinsam mit anna und Ingo zurück auf die verschiedenen visuellen Stadien, die netzpolitik.org durchlaufen hat. Wir sprechen über neue Features, über die wir uns besonders freuen, verraten, warum am Tag der Umstellung alles noch ein paar Stunden länger gedauert hat als erwartet – und womit wir die Zeit überbrückt haben.

In dieser Folge: Anna Biselli, Ingo Dachwitz und Chris Köver
Produktion: Serafin Dinges.
Titelmusik: Trummerschlunk.




Hier ist die MP3 zum Download. Wie gewohnt gibt es den Podcast auch im offenen ogg-Format. Ein maschinell erstelltes Transkript gibt es im txt-Format.




Unseren Podcast könnt ihr auf vielen Wegen hören. Der einfachste: in dem Player hier auf der Seite auf Play drücken. Ihr findet uns aber ebenso bei Apple Podcasts, Spotify und Deezer oder mit dem Podcatcher eures Vertrauens, die URL lautet dann netzpolitik.org/podcast.




Wir freuen uns auch über Kritik, Lob, Ideen und Fragen entweder hier in den Kommentaren oder per E‑Mail an podcast@netzpolitik.org.



Links und Infos


Blattkritik & Hausmitteilungen


Thema des Monats


Kapitel

(00:00:00) Begrüßung
(00:02:31) Blattkritik
(00:09:21) Hausmitteilungen
(00:13:00) Thema des Monats
(00:38:30) Credits

 


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

09.05.2026 09:02

Die 19. Kalenderwoche geht zu Ende. Wir haben 19 neue Texte mit insgesamt 147.247 Zeichen veröffentlicht. Willkommen zum netzpolitischen Wochenrückblick.

– Fraktal, generiert mit MandelBrowser von Tomasz Śmigielski

Liebe Leser:innen,

nach einem Jahr schwarz-roter Bundesregierung wurde in dieser Woche viel Bilanz gezogen. Und die fiel nicht gut aus. Weder in den Medien noch auf der Straße.

Die Regierung liefere nicht, was sie versprochen hat, heißt es. Und sie müsse sich endlich zusammenraufen. Sonst drohe im Herbst ein böses Erwachen. Aus dem „Herbst der Reformen“ sei der „Sommer der Wahrheit“ geworden.

Ich habe in dieser Woche nachgeschaut, was wir selbst zum Start der schwarz-roten Koalition geschrieben hatten. Und was soll ich sagen: Mit Blick auf Überwachung und Grundrechteabbau hat die Regierung leider durchaus geliefert.

Biometrische Videoüberwachung, die Rückkehr der Vorratsdatenspeicherung, Fotofahndung im Netz, automatisierte Datenanalyse à la Palantir, zunehmende Intransparenz und rechtswidrige „Zurückweisungen“ von Schutzsuchenden. Das ist stringente Kontroll- und Ordnungspolitik, von den Innenstädten bis an die deutschen Außengrenzen.

Zivilgesellschaftliche Organisationen, Menschenrechtler:innen und die Kirchen lehnen die Vorhaben ab – als verfassungs- und europarechtswidrig. Die Regierung schert das wenig. Mehr noch: Wenn die Zahlen den Law-and-Order-Kurs nicht rechtfertigen, verweist sie kurzerhand auf die „gefühlte Sicherheit“. So geht Populismus.

Dabei bräuchten wir in Zeiten multipler Dauerkrisen ein anderes Sicherheitsverständnis, wie auch meine Kollegin Anna schreibt. Unter Sicherheit sollten demnach vollkommen andere Fragen fallen: Wie senken wir die Mieten? Wie sichern wir die Renten? Wie stoppen wir die Klimakatastrophe? Wie verbessern wir die Schulen? Wie machen wir unsere Städte lebenswerter? Wie unsere Demokratie resistenter?

Gegen solche Sicherheitsfragen habe ich nichts einzuwenden, im Gegenteil.

Um darauf Antworten zu finden, bräuchte es eine Kehrtwende. Doch ein „Sommer der Kehrtwende“ ist von dieser Koalition am wenigsten zu erwarten. Dafür müssen wir selbst ran: vor dem Bundesverfassungsgericht, auf der Straße oder an der Wahlurne.

Habt ein gutes Wochenende
Daniel

Alles netzpolitisch Relevante

Drei Mal pro Woche als Newsletter in deiner Inbox.

Jetzt abonnieren

Trugbild: Im Bann des Banalen

In den sozialen Medien präsentieren Content Creator alte Nazi-Architektur. Die beliebten Videos dienen mehr der Propaganda als der Aufklärung. Von Vincent Först –
Artikel lesen

Staatliches Hacken: Ermittler verwechseln Staatstrojaner mit Telefonüberwachung

Das Bundesjustizamt hat erneut falsche Zahlen zum Einsatz von Staatstrojanern veröffentlicht. Unsere Nachfrage ergab: Ermittlungsbehörden haben das Hacken von Geräten mit dem Abhören von Telefonaten verwechselt. Die selben Behörden führen die Überwachungsmaßnahme durch. Von Andre Meister –
Artikel lesen

FAQ: Das Überwachungspaket der Bundesregierung

Die schwarz-rote Koalition will ein Gesetzespaket verabschieden, das ein neues Zeitalter der Überwachung einläutet. Was steckt da konkret alles drin? Wir haben es durchgesehen, damit ihr es nicht tun müsst. Von Chris Köver, Markus Reuter, Martin Schwarzbeck –
Artikel lesen

Neue Welle: SPD, Linke und Grüne verlassen Musks Plattform X

Nach langer Diskussion kehren SPD, Linke und Grüne der Plattform X gemeinsam den Rücken. Sie begründen diesen Schritt mit Chaos und Desinformation auf Elon Musks Netzwerk. Viele der Accounts machen bei Bluesky weiter. Von Markus Reuter –
Artikel lesen

Konferenz für Menschenrechte: Druck aus China soll zu Absage der RightsCon geführt haben [Update]

Eine der wichtigsten Konferenzen zu digitalen Grund- und Menschenrechten sollte diese Woche in Sambia stattfinden. Doch die Veranstaltung in dem südafrikanischen Land wurde kurzfristig abgesagt. Die Veranstalter:innen erheben schwere Vorwürfe: Demnach ließ China wegen taiwanesischer Gäste die Muskeln spielen. Von Ingo Dachwitz –
Artikel lesen

Verhaltensscanner: „Eine reale Gefahr“

Gerade gibt es bundesweit Bestrebungen, Überwachungskameras mit Systemen zu koppeln, die vollautomatisiert erkennen, was die abgebildeten Menschen gerade tun. Davy Wang von der Gesellschaft für Freiheitsrechte erklärt, warum das eine schlechte Idee ist. Von Martin Schwarzbeck –
Artikel lesen

Ein Jahr Schwarz-Rot: „Neuer Tiefpunkt“ in Sachen Transparenz

Vom Lobby-Gipfel in den Alpen bis zum Buchhandlungspreis: Das erste Jahr Schwarz-Rot ist geprägt von skandalöser Intransparenz und zähem Ringen um Informationsfreiheit. Der vielleicht größte Umbruch: Unter Bundeskanzler Friedrich Merz ist Transparenz erstmals seit langem kein politisches Ziel mehr. Von Ingo Dachwitz –
Artikel lesen

Datenschutz Medienpreis: Auszeichnung für unsere Stalkerware-Recherche

Eine Recherche von Chris Köver und Martin Schwarzbeck wurde mit einem Sonderpreis bei der Verleihung des Datenschutz Medienpreises prämiert. Wir freuen uns sehr über die Auszeichnung und gratulieren den Kolleg:innen! Von netzpolitik.org –
Artikel lesen

Polizeigesetz Schleswig-Holstein: „Wie aus einem dystopischen Science-Fiction-Film“

Heute haben die Abgeordneten im Landtag von Schleswig-Holstein erstmals eine Novelle des Polizeigesetzes diskutiert. Es geht um Verhaltensscanner und Gesichtserkennung. Expert*innen zweifeln, ob das Gesetz verfassungsgemäß ist; die Opposition warnt vor einer Dystopie. Von Martin Schwarzbeck –
Artikel lesen

Anlasslose Massenüberwachung: Datenschutzbeauftragte kritisieren Chatkontrolle

Die Bundesdatenschutzbeauftragte warnt weiterhin vor der Chatkontrolle. Eine „anlasslose Massenüberwachung“ aller Bürger:innen „wäre in einem Rechtstaat beispiellos“. Auch die Datenschutzkonferenz fordert die EU-Gesetzgeber auf, die Chatkontrolle „endgültig abzusagen“. Von Markus Reuter –
Artikel lesen

Wir sind ein spendenfinanziertes Medium.

Unterstütze auch Du unsere Arbeit mit einer Spende.

Jetzt spenden

Europäische Kommission: In der Alterskontroll-App schlägt ein Herz von Google

Die Alterskontroll-App der EU- Kommission nutzt ein Verfahren von Google-Entwicklern. IT-Fachleute warnen vor Abhängigkeiten und Datenschutzrisiken – auch mit Blick auf die geplante EUDI-Wallet. Von Daniel Leisegang –
Artikel lesen

Correctiv-Recherche : Europol betreibt mutmaßlich illegale Datenanalyseplattformen

Die europäische Polizeibehörde Europol hat offenbar jahrelang eine Schatten-IT betrieben. Mitarbeitende sollen damit widerrechtlich große Mengen an personenbezogenen Daten durchsucht und ausgewertet haben. Dennoch will die EU-Kommission Europol nun mit deutlich mehr Budget und Personal ausstatten. Von Denis Glismann –
Artikel lesen

Koalitionsvertrag Baden-Württemberg: Kameras sollen prüfen, wer und wie brav du bist

Grün-Schwarz will in Baden-Württemberg als erstem Bundesland doppelte KI-Videoüberwachung ausrollen: Kameras, die Menschen auf verdächtiges Verhalten überprüfen und sie gleichzeitig mit Gesichtserkennung analysieren. In Mannheim und zwei weiteren Städten soll das Pilotprojekt starten. Von Martin Schwarzbeck –
Artikel lesen

Du siehst aber jung aus: Meta will uns bis auf die Knochen überwachen

Auf der Suche nach Minderjährigen will Meta Nutzer*innen auf Facebook und Instagram umfassend durchleuchten. Der Konzern will sogar die Knochenstruktur von Menschen auf Fotos auswerten. Wie gefährlich ist das? Die Analyse. Von Sebastian Meineck –
Artikel lesen

Verfahren gegen Tech-Konzerne: EU-Kommission zögert, Abgeordnete verlieren Geduld

Wann setzt Europa seine Digitalgesetze gegen Tech-Konzerne durch? Die EU-Kommission knickt ein, fürchten Abgeordnete und Vertreter:innen der Zivilgesellschaft. Nun wollen sie Kommissionspräsidentin Ursula von der Leyen Beine machen. Von Tomas Rudl –
Artikel lesen

KI-Verordnung: EU-Parlament und Rat einigen sich auf gelockerte Pflichten für die Industrie

Die EU will die KI-Verordnung aufweichen. Eine erste Einigung sieht nun vor, bestimmte Regulierungen für die Industrie abzuschwächen und zeitlich deutlich nach hinten zu verschieben. Hinzugekommen ist ein Verbot von KI-Anwendungen, mit denen sexualisierte Deepfakes erstellt werden können. Von Denis Glismann, Chris Köver –
Artikel lesen

Digitales Bezahlen: „Die Leute haben sehr gute Gründe, Bargeld zu nutzen“

Digitale Zahlungen sind auch eine soziale Frage. Die Soziologin Barbara Brandl hat untersucht, wie digitale Zahlungen Ungleichheit verstärken. Im Interview erklärt sie, wie dabei von unten nach oben umverteilt wird und was uns Beispiele aus anderen Ländern für den Digitalen Euro lehren. Von Leonhard Pitz –
Artikel lesen

Widerstand gegen Überwachung: „Man kann Kameras auch kaputtmachen“

Verhaltensscanner, Gesichtserkennung, Datenanalyse: Immer mehr Bundesländer rüsten mit KI-Überwachung auf. Bislang lief das weitgehend geräuschlos. Jetzt regt sich Widerstand. Von Martin Schwarzbeck –
Artikel lesen

Attacke auf Messenger: Signal will in Zukunft stärker vor Phishing warnen

Signal reagiert auf die umfangreiche Phishing-Kampagne mit Änderungen in der App. Derweil wird die Dimension der Attacke deutlicher: Schon im Januar waren fast 14.000 Accounts gezielt angeschrieben worden. Von Markus Reuter –
Artikel lesen


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

08.05.2026 14:53

Signal reagiert auf die umfangreiche Phishing-Kampagne mit Änderungen in der App. Derweil wird die Dimension der Attacke deutlicher: Schon im Januar waren fast 14.000 Accounts gezielt angeschrieben worden.

Smartphone mit geöffneter Signal-Messenger-App vor einem unscharfen Bildschirm mit dem Signal-Logo
Nach und nach kommen immer mehr Details heraus, wie die Phishing-Kampagne auf Signal funtioniert. – Alle Rechte vorbehalten: IMAGO / Sven Simon

In einem Interview mit dem Spiegel (€) hat Signal-Chefin Meredith Whittaker angekündigt, dass der Messenger in Zukunft zusätzliche Warnhinweise anzeigen wird, um Phishing besser zu verhindern. Hintergrund der Maßnahme sind die teilweise erfolgreichen Phishing-Versuche gegen Vertreter:innen aus Politik, Militär und Journalismus, der in Deutschland nach Medienberichten zwei Ministerinnen und die Bundestagspräsidentin zum Opfer fielen.

Im Interview sagte Whittaker:

Wenn jemand zum ersten Mal eine Nachricht von einer unbekannten Nummer erhält, werden künftig zusätzliche Warnhinweise angezeigt. Das Annehmen neuer, unbekannter Kontakte wird in Zukunft nicht mehr mit einem einzigen Klick möglich sein und zwingend einen Warnhinweis enthalten. Wir prüfen noch weitere Ideen und werden dazu bald mehr bekannt geben. Und um es noch einmal klar zu sagen: Signal wird Nutzer niemals in einem zweiseitigen Chat kontaktieren, um sie nach ihrer PIN, ihrem Schlüssel oder anderen Informationen zu fragen.


Öffentlich bekannt wurde die Attacke in Deutschland, als netzpolitik.org am 28. Januar darüber berichtete, dass zahlreiche Journalist:innen im Visier stünden. Gut eine Woche nach dem Bericht warnten dann der Verfassungsschutz (BfV) und das Bundesamt für Sicherheit in der Informationstechnik (BSI) vor der Angriffswelle. Mittlerweile haben die Behörden ein weiteres Update der Warnung samt Handlungsleitfaden veröffentlicht.

Am gestrigen Donnerstag war die Phishing-Kampagne auch Thema im Digital- und im Innenausschuss des Bundestages. In nicht-öffentlicher Sitzung wurde durch Verfassungsschutzchef Sinan Selen und BSI-Chefin Claudia Plattner die Kampagne nachgezeichnet und noch einmal vor Phishing gewarnt. Laut dem Bericht wussten die Behörden erst „im Januar“ über die Angriffe Bescheid. Nach Informationen von netzpolitik.org könnte allerdings ein Ende 2025 vom Phishing betroffener Bundestagsabgeordneter beide Behörden schon früher informiert haben.

Viel spricht für Russland als Urheber des Angriffs


Mittlerweile verdichtet sich, dass Russland hinter der Attacke stecken dürfte. Das niederländische Verteidigungsministerium hatte Anfang März verlautbart, dass Russland hinter der laufenden Phishing-Kampagne gegen hochrangige Personen aus Politik, Militär, Zivilgesellschaft und Journalismus stecken soll. BSI und Verfassungsschutz hatten vor den Attacken gewarnt und diese als „wahrscheinlich staatlich gesteuert“ bezeichnet. Die Bundesregierung schreibt den Angriff bislang nicht offiziell einem Land zu, ließ aber über Regierungskreise verbreiten, dass Russland dahinter stecke.

In einer Mitteilung auf der Webseite des niederländischen Verteidigungsministeriums sprechen sowohl der militärische Geheimdienst MIVD als auch der zivile Geheimdienst AIVD von „russischen Staatshackern“, die hinter dem Angriff auf Signal und WhatsApp stecken würden. Auch netzpolitik.org hat Hinweise, welche die Theorie einer russischen Urheberschaft des Angriffs untermauern.

Mehr als 13.700 Telefonnummern


Das Medienhaus Correctiv hatte zudem den Angriff auf den früheren Vizepräsidenten des Bundesnachrichtendienstes, Arndt Freytag von Loringhoven, ausgewertet und ist dabei auch auf digitale Spuren gestoßen, die nach Russland führen.

Weiteren Spuren nachgegangen sind auch die IT-Sicherheitsexperten des Security Labs von Amnesty International, die sich schon frühzeitig mit der Kampagne befasst haben. Sie haben einem Bericht des Spiegels (€) zufolge ein Angriffswerkzeug gefunden. Wie Donncha Ó Cearbhaill, der Leiter des Amnesty-Labs dem Medium mitteilte, soll es sich um ein in russischer Sprache programmiertes Werkzeug namens ApocalypseZ handeln.

Die Untersuchung konnte erstmals auch eine Zahl der angegriffenen Signal-Accounts offenlegen. In der Datenbank der Angreifer konnten die Amnesty-Expert:innen Mobilfunknummern potenzieller Opfer sehen. „Im Januar waren es mehr als 13.700“, sagte Ó Cearbhaill gegenüber dem Spiegel. In den Screenshots des Schadprogramms konnten die Forscher:innen zudem sehen, dass viele der Phishing-Nachrichten über polnische und niederländische Nummern verschickt wurden.

Laut dem Spiegel-Bericht bestätigt sich nun auch die Annahme, die Donncha Ó Cearbhaill schon im Januar gegenüber netzpolitik.org geäußert hatte: Die Angreifer lesen die Kontakte derjenigen aus, die auf das Phishing hereinfallen – und versenden dann neue Nachrichten. Ziel ist die Übernahme der Accounts samt Einblicken in Netzwerke und zukünftige Inhalte der Kommunikation.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

08.05.2026 11:30

Verhaltensscanner, Gesichtserkennung, Datenanalyse: Immer mehr Bundesländer rüsten mit KI-Überwachung auf. Bislang lief das weitgehend geräuschlos. Jetzt regt sich Widerstand.

Ein Polizist steht vor einer Kundgebung. Im Hintergrund eine improvisierte Bühne unter einem Pavillon.
Anti-Überwachungsdemo in Berlin.

Ende April, ein Platz im Görlitzer Park in Berlin: Etwa 100 Menschen stehen vor einer Bühne, am Rand eine Reihe Polizeifahrzeuge und Gruppen von Polizist*innen. Es gibt kostenloses Essen und Rap. Die Bühne haben Aktivist*innen mit Überwachungskameras dekoriert. Davor ist ein Banner gespannt, Aufschrift: „Gegen Überwachung und Ausgrenzung“. In kleinerer Schrift darunter: „Keine KI-Videoüberwachung unserer Parks, Plätze und Straßen!“

Diesen Park will die Polizei künftig mit Videokameras und Verhaltensscanner-Software kontrollieren, so wie weitere Orte in Berlin. Die Software, eine sogenannte Künstliche Intelligenz, soll analysieren, was die abgebildeten Menschen gerade tun und gutes von schlechtem Verhalten unterscheiden. Deshalb sind die Demonstrierenden hier. Sie lehnen die KI-Kontrolle ab. Die Person am Mikrofon ruft: „Man kann Kameras auch kaputt machen!“

Neun Bundesländer haben ihrer Polizei den Einsatz von Verhaltensscannern entweder bereits erlaubt – oder planen, dies zu tun. Bislang setzen Polizeien die Technologie nur in Mannheim und Hamburg ein. Doch die Zahl der Orte, die damit überwacht werden, wird sich wohl bald deutlich erhöhen.

Größere Polizeigesetz-Änderungen


Mehrere Bundesländer legalisieren derzeit Verhaltensscanner im Rahmen größerer Polizeigesetz-Reformen. Sie genehmigen den Beamt*innen unter anderem den Einsatz von Datenanalyse à la Palantir, Live-Gesichtserkennung oder Videodrohnen. In einigen Ländern, die gerade ihr Polizeigesetz verschärfen oder verschärft haben, formt sich auch außerparlamentarischer Widerstand.

Magdalena Finke, CDU-Innenministerin von Schleswig-Holstein hat mit ihrem Polizeigesetz-Entwurf Fans des Fußballvereins in Kiel gegen sich aufgebracht. Die mobilisieren in der Fanszene und vernetzen sich darüber hinaus mit zivilgesellschaftlichen Initiativen. „Das wurde komplett im Hinterzimmer ausgehandelt“, sagt Fußballfan Jan auf Anfrage von netzpolitik.org über das Polizeigesetz.

Jan und seine Mitstreiter*innen wollen eine große Demo durch die Landeshauptstadt Kiel organisieren. Kein bloßer Fanmarsch, sondern ein breites Bündnis. „Wir wollen Menschen aus dem ganzen Landesgebiet mobilisieren“, sagt Jan. Geplant sind außerdem Infoveranstaltungen für Fußballfans, Flyer und Aktionen mit Spruchbändern im Stadion. „Wir sehen das als unsere Aufgabe, das Polizeigesetz in unserer Kurve zum großen Thema zu machen.“

Das volle Programm High-Tech-Überwachung


Die schwarz-grüne Landesregierung von Schleswig-Holstein steht kurz davor, das volle Programm High-Tech-Überwachung genehmigt zu bekommen: Datenanalyse nach Palantir-Art, Verhaltensscanner, Live-Gesichtserkennung, Gesichtersuchmaschine. Am 6. Mai haben die Abgeordneten den Gesetzentwurf erstmals im Parlament besprochen.

Jan sagt: „Durch Überwachung und erst recht durch KI-Überwachung werden die Freiräume immer begrenzter. Freiräume sind aber ein wichtiger Teil der partizipativen Demokratie.“

Begründet werde die Ausweitung der Überwachung mit Messerangriffen. „Aber in Kiel gibt es kaum bis keine Messerangriffe. Dann kann man doch nicht deshalb der Polizei solche Befugnisse geben. Die lassen sich nicht wieder zurückdrehen“, sagt Jan. Er befürchtet, dass bald alle öffentlichen Plätze im Land KI-überwacht werden.

Wie wir bereits berichtet haben, gibt es auch in Thüringen Widerstand gegen das dortige Polizeigesetz. Der bekommt zunehmend Schwung, wie die Initiator*innen der Anti-Polizeigesetz-Kampagne ThürPAG stoppen berichten. Zu den Kritiker*innen gehören inzwischen die antifaschistischen Bündnisse Auf die Plätze Erfurt und Rechtsruck Stoppen, der Verein Vielfalt Leben – QueerWeg und der Hacker*innentreff Krautspace Jena.

Kunstaktionen gegen Überwachung


In Sachsen wehrt sich das antifaschistische Aktionsbündnis Leipzig nimmt Platz gegen die Polizeigesetz-Novelle. Die Dresdner Datenpunks planen Kunstaktionen zu Überwachung, um darüber mit Menschen ins Gespräch zu kommen.

Aufklärung zur niedersächsischen Polizeigesetznovelle leisten der Kleindatenverein und Freiheitsfoo.

Derweil agieren Initiativen wie Kameras stoppen aus Köln, Bündnis Hansaplatz aus Hamburg oder dieDatenschützer Rhein-Main seit Jahren nicht ohne Erfolg gegen Video- und KI-Überwachungs-Projekte – auch vor Gericht.

Ausdrücklich gegen die Massen-Datenanalyse positioniert sich das Bündnis Kein Palantir in Baden-Württemberg. Das Netzwerk Sicherheit ohne Überwachung macht derweil auf Bundesebene gegen verschärfte Gesetze mobil. Es geht einmal mehr um biometrische Gesichtersuche, um Datenanalyse nach Palantir-Art – und Vorratsdatenspeicherung. Unter anderem geplant ist eine Demonstration am 13. Juni 2026 ab 14 Uhr in Berlin.

Die Gewerkschaft der Osterhasen


Zurück zur Kundgebung im Görlitzer Park. Dahinter stehen drei Initiativen: Cables of Resistance, die in Berlin kürzlich einen Kongress zum Kampf gegen die Big-Tech-Übermacht veranstaltet hat; Wrangelkiez United, eine polizeikritische Anwohner*innengruppe – und Görli 24/7, die dagegen kämpft, dass die Stadt den Görlitzer Park inzwischen nachts verriegelt.

Für einen offen zugänglichen Görlitzer Park sind auch zwei Redner*innen, die als nächstes die Bühne betreten, maskiert mit rosa Hasenköpfen. Sie stellen sich als Vertreter*innen der „Osterhasen-Gewerkschaft“ vor und erzählen, dass Menschen bereits Nachschlüssel zu den Parktoren an Interessierte verteilt hätten. Einige Eingänge könne man auch selbst öffnen, wenn man eine Türklinke in die dafür vorgesehene Öffnung schiebt. „Klinken bekommt ihr am Info-Stand“, ruft einer der Hasen.

Bevor die Osterhasen die Bühne betreten, gibt es eine unfreiwillige Programm-Pause. Beamt*innen treten an die Bühne heran und wollen Personalien sehen – von der Person, die über kaputte Kameras gesprochen hatte. Gibt es jetzt Ärger?

Per Mikrofon hält eine andere Person aus dem Kreis der Veranstalter das Publikum auf dem Laufenden. Sie gibt weiter, dass die Polizei die Aussage über die Zerstörbarkeit von Kameras für eine Straftat hält. „Also sagt das nicht“, ruft sie durch die Lautsprecher. „Sagt nicht, dass man Kameras auch kaputtmachen kann.“


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

08.05.2026 09:19

Digitale Zahlungen sind auch eine soziale Frage. Die Soziologin Barbara Brandl hat untersucht, wie digitale Zahlungen Ungleichheit verstärken. Im Interview erklärt sie, wie dabei von unten nach oben umverteilt wird und was uns Beispiele aus anderen Ländern für den Digitalen Euro lehren.

Geldscheine und Kreditkarten liegen auf einem Tisch
Digitales Zahlen kann Ungleichheit verstärken. – Gemeinfrei-ähnlich freigegeben durch unsplash.com: Vardan Papikyan

Ob an der Eisdiele oder an der Kinokasse – immer weniger Menschen zahlen mit Bargeld. Viele zücken eine Plastikkarte oder gleich ihr Smartphone. Den Kostenanteil für den gemeinsamen Ausflug PayPal-en einem die Freund:innen sowieso lieber direkt auf der Rückfahrt.

Digitale Bezahlsysteme sind nicht nur längst Teil unseres Alltags, sondern auch Gegenstand politischer Debatten. Diese drehen sich – sofern sie den Dunstkreis technokratischer Diskurse verlassen – meist um Datenschutz oder Digitale Souveränität. Doch hinter den Apps und Karten versteckt sich auch eine soziale Frage.

Barbara Brandl ist Professorin für Soziologie an der Goethe-Universität in Frankfurt am Main, mit Schwerpunkt auf Wirtschafts- und Organisationssoziologie. Zudem ist sie Sprecherin des Forschungsprojektes „Die normativen Dimensionen des Digitalen Euro“. Wir haben mit ihr über soziale Ungleichheit, digitalisierte Zahlungen und Lektionen für den Digitalen Euro gesprochen.

netzpolitik.org: Frau Brandl, Sie sind Soziologin. Warum beschäftigen Sie sich mit PayPal und Kreditkarten?

Barbara Brandl: Ich beschäftige mich immer mit dem Zwischenfeld von Technologieentwicklung und Gesellschaft und bin eigentlich über das Thema Blockchain zum Thema Zahlungen gekommen. Ich habe aber festgestellt, dass Blockchain für den Alltag der meisten Menschen keine allzu große Bedeutung hat. Was hingegen eine große Bedeutung hat, sind alle Systeme, über die wir digital bezahlen.

Wir alle müssen zahlen: Um zu überleben, weil wir eben nicht alles selber herstellen und mit Nachbarn tauschen, sondern weil der absolut größte Teil über formale Märkte funktioniert. In meiner For­schung habe ich dann festgestellt, dass digitale Zahlungen und soziale Ungleichheit sehr stark mit­einander zusammenhängen. Und das ist natürlich das Kernthema der Soziologie.

Die drei Wellen der Zahlungsdigitalisierung

netzpolitik.org: Was sind überhaupt digitale Bezahlsysteme? Nur PayPal und GooglePay?

Barbara Brandl: „Digitale Bezahlsysteme“ umfasst erst einmal alles, was nicht Bargeld ist. Insgesamt gab es drei Wellen der Digitalisierung von Zahlungen im Globalen Norden. Die erste Welle der digitalen Zahlungen begann etwa 1950 mit den Kreditkarten in den USA. Das war lange auch das einzige vorhandene System. Die zweite Welle digitaler Zahlungen begann in den 1990er-Jahren umfasst alles, was Internet-basiert ist, auch PayPal war da ganz wichtig. Die dritte Welle sind für mich App-basierte-Lösungen, die sich mit der Nutzung von Smartphones in den 2010er-Jahren ausbreiteten. Beispiele dafür sind etwa Apple oder GooglePay aber auch „Buy Now, Pay Later“-Angebote wie Klarna.

netzpolitik.org: Das gilt aber nur für den Globalen Norden, wie ist das im Globalen Süden?

Barbara Brandl: Dort haben sich eigene Systeme digitaler Zahlungen herausgebildet, deren Entwicklungen sich mit denen im Globalen Norden überschneiden. Das erste und vielleicht spannendste ist das sogenannte „Mobile Money“. Der Hintergrund war, dass in Subsahara-Afrika der Großteil der Menschen überhaupt keinen Zugang zu Bankkonten hatte. Und auch Bankfilialen waren in den Flächen quasi nicht vorhan­den. Das war sehr ungünstig, denn viele Menschen waren darauf angewiesen, regelmäßig Geld zu versenden, zum Bei­spiel, weil jemand in der Stadt gearbeitet hat, aber die eigene Familie auf dem Land versorgen wollte. Oder weil die eigenen Kinder im Internat waren und Bücher brauchten.

Barbara Brandl steht in einem Flur
Barbara Brandl forscht zu sozialen Ungleichheiten bei digitalen Bezahlsystemen.

In den 90er Jahren kam dann der Mobilfunk auf und das ist die Revolution. In ihrer Verzweif­lung erfanden die Menschen Geld neu und verschicken über SMS die Codes, die auf den PrePaid-Karten aufgedruckt waren. Die haben das also nicht mehr nur als Mobilfunkguthaben benutzt, sondern als Geld. Und dann gab es relativ schnell Leute, die das informell gewechselt haben, Mobilfunkguthaben in Bargeld und umgekehrt. Diese Dienste wurden dann rasch kommerzialisiert von den Mobilfunkanbietern und das war die erste Form einer digitalen Währung.

netzpolitik.org: Was sind die anderen Systeme digitaler Zahlungen im Globalen Süden?

Barbara Brandl: Einerseits Super-Apps wie Alipay oder Tencent, die in China entstehen und sich dann in Ostasien sowie teilwiese auch in Lateinamerika ausbreiten. Und anderseits Echtzeitzahlungssysteme wie das brasilianische PIX, die von Zentralbanken bereitgestellt werden und insbesondere in Lateinamerika populär sind, aber jüngst auch in Ländern wie Indien oder Israel eingerichtet wurden.

„Technologie ist nicht neutral“

netzpolitik.org: Sie forschen dazu, inwiefern digitale Bezahlmöglichkeiten soziale Ungleichheit verändern – was haben Sie herausgefunden?

Barbara Brandl: Technologie ist nicht neutral, auch nicht die Systeme digitaler Zahlung. Sie wurden von be­stimmten Schichten mit bestimmen Ideen eingerichtet. Am krassesten sieht man das bei den Kredit­karten in den Vereinigten Staaten. Die wurden eingerichtet, damit die Mittelschichten schnellen Zu­gang zu Krediten bekommen und einfach bezahlen können. Das waren vor allem die weißen Mittelschichten und die profitieren bis heute am stärksten von den Kreditkarten.

Alles netzpolitisch Relevante

Drei Mal pro Woche als Newsletter in deiner Inbox.

Jetzt abonnieren

Es gibt verschiedene Dimensionen sozialer Ungleichheit. Eine davon ist Zugang. Weiße haben sehr viel häufiger Kredit­karten als Schwarze oder Hispanics. Die Mittelschicht hat viel häufiger Kreditkarten als die Unter­schicht. Man kann hier schon von Ausschluss sprechen. Das war bis in die 1990er-Jahre noch bruta­ler, dort haben Menschen gar keine Kreditkarte bekommen, wenn sie in bestimmten Vierteln ge­wohnt haben. Seither wurde der Zugang extrem ausgeweitet, man spricht auch von einer Demokratisierung der Kreditvergabe. Trotz allem haben Hispanics und Schwarze bis heute bei gleichen Einkommensverhältnissen seltener Kreditkarten als weiße US-Bürger.

Hinzu kommt die zweite Dimension: die systematische Benachteiligung in der Nutzung. Das funktioniert zum Beispiel durch massive Kreditkartenzinsen auf „Bad Credit“, also wenn sie mit ei­ner schlechten Bonität einen Kredit aufnehmen. Der Zins kann schon mal 30 Prozent betragen. Alle Schichten haben Kreditkartenschulden. Aber Menschen aus mittleren und oberen Schichten können diese Schulden mit einem guten Gehalt relativ schnell zurückzahlen. Aber die einkommensärmsten zehn Prozent der Bevölkerung müssen, sofern sie Kreditkartenschulden haben, durchschnittlich 80 Prozent ihres Einkommens für die Tilgung dieser Schulden aufwenden.

netzpolitik.org: Wie werden ärmere Menschen noch systematisch benachteiligt?

Barbara Brandl: Ein weiterer Faktor bei der Umverteilung von arm zu reich sind sogenannte „Loyality“- beziehungsweise Cashback-Programme. Das funktioniert so: Immer wenn sie mit ihrer Kreditkarte im Supermarkt zahlen, kriegen sie Punkte. Die reichen sie am Ende des Jahres ein und kriegen Geld zurück. Allerdings ist die Kre­ditkarte das teuerste Zahlungsmittel für die Händler:innen. Die schlagen das wiederum bei den Preisen drauf. In der untersten Schicht – in den USA – haben nur 30 Prozent der Menschen eine Kreditkarte. Die zahlen aber trotzdem natürlich alle die höheren Preise und subventionieren damit die höheren Preise für Güter sowie die Prämien quer, die den höheren Schichten ausgezahlt werden.

Ökonomen der US-amerikanischen Zentralbank haben ausgerechnet, dass alleine dieser Mechanismus über zwölf Milliarden Euro im Jahr umverteilt, von schlechter Bonität zu guter Bonität, also in der Regel von Menschen mit geringer Bildung zu Menschen mit höherer Bildung. Höhere Schichten profitieren von Kreditkarten und niedrigere Schichten tragen die Kosten.

„Der größte Teil der Gewinne kommt von Überziehungszinsen“

netzpolitik.org: Wie meinen Sie das?

Barbara Brandl: Der größte Teil der Gewinne von Kreditkartenfirmen – und generell innerhalb dieses Sektors – kommt durch Überziehungszinsen. Transaktionsgebühren, die bei jeder Zahlung anfallen, sind zwar die älteste Einnahmequelle, bringen aber nicht so viel Gewinn ein. Die modernste Einnahmequelle ist der Ver­kauf von Daten. Das machen etwa die Super-Apps in Asien. Aber auch Buy-Now-Pay-Later-Anbieter im Globalen Norden, wie PayPal, Klarna und AfterPay, verkaufen Daten für Werbezwecke. Dennoch sind die Zinsen auf Konsumkreditschulden immer noch die finanzstärkste Ein­nahmequelle.

netzpolitik.org: Am Ende nehmen die Menschen einen Kredit ja freiwillig auf. Sind sie dann nicht auch ein Stück weit selbst verantwortlich, wenn sie sich überschulden?

Barbara Brandl: Das ist genau der Punkt, wie das in unserer Gesellschaft moralisch funktioniert und warum hier nicht mehr reguliert wird. Eine sehr bekannte Kollegin von mir, Greta Krippner, argumentiert dazu wie folgt: Wir haben in der Gesellschaft immer asymmetrische Beziehungen. Eine ganz klassische asymmetrische Beziehung ist die zwischen Arbeitgeber und Arbeitnehmer und die regu­lieren wir sehr stark und es gibt starke Schutzmechanismen für Arbeitnehmer, wie etwa Kündi­gungsschutz für Schwangere.

Diese Schutzmechanismen fehlen in der Beziehung Kreditnehmer versus Kreditgeber, obwohl diese Beziehung ebenfalls hoch-asymmetrisch ist. Und diese Schutzlosigkeit ist bei Konsumkrediten am stärksten.

Aber es gibt noch eine weitere Ebene und da sehe ich eine Parallele zur Debatte um die Regulierung von Social-Media-Plattformen.

Geschäftspraktiken, die menschliche Schwächen ausnutzen

netzpolitik.org: Worin besteht diese Parallele?

Barbara Brandl: Es geht um Geschäftspraktiken, die systematisch menschliche Schwächen ausnutzen. Dazu gibt es ein ganzes Forschungsfeld, die sogenannten Behavioral Economics. Daraus wissen wir: Unser Ge­hirn funktioniert auf eine bestimmte Art und Weise und bestimmte Dinge können wir nicht gut ver­arbeiten, zum Beispiel Kosten und Nutzen von Kreditkarten.

Es gibt eine ganze Reihe von Studien, die sagen: Wir unterschätzen systematisch, wie viel uns Kreditkarten kos­ten und überschätzen den Nutzen. Wir kommen darauf, wenn wir länger nachdenken, aber so auf die Schnelle passieren syste­matische Fehleinschätzungen. Und diese systematischen Verzerrungen werden eben ausgenutzt. Dann ist es nun mal zynisch, immer zu schreien, dass wir mehr Finanzbildung und den mündigen Konsumenten bräuchten. Ebenso wie in der Plattform-Debatte derzeit oft nach Medienbildung gerufen und gefordert wird, die Eltern sollten sich jetzt mal bitte besser um ihre Kinder kümmern.

Wir sind ein spendenfinanziertes Medium.

Unterstütze auch Du unsere Arbeit mit einer Spende.

Jetzt spenden

netzpolitik.org: Wir haben bisher viel über Kredite gesprochen, aber haben das Interview eigentlich bei digitalen Zahlungen angefangen. Das sind ja erst mal zwei verschiedene Dinge. Für Sie gehört aber beides zusammen, korrekt?

Barbara Brandl: Richtig, das ist ein zentraler Befund meiner Forschung. Ich habe mir fünf Systeme ange­schaut, wie digitale Zahlungen abgewickelt werden. Was mich erschreckt hat: Je mehr digitale Zah­lungen getätigt werden, desto stärker spielen Konsumkredite eine Rolle.

Das krasseste Beispiel ist vielleicht das Zahlungssystem PIX in Brasilien. PIX wird von der brasilianischen Zentralbank zur Ver­fügung gestellt und man sieht, für ein Prozent mehr PIX-Nutzer:innen erhöht sich die Menge der Kon­sumkredite um 0,8 Prozent. Das war das Ergebnis einer multivariaten Analyse. Das heißt, je mehr Leute, und das wissen wir auch aus anderen Studien, digital bezahlen, desto mehr geben sie aus und deswegen verschulden sie sich auch schneller.

Die Mechanismen dahinter sind ausführlich von den Verhaltensökonom:innen beschrieben worden. Ein Beispiel für diese Mechanismen ist: Sie gehen beispielsweise in die Stadt und wol­len sich einen Mantel kaufen. Dann nehmen Sie, je nachdem wie Ihr Budget ist, 100 oder 200 Euro mit und vielleicht noch 20 Euro extra. Wenn das ausgegeben ist, können Sie nicht mehr kau­fen. Wenn Sie aber digital bezahlen, haben Sie ihr ganzes Geld ja immer dabei. Dann können Sie sich auch einen Mantel kaufen, der doppelt so teuer ist wie ihr Budget – oder noch einen Gürtel ex­tra.

„Gut für die Finanzindustrie, aber nicht für uns“

netzpolitik.org: Wo sind da die Parallelen zum digitalen Euro?

Barbara Brandl: Die brasilianischen Banken setzen auf die PIX-Bezahlfunktion ihre eigenen Kreditprodukte drauf und nennen es dann PIX Parcellado, also Ratenzahlung. Das heißt, sie bezahlen es mit PIX und PIX wird immer über die App der Bank benutzt und dann bietet Ihnen die Bank in der App so­fort einen Kredit an, sofort eine Ratenzahlung an. Und da liegt die Parallele zum digitalen Euro.

Weil der viel Gegenwind aus der Finanzlobby bekommt, wirbt nun die Europäische Zentralbank mit dem Argument, dass die Banken ihre eigenen Finanzdienstleistungen auf den digitalen Euro draufbauen können. Und aus der brasilianischen Erfahrung würde ich sagen, das können wir eigentlich gar nicht wollen. Die EZB versucht, die Finanzindustrie mit dem Argument „Das ist doch gut für euch“ zu überzeugen. Ich würde sagen, das stimmt: Es ist auch für die Fi­nanzindustrie gut, aber nicht für uns.

netzpolitik.org: Wie muss ein digitaler Euro aus Ihrer Sicht ausgestaltet sein, dass er mög­lichst sozial gerecht wird?

Barbara Brandl: Die Verknüpfung zu anderen Dienstleistungen, insbesondere der Aufnahme von Konsum­krediten, muss maximal weit weg davon sein. Das hat in Kenia nicht gut geklappt, aber in anderen Mo­bile-Money-Systemen in Subsahara-Afrika hat es besser funktioniert, dass man damit nur bezahlen kann.

Natürlich ist auch der Zugang ein Thema. In der Europäischen Union haben 96 Prozent der Menschen ein Konto. Und neben dem Basiskonto gibt es auch im Entwurf der Kommission zum Digitalen Euro schon Vorschläge, um Menschen ohne Konto zu integrieren. Das viel größere Problem ist hier ein anderes, nämlich dass ein Sechstel der Menschen zwar Konten hat, aber nicht in der Lage ist, Online-Banking zu nutzen. Leider wird das in der Diskussion oft so dargestellt, als seien die einfach ein bisschen altmodisch.

Ich würde mittlerweile aber sagen: Die nutzen zurecht Bar­geld. Erstens behandeln die Banken Menschen aus einkommensschwächeren Schichten systema­tisch schlechter, das sehen wir überall auf der Welt. Deswegen ist das Misstrauen gegenüber Banken durchaus gerechtfertigt. Zweitens hat das natürlich auch was mit den Lebensumständen zu tun. Sie und ich sitzen den ganzen Tag am PC, da können wir das Online-Banking auch noch ne­benbei machen. Wer auf dem Bau arbeitet, für den ist das ein sehr viel größerer Aufwand, sich da am Feierabend für das Online-Banking noch einmal hinzusetzen. Und dann ist es für Menschen mit geringem Einkommen viel einfacher, die eigenen Ausgaben mit Bargeld zu kalkulieren.

Ich würde trotzdem sagen, es gibt letztlich wahrscheinlich keine Alternative zum Digitalen Euro. Das ist immer noch die beste Lö­sung, die es gibt, wenn wir weiterhin digital bezahlen wollen und dabei nicht auf ein US-amerikanisches Oligopol von Kreditkartenfirmen angewiesen sein wollen, das den Großteil seiner Gewinne mit Überziehungszinsen und dem Verkauf von Daten macht.

netzpolitik.org: Also Ja zum Digitalen Euro, aber Bargeld auf jeden Fall erhalten?

Barbara Brandl: Das Bargeld erhalten will ja auch die EZB, nach eigener Aussage. Mein Appell ist sehr viel stärker, den Hang zum Bargeld nicht abzutun als irgendeine Schrulligkeit oder eine Verschrobenheit: Die Leute haben wirklich sehr gute Gründe, Bargeld zu nutzen.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

07.05.2026 18:25

Die EU will die KI-Verordnung aufweichen. Eine erste Einigung sieht nun vor, bestimmte Regulierungen für die Industrie abzuschwächen und zeitlich deutlich nach hinten zu verschieben. Hinzugekommen ist ein Verbot von KI-Anwendungen, mit denen sexualisierte Deepfakes erstellt werden können.

Zwei Personen stehen hinter einer Sicherheitsglasscheibe und blicken auf einen Industrieroboter.
Mehr "Künstliche Intelligenz" mit weniger Auflagen, das wünscht sich die Industrie. (Symbolbild) – Alle Rechte vorbehalten: Bild: IMAGO / Westend61, Bearbeitung: netzpolitik.org

Nachdem die EU-Verhandlungen zum digitalen Omnibus Ende April 2026 vorübergehend geplatzt waren, konnten Rat und Parlament gestern Nacht im Trilog eine vorläufige Einigung erzielen; die Kommission war als Vermittlerin beteiligt.

Die Einigung betrifft die Aufnahme des Verbots von sogenannten KI-Nudifiern in die KI-Verordnung. „Nudifier“ sind Anwendungen, mit deren Hilfe sexualisierte Deepfakes erstellt werden können. Außerdem sollen Auflagen für die Industrie beim Einsatz von risikoreichen KI-Systemen begrenzt sowie zentrale Pflichten aus dem AI Act für Hochrisiko-Systeme deutlich nach hinten verschoben werden – auf Ende 2027 und 2028. Der vorliegende Kompromiss zwischen Rat und Parlament muss noch formal bestätigt werden.

Der Trilog war zuvor an der Frage gescheitert, wie in der Industrie mit der Hochrisiko-Kategorie für KI-Systeme umgegangen werden soll, die bereits durch sektorale Bestimmungen reguliert werden. Zentrale Pflichten des AI Acts für besonders risikoreiche KI-Systeme sollten eigentlich bereits ab dem 2. August 2026 wirksam werden. Der Kompromiss sieht nun vor, dass die Anwendung der KI-Verordnung dort begrenzt wird, wo sektorale Sicherheitsanforderungen vergleichbare KI-Regeln enthalten.

Die EU verabschiedete den AI Act (Verordnung über künstliche Intelligenz) im Mai 2024. Er ordnet KI-Technologie vier abgestuften Risikokategorien zu und regelt Pflichten für die Hersteller und Anbieter von KI-Systemen oder Produkten, die KI-Technologie enthalten. KI-Systeme mit inakzeptablem Risiko können verboten werden.

Die EU-Kommission möchte die Regelungen im Rahmen des sogenannten Digitalen Omnibus jedoch vereinfachen, um bürokratische Hürden für Unternehmen abzubauen und Europas Wettbewerbsfähigkeit zu steigern. Das Gesetzespaket ist umstritten. Es enthält unter anderem Lockerungen bei der Datenschutzgrundverordnung oder beim Training von KI mit personenbezogenen Daten.

Verbot von KI-„Nudifiern“


Konkret haben sich Parlament und Rat darauf geeinigt, in Zukunft KI-Anwendungen zu verbieten, mit deren Hilfe man sexualisierte Deepfakes erstellen kann. Das Thema wurde zu einem zentralen Vorhaben, nachdem Nutzer*innen mit dem Chatbot Grok Anfang des Jahres binnen weniger Tage Millionen von nicht-einvernehmlichen Deepfakes erstellt hatten.

Bereits Ende März hatte sich das Parlament dafür ausgesprochen, solche KI-Anwendungen zu verbieten. Im Trilog ging es noch um die Details der Formulierung. Das Verbot umfasst jetzt explizit auch das Erstellen von Inhalten, die sexuellen Missbrauch von Kindern zeigen. Zudem soll es untersagt sein, KI-Anwendungen auf den Markt zu bringen, die ohne Zustimmung Deepfakes von “intimen Teilen einer identifizierbaren Person” oder die Person bei sexuellen Handlungen zeigen.

Die geplante Verschärfung ist nicht die erste EU-Regelung zu Deepfakes. Eine andere Richtlinie sieht bereits vor, dass Mitgliedstaaten die Verbreitung von sexualisierten Deepfakes unter Strafe stellen, wenn diese geeignet sind, einer Person schweren Schaden zuzufügen. Deutschland setzt dies mit dem geplanten Gesetz gegen digitale Gewalt derzeit um. Das geplante Verbot in der KI-Verordnung würde den Fokus von der Bestrafung der Täter*innen auf die Anbieter solcher Anwendungen verschieben.

Im geplanten Text steht nun auch die fehlende Zustimmung der gezeigten Personen als definierendes Merkmal. Fachleute forderten das seit langem. Zugleich kritisiert etwa Ana Ornelas von der European Sex Workers’ Rights Alliance (ESWA), die Beschränkung auf „identifizierbare Personen“. Sie fürchtet, dass dies in der Durchsetzung zu Schlupflöchern führen könnte.

Lockerungen und Fristverlängerung für Industrie


Hochrisiko-KI-Systeme in Bereichen wie Beschäftigung, Bildung, Migration, Strafverfolgung oder kritische Infrastruktur sollen Anforderungen aus dem AI Act erst ab dem 2. Dezember 2027 erfüllen müssen. Für KI in Medizinprodukten, Maschinen oder Spielzeug gilt der 2. August 2028. Anbieter von KI-Systemen müssen diese grundsätzlich in der EU-Datenbank für risikoreiche Systeme registrieren – auch wenn sie der Ansicht sind, die Einstufung als risikoreich träfe nicht zu oder sei ausgenommen.

Die Sonderregelung für Maschinenverordnung schwächt nach Meinung des europäischen Verbraucherverbands BEUC den Verbraucherschutz. Konkret kritisiert der Verband, dass Alltagsgeräte wie Industriemaschinen aus der KI-Aufsicht herausfallen würden. Bei deren Versagen könnten Menschen zu Schaden kommen. Der Deal enthält offenbar auch eine Klausel, mit der die EU-Kommission später weitere KI-Systeme ohne neues Gesetzgebungsverfahren aus dem Geltungsbereich des AI Acts herausnehmen kann. Die Kommission erhalte damit eine Hintertür für künftige KI-Deregulierung.

BEUC-Generaldirektor Agustín Reyna meint, der überhastete Prozess habe ein Gesetz hervorgebracht, das komplizierter und weniger wirksam als vorher sei und vor allem der Industrie nutze.

Zumindest an manchen Stellen scheint der Kompromiss strenger. Die EU-Kommission wollte die Verarbeitung sensibler personenbezogener Daten – etwa Angaben, aus denen Ethnie oder Religion hervorgehen können – zur Bias-Erkennung erleichtern. Rat und Parlament begrenzten hier durch striktere Maßstäbe.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

07.05.2026 16:10

Wann setzt Europa seine Digitalgesetze gegen Tech-Konzerne durch? Die EU-Kommission knickt ein, fürchten Abgeordnete und Vertreter:innen der Zivilgesellschaft. Nun wollen sie Kommissionspräsidentin Ursula von der Leyen Beine machen.

Eine lachende Ursula von der Leyen, im Vordergrund ominöse Schatten.
EU-Kommissionspräsidentin Ursula von der Leyen versucht sich an einem schwierigen Spagat, um die USA nicht zu vergraulen. Hinter den Kulissen rumort es jedoch zunehmend. (Symbolbild) – Alle Rechte vorbehalten: IMAGO / IPON

Der Druck steigt auf die EU-Kommission, europäische Digitalgesetze konsequent durchzusetzen. In einem offenen Brief fordern dutzende zivilgesellschaftliche Organisationen EU-Kommissionspräsidentin Ursula von der Leyen (CDU) auf, den Digital Markets Act (DMA) „buchstabengetreu und frei von politischer Einflussnahme“ zu vollstrecken.

Ähnliche Töne kommen aus dem EU-Parlament. Externer Druck dürfe die Souveränität und Autonomie der EU bei der Festlegung ihrer eigenen Regeln nicht beeinträchtigen, mahnen die Abgeordneten in einer vergangene Woche verabschiedeten Resolution. Wirksame und verhältnismäßige Geldstrafen seien „unerlässlich, um Abschreckung zu gewährleisten und die Wirksamkeit des Gesetzes über digitale Märkte zu sichern“, so der Tenor der nicht bindenden Entschließung.

Hintergrund für die Appelle sind vermehrte Zeichen, dass die EU-Kommission Beißhemmungen gegenüber großen, vor allem in den USA ansässigen Tech-Unternehmen hat – genau die Unternehmen, deren Macht der DMA eigentlich einhegen soll. Das seit wenigen Jahren wirksame Gesetz macht sogenannten Gatekeepern, die in bestimmen Digitalsektoren übermäßig viel Marktmacht angesammelt haben, eine Reihe an Auflagen, um einen funktionierenden Wettbewerb sicherzustellen.

Ergebnis im Google-Verfahren überfällig


Zwar hat die EU-Kommission, die für die Aufsicht der Gatekeeper zuständig ist, zahlreiche Untersuchungen wegen Verdachts von DMA-Verletzungen eingeleitet. Vor über einem Jahr hatte sie etwa Google und Apple vorgeworfen, ihre App-Marktplätze nicht ausreichend zu öffnen. Zum anderen sollte Google in der Suchmaschine eigene Angebote für Shopping oder Reisen bevorzugt haben.

Auf das Ergebnis dieser Untersuchungen wartet die Öffentlichkeit jedoch weiterhin. Fällig wäre es Ende März gewesen. Darauf scheint sich Alphabet vorbereitet zu haben: Anonyme Quellen hatten der Nachrichtenagentur Reuters zufolge zu Beginn des Jahres in Aussicht gestellt, dass Google seine Wettbewerber prominenter in den Suchergebnissen anzeigen werde, um der drohenden Geldstrafe zu entgehen. Umgesetzt hat Google das nicht.

Von der Leyen soll auf der Bremse stehen



Tatsächlich soll die EU-Wettbewerbsabteilung zu dem Schluss gekommen sein, dass Alphabet gegen den DMA verstoßen habe, berichtete jüngst das Handelsblatt (€). Die Entscheidung – samt einer milliardenschweren Geldbuße – soll jedoch nach einer Intervention von Ursula von der Leyen wieder in der Schublade verschwunden sein.

Dem Fachblatt The Capitol Forum (€) zufolge soll die Kommissionspräsidentin bereits seit Januar auf der Bremse stehen. Anstelle einer Verurteilung setzte die Kommission seit Jahresanfang weitere Verfahren in die Welt: Unter anderem will sie Alphabet dabei unterstützen, das Android-Betriebssystem für Entwickler:innen weiter zu öffnen sowie Dritt-Anbietern den Zugriff auf bestimmte Daten der Google-Suchmaschine zu geben.

Auf Anfrage bestreitet die EU-Kommission die Vorwürfe. „Es gibt absolut keine politische Blockade von Fällen“, sagte heute ein Kommissionssprecher bei einem Presse-Briefing. Abgeschlossene Untersuchungen seien auch in ihrem Interesse. Es gehe nicht darum, eine Strafe nur der Strafe wegen zu verhängen. Eine Entscheidung werde von der Kommission erst dann final abgesegnet, wenn sie „technisch fertig und solide genug“ sei, so der Sprecher.

Europäische Digitalgesetze, neben dem DMA auch der Digital Services Act (DSA) oder die Datenschutz-Grundverordnung (DSGVO), sind für große Tech-Konzerne wie Alphabet oder Apple ein rotes Tuch. Jahrzehntelang konnten sie weitgehend ungehindert wachsen und bestimmte Marktsegmente besetzen, ohne auf nennenswerten Widerstand von Kartellbehörden zu stoßen. Vor allem der in der ersten Amtsperiode von der Leyens verabschiedete DMA hat das wachsende Ungleichgewicht auf digitalen Märkten im Visier.

Mit dem Wahlsieg Donald Trumps und seiner America-First-Agenda hat die Tech-Branche einen willigen Unterstützer in ihrem Kampf gegen angebliche Überregulierung gefunden. Unmittelbar nach seinem Amtsantritt im Januar 2025 legte der US-Präsident etwa in einem Memorandum mit Verweis auf DMA und DSA fest, US-amerikanische Unternehmen vor „Erpressung und unfairen Geldbußen aus dem Ausland“ schützen zu wollen.

Gedroht hatte Trump unter anderem mit Strafzöllen, die er einige Monate später tatsächlich vorstellte. Zwar konnte sich die EU im Spätsommer auf einen Deal mit den USA einigen, ohne auf dem Papier die Digitalgesetze anzufassen. Vom Tisch ist die Auseinandersetzung jedoch nicht: Bis heute haben sich die EU-Institutionen nicht darauf geeinigt, wie die Zollvereinbarung aus dem Vorjahr umgesetzt werden soll.

„Die EU-Kommission knickt ein“


Auch für die US-Seite ist die Angelegenheit nicht abgeschlossen. Hochrangige US-Vertreter schießen weiterhin gegen EU-Digitalgesetze und verknüpfen sie mit dem Handelsstreit. Die EU müsse ihre Regulierung von Big Tech lockern, um im Gegenzug geringere Zölle auf Stahl und Aluminium entrichten zu müssen, sagte US-Handelsminister Howard Lutnick im Herbst. Zugleich warnte der US-Botschafter bei der EU, Andrew Puzder, dass der DMA zu sehr auf US-amerikanische Tech-Konzerne ziele.

Im April war bekannt geworden, dass die EU-Kommission ein Gremium plant, um der Trump-Regierung entgegenzukommen. Darin soll sich die US-Regierung mit der EU zu Digitalregeln und Kartellverfahren abstimmen, wie die EU-Kommission dem Handelsblatt bestätigte.

Das nachgiebige und intransparente Vorgehen der EU-Kommission stößt jedoch immer mehr auf Kritik. Felix Duffy von der Nichtregierungsorganisation LobbyControl sagt etwa: „Die EU-Kommission knickt ein und sendet ein fatales Signal: Wenn Tech-Konzerne bei Verstößen gegen die EU-Digitalregeln keine Konsequenzen zu fürchten haben, bleiben Gesetze wie der DMA wirkungslos.“

Dem pflichtet Max Bank von der Organisation Rebalance Now bei: Zwar zeige der DMA Wirkung, drohe aber zum zahnlosen Tiger zu werden, weil die Kommission nicht konsequent handle. „Wenn selbst überfällige Strafzahlungen gegen Konzerne wie Google politisch gestoppt werden, untergräbt das die Glaubwürdigkeit des Gesetzes“, sagt Bank.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

07.05.2026 14:41

Auf der Suche nach Minderjährigen will Meta Nutzer*innen auf Facebook und Instagram umfassend durchleuchten. Der Konzern will sogar die Knochenstruktur von Menschen auf Fotos auswerten. Wie gefährlich ist das? Die Analyse.

Ein freundlich wirkendes Skelett vor schwarzem Hintergrund, es scheint zu lächeln.
Meta schickt eine "KI" auf die Suche nach jung wirkenden Körpern (Symbolbild) – Alle Rechte vorbehalten: IMAGO / Zoonar; Bearbeitung: netzpolitik.org

Instagram und Facebook wollen ihre Nutzer*innen künftig noch genauer unter die Lupe nehmen. Eine als KI bezeichnete Software soll unter anderem Texte in Posts und Kurzbios kontrollieren und Objekte in Fotos und Videos scannen. Die Software soll sogar die Körpergröße und Knochenstruktur abgebildeter Personen auswerten. Das Ziel dieser Art von Rasterfahndung sind Minderjährige.

Schätzt die Software eine Person für verdächtig jung ein, soll sie ihr Alter nachweisen. Junge Menschen unter 18 Jahre sollen die Plattformen nur im Jugendschutz-Modus nutzen; Kinder unter 13 Jahre dürfen keinen Account haben.

Wer also künftig auf Instagram Fotos vom Kindergeburtstag postet oder über Schulnoten spricht, könnte Probleme bekommen. Die Software könnte das als Hinweis werten, dass man noch nicht erwachsen ist. Diese beiden Beispiele kommen aus der Pressemitteilung von Meta.

Die neue KI-Überwachung startet Instagram demnach jetzt in der EU und in Brasilien. Zuvor lief sie bereits in den USA, Australien, Kanada und dem Vereinigten Königreich. Auf Facebook rollt Meta die Überwachung zunächst in den USA aus; im Juni soll sie für EU und Vereinigtes Königreich folgen.

Hier kommen die fünf wichtigsten Fragen und Antworten zu Metas neuen Alterskontrollen.

1. Bergen Metas Alterskontrollen Gefahren?


Ein Fachbegriff für die von Meta geplanten Alterskontrollen ist Inferenz, einfacher ausgedrückt: schlussfolgern. Inferenz-Methoden kombinieren mehrere Anhaltspunkte, um das Alter einer Person zu schätzen. Dabei können Dinge schiefgehen – besonders wenn ein Tech-Konzern sogar Fotos und Videos mit sogenannter KI durchsuchen will.

  • Datenmaximierung: In der EU verankert die Datenschutz-Grundverordnung (DSGVO) den Grundsatz der Datenminimierung. Das heißt im Fall von Meta: Der Konzern soll nicht mehr Daten sammeln und verarbeiten als nötig. Auf Datenminimierung pocht auch die EU-Kommission in ihren Leitlinien, die beschreiben, wie Online-Dienste Minderjährige schützen sollen; Grundlage is das Gesetzes über digitale Dienste (DSA). Passend dazu fordern in der aktuellen Debatte um Altersgrenzen und Social-Media-Verbote Politiker*innen durch die Bank weg, Alterskontrollen sollen datensparsam ein. Was Meta plant, ist jedoch das Gegenteil: Der Konzern will Daten nicht minimieren, sondern maximieren. Er will „mit KI-Technologie komplette Profile analysieren“.
  • Kontrollverlust: Meta listet nicht vollständig auf, was die Software auf der Suche nach Minderjährigen alles einbezieht. Hinweise auf Geburtstage oder Schulnoten sind nur Beispiele; ebenso die Knochenstruktur von Menschen in Fotos und Videos. Nutzer*innen können deshalb nicht wissen, welche der Dinge, die sie posten, möglicherweise problematisch sein könnten. Sie wissen auch nicht, was genau mit den aus der Analyse gewonnenen Erkenntnissen passiert. Meta ist ein Datenschlucker; in der Vergangenheit hatte der Konzern mehrfach Datenschutz-Skandale. Die autoritäre US-Regierung hat potenziell Zugriff auf Daten von Meta-Nutzer*innen in der EU. Daraus folgt: Menschen auf Instagram und Facebook können kaum kontrollieren, was mit ihren Daten geschieht.
  • Fehleinschätzungen: Inferenz-Methoden setzen auf Hinweise, aber Hinweise sind keine Fakten. Die Software könnte Menschen zu Unrecht als minderjährig einstufen. In der Folge müssten sie potenziell invasive Alterskontrollen überwinden; etwa auf Basis von Ausweisen oder biometrischen Gesichtsscans. Eventuell geraten manche Gruppen besonders oft in Verdacht, noch nicht erwachsen zu sein. Etwa Menschen, die sich aufgrund von Sprachschwierigkeiten nur sehr einfach ausdrücken. Oder eher kleine, schmale Menschen, deren Körper eine Software als jugendlich einstufen würde.
  • Gesellschaftsbild: Die Maßnahme steht für einen radikalen gesellschaftlichen Wandel im Umgang mit Risiken. Auf der Suche nach Minderjährigen werden praktisch alle Nutzer*innen zu Verdächtigen – und all ihre Uploads zu potenziellem Beweismaterial. Die Überwachung wichtiger Schauplätze der digitalen Öffentlichkeit wird zunehmend lückenlos. Lange Zeit wurden KI-gestützte Überwachungsmethoden vor allem diskutiert, um schwere Verbrechen aufzuklären. Jetzt sollen sie sogar Kinder aufspüren. Es geht um junge Menschen, die neugierig sind und Regeln brechen, nicht um Schwerverbrecher*innen. Das normalisiert permanente Überwachung, selbst im Alltag.
  • Function Creep ist die schrittweise Ausweitung einer Technologie über die ursprünglich beschriebenen Zwecke hinaus. Konkretes Beispiel: Schon jetzt nutzt die rassistische Trump-Regierung ein Arsenal an Überwachungstechnologie auf der Jagd nach Migrant*innen, um sie zu deportieren. Theoretisch könnte Meta die Systeme zur Suche nach Minderjährigen auch zur Suche nach Migrant*innen oder anderen vulnerablen Gruppen einsetzen. Entsprechende Gesetze könnten Konzerne dazu verpflichten, wenn die Infrastruktur erst einmal da ist.

2. Warum macht Meta das?


Meta reagiert mit den neuen Alterskontrollen wahrscheinlich auf die weltweite Debatte um Jugendschutz im Netz und Social-Media-Verbote. Jüngst hat etwa die EU-Kommission festgestellt, dass Meta nicht genug tut, um unter 13-Jährige von Facebook und Instagram fernzuhalten. Das ist ein möglicher Verstoß gegen den DSA; am Ende können Geldbußen drohen.

Die neuen Alterskontrollen könnte der Meta-Konzern als Argument dafür nutzen, dass er sich nun an die Regeln hält. Generell bieten Inferenz-Methoden mehrere Anreize für kommerzielle Online-Plattformen.

  • Plattformen wollen ihre Nutzer*innen nicht abschrecken; immerhin ist deren Aufmerksamkeit die wichtigste Geldquelle. Während etwa Ausweiskontrollen für alle eine sichtbare Hürden sind, laufen Inferenz-Methoden zunächst unscheinbar im Hintergrund.
  • Inferenz-Methoden basieren auf Wahrscheinlichkeiten. Plattformen können genau steuern, ab welcher Schwelle eines Verdachts die Software Alarm schlägt und von Nutzer*innen eine Altersverifikation verlangt. Auf diese Weise könnte ein Konzern stets optimieren, wie streng die Kontrollen ausfallen – auch mit Blick auf möglichst geringe finanzielle Einbußen.
  • Die Systeme hinter Inferenz-Methoden können für Außenstehende komplex und intransparent sein. Kommerzielle Online-Plattformen sprechen gerne davon, dass sie ihre Systeme kontinuierlich verbessern. Das gibt ihnen viel Spielraum, etwaige Fehler zu relativieren mit Verweis auf eine überholte Version der Systeme, etwa gegenüber Aufsichtsbehörden.

3. Ist das neu?


Inferenz-Methoden zur Alterskontrolle auf Online-Plattformen gibt es schon länger. Selbst Meta schreibt, dass sie ihre Systeme lediglich weiter „stärken“. Auch beispielsweise TikTok, ChatGPT, die Google-Suche oder YouTube suchen im Hintergrund nach Hinweisen darauf, ob Nutzer*innen zu jung sein könnten.

Neu ist allerdings die beschriebene Tiefe der Eingriffe – bis hin zur Analyse von Objekten und Knochenstruktur in Bildern und Videos. Wie zur Beschwichtigung betont Meta in der Pressemitteilung: „Das ist keine Gesichtserkennung.“ Die Software identifiziere keine Personen. Das kann technisch korrekt sein, macht die Eingriffe aber nicht unbedenklich.

4. Darf Meta das?


Vielleicht nicht. Die Datenschutzjuristin Kleanthi Sardeli verfolgt die Neuerungen bei Meta jedenfalls mit Skepsis. Sie arbeitet für die spendenfinanzierte NGO noyb („none of your business“) mit Sitz in Wien. Auf Anfrage von netzpolitik.org geht sie darauf ein, dass biometrische Daten wie Knochenstruktur und Körpergröße in der DSGVO einem strengeren Schutz unterliegen.

Knochenstruktur und Körpergröße können als Gesundheitsdaten angesehen werden, die denselben Schutz wie biometrische Daten genießen. Diese dürfen nur in Ausnahmefällen und auf Grundlage spezifischer Rechtsgrundlagen verarbeitet werden. Dazu gehört unter anderem die Einwilligung. In Metas Datenschutzerklärung wird dieser spezifische Einsatzbereich bisher nicht erwähnt, und als Rechtsgrundlage wird lediglich das berechtigte Interesse genannt – was für den Einsatz dieser neuen KI-Technologie eindeutig nicht ausreichend wäre.


Nähere Einschätzungen seien schwierig, schreibt Sardeli. Dafür seien Metas Informationen zu zurückhaltend. „Es wird auch nicht näher erläutert, wie Metas KI-Modelle auf die Alterserkennung trainiert werden – und ob Inhalte auf Meta-Plattformen verwendet werden, um diese KI-Funktionen weiter zu trainieren.“

Scharfe Kritik an Meta kommt von der deutschen Europa-Abgeordneten Alexandra Geese (Grüne), Stellvertretende Vorsitzende im Ausschuss für Binnenmarkt und Verbraucherschutz. Auf Anfrage von netzpolitik.org schreibt sie:

Was Meta hier plant, ist nichts weniger als der nächste Tabubruch: Die systematische Auswertung von Körpermerkmalen wie Knochenstruktur zur Altersbestimmung ist ein massiver Eingriff in hochsensible personenbezogene Daten.


Geese verweist auf eine Regel im DSA, die besagt: Online-Plattformen sind „nicht verpflichtet, zusätzliche personenbezogene Daten zu verarbeiten, um festzustellen, ob der Nutzer minderjährig ist“. Meta tut es dennoch. Statt mehr Schutz reagiere Meta mit mehr Überwachung. „Wer glaubt, man könne Kinderschutz mit biometrischer Massenanalyse erreichen, opfert Grundrechte auf dem Altar eines kaputten Geschäftsmodells.“

5. Was passiert als nächstes?


Die EU-Kommission dürfte sich für das laufende DSA-Verfahren genau anschauen, ob Meta mit den neuen Alterskontrollen die gesetzlichen Vorgaben erfüllt. Einerseits könnte Meta auf diese Weise tatsächlich mehr Minderjährige finden – andererseits könnte die Kommission die datenhungrigen Maßnahmen als unverhältnismäßig einstufen.

Parallel diskutieren Expert*innen gerade auf Deutschland- und EU-Ebene über Maßnahmen für Kinder- und Jugendschutz im Netz. Spitzenpolitiker*innen fordern vehement Social-Media-Verbote und (datensparsame) Alterskontrollen, während Fachleute aus unter anderem Medienpädagogik, Kinderschutz oder IT-Sicherheit vor beidem warnen. Im Sommer sollen die von EU-Kommission und Bundesregierung einberufenen Expert*innen ihre Empfehlungen vorlegen.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

07.05.2026 12:25

Grün-Schwarz will in Baden-Württemberg als erstem Bundesland doppelte KI-Videoüberwachung ausrollen: Kameras, die Menschen auf verdächtiges Verhalten überprüfen und sie gleichzeitig mit Gesichtserkennung analysieren. In Mannheim und zwei weiteren Städten soll das Pilotprojekt starten.

Kameras an einer Hausfassade.
Die "intelligente" Videoüberwachung in Mannheim soll ausgeweitet werden.

Gestern haben Cem Özdemir und Manuel Hagel den grün-schwarzen Koalitionsvertrag für Baden-Württemberg vorgestellt. Hier sollen demnach erstmals in Deutschland Kameras eingesetzt werden, die sowohl das Verhalten der Abgebildeten analysieren und bewerten, als auch deren Gesichter vermessen, um per Gesichtserkennung herauszufinden, ob sie von polizeilichem Interesse sind.

Die Verhaltenskontrolle wird bereits seit acht Jahren in Mannheim trainiert. Das Modellprojekt soll nun räumlich ausgeweitet werden, auf zwei weitere, bislang ungenannte Städte. Auch der Umfang wird erweitert, denn zusätzlich zur Verhaltenserkennungs-Technologie sollen künftig auch Objekte und Gesichter von den Kameras erkannt werden.

Live-Gesichtserkennung läuft in Deutschland bislang nur in Frankfurt am Main hinter öffentlichen Überwachungskameras. Die Software vermisst jedes Gesicht im Erfassungsbereich und schlägt Alarm, sobald es einem gesuchten Gesicht sehr ähnlich ist. Gesucht wird damit nach Terrorist*innen, nach vermissten Menschen, nach Opfern von Entführung, Menschenhandel oder sexueller Ausbeutung. Analysiert und mit den Polizeidatenbanken abgeglichen wird aber jedes Gesicht, das die Kameras aufnehmen.

Zusätzlich zur Echtzeit-Fernidentifizierung wollen Grüne und CDU der Polizei in Baden-Württemberg auch die Suche nach bestimmten Gesichtern im Internet erlauben. Auf Bundesebene gibt es aktuell ebenfalls Bestrebungen, das Tool einzuführen. Damit können Beamt*innen beispielsweise Menschen auf Social Media finden, etwa auf Bildern, die Vereine oder Arbeitgeber ins Netz stellen. Selbst auf Totalaufnahmen von Großveranstaltungen könnten Personen gefunden werden. Wenn die Verhaltensanalyse in einer der Pilotstädte eine Straftat detektiert, kann damit theoretisch auch die tatverdächtige Person retrograd identifiziert werden.

„Schonung der Grundrechte“



Für die Echtzeit-Fernidentifizierung und die Gesichtersuchmaschine muss die Koalition das Polizeigesetz von Baden-Württemberg ändern. Dabei hatte Grün-Schwarz das erst Ende vergangenen Jahres getan. Damals hatte die Landesregierung der Polizei Datenanalyse nach Palantir-Art erlaubt, die diese ohnehin schon lange betrieb. Außerdem genehmigten die alten und neuen Koalitionspartner der Polizei auch das KI-Training mit den persönlichen Daten von Bürger*innen sowie die Weitergabe dieser an externe Stellen.

Nun soll also eine neue Polizeigesetznovelle kommen, die auch Echtzeit-Fernidentifizierung ermöglicht. Niedersachsen, Sachsen und Schleswig-Holstein sind ebenfalls daran, Gesetzesgrundlagen dafür einzuführen. Die Technologie ist in Sicherheitsbehörden ziemlich beliebt, genauso wie der Verhaltensscanner, der in Mannheim trainiert wird. Vergangenes Jahr hat ihn Hamburg übernommen, Berlin folgt wohl als nächstes, Hessen, Niedersachsen, Sachsen, Schleswig-Holstein und Thüringen haben bereits Rechtsgrundlagen dafür oder arbeiten daran.

Bislang hat sich noch niemand getraut, beide Technologien auf einmal einzusetzen. Die Datenschutzbedenken sind bei beiden allein schon sehr hoch. In Baden-Württemberg gibt es nun aber scheinbar keine Scheu mehr. „KI-Videoschutz kann für mehr Sicherheit bei gleichzeitiger Schonung der Grundrechte sorgen“, schreiben Grüne und CDU in ihrem Koalitionsvertrag.

Dass es bei den drei Standorten bleibt, an denen die Koalition die multiple KI-Überwachung pilotieren will, ist vermutlich eher unrealistisch. Bereits vor der Wahl hatten sich Özdemir und Hagel dazu bekannt, den Einsatz von Videoüberwachungskameras entgrenzen zu wollen. Für den Einsatz soll keine erhöhte Kriminalitätsbelastung mehr nötig sein, die Kommunen sollen freihändig darüber entscheiden.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

07.05.2026 11:21

Die europäische Polizeibehörde Europol hat offenbar jahrelang eine Schatten-IT betrieben. Mitarbeitende sollen damit widerrechtlich große Mengen an personenbezogenen Daten durchsucht und ausgewertet haben. Dennoch will die EU-Kommission Europol nun mit deutlich mehr Budget und Personal ausstatten.

Ein schwarzes Loch über dem Europol-Gebäude.
Europol betrieb offenbar ein „Schwarzes Loch“ für unregulierte Datenanalyse. – Alle Rechte vorbehalten: Gebäude: IMAGO/IP3press, Schwarzes Loch: BoliviaInteligente/unsplash.com, Bearbeitung: netzpolitik.org

Die europäische Polizeibehörde Europol hat offenbar umfangreiche Mengen sensibler Daten auf einer Schatten-IT gesammelt und ausgewertet. Darunter Ausweisdokumente, Telefonverbindungen, Finanz- und Standortdaten – auch von Personen, die keiner Straftat verdächtigt wurden. Das zeigt eine gemeinsame Recherche von Correctiv, Computer Weekly und Solomon.

„Sie schützen das Gesetz – und brechen es“, zitiert Correctiv einen der anonym bleibenden Europol-Insider, die im Text vorkommen. Internen Dokumenten, geleakten E‑Mails sowie Insiderinformationen von Whistleblower:innen zufolge haben Europol-Mitarbeitende diese Daten entgegen bestehender Sicherheitsvorkehrungen und Datenschutzbeschränkungen abrufen können. Es sei nicht nachvollziehbar, wer zu welchem Zeitpunkt auf die Daten zugegriffen, sie geändert oder gelöscht habe.

Die Veröffentlichung der Recherche fällt für Europol in eine politisch sensible Phase. Noch in diesem Jahr will die EU-Kommission voraussichtlich ein Gesetz einbringen, das Europol in eine „wirklich operative Polizeibehörde“ umwandeln soll. Dafür will die Kommission das Personal und das Budget der Behörde verdoppeln.

Europol habe laut der Recherche zwar einige Datenschutzprobleme öffentlich gemacht. Doch weite Teile ihrer Schatten-IT hat die Behörde mutmaßlich vor dem Europäischen Datenschutzbeauftragten geheimgehalten – darunter ein irreguläres System namens „Pressure Cooker“, mit der Europol offenbar geltende EU-Gesetze umging. Das System ist möglicherweise noch heute im Einsatz.

Das „Schwarze Loch“ für die unregulierte Datenanalyse


Auslöser dafür, die Schatten-IT zu entwickeln, waren die Terroranschläge unter anderem auf das Bataclan-Theater in Paris im November 2015. Damals gründete Europol die Task Force „Fraternité“, der EU-Mitgliedstaaten große Datenmengen zuspielte. Europols Cybercrime-Einheit übernahm daraufhin das sogenannte Computerforensik-Netzwerk (CFN), das im Jahr 2012 mit der Absicht eingerichtet worden war, digitales Beweismaterial zu sammeln.

Obwohl Europol das CFN gemeinsam mit der eigenen IT-Abteilung verwalten sollte, entzog sich das Netzwerk bald jener Aufsicht. Innerhalb weniger Jahre habe sich das CFN weit über seinen ursprünglichen Zweck hinaus entwickelt. Ein ehemaliger hochrangiger Europol-Mitarbeiter bezeichnet es laut der Correctiv-Recherche als „Schwarzes Loch“ für die unregulierte Datenanalyse.

Bis 2019 hätten sich im CFN rund 2.000 Terabyte an Daten angesammelt – fast 420-mal so viele Daten wie die reguläre Kriminaldatenbank von Europol enthielt. In mindestens einem Fall – dem Projekt „Focal Point Travellers“ – sollen sie auch vom US-amerikanischen Inlandsgeheimdienst FBI stammen.

„Europol-Analysten konnten so riesige Mengen an personenbezogenen Daten durchforsten, darunter auch Informationen, die sie nicht hätten speichern dürfen, und diese für kriminalistische Analysen zweckentfremden“, heißt es bei Correctiv.

Datenschutzbeauftragter schlug Alarm


Im Jahr 2019, ein Jahr nachdem die EU-Datenschutzgesetze in Kraft getreten waren, schlug der hauseigene Datenschutzbeauftragte von Europol, Daniel Drewer, intern Alarm. Er warnte die drei stellvertretenden Europol-Direktoren, dass im CFN rund 99 Prozent aller Europol-Daten verarbeitet würden. Laut der Recherche reichen die Sicherheitslücken und Versäumnisse von der „ineffektiven Zuweisung von Sicherheitsrollen und ‑verantwortlichkeiten“ über eine „unzureichende Verwaltung privilegierter Zugriffsrechte“ bis hin zur „Nichteinhaltung der Europol-Sicherheitsvorschriften“. Sollte Europol nicht reagieren, warnte Drewer, könnte ein Verbot des CFN das gesamte operative Geschäft von Europol lahmlegen.

Die Direktorin Catherine De Bolle informierte daraufhin im April 2019 den Europäischen Datenschutzbeauftragten. Nach einer jahrelangen Auseinandersetzung ordnete die Datenschutzbehörde schließlich an, die rechtswidrig gespeicherten Daten zu löschen. Erst im Februar 2026 teilte die Aufsichtsbehörde der Gemeinsamen Parlamentarischen Kontrollgruppe, ein Aufsichtsausschuss für Europol aus europäischen und nationalen Abgeordneten, mit, die fast zehnjährige Prüfung des CFN einzustellen – obwohl Europol zentrale Sicherheitsvorkehrungen noch immer nicht umgesetzt hatte.

„Europol hat über Jahre ein paralleles Datensystem betrieben, das jenseits rechtsstaatlicher Kontrolle arbeitet“, sagt Birgit Sippel (SPD) auf Anfrage von netzpolitik.org. Sie ist Europaabgeordnete und Mitglied des Ausschusses für bürgerliche Freiheiten, Justiz und Inneres. „Die Daten unschuldiger Menschen wurden gespeichert und analysiert, ohne dass nachvollziehbar war, wer darauf zugegriffen oder Einträge verändert hat. Das untergräbt das Vertrauen in die Beweissicherheit und die Rechtsstaatlichkeit europäischer Strafverfolgung.“

Obwohl Europol sich jahrelang der Kontrolle entziehen konnte, will die Kommission der Behörde nun mehr operative Befugnisse übertragen, sagt die Bürgerrechtsorganisation European Digital Rights gegenüber netzpolitik.org. „Es ist dringend erforderlich, dass die EU ihre Pläne überdenkt und Europol tatsächlich für seine rechtswidrigen Praktiken zur Rechenschaft zieht.“

Kocht der „Pressure Cooker“ noch?


Es ist derzeit unklar, ob etwa der „Pressure Cooker“ (zu Deutsch: Schnellkochtopf) weiterhin in Betrieb ist. Damit wird offenbar ein System bezeichnet, in dem operative Daten schnell und ohne Beschränkungen durch EU-Recht gespeichert und analysiert werden können.

Laut Europol sei der „Pressure Cooker“ lediglich eine interne Bezeichnung für das „Internet Facing Operational Environment“ (IFOE), das rechtskonform betrieben werde. Als Europol im Jahr 2025 die „IFOE-Quick Response Area“ dem Europäischen Datenschutzbeauftragten zur Konsultation vorlegte, warnte die Aufsichtsbehörde vor „einer vollwertigen Parallelumgebung zur regulären Betriebsumgebung von Europol“.

Der Europäische Datenschutzbeauftragte erklärte gegenüber Correctiv, er sehe „die Gefahr, dass Europol-Mitarbeiter ‚Angeltouren’ unternehmen könnten, also personenbezogene Daten sammeln, die für laufende strafrechtliche Ermittlungen irrelevant sind – und so Grundrechte verletzen“.

Wie solche Systeme trotz Inspektionen durch den Datenschutzbeauftragten lange Zeit verborgen blieben, beschreibt ein Europol-Insider. Demnach seien die Inspektionen „keine Razzia, bei der IT-Experten Systeme überwachen und Server beschlagnahmen“, sondern vielmehr ein „höfliches Gespräch“.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

07.05.2026 08:07

Die Alterskontroll-App der EU- Kommission nutzt ein Verfahren von Google-Entwicklern. IT-Fachleute warnen vor Abhängigkeiten und Datenschutzrisiken – auch mit Blick auf die geplante EUDI-Wallet.

Eine Person im Kaputzenpulli sitzt mit dem Rücken zum Betrachter und schaut aufs Smartphone.
Wie können Nutzer:innen ihr Alter bestätigen, ohne allzu viele persönliche Daten preiszugeben? – Gemeinfrei-ähnlich freigegeben durch unsplash.com: Jon Tyson

Mit einer Handy-App sollen Menschen in der EU schon bald ihr Alter gegenüber Online-Diensten nachweisen können. Noch gibt es diese App nicht. Die EU-Kommission hat aber Code für Komponenten und Spezifikationen bereitgestellt, aus dem Entwickler:innen eigene Versionen der App bauen und auf den Markt bringen sollen. Die Alterskontroll-App könne ein weltweiter „Goldstandard“ werden, so die Hoffnung der Kommission.

Doch bei der App hat sich die Kommission für ein Verfahren zweier Software-Entwickler entschieden, die für den US-Konzern Google arbeiten. Die Technologie ist Open Source. Doch eine ebenfalls offene Alternative, die seit Jahren gut erforscht und nicht an ein kommerzielles Unternehmen gebunden ist, lehnte die Kommission ab.

Sicherheitsexpert:innen kritisieren die Entscheidung, weil die von der Kommission gewählten Verfahren weniger effizient und risikobehaftet seien. Außerdem fordern sie, Standards zu nutzen, die Abhängigkeiten von einzelnen Anbietern vermeiden. Nur so ließen sich bestimmte Funktionen und ein hohes Datenschutzniveau sicherstellen.

Der datensparsame Null-Wissen-Beweis

Die Alterskontroll-App ist quasi ein Vorläufer der geplanten EUDI-Wallet, die Ende 2026 EU-weit starten soll. Mit der App sollen Nutzer:innen gegenüber Online-Plattformen nachweisen können, dass sie ein bestimmtes Mindestalter erreicht haben.

Um ausschließlich die erforderliche Information – Mindestalter ja oder nein – zu offenbaren, lässt sich ein sogenannter Zero Knowledge Proof (ZKP) nutzen, zu Deutsch: Null-Wissen-Beweis. Das erlaubt eine datensparsame Verifizierung, ohne die zugrundeliegenden Daten der Nutzer:innen wie etwa das genaue Alter preiszugegeben.

Damit die Authentisierung sicher erfolgen kann, braucht es digitale Signaturen. Sie sichern weite Teile des Internets und die meisten digitalen Transaktionen ab, indem sie etwa – vergleichbar mit einer handschriftlichen Unterschrift – mathematisch beweisen, dass eine Nachricht von einem bestimmten Absender stammt.

Beweisen, dass es einen Beweis gibt

Bei der Alterskontroll-App wird das Attribut, das eine Person älter als X Jahre ist, vom sogenannten „Attestation Provider“ signiert. Diese Aufgabe können Banken, Mobilfunkanbieter oder staatliche Behörden übernehmen. Sie bestätigen so als vertrauenswürdige Stelle die Echtheit von Altersbestätigungen digital und geben diese an die App aus.

Allerdings gibt es noch ein Problem zu lösen: Wäre diese Bestätigung, die bei einem Altersnachweis mitgeliefert wird, immer gleich, lassen sich damit verschiedene Nachweisaktionen bei unterschiedlichen Behörden, Händlern oder Plattformen miteinander verknüpfen.

Alles netzpolitisch Relevante

Drei Mal pro Woche als Newsletter in deiner Inbox.

Jetzt abonnieren

Das sollen „Anonymous Credentials“ verhindern, zu Deutsch: „anonyme Anmeldedaten“. Hier werden bei jeder Altersübermittlung neue, einmalige Beweise erzeugt, die an verschiedene Dienste, die den Nachweis prüfen, weitergegeben werden. Damit belegen Nutzer:innen, dass sie eine gültige Signatur für ihren Altersnachweis haben – ohne den Nachweis selbst oder die Signatur preiszugeben. Dank dieser wechselnden Beweise können die sogenannten Verifier nicht erkennen, dass es sich um dieselbe Person handelt – selbst wenn sie die Beweise untereinander vergleichen.

Zwei konkurrierende kryptografische Verfahren

Damit der Zero Knowledge Proof mit der Alterskontroll-App gelingt, kommen mehrere kryptografische Verfahren für Anonymous Credentials grundsätzlich infrage.

Aus Sicht vieler Kryptografen wäre etwa BBS ein etabliertes Verfahren. Es ist nach den Erfindern Dan Boneh, Xavier Boyen und Hovav Shacham benannt, wurde 2004 entwickelt und 2013 als ISO-Standard aufgenommen. BBS gilt als gut erforscht, ist allerdings bisher kaum im Praxiseinsatz.

Ein alternatives Verfahren baut auf ECDSA-Signaturen auf. Der „Elliptic Curve Digital Signature Algorithm“ ist als kryptografisches Verfahren weit verbreitet. Es wurde allerdings nicht dafür gebaut, um ZKP zu erstellen. Um einen Null-Wissen-Beweis auf Basis einer ECDSA-Signatur erzeugen zu können, braucht es technisch aufwendige Anpassungen. Im Vergleich zu BBS-basierten Verfahren gelten daher ECDSA-basierte Anonymous Credentials in der Fachwelt als langsamer und komplexer.

Kommission hat sich für ECDSA-Signaturen entschieden

Dennoch hat sich die Kommission bei ihrer Alterskontroll-App für ECDSA-basierte Anonymous Credentials entschieden. Laut dem technischen Blaupausen-Dokument hatte die Kommission zuvor fünf Optionen geprüft, drei von ihnen basieren auf BBS. „Unter diesen erscheinen ‚ECDSA Anonymous Credentials’ aufgrund ihrer Kompatibilität mit bestehenden Anmeldeformaten und Ausstellungsabläufen am vielversprechendsten“, schreibt die Kommission.

Anja Lehmann hält das für einen riskanten Ansatz. Sie ist Professorin am Hasso-Plattner-Institut der Universität Potsdam und forscht unter anderem zur datensparsamen Authentisierung in digitalen Wallets. „Nach außen wirkt der ECDSA-basierte Ansatz einfach, gerade weil er kompatibel mit bestehenden Systemen ist“, sagt Lehmann gegenüber netzpolitik.org. „Aber um diese Kompatibilität zu erreichen, braucht man ein kryptographisches Verfahren mit rund 20.000 Zeilen Code.“ Das sei langfristig eine große Herausforderung etwa für die Sicherheit und Standardisierung von kryptografischen Verfahren.

Auch Carmela Troncoso sieht die Entscheidung der Kommission kritisch: „Googles Ansatz ist neu, und obwohl er auf bekannter Kryptografie basiert, ist er noch nicht ausreichend erforscht“, sagt die IT-Sicherheitsexpertin vom Max-Planck-Institut für Sicherheit und Privatsphäre. „BBS ist hingegen eine etablierte Methode, um anonyme Zugangsdaten zu erzeugen, die wissenschaftlich gründlich untersucht wurde. Das ist ihr Hauptvorteil gegenüber Googles Verfahren.“

Beide IT-Sicherheitsfachleute gehören einer internationalen Gruppe von Kryptograf:innen an, die die EU-Kommission bereits im Juni 2024 dafür kritisierte, für die EUDI-Wallet veraltete Verschlüsselungsverfahren einsetzen zu wollen. Das Problem ließe sich nur beheben, wenn grundlegend andere kryptografische Lösungen wie BBS zum Einsatz kommen, lautete damals die Empfehlung der Kryptograf:innen.

Digitale Unabhängigkeit – mit Google?

Aus Sicht von Lehmann und Troncoso sprechen auch organisatorische Gründe gegen das Google-Verfahren. Entscheidet man sich für eine Lösung, die so komplex ist, dass die unterliegende Krypto-Bibliothek nur von sehr wenigen Fachleuten weiterentwickelt werden kann, begebe man sich in eine unnötige Abhängigkeit, warnt Lehmann. „Die Bibliothek bestimmt maßgeblich darüber, welche Funktionalität und welches Datenschutzniveau unterstützt wird“, sagt sie.

Wir sind ein spendenfinanziertes Medium.

Unterstütze auch Du unsere Arbeit mit einer Spende.

Jetzt spenden

Dass die Technologie Open Source ist, verspricht aus Sicht von Carmela Troncoso nicht per se viel mehr Spielraum. „Google entscheidet darüber, was wie authentisiert und wie das angepasst werden kann“, sagt Troncoso. „Will man die hochgradig optimierten ZKP-Bibliotheken verändern, ist besonderes Fachwissen erforderlich, über das derzeit vor allem Google verfügt.“ Daher warnt Troncoso davor, „Google zum Herzen der europäischen Identitätsinfrastruktur zu machen“.

Die Kommission teilt diese Sorge offenkundig nicht. Auf Nachfrage von netzpolitik.org definiert sie digitale Souveränität als „operative Kontrolle“ etwa über Spezifikationen und die rechtlichen Rahmenbedingungen. Die ECDSA-basierten Verfahren erfüllten hier viele Anforderungen: Es gebe Open-Source-Implementierungen, eine unabhängige Sicherheitsüberprüfung durch die Internet Security Research Group und einen Standardisierungsprozess.

Tatsächlich ist ECDSA als Signaturverfahren standardisiert – „allerdings nicht das Anonymous-Credentials-Verfahren, das darauf aufbaut“, ordnet Anja Lehmann ein. Für BBS-Signaturen gebe es bereits seit 2013 einen ISO-Standard und auch eine aktuelle IRTF Standardisierung. Zwar decke der Standard nur ein einzelnes signiertes Attribut ab, eine Erweiterung auf mehrere Attribute sei aus kryptographischer Sicht aber trivial, so die Sicherheitsexpertin.

Mögliche Weichenstellung für die EUDI-Wallet

Ob die EU-Kommission mit ihrer Wahl für Google bei der Alterskontroll-App auch eine Weichenstellung für die EUDI-Wallet gewählt hat, wird sich vermutlich in den kommenden Monaten zeigen.

Eine Entscheidung will die Kommission nach einer Aussage erst dann treffen, wenn die technischen Arbeiten, die fortlaufende Überprüfung durch die European Cybersecurity Certification Group und die Konformitätswerkzeuge vorangeschritten sind. „Es wurde noch kein Termin festgelegt“, so ein Kommissionssprecher gegenüber netzpolitik.org.

Auch einen Vortrag von Paolo De Rosa will die Kommission nicht als Hinweis auf eine vorzeitige Richtungsentscheidung verstehen. De Rosa ist „EUDI-Wallet-CTO“ der EU-Kommission. Ende März präsentierte er gemeinsam mit Abhi Shelat die EUDI-Wallet auf einer IT-Sicherheitskonferenz in San Francisco. Shelat ist Co-Autor des ECDSA-basierten Anonymous-Credentials-Ansatzes und Entwickler bei Google.

Es gehöre zur Arbeitsweise der Kommission, direkt mit Forschenden zusammenzuarbeiten und mit ihnen „auf Augenhöhe“ Vorträge zu halten, schreibt die Kommission.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

06.05.2026 14:32

Die Bundesdatenschutzbeauftragte warnt weiterhin vor der Chatkontrolle. Eine „anlasslose Massenüberwachung“ aller Bürger:innen „wäre in einem Rechtstaat beispiellos“. Auch die Datenschutzkonferenz fordert die EU-Gesetzgeber auf, die Chatkontrolle „endgültig abzusagen“.

Person mit blondem schulterlangem Haar, die mit der rechten Hand an die rechte Gesichtshälfte fasst, trägt dunkle Kleidung vor blauem Hintergrund.
Prof. Dr. Louisa Specht-Riemenschneider, Bundesbeauftragte für den Datenschutz und die Informationsfreiheit, bei der Vorstellung des Jahresberichts. – Alle Rechte vorbehalten: IMAGO / BREUEL-BILD

Die Bundesdatenschutzbeauftragte hofft, dass „die anlasslose und massenhafte Chatkontrolle hoffentlich endgültig vom Tisch“ ist. Das schreibt Louisa Specht-Riemenschneider in ihrem heute veröffentlichten Jahresbericht. Sie und andere Datenschutzaufsichtsbehörden kritisieren das Brechen von Ende-zu-Ende-Verschlüsselung und das verpflichtende Scannen von Nachrichten, das sogenannte Client-Side-Scanning.

Specht-Riemenschneider weiter: „Eine Chatkontrolle – also anlasslose Massenüberwachung gleichsam aller Bürgerinnen und Bürger – wäre in einem Rechtstaat beispiellos und schießt deutlich über das legitime Ziel (Bekämpfung sexualisierter Gewalt gegen Kinder und Jugendliche) hinaus.“

Trotz leichter Verbesserungen in der Rats-Position gäbe es weitere kritische Punkte bei dem EU-Gesetzesvorhaben. Neben der eigentlichen Chatkontrolle hat die Bundesdatenschutzbeauftragte hier unter anderem „pauschal verpflichtende Altersprüfungen in App-Stores“ im Auge, diese seien auszuschließen. „Solche Methoden können nur konkret risikoangemessen und datenminimiert eingesetzt werden, was einer pauschalen Vorschaltung entgegensteht“, heißt es weiter.

Datenschutzrechtliche Rechtsgrundlage fehlt


Auch eine freiwillige Chatkontrolle sieht Specht-Riemenschneider kritisch: „Für das von der CSA-Verordnung vorgesehene freiwillige CSAM-Scannen als Ausnahme vom Grundsatz der Vertraulichkeit der Kommunikation fehlt es an einer datenschutzrechtlichen Rechtsgrundlage. Eine solche ist bisher nicht in den Vorschlägen enthalten, aber aus meiner Sicht zwingend erforderlich.“ CSAM ist ein Sammelbegriff für Darstellungen und Inhalte sexualisierter Gewalt gegen Kinder.

Zudem würden durch die Einrichtung eines EU-Zentrums und Berichtspflichten an dieses Anreize für Diensteanbieter geschaffen, Chatkontrollen als faktisch verpflichtend anzusehen und durchzuführen. Dies könnte laut Specht-Riemenschneider dazu beitragen, dass Diensteanbieter ohne Rechtspflicht eingriffsintensivere Technologien entwickeln und verwenden. Ihre bisherige Kritik an diesen Technologien, wie zum Beispiel Client-Side-Scanning und Brechen der Ende-zu-Ende-Verschlüsselung, bleibe bestehen.

Specht-Riemenschneider warnt davor, dass derart intensive Eingriffe auf freiwilliger Basis „besonders kritisch“ seien. Nicht zuletzt bestünde das Risiko von doppelten Meldestrukturen, die eine effektive Strafverfolgung behindern könnten.

Anlasslose Chatkontrolle endgültig aufgeben


Bereits gestern hatte sich die Konferenz der unabhängigen Datenschutzaufsichtsbehörden des Bundes und der Länder zum Thema zu Wort gemeldet. Die Datenschützer appellierten in einer Entschließung an die Gesetzgebungsorgane der Europäischen Union sowie an die Bundesregierung, Pläne für eine anlasslose Chatkontrolle endgültig aufzugeben. Anlass dafür sei die voraussichtlich am 11. Mai beginnende vierten Verhandlungsrunde (Trilog) über die geplante EU-Verordnung zur Prävention und Bekämpfung des sexuellen Missbrauchs von Kindern.

In ihrer jüngsten Entschließung wiesen die Datenschützer:innen zum wiederholten Male darauf hin, dass die anlasslose Chatkontrolle, also die flächendeckende Überwachung der privaten Kommunikation auf Messenger-Diensten, das Brechen der Ende-zu-Ende Verschlüsselung und auch die Umgehungen einer solchen durch Client-Side Scanning unverhältnismäßige Grundrechtseingriffe seien und Millionen Europäerinnen und Europäer unter Generalverdacht stellen würden.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

06.05.2026 13:17

Heute haben die Abgeordneten im Landtag von Schleswig-Holstein erstmals eine Novelle des Polizeigesetzes diskutiert. Es geht um Verhaltensscanner und Gesichtserkennung. Expert*innen zweifeln, ob das Gesetz verfassungsgemäß ist; die Opposition warnt vor einer Dystopie.

Kameras an einem Leuchtturm
Mit dem neuen Polizeigesetz dürften fast überall Kameras installiert – und mit KI-Überwachung ausgerüstet werden. – Gemeinfrei-ähnlich freigegeben durch unsplash.com: Leuchtturm: Frank Weichelt, Kameras: Scott Webb, Collage: netzpolitik.org

Die Regierung in Schleswig-Holstein will die Polizei umfassend aufrüsten. Der aktuelle Entwurf soll den Beamt*innen nahezu alle Grundrechtseingriffe erlauben, die derzeit technisch möglich und en vogue sind: Verhaltensscanner, Echtzeit-Gesichtserkennung, Internet-Gesichtersuchmaschine, Datenanalyse à la Palantir, Tracking einzelner Menschen über mehrere Kameras hinweg.

Erstmals haben die Abgeordneten den Gesetzentwurf heute erstmals im Landtag diskutiert, danach wurde an den Innenausschuss überwiesen. Während Kritiker*innen schwere verfassungsrechtliche Bedenken haben, bleibt die Landesregierung bei ihrem Hardlinerkurs.

CDU-Innenministerin Magdalena Finke sagte: „Jede einzelne Maßnahme wurde mit größter Sorgfalt abgewogen.“ Für die Datenanalyse wolle man keine Palantir-Produkte verwenden, sondern gemeinsam mit NRW im Juni eine Ausschreibung veröffentlichen. Am liebsten wäre ihr ein europäisches Produkt.

Koalitionspartner Jan Kürschner, Grüne, unterstützt die Hightech-Überwachungspläne der Konservativen. Für die Datenanalyse bringt er einen Anbieter aus Schleswig-Holstein ins Spiel und empfiehlt, das entsprechende Rundum-Überwachungs-Tool unter einer Open-Source-Lizenz zu entwickeln.

Schleswig-Holstein werde immer sicherer, konstatiert Birte Glißmann von der CDU. Weil aber das subjektive Sicherheitsgefühl einiger Menschen unzureichend sei, sei auch sie pro Überwachungsausbau. Sie lobt unter anderem die „intelligente“ Videoüberwachung: Damit ließen sich „Auffällige Verhaltensmuster erkennen, um gleich eine Gegenmaßnahme in Gang setzen zu können.“

Der Abgeordnete Niclas Dürbrook von der SPD ist der erste Kritiker, der das Wort erteilt bekommt. Er nennt das Gesetz „ein Paket, von dem wesentliche Teile vor nicht allzu vielen Jahren wie aus einem dystopischen Science-Fiction-Film gewirkt hätten.“

Bernd Buchholz von der FDP sagt „Ich habe ein beklemmendes Gefühl wenn eine biometrische Fernidentifizierung in diesem Land möglich wird. Ich möchte mich nicht in einem Land bewegen, in dem ich mich nicht unkontrolliert bewegen kann.“ Sybilla Witsch vom SSW sieht einen tiefen Eingriff in das Recht auf informationelle Selbstbestimmung und kritisiert, dass in Schleswig-Holstein Menschen künftig bis zu acht Wochen in Haft genommen werden sollen, um Ordnungswidrigkeiten zu verhindern.

Eingriffe mit „großer Streubreite“


Ernste Kritik kam auch von Expert*innen im Vorfeld der Debatte im Parlament. Viele sehen im Entwurf verfassungsrechtliche Probleme, auch wenn die Regierung kleinere Aspekte angepasst hat. Das Unabhängige Landeszentrum für Datenschutz Schleswig-Holstein (ULD) unter der Datenschutzbeauftragten Marit Hansen warnt etwa in einer Stellungnahme vor „weitreichenden Grundrechtseingriffen mit großer Streubreite“.

Zur Begründung der Novelle des Polizeigesetzes schreibt die Regierung im Gesetzentwurf: Es gebe mehr Angriffe mit Messern. Allerdings werde laut ULD nicht deutlich, „wie die geplanten Maßnahmen zur Eindämmung von Messerangriffen oder anderen ähnlich schwerwiegender Kriminalitätsphänomenen beitragen können“.

Zudem bleibe „die Darlegung der fachlichen Eignung und Erforderlichkeit der geplanten Maßnahmen abstrakt.“ Insbesondere gelte das für zwei besonders schwerwiegende Eingriffsbefugnisse: Fernidentifizierung von Menschen in Echtzeit und automatisierte Datenanalyse. Die verfassungsrechtliche Verhältnismäßigkeit sei schwer nachvollziehbar. Einfach ausgedrückt: Möglicherweise darf der Staat diese Dinge nicht tun.

Videoüberwachung sei mit dem neuen Gesetz an mehr Orten möglich als zuvor; zugleich wiege der Eingriff durch automatisierte Gesichts- und Verhaltenserkennung schwerer. Das führe „zu einer deutlichen Ausweitung und Vertiefung von Grundrechtseingriffen.“

Kameras schon bei „erwarteten“ Ordnungswidrigkeiten


Schon heute darf öffentlicher Raum in Schleswig-Holstein gefilmt werden, und zwar dann, wenn an einem Kriminalitätsschwerpunkt zum Beispiel Gefahr für Leib, Leben oder Freiheit droht. Künftig soll Videoüberwachung jedoch schon erlaubt sein, wenn eine wie auch immer geartete Gefahr für die öffentliche Sicherheit existiert. Das ULD kritisiert:

Angesichts der großen Anzahl betroffener Personen bei der Videoüberwachung im öffentlichen Raum ist es fraglich, ob die Eingriffsvoraussetzungen verhältnismäßig sind. Zur Wahrung der Verhältnismäßigkeit sollte die Befugnis auf Gefahren für besonders gewichtige Rechtsgüter beschränkt werden.


Das Gesetz soll Videoüberwachung sogar an Orten erlauben, an denen die Polizei lediglich  Ordnungswidrigkeiten von „erheblicher Bedeutung“ erwartet. Der ULD fördert höhere Schwellen „im Hinblick auf die Schwere und auf die Häufigkeit von Straftaten oder Ordnungswidrigkeiten“.

Ähnliche Kritik an der Novelle kommt von Florian Becker, Direktor des Instituts für Öffentliches Wirtschaftsrecht an der Christian-Albrechts-Universität zu Kiel. In seiner Stellungnahme warnt er vor einer „deutlichen Absenkung der Eingriffsvoraussetzungen“ und breiter Anwendung offener Videoüberwachung. Die juristische Vereinfachung von Videoaufzeichnungen führe auf „datenschutzrechtlich sensibles Territorium“. Die automatisierte Verhaltensanalyse würde zudem die Eingriffswirkung der Videoüberwachung erheblich verstärken, „weil sie die Beobachtungskapazität der Polizei technisch vervielfacht und verdächtige Situationen automatisiert markiert.“

Externe Angestellte könnten Aufnahmen sichten


Laut Gesetz müssten nicht einmal Beamt*innen die von der Software ausgelösten Alarme prüfen – das könnten auch private Dienstleister tun, also Angestellte eines Unternehmens. Becker fordert deshalb eine Beschränkung des Zugriffs auf qualifizierte Beamte oder polizeilich ausgebildetes Personal. Und bevor die Polizei einen Ort überwacht, sollte sie förmlich feststellen, dass er gefährlich ist.

Bei der Massen-Datenanalyse nach Palantir-Art unterscheidet das schleswig-holsteinische Gesetz zwei Varianten – eine mit hohem und eine mit reduziertem Eingriffsgewicht. Bei der als harmloser beschriebenen Datenanalyse gibt es etwas weniger Datenquellen. Einfließen dürfen zum Beispiel personenbezogene Daten aus verschiedenen Polizeisystemen, etwa zur Bearbeitung von Fällen. Hinzu kommen Datensätze aus gezielten Abfragen staatlicher Register sowie einzelne gesondert gespeicherte Datensätze aus dem Internet.

Das ULD sieht das mit Sorge: „Es ist zweifelhaft, ob damit eine nennenswerte Reduzierung der Datenmenge und des Eingriffsgewichts erreicht wird. Denn die genannten Datenquellen dürften bereits nahezu die gesamten tatsächlich vorhandenen Daten umfassen.“

Selbst Daten von Zeug*innen sollen einfließen


In die Datenanalyse mit hohem Eingriffsgewicht können zusätzlich Daten aus Wohnraumüberwachungen und Online-Durchsuchungen fließen, außerdem unbeschränkt Verkehrsdaten aus Funkzellenabfragen. Da Maßnahmen der Wohnraumüberwachung und Online-Durchsuchung äußerst selten angewandt werden, unterscheiden sich die Befugnisse somit kaum, erklärt das ULD.

Besonders kritisiert das ULD, dass die Polizei auch Daten von Anzeigenden, Geschädigten, Zeug*innen oder Hinweisgebenden einbeziehen will. Die Datenschützer*innen warnen: „Nach der Rechtsprechung des Bundesverfassungsgerichts liegt ein schwerer Eingriff in das Recht auf informationelle Selbstbestimmung vor, wenn unter anderem Personen vermehrt dem Risiko gegen sie gerichteter polizeilicher Ermittlungsmaßnahmen ausgesetzt werden, die objektiv nicht zurechenbar in das relevante Geschehen verfangen sind.“

Selbst Daten zu Bagatelldelikten und Ordnungswidrigkeiten sollen einfließen, zudem alle Einsatzberichte der Polizei, auch wenn es in dem Einsatz beispielsweise nur um Ruhestörung ging oder eine vermisste Person. „Dies dürfte eine große Anzahl von Personen betreffen“, schreibt das ULD. „Es ist daher zweifelhaft, ob die vorgesehenen Schwellen für die Analyse dieser Daten verhältnismäßig sind.“ Das ULD fordert deshalb: Die Maßnahmen sollten eine Frist bekommen, und die Regierung solle sie vor einer Verlängerung prüfen.

Was hat das mit Messern zu tun?


Auch der Landesverband Frauenberatung Schleswig-Holstein (LFSH) erinnert in seiner Stellungnahme daran, dass das Gesetz  Messerkriminalität bekämpfen solle. In diesem Kontext sei es auffällig, dass die automatisierte Datenanalyse auch für Schutz von Eigentum oder Vermögenswerten angewendet werden kann, wenn „gewerbsmäßig oder bandenmäßig begangene Schädigung“ droht.

„Der Zusammenhang zwischen Schutz von Eigentum und Vermögenswerten und der eingangs benannten Messerkriminalität oder Straftaten gegen Leben, Leib, Freiheit oder die sexuelle Selbstbestimmung erschließt sich uns nicht. Hier sehen wir die Verhältnismäßigkeit der Maßnahmen als nicht gegeben an“, schreibt der LFSH.

Wie in Frankfurt am Main soll die Polizei in Schleswig-Holstein künftig per Live-Gesichtserkennung nicht nur nach Gefährdern suchen dürfen, sondern auch nach gefährdeten Personen – etwa Menschen, deren sexuelle Selbstbestimmung bedroht ist. „Aus unserer Sicht ergibt sich hieraus kein Nutzen für unsere Klient*innen“, schreibt der LFSH, der von Gewalt betroffene Frauen berät. Ein Nutzen zur Verhinderung von Messerkriminalität sei ebenfalls nicht ersichtlich.

Der LFSH wehrt sich auch gegen eine geplante Regel zu elektronischen Fußfesseln. Die mit diesen Geräten erlangten Daten dürfen nämlich demnach „zur Vorbereitung und Durchführung einer Abschiebung der überwachten Person“ genutzt werden – wenn diese bestimmter Straftaten verdächtigt wird. „Unseres Wissens nach gilt die Unschuldsvermutung unabhängig vom Aufenthaltsstatus“, schreibt der LFSH.

Anonymität kann verschwinden


Dirk Heckmann forscht an der Technischen Universität München zu Datenschutzrecht und verweist auf eine Einschätzung des Europäischen Datenschutzausschusses (EDSA). Demnach sei biometrische Fernidentifizierung in öffentlichen Räumen eine Form der Massenüberwachung und damit Demokratien grundsätzlich fremd. „Andere in der wissenschaftlichen Literatur charakterisieren biometrische Fernidentifizierung aufgrund der lebenslangen Beständigkeit der Merkmale als eine der eingriffsintensivsten Maßnahmen“, schreibt er weiter – die „Anonymität des Alltäglichen“ könne verschwinden. Besonders sensible biometrische Daten ließen sich leicht missbrauchen, gerade wenn private Unternehmen eine Software betreiben.

Zur Verhaltensanalyse schreibt er: „Während der Entwurf die Technik für geeignet hält, um Diskriminierungen entgegenzuwirken, lässt er außer Acht, dass zum einen die Technik selbst, zum anderen die Interaktion der Menschen mit der Technik diskriminierend sein können.“ Dazu kämen mögliche Einschüchterungseffekte und mögliche nachteilige Auswirkungen auf das freiheitlich demokratische Gemeinwesen insgesamt.

Der Abgleich von Fotos mit Bildern aus dem Internet, den Schleswig-Holstein erlauben möchte, sei, so Heckmann, „aller Wahrscheinlichkeit nach“ von der KI-Verordnung der EU verboten. Demnach dürfen nämlich keine Datenbanken aufgebaut werden, für die das Netz ungezielt ausgelesen wird. Außerdem grenze so eine Datenbank an Vorratsdatenspeicherung sehr sensibler Informationen. Er sieht ein hohes Missbrauchsrisiko.

Inzwischen gibt es auch zivilgesellschaftlichen Widerstand gegen das geplante Polizeigesetz. Eine Gruppe von Fußballfans will hierfür ein größeres Bündnis zu schmieden und bald zu einer ersten Demo aufrufen.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

06.05.2026 10:50

Eine Recherche von Chris Köver und Martin Schwarzbeck wurde mit einem Sonderpreis bei der Verleihung des Datenschutz Medienpreises prämiert. Wir freuen uns sehr über die Auszeichnung und gratulieren den Kolleg:innen!

Chris und Martin mit dem DAME-Preis in der Hand
Wir freuen uns über die Auszeichnung!

„Vom Partner verwanzt“ ist ein Artikel aus einer Reihe von Stalkerware-Recherchen, an der unsere Redakteur:innen Chris Köver und Martin Schwarzbeck seit Monaten arbeiten. Sie werteten dafür Datensätze aus dem Kundensupport der App mSpy aus, die durch ein Leak öffentlich geworden waren. Sie zeigen, wie die Täter:innen mit der App, die offiziell zur Kinderüberwachung vermarktet wird, ihre Partner:innen und Ex-Partner:innen überwachen – und wie der Support der App sie dabei unterstützt.

Nun erhielt die Recherche bei der Verleihung des Datenschutz Medienpreises DAME am 5. Mai 2026 einen vom Deutschen Spendenrat ausgelobten Sonderpreis. Der Preis ist mit 1.500 Euro dotiert.

„Datenschutz muss bereits im Familienkreis anfangen“

Die Jury sagt zu ihrer Auswahl: „Der Artikel macht deutlich, dass Datenschutz bereits im Familienkreis anfangen muss.“ Die Recherche zeige, wie manche Menschen im engsten privaten Umfeld Überwachungssoftware nutzten.


mSpy-Leak: Vom Partner verwanzt
Ein Mensch liegt im Bett und schaut auf ein Telefon, dabei ist eine Kamera auf die Person gerichtet.
Opfer von Spionagesoftware stehen unter ständiger Beobachtung.
mSpy-Leak Vom Partner verwanzt

Mit der Spionage-App mSpy überwachen Menschen heimlich die Handys ihrer Partner:innen. Das ist illegal. Jetzt gibt ein Leak Einblick in die Kommunikation mit Kund:innen. Die zeigt, wie skrupellos die Täter:innen ihre engsten Bezugspersonen ins Visier nehmen – auch in Deutschland.

6. Mai 2026

Der DAME-Hauptpreis ging an Fritz Espenlaub, Marie Kilg und Gregor Schmalzried für die Folge „Wie sicher sind meine KI-Chats“ aus dem KI-Podcast der ARD. Den 2. Preis erhielt die SWR-Dokumentation „Achtung Fälscher! Auf der Spur von Ausweis-Betrügern“ von Claus Hanischdörfer. Und den Jugendpreis erhielten drei Schüler:innen für das Video „Cookies“.

Stalkerware-Recherchen gehen weiter

Der prämierte Beitrag „Vom Partner verwanzt“ ist Teil der kontinuierlichen Berichterstattung von netzpolitik.org über die Gefahren von Stalkerware und ihre Bedeutung bei der Partnerschaftsgewalt. Im Februar 2026 veröffentlichten Chris Köver und Martin Schwarzbeck einen Beitrag, in dem sie erstmals nachzeichnen, wie in Deutschland eine Spionage-App als Mittel der Partnerschaftsgewalt eingesetzt wurde und welche Konsequenzen das für die Betroffene hatte.

Das Team von netzpolitik.org bedankt sich herzlich bei der Jury für die Anerkennung unserer Arbeit. Wir danken auch allen Spender:innen, ohne die solche Recherchen nicht möglich wären!


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

06.05.2026 09:12

Vom Lobby-Gipfel in den Alpen bis zum Buchhandlungspreis: Das erste Jahr Schwarz-Rot ist geprägt von skandalöser Intransparenz und zähem Ringen um Informationsfreiheit. Der vielleicht größte Umbruch: Unter Bundeskanzler Friedrich Merz ist Transparenz erstmals seit langem kein politisches Ziel mehr.

Friedrich Merz CDU, Bundeskanzler, aufgenommen waehrend seiner Regierungserklaerung zum Europaeischen Rat im Deutschen Bundestag in Berlin, 18.03.2026, durch Lichteinfall oder Bearbeitung sieht es so aus, als würde der Bundeskanzler im Dunkeln am Redepult stehen und selbst nur leicht beleuchtet sein
Transparenz ist für die Regierung von Bundeskanzler Friedrich Merz kein Thema – Alle Rechte vorbehalten: IMAGO / photothek

Es ging schon nicht gut los mit der neuen Regierung und der Transparenz: Noch bevor sie im Amt war, löste die Koalition in spe einen öffentlichen Ausschrei aus, weil sie auf Vorschlag der CDU über eine Abschaffung des Informationsfreiheitsgesetzes diskutierte. Am Ende flog die umstrittene Formulierung zwar aus dem Koalitionsvertrag von Union und SPD, doch ein Jahr nach Amtsantritt stellen Transparenzorganisationen der Regierung von Friedrich Merz ein vernichtendes Zeugnis aus.

„Der Stellenwert, den diese Regierung Transparenz einräumt, ist sehr gering“, schreibt uns etwa Sarah Schönewolf, Pressesprecherin des Portals Abgeordnetenwatch. „Der politische Wille, Transparenz zu priorisieren und zu stärken, ist in der Regierung Merz praktisch nicht vorhanden“, heißt es auch von FragDenStaat. Die Organisation Lobbycontrol sieht mit Blick auf „die Informationspolitik der schwarz-roten Bundesregierung und den Umgang mit Fragen aus Parlament, Presse und Öffentlichkeit“ sogar „einen neuen Tiefpunkt“ erreicht.

Wir haben die drei Organisationen um eine Transparenz-Bilanz des ersten Jahres Schwarz-Rot gebeten. Sie berichten uns von willkürlichen Auskunftsverweigerungen, verschleppten Anfragen und vorgeschobenen Ausnahmetatbeständen. Immer wieder würden einzelne Ministerien und ihre Leitungen durch skandalöse Intransparenz auffallen. Dass die Regierung die gesetzliche Lage der Informationsfreiheit verbessern könnte, erwartet von ihnen niemand mehr.

Vom Lobby-Gipfel in den Alpen bis zum Buchhandlungspreis


„Ob Interessenkonflikte, Lobbykontakte oder Maskendeals, die aktuelle Regierung zeigt sich besonders zugeknöpft, schmallippig und teilweise geradezu dreist darin, wie Antworten verweigert werden“, schreibt uns etwa Timo Lange von Lobbycontrol. Als Beispiel nennt er unter anderem den vom Gesundheitsministerium seitenweise geschwärzten Sudhoff-Bericht zu den Maskengeschäften des ehemaligen Gesundheitsministers Jens Spahn.

Ein zentrales Problem macht Sarah Schönewolf von Abgeordnetenwatch in der Wirtschaftsnähe wichtiger Akteur:innen aus. „Überdurchschnittlich viele Mitglieder dieser Regierung waren bis kurz vor ihrer Ernennung selbst als Lobbyist:innen tätig und legen einen sehr unbefangenen Umgang mit Lobbyeinfluss einerseits und einen sehr zurückhaltenden Umgang mit Transparenz darüber andererseits an den Tag.“

Das Paradebeispiel hierfür dürfte Wirtschaftsministerin Katherina Reiche sein, die bis kurz vor ihrem Amtsantritt Vorstandsvorsitzende einer Tochtergesellschaft des Energiekonzerns E.ON war. Erinnert sei beispielhaft an die vermeintlich rein private Reise zu einem Lobby-Treffen in Tirol im Oktober 2025, das von ihrem Ehemann Karl-Theodor zu Guttenberg mitorganisiert wurde. Als Journalist:innen Anfragen zu dem exklusiven Stelldichein mit Wirtschaftsbossen und internationalen Politiker:innen stellten, verweigerte das Wirtschaftsministerium die Auskunft. Reiche sei schließlich privat bei dem Event gewesen, auch wenn sie im Programm als „Ihre Exzellenz“ und amtierende Bundeswirtschaftsministerin vorgestellt wurde.

Ein anderes Beispiel ist Kulturstaatsminister Wolfram Weimer, der zunächst behauptet hatte, sein Medienunternehmen, das unter anderem das Online-Magazin The European herausgibt, mit Amtsantritt verlassen zu haben. Erst durch Recherchen der Süddeutschen Zeitung wurde öffentlich, dass er weiter Anteile an der Weimer Media Group hielt. In Reaktion auf den öffentlichen Aufschrei ließ der Unternehmer seine Beteiligung ruhen.

Auch Weimers Vorgehen zum Buchhandlungspreis war durch Intransparenz geprägt: Die Streichung dreier linker Buchhandlungen von der Liste der Preisträger:innen wurde zunächst als Jury-Entscheidung getarnt. Als später klar wurde, dass der Staatsminister die Läden wegen „verfassungsschutzrelevanter Erkenntnisse“ ausschließen ließ, verweigerte er konkretere Auskünfte. Inzwischen haben die betroffenen Buchhandlungen Klagen angekündigt.

4.000 Euro Gebühren für eine Akteneinsicht


Womöglich noch gravierender als das Verhalten einzelner Regierungsvertreter:innen sind systematische Hürden bei Auskunftsanfragen durch Journalist:innen und zivilgesellschaftliche Akteur:innen.

Als Abgeordnetenwatch beispielsweise Einsicht in Unterlagen zu acht Lobbyterminen von Wirtschaftsministerin Katherina Reiche beantragte, drohte ihr Ministerium der Organisation nach Auskunft von Pressesprecherin Sarah Schönewolf mit Bearbeitungsgebühren von bis zu 4.000 Euro. Die Begründung: Es handele sich um acht separate Anträge, sodass acht Mal der Höchstbetrag von 500 Euro aufgerufen werden könne. Dabei habe das Bundesverwaltungsgericht eine vergleichbare Praxis bereits 2016 für rechtswidrig erklärt: „Abschreckend wirkende Gebühren sind mit dem IFG unvereinbar“, so Schönewolf. Bei einem vergleichbaren Fall unter Reiches Vorgänger Robert Habeck habe das Ministerium lediglich einmal die Höchstgebühr verlangt.

Erst nachdem man Klage angedroht habe, hätte das Ministerium eingelenkt, erzählt Schönewolf. „Das ist kein Einzelfall: Wir erleben wiederholt, dass Ministerien versuchen, den Zugang zu Informationen durch hohe Gebühren oder Verzögerungen von deutlich mehr als der einmonatigen Frist zu erschweren.“

FragDenStaat muss häufiger Klagen


Auch FragDenStaat berichtet von immer neuen Steinen, die der Transparenzorganisation in den Weg gelegt werden. Anfragen nach dem Informationsfreiheitsgesetz würden immer wieder verschleppt oder komplett ignoriert, so Pressesprecherin Michelle Trimborn. Außerdem mache man die Erfahrung, dass häufig Ausnahmetatbestände vorgeschoben und etwa Sicherheitsbedenken extrem großzügig ausgelegt werden oder Dokumente plötzlich als geheime „Verschlusssache“ gelten würden.

Die Zahl der Klagen und Verfahren, die man deshalb gegen die Regierung führe, habe zugenommen. Man würde „manche Ministerien in Sachen Transparenz als ‚mangelhaft‘ bewerten“.

Besonders auffällig sei das Innenministerium mit seinen nachgeordneten Behörden. Aktuell versucht FragDenStaat beispielsweise, Fragenkataloge zu erhalten, die das Ministerium an Politische Stiftungen geschickt hat. Eine Antwort wäre laut gesetzlicher Vorgaben bis Anfang April fällig gewesen, bislang hat das Ministerium laut Dokumentation auf der Plattform nicht einmal reagiert. Auch zur Durchleuchtung zivilgesellschaftlicher Organisationen durch den Verfassungsschutz im Rahmen des sogenannter Haber-Verfahrens schweigt das Innenministerium beharrlich.

Erstmals ist Transparenz kein politisches Ziel mehr


Auch wir bei netzpolitik.org machen unsere Erfahrungen mit der schweigsamen Regierung. Gerne hätten wir zum Beispiel erfahren, ob auch deutsche Behörden mutmaßlich illegal aus der Werbeindustrie gesammelte Informationen von Datenhändlern kaufen, doch die Regierung schweigt sich dazu aus. Selbst als die Bundestagsabgeordnete Donata Vogtschmidt im Parlament eine Kleine Anfrage zu dem Thema stellt, erhält sie keine Auskunft, nicht mal eine eingestufte. „Auch ein geringfügiges Risiko des Bekanntwerdens derart sensibler Informationen kann unter keinen Umständen hingenommen werden“, so die Begründung.

Dabei ist es natürlich nicht so, als hätten vorangegangen Bundesregierungen in Sachen Transparenz immer besonders geglänzt. Schon vor zehn Jahren war die „Informationsfreiheits-Ablehnung des Tages“ eine beliebte Rubrik auf netzpolitik.org. Auch unter den Kanzler:innen Merkel und Scholz wurden IFG-Anfragen gerne mal unter Verweis auf absurde Gründe wie das Urheberrecht abgelehnt.

Neu sei allerdings, dass die Regierung Merz Transparenz nicht mal mehr als politisches Ziel benenne, so Sarah Schönewolf von Abgeordnetenwatch:

Die Ampel hatte sich Transparenz explizit auf die Fahnen geschrieben und trotz einiger Schwächen zumindest teilweise umgesetzt. Schwarz-Rot habe nicht einmal das. Im Koalitionsvertrag findet sich kein einziges konkret benanntes Transparenzvorhaben in den für uns relevanten Bereichen. Das ist eine unambitionierte und uninspirierte Fortführung des Status quo.


Informationsfreiheit unter Druck


Zu den Fortschritten unter der Ampel-Regierung zählt etwa der „exekutive Fußabdruck“, der den Einfluss von Interessengruppen auf Gesetzestexte sichtbar machen soll. Dieser werde von den Ministerien bisher kaum angewendet, kritisieren Abgeordnetenwatch und Lobbycontrol. Aktuell evaluiert das Digitalministerium die Regelung, Timo Lange von Lobbycontrol fordert deshalb, dass das Instrument dringend nachgebessert werden müsse.

Auf der Wunschliste der drei Organisationen bleibt zudem die Einführung eines Transparenzgesetzes auf Bundesebene. „Transparenz bleibt ein wichtiges Mittel, um Vertrauen in die Regierung, Teilhabe und letztlich Demokratie zu stärken“, so Michelle Trimborn. „Dass die schwarz-rote Regierung gerade jetzt nicht für mehr Transparenz sorgt, um autoritären Entwicklungen und Desinformation etwas entgegenzusetzen, ist fahrlässig und gefährlich.“

Tatsächlich stehen die Zeichen aktuell sogar eher auf Abbau von Transparenz. Im Bund ist der erwartete Angriff bislang zwar nicht erfolgt, dafür jedoch auf Länderebene. In mehreren Bundesländern laufen derzeit Gesetzgebungsverfahren, die die Informationsfreiheit im Namen von Bürokratieabbau und Sicherheit beschneiden.

Dabei sei Transparenz keine Kür, sondern eine der Grundvoraussetzungen dafür, dass Demokratie funktioniert, so Sarah Schönewolf. „Wer sie verweigert, schwächt den Rechtsstaat.“


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

05.05.2026 12:14

Gerade gibt es bundesweit Bestrebungen, Überwachungskameras mit Systemen zu koppeln, die vollautomatisiert erkennen, was die abgebildeten Menschen gerade tun. Davy Wang von der Gesellschaft für Freiheitsrechte erklärt, warum das eine schlechte Idee ist.

Eine Faust fliegt auf die Linse zu.
Verhaltensscanner werden aktuell eingeführt, um Gewalttaten zu erkennen. – Gemeinfrei-ähnlich freigegeben durch unsplash.com: Dan Burton

Verhaltensanalyse-Software legt eine Art Strichmännchen über die Gliedmaßen abgebildeter Menschen. Anhand der Bewegungen dieses Vektorenbündels schätzt sie, welches Verhalten zu sehen ist. Bei vorab festgelegten Kategorien schlägt sie Alarm. In Mannheim sind das aktuell Schläge, Tritte, Schubser und abwehrende Körperhaltungen. In Hamburg wird auch detektiert, wenn jemand liegt.

Berlin will bald ebenfalls eine derartige Software einsetzen, Baden-Württemberg will sie auf Heidelberg ausweiten, in Bremer Tram-Bahnen läuft sie bereits. In Niedersachsen, Sachsen, Schleswig-Holstein und Thüringen sind Gesetzesentwürfe dazu in der Abstimmung. Es wird künftig wohl immer mehr Areale geben, in denen KI prüft, ob sich die Anwesenden artig benehmen.

Zeit also, sich die Technologie mal genauer anzuschauen: Welche Auswirkungen hat sie auf die Grundrechte der Betroffenen, wo liegen die größten Risiken bei der Implementierung und welche Rolle kann sie bei der drohenden autoritären Wende spielen? Das haben wir Davy Wang gefragt, Jurist bei der Gesellschaft für Freiheitsrechte.

„Ein subtiles Gefühl des Überwacht-Seins“



netzpolitik.org: Herr Wang, Berlin will bald Verhaltenserkennungs-Kameras an vermeintlich besonders kriminalitätsbelasteten Orten installieren. Liegen diese Orte in Ihrem Lebensradius?

Davy Wang: Im Görlitzer Park bin ich in meiner Freizeit gelegentlich, am Kottbusser Tor oder an der Warschauer Straße steige ich manchmal in Bahnen.

netzpolitik.org: Werden Sie sich dort sicherer fühlen, wenn die Verhaltenserkennung läuft?

Davy Wang: Ich fühle mich da aktuell nicht unsicher. Aber wenn die Verhaltenserkennung kommt, wird das sicher ein subtiles Gefühl des Überwacht-Seins auslösen.

netzpolitik.org: Welche Auswirkungen hat die Technologie auf die Grundrechte der Menschen, die da langlaufen?

Davy Wang: Da ist meine Privatsphäre betroffen und die aller anderen Menschen, die sich da bewegen. Konkret bedeutet dies eine Einschränkung des Grundrechts auf informationelle Selbstbestimmung. Nach dem darf eigentlich ich darüber bestimmen, wer meine Daten erfasst und nutzt. Darüber hinaus kann so eine Überwachung Menschen davon abhalten, den Ort zu besuchen, und sich darauf auswirken, wie sich Menschen dort verhalten. Das hat dann beispielsweise auch Auswirkungen auf die Versammlungsfreiheit.

„Keine Zahlen, die die Wirksamkeit belegen“



netzpolitik.org: Werden da alle Passant*innen unter Generalverdacht gestellt?

Davy Wang: Von beiden Systemen werden erst einmal alle Menschen erfasst.

netzpolitik.org: Und ist das Problem, das mit der Überwachung gelöst wird, diesen massiven Grundrechtseingriff wert?

Davy Wang: Aus den Pilotprojekten gibt es keine Zahlen, die die Wirksamkeit belegen. Dabei gibt es sehr hohe Anforderungen. Denn die Anlagen erfassen viele tausend Menschen täglich, die Betroffenen wissen nie genau, ob ihre Daten gerade verarbeitet werden, und dann wird noch ein sehr intransparentes KI-System benutzt, dessen Schlussfolgerungen nicht nachvollziehbar sind. Bei einem derart strengen Eingriff in die Grundrechte bräuchte es strenge Anforderungen und Belege, dass die Technologie wirksam ist.

netzpolitik.org: Solche Systeme haben immer eine gewisse Rate von False Positives. Das sind Alarme, die auf einem Fehler, einem falschen Verdacht beruhen. Ist da die Verfolgung Unschuldiger schon eingepreist?

Davy Wang: Es ist ein Problem, wenn ein Maximum für diese Rate nicht fest vorgegeben ist. Dann kann die Polizei frei einschätzen, wie viele Fehl-Verdächtigungen sie noch akzeptabel findet. In Berlin wurde die maximale Fehlerrate jetzt in einer Ausschreibung benannt: bis zu 25 Prozent. Jeder vierte Alarm würde dann versehentlich ausgelöst. Das ist ziemlich viel. Da werden viele Verhaltensweisen erfasst, die völlig unproblematisch sind. Und dann kann es auch sein, dass Menschen zum Opfer von Anschlussmaßnahmen werden, die gar nichts getan haben. In den Landespolizeigesetzen steht ja auch gar nicht, welche Verhaltensweisen mit dem Scanner gesucht werden können. Da steht einfach nur: Verhaltensweisen, die auf Straftaten hindeuten. Welche gesucht werden, liegt dann im Ermessen der Exekutive.

„Es gibt einen politischen Druck“



netzpolitik.org: Wie kommt das eigentlich, dass diese Technologie gerade so unglaublich beliebt ist?

Davy Wang: Die Polizeien in den Bundesländern und auf Bundesebene wollen ihre Digitalisierung vorantreiben. Die wollen jetzt auch KI-Systeme nutzen, um vermeintlich effektiver Straftaten verhüten zu können. Da sehe ich die Gefahr, dass man sich öffentlich der Rhetorik bemüht, dass die Anlage verhältnismäßig sei, weil sie beispielsweise keine Gesichter analysiert. Es gibt auch einen politischen Druck, nach öffentlichkeitswirksamen Gewaltvorfällen zu handeln und beispielsweise die Videoüberwachung weiter auszubauen.

netzpolitik.org: In der Logik der Verfechter ist die Technik Privatsphäre-freundlicher als konventionelle Videoüberwachung, weil ja nicht mehr unbedingt immer ein Mensch zuschaut. Als wäre es keine Überwachung, wenn uns ein Computer analysiert. Was sagen Sie dazu?

Davy Wang: Das ist trotzdem auch eine Überwachung und auch ein Grundrechtseingriff. Wenn die Polizei durch ein KI-System personenbezogene Daten erfasst, ist es ein Eingriff in die Privatsphäre. Und diese Überwachung kann zu Ingewahrsamnahme und anderen Anschlussmaßnahmen führen.

netzpolitik.org: Müsste die Eingriffsschwelle für die Verhaltenserkennung nicht noch höher sein als die für Videoüberwachung? Immerhin ist es ja eine Art Videoüberwachung plus.

Davy Wang: Da würde ich definitiv zustimmen. Auch aus unserer Sicht ist die Eingriffsschwelle viel zu niedrig. Durch die Nutzung des KI-Systems und die automatisierte Auswertung enthält der Eingriff eine neue Qualität. Dabei hat das Bundesverfassungsgericht betont, dass automatisierte Auswertungen durch selbstlernende Systeme ein spezielles Eingriffsgewicht haben können, wenn die Entscheidungsfindung und Funktionsweise weder für die Betroffenen noch für die handelnde Behörde nachvollziehbar sind.

„Das kann diskriminierend wirken“



netzpolitik.org: Weil die Systeme menschliche Körper vor der Analyse in Vektoren umrechnen, also Hinweise auf Hautfarbe, Alter, Geschlecht entfernen, gelten sie nicht als diskriminierend. Was sagen Sie dazu?

Davy Wang: Das kann man nicht pauschal so sehen. Es gibt Berichte, dass unproblematisches Verhalten wie Liegen oder Taumeln erfasst wird. Das kann diskriminierend gegenüber bestimmten Personengruppen wirken. Und durch die Trainingsdaten kann ja auch ein Bias entstehen, dass dann Bewegungen bei bestimmten Gruppen eher falsch erkannt werden.

netzpolitik.org: Ein weiteres Argument für den Einsatz der Verhaltensanalyse ist die Effizienz. Führt die dann nicht automatisch zur Ausweitung – weil man mit den gleichen Kräften mehr Stadtgeschehen im Blick behalten kann?

Davy Wang: Das sehe ich als eine reale Gefahr. Die vermeintliche Effektivität kann dazu führen, dass immer mehr Orte die Technik einführen.

netzpolitik.org: Es heißt, letztlich entscheidet ein Mensch darüber, ob Einsatzkräfte zu einer Situation entsandt werden. Wie weit wird da die menschliche Verantwortung aufgelöst?

Davy Wang: Wenn der Mensch sich auf die Technik verlässt, neigt er dazu, ihren Empfehlungen zu folgen. Und die Entscheidungsfindung des KI-Systems ist für die Beamt*innen nicht nachvollziehbar, was ein Grundvertrauen in die Richtigkeit der Entscheidung begünstigt.

„Wir glauben, dass die Rechtsgrundlagen angreifbar sind“



netzpolitik.org: Welche Hebel hat die Zivilgesellschaft, um zu verhindern, dass die Technologie breit ausgerollt wird?

Davy Wang: Wir als GFF betreiben strategische Prozessführung. Eine Möglichkeit ist, wenn diese Systeme im Einsatz sind, dagegen zu klagen und zu versuchen, das zum Bundesverfassungsgericht zu bringen. Wir glauben, dass die Rechtsgrundlagen in mehreren Bundesländern angreifbar sind. Ansonsten kann man sich auch politisch engagieren. Durch Petitionen, durch Demonstrationen oder als Sachverständige im Gesetzgebungsverfahren. Was auch hilft, ist parlamentarische Kontrolle, beispielsweise mit Kleinen Anfragen.

netzpolitik.org: Was sagt die EU-KI-Verordnung zur Verhaltensanalyse?

Davy Wang: Die stuft sie als Hochrisiko-KI ein. Das bedeutet, es braucht eine Risikobewertung und Risikominderungsmaßnahmen, es gibt Sorgfalts‑, Berichts- und Aufsichtspflichten.

netzpolitik.org: Welche Rolle kann die Verhaltenserkennung bei der autoritären Wende spielen?

Davy Wang: Der Dual Use für Sicherheit und Kontrolle ist bei dieser Technologie systeminhärent. Die kann in demokratischen Staaten in engen Grenzen grundrechtsschonend eingesetzt werden, aber in autoritären Staaten auch dazu genutzt werden, marginalisierte Gruppen bei Protesten zu überwachen. Das richtet sich je nach Einsatzform aus.

netzpolitik.org: Zahlen zum Erfolg der Technologie werden nicht veröffentlicht. Kann es sein, dass hier vor allem getestet wird, ob sich so eine Überwachungsmaßnahme ohne größere Widerstände durchsetzen lässt?

Davy Wang: Das ist ein berechtigter Verdacht. Dazu passt auch, dass in keinem der Polizei-Gesetze eine unabhängige Evaluation der Verhaltenserkennung festgeschrieben ist.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

04.05.2026 18:35

Eine der wichtigsten Konferenzen zu digitalen Grund- und Menschenrechten sollte diese Woche in Sambia stattfinden. Doch die Veranstaltung in dem südafrikanischen Land wurde kurzfristig abgesagt. Die Veranstalter:innen erheben schwere Vorwürfe: Demnach ließ China wegen taiwanesischer Gäste die Muskeln spielen.

Werbung für RightsCon in den Farben weiß, gelb, rot und schwarz. Schrift: "RightsCon 26 Zambia May 5-8, 2026"
Die erste RightsCon in Zambia wurde kurzfristig abgesagt – : Access Now / RightsCon

Morgen sollte in Lusaka die RightsCon beginnen, eine der wichtigsten Konferenzen für Grund- und Menschenrechte in der digitalen Welt. Doch kurz vor dem Beginn meldete vorige Woche die Regierung des Gastgeberlandes Sambia Bedenken an und verkündete, die Konferenz müsse verschoben werden. Inzwischen ist sie ganz abgesagt und die Ausrichterin, die Nichtregierungsorganisation Access Now, erhebt schwere Vorwürfe – nicht nur gegen Sambia, sondern auch gegen die Volksrepublik China. Diese habe wegen der Teilnahme taiwanesischer Gäste Druck auf die Regierung Sambias ausgeübt.

Mehr als 2.600 Gäste erwartet


Die Konferenz findet jedes Jahr in einem anderen Land statt. Seit 2024 habe man die erste RightsCon im südlichen Afrika in enger Zusammenarbeit mit der Regierung Sambias vorbereitet, heißt es in einem Statement, das Access Now am Freitag veröffentlicht hat. Mehr als 2.600 Gäste seien in der sambischen Hauptstadt Lusaka erwartet worden, viele von ihnen hätten ihre Reise lange geplant und teilweise bereits angetreten. Weitere 1.100 Teilnehmende im Netz waren angemeldet, zusammen repräsentierten sie mehr 750 Organisationen aus 150 Ländern: Menschenrechts-Aktivist:innen, Vertreter:innen von Regierungen und internationalen Organisationen, Mitarbeitende von Tech-Unternehmen.

Entsprechend groß war der Schock, als Ende April, nur wenige Tage vor dem Beginn der viertägigen Veranstaltung, erste Berichte über eine Verschiebung der Konferenz durch die sambische Regierung die Runde machten. Noch am 26. April hatte das Ministerium für Technologie und Wissenschaft die bevorstehende Veranstaltung begrüßt. „RightsCon 2026 wird Sambia eine strategische Plattform bieten, um sein Engagement für eine sichere, inklusive und auf Rechten basierende digitale Zukunft unter Beweis zu stellen und gleichzeitig wirtschaftliche Chancen für lokale Innovatoren und Unternehmen zu erschließen“, so eine Sprecherin des Ministeriums.

Einen Tag später, so Access Now, sei man vom Ministerium telefonisch informiert worden, dass es ein Problem gebe: „Uns wurde mitgeteilt, dass Diplomaten der Volksrepublik China Druck auf die Regierung Sambias ausübten, weil Vertreter der taiwanesischen Zivilgesellschaft planten, persönlich an der Veranstaltung teilzunehmen“, so Access Now in der englischsprachigen Erklärung. Dies habe man mit Nachdruck zurückgewiesen und unverzüglich taiwanesische Gäste gewarnt. „Wir haben ihnen gesagt, dass wir von einer Anreise abraten würden, bis mehr Klarheit herrscht“, so Nikki Gladstone von Access Now gegenüber WIRED.

Mehrere kritische Beiträge im Programm



Laut Access Now folgten zahlreiche Versuche der Klärung. Am Ende habe die sambische Regierung jedoch klargemacht, dass die Konferenz nur stattfinden dürfe, wenn inhaltliche Konzessionen gemacht würden. Ihnen sei „informell aus mehreren Quellen“ mitgeteilt worden, dass „die RightsCon nur dann fortgesetzt werden könne, wenn wir bestimmte Themen zensieren und gefährdete Gruppen, darunter unsere taiwanesischen Teilnehmer:innen, von der Teilnahme vor Ort und online ausschließen würden“. In Reaktion darauf erfolgte am 30. April schließlich die Absage der Konferenz durch die Veranstalter:innen. „Das war unsere rote Linie“, so Access Now.

Das Programm der RightsCon enthielt mehrere Sessions, die sich kritisch mit Chinas Rolle in der globalen Digitalisierung auseinandersetzten, etwa zum Export digitaler Zensur- und Überwachungswerkzeuge, zur Verbreitung von Desinformation in Regionen wie Afrika oder zu chinesischen Cyber-Attacken. Unter den Speaker:innen waren unter anderem die Chefinnen von Amnesty International Taiwan und des Taiwan Network Information Center, das für die Registrierung von Domainnamen und die Vergabe von IP-Adressen in Taiwan zuständig ist. 2025 fand die RightsCon in Taipeh statt, der Hauptstadt Taiwans.

Die Taiwan-Frage führt immer wieder zu geopolitischen Spannungen, die Volksrepublik China droht regelmäßig mit einer militärischen Eroberung der strategisch wichtigen Insel. Erst kürzlich beschimpfte ein Sprecher der chinesischen Regierung Taiwans Präsidenten Lai Ching-te als „Ratte“. Anlass war eine Reise Lais in das südafrikanische Königreich Eswatini. Medienberichten zufolge sollen drei Staaten im Indischen Ozean auf Druck Pekings Überflugrechte für Lais Maschine zurückgezogen haben, um die Reise zu verhindern.

Kritische Abhängigkeiten



China hat in den vergangenen Jahrzehnten massiv auf dem afrikanischen Kontinent investiert und so Abhängigkeiten geschaffen. Insbesondere im Rahmen des Projekts „Neue Seidenstraße“ haben chinesische Kredite und Konzerne den Ausbau der analogen und digitalen Infrastruktur in vielen afrikanischen Ländern ermöglicht. Auch zwischen Sambia und China sind die Verbindungen eng. WIRED zufolge hat die Zambia Development Agency wenige Tage vor der Konferenz, am 23. April einen Vertrag über 1,5 Milliarden US-Dollar mit einem staatlichen chinesischen Bauunternehmen verkündet, um die Stromkapazitäten des Landes auszubauen. Auch das Internationale Konferenz-Zentrum in Lusaka, in dem die RightsCon stattfinden sollte, wurde 2022 mit Hilfe eines Zuschusses der chinesischen Regierung in Höhe von 30 Millionen US-Dollar umfassend erweitert.

Dass China seine Macht gegen die globale Digital-Rights-Community derart offen ausspielt und Abhängigkeiten ausnutzt, ist jedoch ungewöhnlich. Die Volksrepublik positioniert sich seit vielen Jahren im Globalen Süden als systemische Alternative zur US-Dominanz, auch im Bereich der Internet Governance. In einem 2022 Weißbuch spricht China gar von einer „Schicksalsgemeinschaft im Cyberspace“.

„Ich denke, dieser Fall zeigt deutlich, dass China nicht nur eines der stärksten Systeme zu Online-Zensur und ‑Überwachung aufgebaut hat, sondern derzeit auch neue Methoden der Offline-Zensur außerhalb der eigenen Grenzen testet“, kommentiert Alena Epifanova von der Deutschen Gesellschaft für Auswärtige Politik den Fall. „Das könnte künftig mehrere Länder betreffen, die enge wirtschaftliche Beziehungen zu China haben oder von chinesischen Investitionen abhängig sind“, so die Vermutung der Analysten des von der Bundesregierung finanzierten Thinktanks. „Wenn es um Taiwan geht, zieht das Land alle Register – unabhängig von Partnerschaftsnarrativen –, um Taipeh zu isolieren.“

Wir haben die Botschaft der Volksrepublik China und die Botschaft Sambias am Montag kurzfristig für ein Pressestatement zu den Vorwürfen angefragt und bis zur Veröffentlichung keine Antwort erhalten. Wir reichen diese nach, sofern wir eine Antwort erhalten.


Update 1, 05.05.2026, 12:45 Uhr:
Mehrere Europäische Organisationen wie die European Partnership for Democracy (EPD), European Digital Rights, Digitale Gesellschaft und Zašto haben einen offenen Brief zur Absage der Konferenz veröffentlicht. Darin kritisieren sie die Entscheidung der sambischen Regierung und fordern unter anderem Konsequenzen der EU und ihrer Mitgliedsländer. Ein automatisiert übersetzter Auszug aus dem englischsprachigen Brief:


Dieser Schritt geschieht nicht in einem Vakuum. Die Zivilgesellschaft steht weltweit bereits unter erheblichem Druck und sieht sich mit drastischen Mittelkürzungen sowie Gesetzen konfrontiert, die darauf abzielen, den zivilgesellschaftlichen Handlungsspielraum einzuschränken. Die Absage der RightsCon reiht sich ein in ein besorgniserregendes globales Muster der Unterdrückung, das genau jene Organisationen und Personen ins Visier nimmt, die sich für die Verteidigung der Grundrechte einsetzen.

Der Zeitpunkt macht dies besonders deutlich. Der Tag der Pressefreiheit der UNESCO findet diese Woche in Lusaka statt – ein Ereignis, das offene Gesellschaften feiern sollte und nicht von der Unterdrückung zivilgesellschaftlicher Versammlungen durch die Regierung des Gastgeberlandes überschattet werden darf.

EPD unterstützt den Aufruf unserer Partner an die Europäische Union und ihre Mitgliedstaaten, Sambia klar zu machen, dass diese Entscheidung zutiefst alarmierend ist und die Gefahr birgt, einen Schatten auf die Beziehungen zwischen der EU und Sambia zu werfen. Wir unterstützen auch den Aufruf, die Delegierten, die heute am Weltpressefreiheitstag in Lusaka teilnehmen, dazu aufzufordern, diese Plattform zu nutzen, um ihre Stimme zu erheben. Schließlich unterstützen wir den Aufruf an die sambische Regierung, die Rechte von Aktivisten auf Versammlung, Organisation und freie Meinungsäußerung in ihrem Land oder im Ausland uneingeschränkt zu respektieren.



Update 2, 05.05.2026, 13:30 Uhr: Die Botschaft der Republik Sambia hat auf unsere Presseanfrage geantwortet und uns ein Statement geschickt, das sie bereits am 29. April veröffentlicht hatte. Darin betont die Regierung, dass es sich lediglich um eine Verschiebung der Konferenz handele, und bedauert dadurch entstehende Unannehmlichkeiten. Sie begründet den Schritt wie folgt (maschinell übersetzt aus dem Englischen):

Die Verschiebung wurde notwendig, da umfassende Informationen zu zentralen Themen, die auf dem Gipfel zur Diskussion stehen sollten, offengelegt werden mussten. Diese Offenlegung ist unerlässlich, um eine vollständige Übereinstimmung mit den nationalen Werten, den politischen Prioritäten und den übergeordneten Erwägungen des öffentlichen Interesses Sambias zu gewährleisten.





Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

04.05.2026 16:25

Nach langer Diskussion kehren SPD, Linke und Grüne der Plattform X gemeinsam den Rücken. Sie begründen diesen Schritt mit Chaos und Desinformation auf Elon Musks Netzwerk. Viele der Accounts machen bei Bluesky weiter.

Wand mit verschiedenen aufgeklebten Postern und Graffiti. Im Vordergrund links ist ein Schwarz-Weiß-Porträt von Elon Musk in Militäruniform mit einem Grinsen zu sehen. Daneben rechts befindet sich ein weiteres Poster mit der Überschrift "THE TURD REICH", darunter sind mehrere Porträts von Männern in ähnlichen Uniformen abgebildet, unter anderem Trump und JD Vance.
Kritik an Elon Musks rechten Umtrieben an einer Hauswand in Großbritannien. – Alle Rechte vorbehalten: IMAGO / SOPA Images

In einer konzertierten Aktion empfehlen die Parteien SPD, Linke und Grüne ihren Mitgliedern den Ausstieg bei der Plattform X und ziehen selbst die Konsequenz, indem sie ihre Accounts still legen, privat stellen oder deaktivieren. Über die Aktion der Parteien berichtete zuerst Table.Media.

In der wortgleichen Begründung, die unter anderem von den drei Bundestagsfraktionen sowie zahlreichen Parteigliederungen und Politiker:innen unter dem Hashtag #WirVerlassenX verbreitet wurde, heißt es:

X ist in den letzten Jahren im Chaos versunken. Politische Debatten leben vom Austausch, der Menschen erreicht & informiert. X hingegen fördert zunehmend Desinformation. Deswegen nutzen wir diesen Account nicht mehr.


Im Januar hatten die Bundestagsfraktionen von Linken und Grünen noch gesagt, dass sie über die Zukunft auf der Plattform diskutieren würden. Diese Diskussion hat nun offenbar ein Ende gefunden. In den Tweets verweisen die Accounts vor allem auf die Plattform Bluesky, wo sie weiterhin erreichbar sein werden. Gleichzeitig siedelten heute mehrere Stiftungen, unter anderem die Zeit-Stiftung, zu Mastodon über.

Weitere Abwanderungswelle


Seit der Multi-Milliardär Elon Musk im Jahr 2022 das damalige Twitter gekauft hatte und in der Folge zunehmend zu einer rechtsradikalen Propagandaplattform umbaut, haben in Wellen immer mehr Prominente, Sportvereine, Verbände, Medien, Behörden, Politiker:innen und Nutzer:innen der Plattform den Rücken gekehrt.

Einige wechselten schon direkt bei Musks Übernahme vor allem zu Mastodon, weitere Wellen folgten. Davon profitierten vorrangig Meta-Tochter Threads und Bluesky. In einer dieser Wellen stiegen nach anfänglichem Zögern auch erste Medien wie Correctiv oder netzpolitik.org bei X aus. Seit der von Donald Trump gewonnenen und von Musk unterstützten Wahl gingen auch große Medienhäuser wie der Guardian und zahlreiche Prominente, zuletzt auch in Deutschland. Eine weitere Abwanderungswelle löste nun offenbar auch die Verbreitung von Deepfakes bei X durch den Chatbot Grok aus.

Entgegen dem Triumphgeheul von rechten Accounts auf der Plattform über den Ausstieg der drei Parteien, ist eine Abwanderung von weiten Teilen der Parteipolitik für X nicht ungefährlich. Aufgrund der asymmetrischen Netzwerk-Struktur könnte die Aktion weitere Menschen zur Abwanderung bewegen, der Plattform drohen dadurch Relevanzverluste. Doch dafür braucht es vermutlich noch weitere, die X verlassen.

Ministerien und viele Medien weiter auf X


Weiterhin auf X verbleiben zahlreiche Bundesministerien und Behörden. Sie begründen dies mit ihrem Informationsauftrag und der Reichweite, die das soziale Netzwerk angeblich biete. Untersuchungen zeigen, dass dies nur sehr bedingt zutrifft. Denn sonderlich erfolgreich sind die Behörden auf der Plattform nicht, wie eine Reichweitenanalyse des Zentrums für Digitalrechte und Demokratie im März zeigte. Die Beiträge der Behörden und Ministerien werden in Summe kaum angesehen, kommentiert oder weiterverbreitet. Wenn es Interaktionen gibt, dann fallen diese selten konstruktiv aus. Stattdessen hetzen etwa unter Posts des Innenministeriums mal mutmaßliche, mal offen rechtsradikale Accounts gegen Geflüchtete oder verbreiten rassistische Kriminalitätserzählungen.

Ähnlich sieht die Situation bei den auf X verbliebenen Medien aus. Große Nachrichtensendungen wie die Tagesschau und ZDFheute, aber auch Online-Medien wie Tagesspiegel, Die Zeit und Spiegel sowie Fachmedien wie Legal Tribune Online betreiben weiterhin Accounts auf Elon Musks Plattform und posten dort aktuelle Inhalte. Sie alle wissen um die Probleme auf der Plattform. Doch sie begründen ihre Aktivität damit, dass sie ihren Qualitätsjournalismus gegen die Desinformation auf X setzen und das Publikum dort abholen wollen, wo es sich aufhält. Eine Analyse von netzpolitik.org hat im Februar gezeigt, dass die Medien weder viele Views noch positive Interaktionen auf X bekommen, sondern sich in einem permanenten Shitstorm befinden.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

04.05.2026 15:52

Die schwarz-rote Koalition will ein Gesetzespaket verabschieden, das ein neues Zeitalter der Überwachung einläutet. Was steckt da konkret alles drin? Wir haben es durchgesehen, damit ihr es nicht tun müsst.

Zwei Menschen in schwarzen Anzügen schauen sich in die Augen
Bundesinnenminister Dobrindt (links) und Vizekanzler Klingbeil: Große Einigkeit in der Großen Koalition, dass Polizeibehörden weitere Ermittlungsbefugnisse brauchen. – Alle Rechte vorbehalten: IMAGO / dts Nachrichtenagentur

Eigentlich war es ja eine Idee der Ampel-Regierung, der deutschen Polizei die Suche nach Gesichtern im Internet zu erlauben sowie Software einzusetzen, die so viele Daten wie möglich zusammenführt und auswertet. Beides sind Überwachungstechnologien, die auf sogenannter Künstlicher Intelligenz basieren. Auf Bundesebene gibt es derartiges noch nicht, die Ampel hatte es nicht mehr durchgekriegt. Zugleich haben inzwischen zahlreiche Bundesländer ihren Polizeien Gesichtersuchmaschinen und die Datenanalysen genehmigt.

Nun zieht die inzwischen schwarz-rot geführte Bundesregierung nach: Sie will der Bundespolizei und dem Bundeskriminalamt (BKA) beide Instrumente in die Hand geben. Das zugehörige Gesetzespaket hat sie Ende April im Kabinett verabschiedet. Daten, die nötig sind, um die Überwachungstools zu füttern, sollen demnach die Bundesbürger*innen liefern. Bürgerrechtsorganisationen wie die Gesellschaft für Freiheitsrechte (GFF) warnen vor „Instrumenten zur Massenüberwachung“ und halten das Paket für verfassungswidrig.

Wir klären die wichtigsten Fragen rund um das Überwachungspaket in diesen FAQ.

Inhalte:



Was ist das Überwachungspaket?


Das Paket enthält drei Gesetzentwürfe, die das Bundeskabinett Ende April beschlossen hat. Der „Gesetzentwurf zur Stärkung digitaler Ermittlungsbefugnisse in der Polizeiarbeit“, der „Gesetzentwurf zur Stärkung digitaler Ermittlungsbefugnisse zur Abwehr von Gefahren des internationalen Terrorismus“ und der „Gesetzentwurf zur Änderung der Strafprozessordnung“ legen zusammen die Grundlage dafür, dass Ermittlungsbehörden Gesichtsbilder mit Aufnahmen aus dem Internet abgleichen und automatisierte Datenanalysen durchführen können. Außerdem dürfen sie demnach mit den „vorhandenen“ Daten von Bürger*innen Überwachungs-KI-Systeme trainieren.

Was ist das Problem an der Fotofahndung im Netz?


Die Polizei soll Fahndungsfotos mit öffentlich zugänglichen Bildern aus dem Internet abgleichen dürfen. Also auch mit Selfies auf Social Media, dem Teamfoto deiner Handballmannschaft und einem Stockfoto der Innenstadt von Hannover, auf dem du aus Versehen im Hintergrund zu sehen bist. Sie soll mit dieser Suche die Identität abgebildeter Personen herausfinden dürfen. Dabei bekäme sie Zugriff auf potenziell äußerst persönliche Informationen.

Davor warnt auch die GFF: Die Behörden könnten durch den Abgleich Rückschlüsse auf besonders sensible Daten wie politische Einstellungen und sexuelle oder religiöse Orientierung ziehen, z.B. bei Aufnahmen von Demos, Veranstaltungen oder Gottesdiensten. Das Internet mache mittlerweile einen erheblichen Teil des öffentlichen Raumes aus, so die Bürgerrechtsorganisation. Mit den neuen Befugnissen werde die Anonymität in diesem digitalen öffentlichen Raum faktisch unmöglich gemacht. Das sei mit enormen Abschreckungseffekten verbunden und habe erhebliche Auswirkungen auf die Ausübung von Grundrechten, kritisiert die GFF.

Laut den Plänen soll die Polizei die biometrische Fahndung einsetzen dürfen, um die Identität oder den Aufenthaltsort von Beschuldigten, aber auch von Zeug*innen festzustellen. Im Zweifel muss man also nicht mal selbst einer Straftat verdächtig sein, um zum Fahndungsziel zu werden. Erlaubt sein soll das beim Verdacht einer Straftat von erheblicher Bedeutung – das sind etwa Mord und Vergewaltigung, aber auch Steuerhinterziehung, Geldwäsche oder Drogendelikte.

Das Problem: Um im öffentlichen Internet nach Personen fahnden zu können, müssen Ermittlungsbehörden die öffentlich im Netz verfügbaren Fotos von Gesichtern zunächst durchsuchen, sammeln und in Templates umrechnen. Dabei entsteht eine Datenbank mit den biometrischen Entsprechungen von möglicherweise Milliarden von Gesichtern.

Das Ministerium betont, dass diese Vergleichsdatenbank bei dem geplanten „Ad-hoc-Abgleich“ nicht dauerhaft gespeichert würde. Die Templates müssten stattdessen für jeden Abgleich neu erstellt werden. Damit sei die „Erstellung einer dauerhaften Datenbank, die aus dem Internet erhobene Lichtbilder und/oder zugehörige Templates vorhält, […] ausgeschlossen“.

Schwarz-rotes Sicherheitspaket »zum Großteil verfassungswidrig«



Allerdings steht das so nicht explizit im Gesetzentwurf. Dieser legt nur fest, dass die „beim Abgleich erhobenen und verarbeiteten Daten“ im Anschluss „unverzüglich“ zu löschen sind, wenn sie für die weiteren Ermittlungen nicht relevant sind. Die Referenzdatenbank selbst erwähnt der Text nicht explizit.

Hinzu kommt: Artikel 5 der KI-Verordnung der EU verbietet „das Inverkehrbringen, die Inbetriebnahme […] oder die Verwendung von KI-Systemen, die Datenbanken zur Gesichtserkennung durch das ungezielte Auslesen von Gesichtsbildern aus dem Internet oder von Überwachungsaufnahmen erstellen oder erweitern“.

Aber eine zielgerichtete Suche wäre demnach wohl durchaus möglich. Beispielsweise: Vergleiche dieses Bild mit allen Menschen, die sich auf Social Media für das Wacken-Festival interessieren.

Eine Gesichtersuchmaschine hat die deutsche Polizei ja bereits: Das Gesichtserkennungsystem (GES) des BKA, das eingespeiste Bilder mit, unter anderem, Menschen vergleicht, die erkennungsdienstlich behandelt wurden. Über fünf Millionen Menschen sind dort drin. Die Fotofahndung im Netz wäre für dieses System ein Riesen-Upgrade, weil damit theoretisch fast alle Menschen identifiziert und gefunden werden können. Wer hat schon keine Fotos von sich im Netz?

Was ist das Problem mit der automatisierten Datenanalyse?


Geplant ist eine Super-Datenbank. Die Datenanalyse soll verschiedene Datenquellen verbinden und die aggregierten Daten sinnvoll aufbereiten. Damit können Polizist*innen Fragen nachgehen wie: Wer gehört zu einer bestimmten Gruppe? Oder: Wo wird wohl demnächst eingebrochen?

Das Problem an dieser Datenbank: Da sind nicht nur Daten von Verurteilten oder zumindest Verdächtigen drin, sondern auch die von Opfern und Zeugen von Straftaten oder Kontaktpersonen von Verdächtigen. Also potenziell: wir alle. Die Quellen, aus denen die Daten dazu stammen dürfen, sind im Gesetzpaket auch nicht beschränkt. Daten, auf die beispielsweise das BKA „zur Erfüllung seiner Aufgaben zugreifen“ darf, dürfte es auch in die Super-Datenbank kippen.

Zivilgesellschaft warnt vor Plänen für KI-Fahndung



Denkbar sind also Standortdaten, Fingerabdrücke, Genproben, abgehörte Gespräche, wer wann mit wem wie lange telefonierte, sowie natürlich sämtliche polizeiinterne Vorgangsdaten. Außerdem kann die Datenbank live an polizeiliche Datenbanken anderer EU-Staaten angeschlossen werden.

Amnesty International und ein Dutzend andere Organisationen warnen, dass die Daten von Opfern, Zeug:innen und gänzlich unbeteiligten Personen Teil derselben „Super-Datenbank“ werden würden. Das Resultat wären demnach „tiefgreifende Persönlichkeitsprofile auf der Basis algorithmisch ausgewerteter massenhafter Datenbestände.“

„Automatisierte Datenanalysen sind mächtige Überwachungsmaßnahmen“, schreibt die GFF in ihrer Stellungnahme zum Gesetzespaket. Deswegen seien strenge Beschränkungen zum Schutz der Grundrechte nötig. Doch diese sieht die Bundesregierung nicht vor.

Was ist das Problem am KI-Training?


Laut der Gesetzentwürfe dürfen Beamt*innen sogenannte KI mit deinen Daten füttern. Die Trainingsdaten müssen beispielsweise dann nicht an- oder pseudonymisiert werden, wenn das „einen unverhältnismäßigen Aufwand“ bedeuten würde. Die Polizei darf bei ihr vorhandene personenbezogene Daten zum KI-Training auch weitergeben, beispielsweise an privatwirtschaftliche Unternehmen. Das Problem: Sprachmodelle können die Informationen, mit denen sie trainiert werden, nahezu perfekt wiedergeben. Das kam im Rahmen von Urheberrechtsstreitigkeiten heraus.

Das heißt: Informationen, die in derartiger Software landen, können nicht nur von der Software gegen dich verwendet werden – indem sie dich einem Verdacht aussetzt – sondern auch von jedem Menschen, der Zugriff auf die Software hat, rekonstruiert werden. Das ist ein Problem, wenn die Polizei anfängt, wahllos persönliche Informationen in Überwachungssoftware zu füttern. Die Hersteller der Programme sind ja meist auch privatwirtschaftliche Unternehmen, die unsere Informationen womöglich gewinnbringend weiterverarbeiten. So entwickelt beispielsweise Datenanalyse-Marktführer Palantir seine Produkte auch auf Basis realweltlicher Daten.

Ist das nicht alles verfassungswidrig?


Die Gesellschaft für Freiheitsrechte (GFF) nennt in ihrer aktuellen Stellungnahme zum Sicherheitspaket (PDF) die Gesetzesvorhaben der Bundesregierung zur biometrischen Fahndung im Internet und zur automatisierten Datenanalyse „zum Großteil verfassungswidrig“. Die Bürgerrechtsorganisation lehnt deshalb die Einführung der darin vorgeschlagenen Befugnisse und Änderungen fast rundweg ab.

Systeme zur automatisierten Analyse könnten umfassende Persönlichkeitsprofile erzeugen, die Daten Unbeteiligter würden mitverarbeitet und es drohten falsche Treffer und Fehlverdächtigungen. Die GFF verweist dabei auf ein Urteil des Bundesverfassungsgericht von 2023, das ähnliche Regelungen in Hessen und Hamburg bereits teilweise kassiert hat. Karlsruhe stellte damals klar: Automatisierte Datenanalyse greift schwerwiegend in das Recht auf informationelle Selbstbestimmung ein und braucht deshalb enge gesetzliche Grenzen. Diese sehe das aktuelle Entwurf nicht vor.

Auch im Fall der Foto-Fahndung sieht die Organisationen Grundrechte in Gefahr, etwa weil auch hier die Daten vieler Unbeteiligter betroffen wären und die Maßnahmen nicht ausreichend auf schwerste Straftaten begrenzt sind.

Auch AlgorithmWatch kommt zu einem ähnlichen Urteil. Die Pläne der Bundesregierung, die digitalen Ermittlungsbefugnisse von Sicherheitsbehörden auszuweiten, sind nach Meinung der Organisation europarechtswidrig und stehen im Konflikt mit verfassungsrechtlichen Mindestanforderungen und datenschutzrechtlichen Grundsätzen. Dabei kommt AlgorithmWatch – wie auch schon die GFF – zu dem Schluss, dass man dieses Gesetz nicht mit ein paar Änderungen verbessern könnte.

Die verfassungs- und menschenrechtliche Unverhältnismäßigkeit lasse „ausschließlich die Empfehlung zu, die Gesetzentwürfe zurückzuziehen und ein grundsätzliches gesetzliches Verbot des Einsatzes biometrischer Massenerkennungssysteme für öffentliche und private Stellen einzuführen“, so die Zusammenfassung der Stellungnahme zum Gesetz (PDF).

Auch Amnesty International, der Chaos Computer Club, D64, die Digitale Gesellschaft und viele weitere Organisationen warnen vor der Gefährdung von Grundrechten. „Wir betonen, dass eine grundrechtskonforme Ausgestaltung dieser Befugnisse auch durch Nachbesserungen im Verfahrensrecht nicht erreichbar wäre“, heißt es in der Stellungnahme: „Die genannten Mängel sind keine bloßen Ausgestaltungsfehler, sondern symptomatisch für das strukturelle Defizit des gesamten Regelungsvorhabens.“

Was sind die Unterschiede zum Ampel-Sicherheitspaket?


Das Gesetzespaket ist nicht der erste Anlauf, um Gesichtserkennung und Big-Data-Analysen auf Bundesebene einzuführen. Nach dem Messeranschlag in Solingen haben die Ampel-Fraktionen im Bundestag bereits ein „Sicherheitspaket“ beschlossen, das allen Polizeibehörden den Einsatz von Gesichtserkennung und KI erlauben sollte.

Die Pläne scheiterten allerdings im Bundesrat, weil den Ländern einige der geplanten Überwachungsbefugnisse nicht weit genug gingen.

Das Ampel-Paket bestand aus zwei Gesetzen. Das eine – in dem es um Messerverbote und verschärfte Asylregelungen ging – trat in Kraft. Das andere – mit erweiterten Befugnissen für Sicherheitsbehörden – scheiterte. Genau diese gescheiterten Instrumente tauchen jetzt in verschärfter Form im Kabinettsentwurf wieder auf: biometrische Gesichtserkennung und automatisierte Datenanalyse. Das Paket holt also nach, was im ersten Anlauf nicht durchkam.

Was sagen die Kritiker*innen?


Clara Bünger, stellvertretende Vorsitzende der Linken im Bundestag:

Die Bundesregierung treibt den Ausbau digitaler Kontrollwerkzeuge massiv voran und hebelt damit den Schutz unserer Privatsphäre mithilfe künstlicher Intelligenz aus. Besonders die biometrische Gesichtserkennung erfordert den Aufbau riesiger Datensammlungen, die alle Menschen unter Generalverdacht stellen und gegen geltendes europäisches Recht verstoßen. Dieser Weg führt geradewegs in einen digitalen Überwachungsstaat.


Donata Vogtschmidt, digitalpolitische Sprecherin der Linken im Bundestag:

Mehr Überwachung kann Ursachen von Kriminalität und sozialen Problemen nicht lösen. Das Sicherheitspaket 2.0 ist in der Summe nichts weiter als der höchst zweifelhafte Versuch, durch ein Gefühl der ständigen Überwachung im öffentlichen Raum die Handlungsfreiheit der Menschen zu ersticken und KI auch dort zu entfesseln, wo sie gesellschaftlich besonders großen Schaden anrichten kann. Diese fundamentale Fehlentwicklung sollte und muss endlich wachrütteln!


Konstantin von Notz, Stellvertretender Fraktionsvorsitzender der Grünen:

Die geplanten neuen Befugnisse ermöglichen tiefe Grundrechtseingriffe und betreffen dabei keineswegs nur Personen im direkten Fokus von Sicherheitsbehörden, sondern potenziell alle, auch gänzlich unbescholtene, Bürger.


Matthias Spielkamp, Geschäftsführer der NGO AlgorithmWatch:

Damit macht die Bundesregierung den Weg dafür frei, die Fotos aller Menschen, die im Internet verfügbar sind, ob von der Familienfeier oder dem Sommerurlaub, biometrisch zu speichern und auszuwerten. Zudem sollen mit KI-Software wie der von Palantir alle Daten ausgewertet werden, die die Behörden über uns gesichert haben. Davon träumen sonst nur autoritäre Regierungen.


Kai Kempgens vom vom Deutschen Anwaltverein:

Polizeibehörden erhielten damit Zugriff auf eine KI-generierte ‚Gigadatenbank‘ mit darin enthaltenen zum Teil höchstpersönlichen Daten. Ein unkontrollierter Zugriff auf solche faktischen Vorratsdaten lässt sich angesichts der massiven Tiefe des Grundrechtseingriffs nicht ansatzweise rechtfertigen und würde eine Überwachungsdystopie verwirklichen, die massiv dem Rechtsstaatsprinzip zuwiderläuft.

Wer tut etwas dagegen?


Das Netzwerk „Sicherheit ohne Überwachung“ agitiert gegen die Gesetzesverschärfungen auf Bundesebene: Gesichtersuchmaschine, Datenanalyse nach Palantir-Art und Vorratsdatenspeicherung. Unter anderem ist eine Demonstration in Berlin am 13. Juni 2026 um 14 Uhr an der Warschauer Straße / Marchlewskistraße geplant.

Wer bis dahin nicht untätig herumsitzen möchte, kann die Petition von AlgorithmWatch unterschreiben.

Update, 5.5.2026, 15.25 Uhr: In einer vorherigen Fassung schrieben wir, dass im GES des BKA alle Menschen verzeichnet seien, die je erkennungsdienstlich behandelt wurden. Das ist nicht korrekt. Teilweise werden die dabei erhobenen Daten nach einer gewissen Zeit wieder gelöscht.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

04.05.2026 10:04

Das Bundesjustizamt hat erneut falsche Zahlen zum Einsatz von Staatstrojanern veröffentlicht. Unsere Nachfrage ergab: Ermittlungsbehörden haben das Hacken von Geräten mit dem Abhören von Telefonaten verwechselt. Die selben Behörden führen die Überwachungsmaßnahme durch.

Ein junger weißer Mann in Polizeiuniform mit ratlosem und verwirrtem Gesichtsausdruck, der Arme und Hände hochgestreckt hat.
Verwirrter Ermittler. (Symbolbild). – Alle Rechte vorbehalten: IMAGO / Depositphotos

Ermittlungsbehörden und Justizbeamte haben erneut falsche Zahlen zum staatlichen Hacken gemeldet. Sechs Bundesländer mussten ihre Statistiken korrigieren, nachdem wir nachgefragt haben.

Das Bundesamt für Justiz veröffentlicht jedes Jahr Statistiken zur Telekommunikationsüberwachung. Im August hat die Behörde zeitversetzt die Zahlen für 2023 veröffentlicht. Wir haben darüber berichtet: Polizei hackt alle fünf Tage mit Staatstrojanern.

Per Informationsfreiheitsgesetz haben wir die Daten angefragt, die das Bundesamt von den Ländern bekommen hat und aus denen es die Berichte erstellt. Diese Daten haben wir auch erhalten, für Telekommunikationsüberwachung und Online-Durchsuchung.

Wieder falsche Zahlen



Doch diese Dokumente enthielten andere Zahlen als die veröffentlichten Statistiken. Anfang September haben wir dem Bundesamt die Widersprüche mitgeteilt und um Prüfung gebeten. Im Januar hat das Amt die Statistiken zum ersten Mal korrigiert. Im Februar nochmal.

Mit der „Quellen-Telekommunikationsüberwachung“ hacken Ermittler Geräte, um Kommunikation auszuleiten. Dieser „kleine Staatstrojaner“ wurde im Jahr 2023 96 Mal angeordnet und 57 Mal eingesetzt. Korrigieren mussten sich Bayern, Hamburg, Hessen, Sachsen und Thüringen.

Mittels „Online-Durchsuchung“ hacken Ermittler Geräte, um sämtliche Daten auszuleiten. Dieser „große Staatstrojaner“ wurde im gleichen Zeitraum 31 Mal angeordnet und sieben Mal eingesetzt. Nordrhein-Westfalen hatte ursprünglich behauptet, die Online-Durchsuchung nicht genutzt zu haben. Tatsächlich gab es fünf Anordnungen in zwei Verfahren und einen Einsatz.

Abhören und Hacken verwechselt



Die veröffentlichten Zahlen zu staatlichem Hacken sind fast immer falsch. Seit fünf Jahren enthalten die Statistiken zur Telekommunikationsüberwachung auch Angaben zum Einsatz von Staatstrojanern. Schon im ersten Jahr waren die Zahlen falsch. Im zweiten Jahr wieder. Und im Dritten. Und jetzt wieder.

Das Bundesjustizamt hat nicht nur die gemeldeten Daten falsch übertragen. Die Länder haben auch falsche Daten geliefert. Das Bundesjustizamt verschickt Fragebögen mit ausführlichen Erklärungen. Landesjustizverwaltungen und Generalbundesanwalt füllen die aus.

Schon bei der ersten Statistik haben die Landesämter „Kreuzchen/Häkchen versehentlich falsch gesetzt“. Das setzt sich bis heute fort. In Sachsen ergab die Überprüfung, dass ursprünglich gemeldete Einsätze der Quellen-TKÜ doch nur „Maßnahmen der klassischen Telekommunikationsüberwachung“ waren.

Die Ermittler haben das Mithören von Telefonie mit heimlichem Hacken verwechselt.

Jura-Trick gegen Grundrecht



Diese Verwirrung ist bereits im Gesetz angelegt. Die Strafprozessordnung enthält einen Paragrafen zur Telekommunikationsüberwachung, der eigentlich das Abhören von Telefonaten regelt. 2017 haben Union und SPD zwei Sätze eingefügt, mit denen Ermittler auch Endgeräte hacken dürfen, um Kommunikation abzuhören.

Das Bundesverfassungsgericht hat staatliches Hacken auf absolute Ausnahmefälle beschränkt und extra ein Grundrecht auf Gewährleistung der Vertraulichkeit und Integrität von IT-Systemen erfunden. Die Quellen-TKÜ ist ein juristischer Trick, um diese strengen Vorgaben zu umgehen.

Befürworter behaupten einfach, dass staatliches Hacken nur die moderne Version der normalen Telefonüberwachung sei.

Dabei ist das heimliche Hacken von Smartphones und Computern ein viel tiefergehender Eingriff in die Grundrechte der Betroffenen. Und Staatstrojaner halten Sicherheitslücken offen, um sie auszunutzen statt sie zu schließen – das gefährdet die Sicherheit aller Menschen.

Die juristische Gleichsetzung von Abhören und Hacken führt auch dazu, dass selbst Staatsanwälte die beiden Maßnahmen miteinander verwechseln. Dabei sind sie Strafrechts-Experten – und setzen die Überwachungsmaßnahmen ein.

Licht ins Dunkel



Deshalb sind die Statistiken zur Quellen-TKÜ nur ein Anhang in der Statistik der normalen Telekommunikationsüberwachung. Damit ist nicht erkennbar, bei welchen Straftaten die Quellen-TKÜ eingesetzt wird.

Das Justizamt schreibt nur allgemein: „Wie in den vergangenen Jahren begründete vor allem der Verdacht einer Straftat nach dem Betäubungsmittelgesetz die Überwachungsmaßnahmen.“

Wir haben deshalb Abgeordnete in allen Bundesländern mit demokratischer Opposition gebeten, parlamentarische Anfragen zu stellen: Baden-Württemberg, Bayern, Hamburg, Hessen, Nordrhein-Westfalen, Sachsen, Sachsen-Anhalt, Schleswig-Holstein, Thüringen (Nachklapp) und im Bund.

Hacken wegen Drogen



Für 29 Einsätze der Quellen-TKÜ haben die Regierungen die zugrundeliegende Straftat genannt. In zehn Fällen ging es um Betäubungsmittel, also Drogen. Sieben Mal ging es um Mord, drei Mal um Waffen.

Damit bestätigen die Zahlen erneut: Die Polizei nutzt Staatstrojaner vor allem wegen Drogendelikten. Staat und Überwachungsfirmen lassen Sicherheitslücken in Milliarden Geräten offen, um ein Dutzend Drogendealer zu überwachen.

Wenn Ermittler Geräte hacken dürfen, tun sie das nicht immer. Von 96 Anordnungen wurden nur 57 tatsächlich durchgeführt. Die meisten Regierungen wollen nicht sagen, warum genehmigte Einsätze nicht stattfinden. Wenn sie antworten, nennen sie fast immer „technische Gründe“. Nur einmal gab es neben technischen auch ermittlungstaktische Gründe, an denen ein Trojaner-Einsatz scheiterte.

Mehr Einstellungen als Anklagen



Selbst wenn Trojaner zum Einsatz kommen, führen sie nicht immer zum Ermittlungserfolg. Viele Regierungen geben keine Auskunft zu dieser Frage. Verfahren laufen demnach noch oder wurden abgegeben, eine Antwort wäre zu viel Aufwand oder würde die Sicherheit gefährden.

In den beantworteten elf Fällen gab es nur zwei Urteile und eine Anklage. Vier mal haben Trojaner „keine relevanten Erkenntnisse“ geliefert, drei Verfahren wurden mangels Tatverdacht eingestellt, in einem Fall hat der Hack den ursprünglichen Tatverdacht sogar ausgeräumt.

Keine Regierung nennt die eingesetzten Trojanerprodukte.

Hessen nennt immerhin die Zielgeräte: zwei iPhones, ein Android und ein Laptop mit Windows. Auch Hamburg hat ein iPhone gehackt. Dabei „wurden 896 Dateien in einem Umfang von 0,388 Gigabyte erhoben und ausgewertet“. In einem anderen Fall „wurden Daten im Umfang von circa 70 Gigabyte erhoben und ausgewertet“.

Antwort oder Sicherheit



Die Regierungen in Hamburg und Hessen nennen sogar Kalenderwochen, in denen die Trojaner zum Einsatz kamen. Viele andere Landesregierungen verweigern Auskünfte zu Technik, Daten oder Zeitpunkt. Thüringen verweigert fast jede Antwort, demnach hat die Staatsanwaltschaft die entsprechenden Unterlagen bereits „vernichtet“.

Insgesamt antworten die Bundesländer sehr unterschiedlich. Einige Regierungen beantworten vorbildlich alle Fragen ihrer Abgeordneten. Andere verweigern viele Antworten vollständig, weil eine Auskunft angeblich die Sicherheit gefährdet. Welche Informationen die Sicherheit gefährden, scheint in Deutschland Ansichtssache der Bundesländer zu sein.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

03.05.2026 10:23

In den sozialen Medien präsentieren Content Creator alte Nazi-Architektur. Die beliebten Videos dienen mehr der Propaganda als der Aufklärung.

Ein schwarz-weiß Foto zeigt den Reichsparteitag der NSDAP im Jahr 1936 mit Menschenmasse und "Lichtdom" mit Flak-Scheinwerfern.
Reichsparteitag der NSDAP im Jahr 1936 mit "Lichtdom" mit Flak-Scheinwerfern und Menschenmassen. – Gemeinfrei: Bundesarchiv

Wer derzeit einen Bunker aus dem Zweiten Weltkrieg besucht, hat gute Chancen, einem Content Creator in die Arme zu laufen. Alexander, Spitzname „Blitzwinkel“, ist einer von ihnen. Sein Logo, ein gelber Blitz, erinnert komischerweise an die Siegrune. Der Spiegel bezeichnet ihn als „Geschichtsjäger“ und „Geschichts-Influencer“.

Neben Blitzwinkel gibt es viele weitere „Geschichtskanäle“, die „Lost Places“ aus der Zeit des Nationalsozialismus zeigen und, gemessen an der Zahl ihrer Follower, außerordentlich erfolgreich sind. Beliebte Motive sind etwa die Wewelsburg, Bunker des Atlantikwalls, die Heidelberger Thingstätte oder das Nürnberger Reichsparteitagsgelände.

Die Macher dahinter betonen immer wieder, dass es sich bei ihren Videos um reine Dokumentationsformate handle. „Das ist historische Bildung, nicht Politik!“, heißt es etwa oder: „Dieser Beitrag dient ausschließlich Bildungszwecken“. In den sozialen Medien erfreuen sich die kurzen Videoclips der alten Nazibauten, häufig mit einem 🇩🇪-Emoji versehen, großer Beliebtheit.

Inszenierung, keine Ambivalenz

„Alles ist echt. Und es gibt keinen tendenziösen Kommentar, aus dem einfachen Grund, dass es überhaupt keinen Kommentar gibt. Es ist Geschichte: reine Geschichte“, sagte schon die Regisseurin Leni Riefenstahl zu „Triumph des Willens“, ihrem Propagandafilm über den sechsten Reichsparteitag der NSDAP im Jahr 1934.

Susan Sontag macht in ihrem Essay „Faszinierender Faschismus“ dagegen deutlich, dass ein Streifen wie „Triumph des Willens“ nicht als Dokumentarfilm verstanden werden kann. Die Veranstalter des Reichsparteitages von 1934 haben die Kamera bei der Organisation der Veranstaltung stets mitgedacht.

Der Reichsparteitag wurde so selbst zum Set für Riefenstahls Film, der später den Anschein einer authentischen Dokumentation erwecken sollte. Das filmische Bild ersetzt auf diese Weise die Realität, die es angeblich nur als „reine Geschichte“ festhält.

Die heutigen „Geschichtskanäle“ bewegen sich selbstverständlich in einer völlig anderen Größenordnung als Riefenstahls Staatspropaganda. Auch handwerklich erreichen sie nicht annähernd deren Niveau.

Unter der Lupe zeigt sich dennoch eine ähnliche Bildlogik: Sie setzen Nazi-Architektur, Kriegsschauplätze, Kasernen oder Kriegsdenkmäler pompös in Szene. Dafür nutzen sie gezielt Filter, reißerische Videoüberschriften und epische Hintergrundmusik wie „Hvitserk’s Choice“ aus der Serie „Vikings“. Angereichert mit Drohnenaufnahmen entstehen so pathetische Bilder, die kaum Ambivalenz zulassen.

Billige Texte, fragwürdige Kommentare

Mit Fragen wie “Kennst du die Wewelsburg?” fischen die Content Creator nach Interaktionen. Daneben erhalten die Zuschauer nur ein Mindestmaß an Informationen über die gezeigten Orte. Die Texte in der Videobeschreibung sind meistens von Chatbots geschrieben. Video-Captions lassen sich oft zweideutig lesen: „Albert Speer – Architektur der Macht“ oder etwas schlichter: „Eva Brauns Sommerhaus – zwischen Mythos und Verfall“.

Einige Content Creator bemühen sich offenbar auch um ein gewisses Maß an Moderation: „Wer beleidigende, unsinnige oder unangemessene Kommentare schreibt, wird blockiert, da ich nicht möchte, dass mein Kanal gesperrt wird“, sagt einer. Dabei geht es aber offensichtlich eher um die Absicherung des Kanals als um eine politische Haltung.

Fragwürdige Kommentare lassen sich dennoch ausnahmslos bei allen „Geschichtskanälen“ finden. Viele der Verfasser trauern einem vermeintlich großen Deutschland nach oder behaupten, früher sei alles besser gewesen.

Nazis als Publikumsschlager

Dass so ziemlich alles, was irgendwie mit den Nazis zu tun hat, Publikumsauf- bzw. ‑erreger bieten, ist keineswegs neu. Im Fernsehen und in den Mediatheken laufen schon seit langem „Dokumentationen“ mit schaurig-schönen Titeln rauf und runter: „Hitlers Hetzer“ (ZDF), „Hitler privat: Der Kriegsherr“ (Der Spiegel) oder „Hitlers Hauptquartiere: Kommandozentralen des Bösen“ (ZDF).

Aufgebauschte Gruselgeschichten über die Nazis sind somit längst deutsches Kulturgut. Die popkulturelle Naziverherrlichung Hollywoods braucht hier keine weitere Erläuterung. Die Nutzung und Rezeption faschistischer Ästhetik muss trotzdem nicht zwangsläufig schlecht sein. Selbst den grauen Betonresten des Atlantikwalls wohnt eine eigensinnige Schönheit inne, wie beispielsweise die Schwarz-Weiß-Fotografien von Stephan Vanfleteren zeigen.

Die subversive Zurschaustellung von Hakenkreuzen und Uniformen spielt auch in Subkulturen wie Punk eine Rolle. Bands wie Joy Division oder DAF provozierten mit einschlägigen Symbolen und Bildern, ohne sich ideologisch anzubiedern. „Wenn etwas eine Popikone wird wie die Nazis – in jedem dritten Science-Fiction-Film gibt’s Nazis –, dann dürfen sie auch als solche benutzt werden“, erklärte Gabi Delgado von DAF im Interview mit der taz.

Und in Jürgen Teipels Doku-Roman „Verschwende deine Jugend“ erzählt ein Punk-Urgestein davon, wie er im München der Siebzigerjahre ein herzumrahmtes „Mein Führer“ auf die zerrissene Jeans malte: „Damals war Deutschland vom Gefühl her so eine gepolsterte Wohnzimmerwelt mit dem fetten, Zigarre rauchenden Altnazichef drin.“

Nicht böse, sondern banal

In der Münchner Innenstadt mit Führerherz herumzulaufen, sollte gezielt provozieren. Diese Art der Provokation spielt mit der belasteten Vergangenheit und versucht die alte Propaganda ins Lächerliche zu ziehen. Die einseitigen „Geschichtskanäle“ auf den sozialen Medien reproduzieren diese dagegen vor allem.

Sowohl die unreflektierte Neuinszenierung von Bauwerken wie dem Reichsparteitagsgelände als auch die Inszenierung der Nazis als ultimative „Bösewichte“ von Hollywood oder im Journalismus sind unsinnig und gefährlich. Denn die schaurige Erzählung des abgründigen „Bösen“ – von Satan bis Hitler – verleiht ihren Protagonisten auch eine verrucht-anziehende Aura.

Die allzu menschlichen, niederen Peinlichkeiten der nationalsozialistischen Führung haben da in der Regel keinen Platz mehr: die Trunk- und Drogensucht von NS-Größen wie Robert „Reichstrunkenbold“ Ley, Ernst Udet oder Hermann „Lametta-Heini“ Göring, Heinrich Himmlers Lieblingsokkultist Kurt Wiligut oder das strategische Versagen des „Kriegsherren“ Hitler und seiner angeblich so elitären SS.

Wie Hannah Arendt in der Auseinandersetzung mit Adolf Eichmann beschreibt, erscheint das Böse nicht zwingend dämonisch oder tiefgründig, sondern ziemlich banal. Genau darin liegt das Problem der „Geschichtskanäle“. Sie zeigen die NS-Orte nicht als historische Zeugnisse eines letztlich abgrundtief banalen Regimes, sondern machen aus ihnen Kulissen für ein Propagandatheater des Bösen, zugeschnitten auf ein Publikum, das nach billigen Gruselgeschichten lechzt. Mit Geschichtsbildung hat das wenig zu tun. Gerade für diejenigen, denen ihr Land am Herzen liegt, ist das ein fatales Versäumnis.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

02.05.2026 07:19

Die 18. Kalenderwoche geht zu Ende. Wir haben 15 neue Texte mit insgesamt 107.920 Zeichen veröffentlicht. Willkommen zum netzpolitischen Wochenrückblick.

Fraktal

Liebe Leser:innen,

Begriffe wie Notstandsgesetze, Volkszählung, Rasterfahndung, Großer Lauschangriff oder die Otto-Kataloge haben sich in das kollektive Gedächtnis eingebrannt. Und das nicht nur bei Menschen, denen eine freie, unüberwachte Gesellschaft und Grundrechte am Herzen liegen. Rund um diese Projekte wurde in diesem Land protestiert, heftig gestritten und große gesellschaftliche Debatten geführt.

Gerade kommt ein neuer Begriff dazu, den man ohne weiteres in diese Reihe stellen kann: Das Überwachungspaket. Doch im Gegensatz zu seinen Vorgängern ist das Überwachungspaket nicht von einer großen öffentlichen Debatte begleitet. Dabei haben alle zivilgesellschaftlichen Organisationen mit Rang und Namen laut aufgeschrien. Sie haben in Stellungnahmen überdeutlich gemacht, dass diese Gesetze den Charakter des Landes verändern werden, dass sie verfassungswidrig sein werden, dass sie eine vollkommen neue Form Überwachung etablieren.

Doch in der medialen Berichterstattung tröpfelt es, wenn überhaupt. Während bei Wal Timmy jede Geschwindigkeitsänderung des Transports ein Update des Tickers wert ist, Benzin- und Heizkosten die Nachrichten beherrschen, läuft dieses gesellschaftsverändernde Überwachungspaket unter ferner liefen. Ein paar unkritische Artikel mit Titeln wie „Dobrindt jagt mit KI Kriminelle im Netz“ suggerieren Normalität.

Dabei ist gar nichts normal an diesen Gesetzen, über die wir schon lange berichten. Sie bringen die drastischste Verschärfung seit der Überwachungswelle nach dem Anschlag auf das World Trade Center am 11. September 2001.

Durch die automatisierte Datenanalyse, ob nun mit oder ohne Palantir, werden unterschiedlichste Daten in noch nie geahnter Tiefe polizeilich zusammengeführt und ausgewertet, um Muster aufzuspüren oder zu kreieren. Das erlaubt Profilbildungen und Erkenntnisse, gegen die die Auswirkungen der Volkszählung wie ein fröhlicher Kinderbauernhof aussehen.

Auch die automatisierte Fotofahndung im Netz wird uns alle betreffen. Erstens werden alle, die irgendwie mit ihrem Bild im Netz sind, potentiell durchgemessen und mit gesuchten Personen verglichen. Private Fotos füttern also bald den staatlichen Überwachungsapparat. Noch schlimmer ist, was mit der Technik letztlich möglich ist.

Eine biometrische Suche im Netz legt ja nicht nur das Gesicht selbst offen, sondern den Kontext des Bildes, das gefunden wird: Wer hat welche Veranstaltung besucht, welche Demonstration, wer ist in welcher Community unterwegs, wer macht was? Wer ist da noch drauf? Das sind sensibelste Informationen, die Rückschlüsse auf politische Einstellungen und sexuelle oder religiöse Orientierung erlauben.

Dass von dieser neuen Dimension der Massenüberwachung und dem fehlgeleiteten Sicherheitsbegriff in der medialen und politischen Debatte bislang kaum die Rede ist, ist tragisch und gefährlich für unsere Zukunft. Gerade in Zeiten, in denen wir auf immer autoritärere Regierungen mit rechtsradikaler Beteiligung zusteuern.

Deshalb bleiben wir dran und laut. Und da sind wir alle gefragt, wenn wir das Überwachungspaket irgendwie noch stoppen oder abbremsen wollen. Erzählt anderen davon. Wendet euch an eure Abgeordneten. Und schreibt gerne auch mal ein paar der guten alten Leser:innenbriefe an andere Medien, damit sie verstehen, was für eine gefährliche Lücke sie hier lassen.

Trotz allem schöne Frühlingstage wünscht Euch

Markus Reuter


Breakpoint: Das Internet stirbt

Wir wollen soziale Medien dazu nutzen, um mit unseren Freunden in Kontakt zu bleiben. Doch nun macht auch noch KI-generierter Content das Internet immer unpersönlicher und unmenschlicher. Die eigentliche Idee wird so ad absurdum geführt. Von Carla Siepmann –
Artikel lesen

Phishing auf Signal: Unkenntnis allerorten

Je größer das Ausmaß der Phishing-Attacke, desto mehr Unsinn gerät in die Debatte. Dabei sind die wichtigsten Fragen doch: Wie hätten Regierung und Parlament geschützt werden können und gab es Versäumnisse der Behörden? Ein Kommentar. Von Markus Reuter –
Artikel lesen

Verhaltensscanner in Hamburg: „Die Polizei wird zum Datenlieferanten“

In Hamburg läuft eine KI, die analysiert, was die Menschen auf zwei zentralen Plätzen gerade tun. Wissenschaftler*innen haben den Überwachungs-Feldversuch ein Jahr lang begleitet. Hier sprechen sie über ihre Ergebnisse. Von Martin Schwarzbeck –
Artikel lesen

Europäische digitale Souveränität: „Jede Form von Abhängigkeit ist schlecht“

Während in Brüssel viel von digitaler Souveränität gesprochen wird, bleibt die Finanzierung der Projekte, die diese verwirklichen sollen, ungewiss. Michiel Leenaars von der niederländischen NLnet Foundation gibt Einblicke in seine Arbeit zur Förderung von Alternativen und erläutert, was er von der EU erwartet. Von Anna Ströbele Romero –
Artikel lesen

European digital sovereignty: „Any dependency is a bad thing“

While Brussels talks up digital sovereignty, funding for the projects that would make it a reality remains uncertain. Michiel Leenaars of the Dutch NLnet Foundation offers insights into his work supporting alternatives and what he expects from the EU. Von Anna Ströbele Romero –
Artikel lesen

Phishing auf Signal: Bundestag und Bundesregierung erst im Februar vor Attacke gewarnt

Obwohl die gezielte Phishing-Kampagne Nutzer des Messengers Signal schon seit September 2025 ins Visier nimmt, haben deutsche Behörden erst im Februar Alarm geschlagen. Wann Mitglieder des Bundeskabinetts betroffen waren, möchte jetzt niemand verraten. Von Markus Reuter –
Artikel lesen

Wandern und Radfahren: Frei und dezentral ins Grüne

Viele Navigations- und Wanderapps setzen auf Premium-Abos oder sammeln viele persönliche Daten. Aber es gibt Alternativen. Von Anna Biselli –
Artikel lesen

EU vs. Meta: Facebook und Instagram sollen härter gegen Kinder-Accounts vorgehen

Die EU-Kommission wirft Meta vor, Kinder unter 13 Jahren nicht wirksam von Instagram und Facebook fernzuhalten und damit gegen den Digital Services Act zu verstoßen. Vizepräsidentin Henna Virkkunen stellte heute parallel neue Leitlinien für den Einsatz der Altersverifikations-App der Kommission vor. Von Chris Köver –
Artikel lesen

Überwachungspaket: Diese Sicherheitspolitik gefährdet uns alle

Wer bei Sicherheit nur an Verbrechensbekämpfung denkt, verliert vieles aus dem Blick. Genau das scheint die aktuelle Bundesregierung mit ihrem Überwachungspaket zu tun, doch das kann gefährlich werden. Ein Kommentar. Von Anna Biselli –
Artikel lesen

Bilanz zum Digital Markets Act: EU-Digitalgesetz ist kein Selbstläufer

Erstmals hat die EU-Kommission überprüft, wie sich der Digital Markets Act in der Praxis bewährt hat. In einem Bericht stellt sie dem EU-Digitalgesetz ein gutes Zeugnis aus. Ganz rosig ist die Lage jedoch nicht. Von Tomas Rudl –
Artikel lesen

AI Act: Trilog-Verhandlungen über gelockerte KI-Regeln gescheitert

Die EU will unter hohem Zeitdruck ihre Regeln für Künstliche Intelligenz aufweichen. Nun sind eigentlich abschließende Verhandlungen gescheitert. Alle Beteiligten machen sich gegenseitig Vorwürfe, am Ende könnten Regeln zum besseren Schutz vor KI-generierten Nacktbildern unter die Räder geraten. Von Denis Glismann –
Artikel lesen

EU ringt um Einigung: Das sind die strittigen Fragen beim Digitalen Euro

Das Europäische Parlament sucht eine gemeinsame Position zum Digitalen Euro. Ein besonders umstrittener Vorschlag ist nun erst einmal vom Tisch, Themen wie Datenschutz und sogenannte Haltelimits aber noch offen. Viel Zeit für eine Einigung bleibt nicht mehr. Von Anna Ströbele Romero, Leonhard Pitz –
Artikel lesen

Abschiebeverordnung: EU will mit digitalen Mitteln mehr und schneller abschieben

Die EU arbeitet mit Hochdruck an der Abschiebeverordnung. ICE-ähnliche Razzien in Privatwohnungen und elektronische Fußfesseln für Menschen ohne Aufenthalt könnten Realität werden, wenn die Verordnung in dieser Form beschlossen wird – warnen Expert*innen und zivilgesellschaftliche Organisationen. Von Timur Vorkul –
Artikel lesen

Reporter ohne Grenzen: Niedergang der Pressefreiheit setzt sich dramatisch fort

Journalismus wird weltweit immer häufiger kriminalisiert. Auch in demokratischen Ländern. Zum ersten Mal fallen in der Rangliste von Reporter ohne Grenzen über die Hälfte aller Länder in die schlechtesten Kategorien. Trump hat dabei einen weltweiten Negativ-Effekt auf die Pressefreiheit. Von Denis Glismann –
Artikel lesen

Erzwungene „Grenzpartnerschaft“: EU-Kommission will US-Behörden erlauben, politische Ansichten und „Herkunft“ abzufragen

Laut dem nun vorliegenden Entwurf eines Rahmenabkommens über eine „Grenzpartnerschaft“ mit der Trump-Administration dürfen US-Behörden in EU-Staaten nicht nur Gesichtsbilder, sondern auch Namen, Gesundheitsdaten oder sexuelle Orientierung in Polizeidatenbanken abfragen. Von Matthias Monroy –
Artikel lesen


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

02.05.2026 07:14

Laut dem nun vorliegenden Entwurf eines Rahmenabkommens über eine „Grenzpartnerschaft“ mit der Trump-Administration dürfen US-Behörden in EU-Staaten nicht nur Gesichtsbilder, sondern auch Namen, Gesundheitsdaten oder sexuelle Orientierung in Polizeidatenbanken abfragen.

Beamte der US-Zollbehörde an einem Flughafen
US-Behörden sollen Zugriff auf jede Menge Daten von Einreisenden bekommen. – Alle Rechte vorbehalten: IMAGO / ZUMA Press Wire

Die Europäische Kommission hat nach Erteilung ihres Verhandlungsmandats im vergangenen Dezember ein Rahmenabkommen mit den USA über eine „Grenzpartnerschaft“ fertig ausgehandelt. Den Entwurf hat die britische Bürgerrechtsorganisation Statewatch veröffentlicht. Demzufolge geht das geplante Abkommen weit über die bislang bekannten US-Forderungen hinaus.

Den Abschluss einer „Enhanced Border Security Partnership“ (EBSP) hatte die US-Regierung bereits 2022 von allen Teilnehmerstaaten des Visa-Waiver-Programms (VWP) verlangt – mit einer Frist bis Ende 2026. Das VWP ermöglicht Staatsangehörigen aus 43 befreundeten Ländern im Rahmen von Kurzaufenthalten bis zu 90 Tagen visafreies Reisen in die USA – und umgekehrt.

Nun knüpft die Regierung in Washington die weitere Teilnahme an dem Programm an den Abschluss der „Grenzpartnerschaft“: Die beteiligten Staaten sollen ihre Polizeidatenbanken für US-Behörden öffnen. Wer sich weigert, verliert den visafreien Status. Das Abkommen soll dem Entwurf zufolge auf dem Prinzip der Gegenseitigkeit beruhen. EU-Mitgliedstaaten sollen also ihrerseits Zugriff auf US-Datenbanken erhalten – sofern sich die US-Regierung nicht dagegen sperrt.

Mehr als Fingerabdrücke und Gesichtsbilder



Im Entwurf für das Rahmenabkommen ist nun auch die Rede davon, die Datenabfrage dazu zu nutzen dass „Personen, die ein echtes Risiko für die öffentliche Sicherheit oder öffentliche Ordnung darstellen“, daran gehindert werden, in den USA „zu verbleiben“. Es geht also auch um Abschiebungen, wie sie derzeit monatlich tausendfach von der brutalen US-Einwanderungsbehörde ICE durchgeführt werden. Ursprünglich hieß es, die „Grenzpartnerschaft“ solle nur bei Einreisen in die USA angewandt werden.
Außerdem galt bislang, dass US-Grenzbehörden nur Zugriff auf Fingerabdrücke und Lichtbilder in Polizeidatenbanken der VWP-Staaten verlangen. Im von der EU-Kommission ausgehandelten Entwurf steht darüber hinaus, dass auch „alphanumerische Daten zur Identifizierung einer Person, wie Vorname, Nachname und Geburtsdatum“ abgefragt werden können.

Kommt es bei einer Anfrage zu einem Treffer, darf die angefragte Behörde – in Deutschland etwa das Bundeskriminalamt – ihrerseits nachfragen, was das Interesse an der Person ausgelöst hat und alle „bei der anfragenden zuständigen Behörde verfügbaren alphanumerischen und kontextuellen Daten zu derselben Person anfordern“.

Weitergabe an Drittstaaten möglich



Unter bestimmten Bedingungen dürfen laut Entwurf auch besonders sensible Kategorien personenbezogener Daten übermittelt werden, darunter Informationen zu „rassischer oder ethnischer Herkunft, politischen Ansichten oder religiösen oder sonstigen Überzeugungen, Gewerkschaftszugehörigkeit“ sowie Angaben zu „Gesundheit oder Sexualleben“.

Der Entwurf erlaubt sogar die Weitergabe empfangener Daten an Behörden in Drittstaaten oder internationale Organisationen – allerdings nur mit vorheriger Zustimmung der übermittelnden Behörde. Welche Drittstaaten konkret gemeint sein könnten, lässt der Entwurf offen. In Betracht kämen neben Interpol auch enge Verbündete der USA, etwa Großbritannien oder andere Staaten des Commonwealth sowie Israel, das eigene Abkommen zum Datentausch mit den USA geschlossen hat.

In Deutschland wären Millionen Datensätze betroffen



Angaben zu den abfrageberechtigten Behörden – auf US-Seite kämen vor allem der Zoll- und Grenzschutz (Customs and Border Protection, CBP) sowie ICE in Frage – enthält der nun veröffentlichte Rahmenentwurf nicht. Das soll jeweils in bilateralen Umsetzungsabkommen geregelt werden, die jeder betroffene Staat separat mit Washington schließen muss.

In Deutschland beträfe dies wohl die INPOL-Datenbank aller Polizeien des Bundes und der Länder, die derzeit Fotos und Fingerabdrücke von 5,4 Millionen Personen enthält – darunter mehr als die Hälfte Asylsuchende. Selbst innerhalb der EU gibt es bislang keinen gegenseitigen Direktzugriff auf derartig umfangreiche Informationssysteme einzelner Mitgliedstaaten – das geplante Abkommen mit den USA ist deshalb besonders intrusiv.

Das Rahmenabkommen regelt auch den Einsatz von Software zur Erstellung von Prognosen aus den abgefragten Datensätzen. Zwar sollen Entscheidungen mit „erheblichen nachteiligen Auswirkungen“ nicht ausschließlich automatisiert erfolgen, sondern stets mit „menschlicher Beteiligung“. Vollautomatische Entscheidungen sind aber erlaubt, wenn dies „nach dem jeweiligen Rechtsrahmen der Vertragsparteien zulässig“ ist. In der EU wäre dies nach der KI-Verordnung ausgeschlossen, in den USA gibt es einen vergleichbaren Rechtsakt nicht.

Eingeschränkte Rechte für Betroffene



Der Entwurf enthält auch Vorgaben zur Protokollierung für „Prüftätigkeiten“ unter anderem von Datenschutzbehörden. Das Abkommen sieht außerdem vor, dass betroffene Personen Auskunft über ihre gespeicherten Daten sowie deren Berichtigung oder Löschung beantragen können.

Diese Rechte stehen jedoch unter Einschränkungsvorbehalt: Verwehrt werden darf der Zugang unter anderem aus Gründen der nationalen Sicherheit, zum Schutz laufender Ermittlungen oder zur Strafverfolgung.

Den Entwurf des Rahmenabkommens werden die EU-Innen- und Justizminister*innen auf einer ihrer kommenden Sitzungen beraten. Nach derzeitigem Stand wird das Parlament daran nicht beteiligt. Die endgültige Entscheidung über den Abschluss wird dann im Rat der Europäischen Union von den 27 Mitgliedstaaten getroffen. Ob dies noch vor der Sommerpause erfolgt, ist unklar. Auch die US-Regierung muss ihre Zustimmung zu dem Entwurf geben. Bis zur Deadline am 31. Dezember 2026 könnte es dann in Kraft treten.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

30.04.2026 17:12

Journalismus wird weltweit immer häufiger kriminalisiert. Auch in demokratischen Ländern. Zum ersten Mal fallen in der Rangliste von Reporter ohne Grenzen über die Hälfte aller Länder in die schlechtesten Kategorien. Trump hat dabei einen weltweiten Negativ-Effekt auf die Pressefreiheit.

Transparent auf Demonstration mit Aufschrift "Free Mzia Amaghlobeli".
Demonstrierende fordern in Tiflis die Freilassung von Mzia Amaghlobeli. Ihre Inhaftierung gilt als Symbol für die zunehmende Unterdrückung der Pressefreiheit und regierungskritischer Medien in Georgien. – Alle Rechte vorbehalten: IMAGO / NurPhoto

Journalismus wird weltweit immer häufiger kriminalisiert. Zu diesem Ergebnis kommt die neue Rangliste der Pressefreiheit 2026 von Reporter ohne Grenzen (RSF). Auch in demokratischen Ländern werde das Recht auf Informationen zunehmend beschnitten.

Gegenüber dem Vorjahr haben sich in 110 von 180 betrachteten Ländern die rechtlichen Rahmenbedingungen für den Journalismus verschlechtert – und damit in mehr als der Hälfte aller Länder. Vorwände wie „Nationale Sicherheit“, „Desinformation“, „Terrorismus“ und „Extremismus“ würden zunehmend genutzt, um gegen Journalist:innen vorzugehen, heißt es im Bericht.

Die Delegitimierung journalistischer Arbeit wird von vielen Reporter:innen auch in Deutschland (Rang 14) zunehmend als große Bedrohung für den Journalismus wahrgenommen, wie die Nahaufnahme des Reports zeigt. Dass Deutschland erneut im Ranking absinke, sei Ausdruck eines aufgeheizten Klimas, sagt Christian Mihr, Geschäftsführer für Politik und Strategie bei RSF. Journalist:innen empfänden zunehmend starken Druck. Dazu komme die Sorge, für ihre Arbeit öffentlich an den Pranger gestellt zu werden.

55 Angriffe auf Medienschaffende und Redaktionen wurden für 2025 in Deutschland verifiziert. Im Vorjahr waren es 89. Die Dunkelziffer sei hoch. Gefährlich sei demnach vor allem die Recherche im rechtsextremen Milieu. So wurde zum Beispiel Thomas Heise (Spiegel TV) im März 2025 bei einer Neonazi-Versammlung am Berliner Ostkreuz im Gesicht verletzt. Dominik Lenze (Tagesspiegel) im Mai 2025 in Herford. Auch Cyberangriffe und Online-Hetze würden eine zunehmende Rolle spielen.

Tief polarisierend wirke zudem die Berichterstattung über den Gaza-Krieg. Journalist:innen berichten, sie hätten Schwierigkeiten, Menschenrechtsverbrechen der israelischen Armee in derselben Weise aufzugreifen wie bei anderen Konflikten.

Auch Exiljournalist:innen aus Iran (177), Afghanistan (175) oder Russland (172) geraten in Deutschland zunehmend ins Visier ihrer Herkunftsregime. RSF spricht hier von transnationaler Repression.

Alles netzpolitisch Relevante

Drei Mal pro Woche als Newsletter in deiner Inbox.

Jetzt abonnieren

Trump hat weltweit Negativ-Effekt

Trump systematisiere in den USA (64) die Pressefeindlichkeit. Die Polizei und die US-Einwanderungsbehörde ICE gingen zunehmend gewaltsam gegen Reporter:innen vor. Die Inhaftierung und Abschiebung des salvadorianischen Journalisten Mario Guevara habe die ohnehin angespannte Sicherheitslage für die Presse verschärft.

Hinzu kämen drastische Kürzungen bei der US Agency for Global Media (USAGM) mit weltweiten Auswirkungen auf die Pressefreiheit: In der Konsequenz kam es zur Schließung oder Verkleinerung vieler internationaler Sender wie Voice of America (VOA), Radio Free Europe/Radio Liberty (RFE/RL) und Radio Free Asia (RFA) – in Ländern, in denen diese Medien verlässliche Informationsquellen darstellen.

In Argentinien (98) und El Salvador (143) seien mit Javier Milei und Nayib Bukele zudem zwei Präsidenten an der Macht, die ihre lautstarkte Unterstützung für Trump und die eigene Pressefeindlichkeit offen zur Schau stellen.

Weltkarte mit farblich markierten Ländern nach dem Grad der Pressefreiheit 2026 von sehr frei bis sehr eingeschränkt
Nur noch jeder Hundertste lebt in echter Pressefreiheit.

Repression und Inhaftierung

In autoritären Staaten hat sich die Lage weiter verschärft. In Russland (172) seien derzeit 48 Medienschaffende inhaftiert, davon 26 aus der Ukraine. Georgien (135) fiel um 21 Plätze in der Rangliste, weil Gesetze zunehmend strategisch umformuliert und gegen Reporter:innen eingesetzt würden.

Beim Krieg in der Ukraine töte Russland immer wieder gezielt auch Journalist*innen. In Gaza wurden zudem seit Oktober 2023 mehr als 220 Journalist:innen durch Angriffe der israelischen Armee getötet, so der Report. „Darunter mindestens 70 bei der Ausübung ihrer Arbeit.“

In der Türkei (163) seien „Beleidigung des Präsidenten“ und „Verunglimpfung staatlicher Institutionen“ ein häufiger Vorwand, um Journalist:innen zu unterdrücken. Der Deutsche Welle-Korrespondent Alican Uludağ ist auf jener Grundlage seit Februar 2026 in Haft.

Wir sind ein spendenfinanziertes Medium.

Unterstütze auch Du unsere Arbeit mit einer Spende.

Jetzt spenden

Die Anwendung solcher Instrumente fände jedoch zunehmend auch in Demokratien statt. Länder wie Japan (62), die Philippinen (114) und Israel (116), Indien (157) nutzen demnach zunehmend Gesetze unter dem Vorwand der Terrorismusbekämpfung oder des Schutzes der nationalen Sicherheit, um gegen Journalismus vorzugehen.

Nur ein Prozent der Weltbevölkerung im grünen Bereich

Nur in sieben Staaten liegt die Pressefreiheit nach Einschätzung von RSF noch im grünen Bereich – also bei „gut“. Diese sieben Staaten machen nur ein Prozent der Weltbevölkerung aus. Erstmals befindet sich mehr als die Hälfte der 180 betrachteten Länder in den beiden schlechtesten Kategorien In der 25-jährigen Dokumentation des  „sehr ernst“ oder zumindest „schwierig“.

„Nur noch einer von 100 Menschen weltweit kann sich durch eine vielfältige, gesunde Medienlandschaft informieren. Auch wenn wir den Niedergang der Pressefreiheit seit einem Vierteljahrhundert dokumentieren, bleibt dieser Befund dramatisch“, kommentiert Mihr.

Den größten Absturz legte Niger (120) mit 37 Plätzen minus hin. In der gesamten Sahel-Region sei die Pressefreiheit durch Angriffe bewaffneter Gruppen drastisch gesunken. Saudi-Arabien (176) sackt nach der Hinrichtung des Journalisten Turki al-Jasser zu den Schlusslichtern China, Nordkorea und Eritrea ab.

Die größten Gewinne für die Pressefreiheit gibt es in Syrien (141). Der Sturz des Assad-Regimes im Dezember 2024 und der politische Wandel ließen das Land um 36 Plätze aufrücken. Die Situation für Journalist:innen sei zwar weiterhin „sehr ernst“, aber besonders die rechtliche Bewertung der Pressefreiheit habe sich verbessert. An der Spitze des Rankings stehen wie immer die skandinavischen Länder.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.