netzpolitik.org
Bitte aktualisieren Sie PHP auf Version 8.2.0 (zurzeit: 8.1.2-1ubuntu2.23). Info
Die 18. Kalenderwoche geht zu Ende. Wir haben 15 neue Texte mit insgesamt 107.920 Zeichen veröffentlicht. Willkommen zum netzpolitischen Wochenrückblick.

Liebe Leser:innen,
Begriffe wie Notstandsgesetze, Volkszählung, Rasterfahndung, Großer Lauschangriff oder die Otto-Kataloge haben sich in das kollektive Gedächtnis eingebrannt. Und das nicht nur bei Menschen, denen eine freie, unüberwachte Gesellschaft und Grundrechte am Herzen liegen. Rund um diese Projekte wurde in diesem Land protestiert, heftig gestritten und große gesellschaftliche Debatten geführt.
Gerade kommt ein neuer Begriff dazu, den man ohne weiteres in diese Reihe stellen kann: Das Überwachungspaket. Doch im Gegensatz zu seinen Vorgängern ist das Überwachungspaket nicht von einer großen öffentlichen Debatte begleitet. Dabei haben alle zivilgesellschaftlichen Organisationen mit Rang und Namen laut aufgeschrien. Sie haben in Stellungnahmen überdeutlich gemacht, dass diese Gesetze den Charakter des Landes verändern werden, dass sie verfassungswidrig sein werden, dass sie eine vollkommen neue Form Überwachung etablieren.
Doch in der medialen Berichterstattung tröpfelt es, wenn überhaupt. Während bei Wal Timmy jede Geschwindigkeitsänderung des Transports ein Update des Tickers wert ist, Benzin- und Heizkosten die Nachrichten beherrschen, läuft dieses gesellschaftsverändernde Überwachungspaket unter ferner liefen. Ein paar unkritische Artikel mit Titeln wie „Dobrindt jagt mit KI Kriminelle im Netz“ suggerieren Normalität.
Dabei ist gar nichts normal an diesen Gesetzen, über die wir schon lange berichten. Sie bringen die drastischste Verschärfung seit der Überwachungswelle nach dem Anschlag auf das World Trade Center am 11. September 2001.
Durch die automatisierte Datenanalyse, ob nun mit oder ohne Palantir, werden unterschiedlichste Daten in noch nie geahnter Tiefe polizeilich zusammengeführt und ausgewertet, um Muster aufzuspüren oder zu kreieren. Das erlaubt Profilbildungen und Erkenntnisse, gegen die die Auswirkungen der Volkszählung wie ein fröhlicher Kinderbauernhof aussehen.
Auch die automatisierte Fotofahndung im Netz wird uns alle betreffen. Erstens werden alle, die irgendwie mit ihrem Bild im Netz sind, potentiell durchgemessen und mit gesuchten Personen verglichen. Private Fotos füttern also bald den staatlichen Überwachungsapparat. Noch schlimmer ist, was mit der Technik letztlich möglich ist.
Eine biometrische Suche im Netz legt ja nicht nur das Gesicht selbst offen, sondern den Kontext des Bildes, das gefunden wird: Wer hat welche Veranstaltung besucht, welche Demonstration, wer ist in welcher Community unterwegs, wer macht was? Wer ist da noch drauf? Das sind sensibelste Informationen, die Rückschlüsse auf politische Einstellungen und sexuelle oder religiöse Orientierung erlauben.
Dass von dieser neuen Dimension der Massenüberwachung und dem fehlgeleiteten Sicherheitsbegriff in der medialen und politischen Debatte bislang kaum die Rede ist, ist tragisch und gefährlich für unsere Zukunft. Gerade in Zeiten, in denen wir auf immer autoritärere Regierungen mit rechtsradikaler Beteiligung zusteuern.
Deshalb bleiben wir dran und laut. Und da sind wir alle gefragt, wenn wir das Überwachungspaket irgendwie noch stoppen oder abbremsen wollen. Erzählt anderen davon. Wendet euch an eure Abgeordneten. Und schreibt gerne auch mal ein paar der guten alten Leser:innenbriefe an andere Medien, damit sie verstehen, was für eine gefährliche Lücke sie hier lassen.
Trotz allem schöne Frühlingstage wünscht Euch
Markus Reuter
Breakpoint: Das Internet stirbt
Wir wollen soziale Medien dazu nutzen, um mit unseren Freunden in Kontakt zu bleiben. Doch nun macht auch noch KI-generierter Content das Internet immer unpersönlicher und unmenschlicher. Die eigentliche Idee wird so ad absurdum geführt. Von Carla Siepmann –
Artikel lesen
Phishing auf Signal: Unkenntnis allerorten
Je größer das Ausmaß der Phishing-Attacke, desto mehr Unsinn gerät in die Debatte. Dabei sind die wichtigsten Fragen doch: Wie hätten Regierung und Parlament geschützt werden können und gab es Versäumnisse der Behörden? Ein Kommentar. Von Markus Reuter –
Artikel lesen
Verhaltensscanner in Hamburg: „Die Polizei wird zum Datenlieferanten“
In Hamburg läuft eine KI, die analysiert, was die Menschen auf zwei zentralen Plätzen gerade tun. Wissenschaftler*innen haben den Überwachungs-Feldversuch ein Jahr lang begleitet. Hier sprechen sie über ihre Ergebnisse. Von Martin Schwarzbeck –
Artikel lesen
Europäische digitale Souveränität: „Jede Form von Abhängigkeit ist schlecht“
Während in Brüssel viel von digitaler Souveränität gesprochen wird, bleibt die Finanzierung der Projekte, die diese verwirklichen sollen, ungewiss. Michiel Leenaars von der niederländischen NLnet Foundation gibt Einblicke in seine Arbeit zur Förderung von Alternativen und erläutert, was er von der EU erwartet. Von Anna Ströbele Romero –
Artikel lesen
European digital sovereignty: „Any dependency is a bad thing“
While Brussels talks up digital sovereignty, funding for the projects that would make it a reality remains uncertain. Michiel Leenaars of the Dutch NLnet Foundation offers insights into his work supporting alternatives and what he expects from the EU. Von Anna Ströbele Romero –
Artikel lesen
Phishing auf Signal: Bundestag und Bundesregierung erst im Februar vor Attacke gewarnt
Obwohl die gezielte Phishing-Kampagne Nutzer des Messengers Signal schon seit September 2025 ins Visier nimmt, haben deutsche Behörden erst im Februar Alarm geschlagen. Wann Mitglieder des Bundeskabinetts betroffen waren, möchte jetzt niemand verraten. Von Markus Reuter –
Artikel lesen
Wandern und Radfahren: Frei und dezentral ins Grüne
Viele Navigations- und Wanderapps setzen auf Premium-Abos oder sammeln viele persönliche Daten. Aber es gibt Alternativen. Von Anna Biselli –
Artikel lesen
EU vs. Meta: Facebook und Instagram sollen härter gegen Kinder-Accounts vorgehen
Die EU-Kommission wirft Meta vor, Kinder unter 13 Jahren nicht wirksam von Instagram und Facebook fernzuhalten und damit gegen den Digital Services Act zu verstoßen. Vizepräsidentin Henna Virkkunen stellte heute parallel neue Leitlinien für den Einsatz der Altersverifikations-App der Kommission vor. Von Chris Köver –
Artikel lesen
Überwachungspaket: Diese Sicherheitspolitik gefährdet uns alle
Wer bei Sicherheit nur an Verbrechensbekämpfung denkt, verliert vieles aus dem Blick. Genau das scheint die aktuelle Bundesregierung mit ihrem Überwachungspaket zu tun, doch das kann gefährlich werden. Ein Kommentar. Von Anna Biselli –
Artikel lesen
Bilanz zum Digital Markets Act: EU-Digitalgesetz ist kein Selbstläufer
Erstmals hat die EU-Kommission überprüft, wie sich der Digital Markets Act in der Praxis bewährt hat. In einem Bericht stellt sie dem EU-Digitalgesetz ein gutes Zeugnis aus. Ganz rosig ist die Lage jedoch nicht. Von Tomas Rudl –
Artikel lesen
AI Act: Trilog-Verhandlungen über gelockerte KI-Regeln gescheitert
Die EU will unter hohem Zeitdruck ihre Regeln für Künstliche Intelligenz aufweichen. Nun sind eigentlich abschließende Verhandlungen gescheitert. Alle Beteiligten machen sich gegenseitig Vorwürfe, am Ende könnten Regeln zum besseren Schutz vor KI-generierten Nacktbildern unter die Räder geraten. Von Denis Glismann –
Artikel lesen
EU ringt um Einigung: Das sind die strittigen Fragen beim Digitalen Euro
Das Europäische Parlament sucht eine gemeinsame Position zum Digitalen Euro. Ein besonders umstrittener Vorschlag ist nun erst einmal vom Tisch, Themen wie Datenschutz und sogenannte Haltelimits aber noch offen. Viel Zeit für eine Einigung bleibt nicht mehr. Von Anna Ströbele Romero, Leonhard Pitz –
Artikel lesen
Abschiebeverordnung: EU will mit digitalen Mitteln mehr und schneller abschieben
Die EU arbeitet mit Hochdruck an der Abschiebeverordnung. ICE-ähnliche Razzien in Privatwohnungen und elektronische Fußfesseln für Menschen ohne Aufenthalt könnten Realität werden, wenn die Verordnung in dieser Form beschlossen wird – warnen Expert*innen und zivilgesellschaftliche Organisationen. Von Timur Vorkul –
Artikel lesen
Reporter ohne Grenzen: Niedergang der Pressefreiheit setzt sich dramatisch fort
Journalismus wird weltweit immer häufiger kriminalisiert. Auch in demokratischen Ländern. Zum ersten Mal fallen in der Rangliste von Reporter ohne Grenzen über die Hälfte aller Länder in die schlechtesten Kategorien. Trump hat dabei einen weltweiten Negativ-Effekt auf die Pressefreiheit. Von Denis Glismann –
Artikel lesen
Erzwungene „Grenzpartnerschaft“: EU-Kommission will US-Behörden erlauben, politische Ansichten und „Herkunft“ abzufragen
Laut dem nun vorliegenden Entwurf eines Rahmenabkommens über eine „Grenzpartnerschaft“ mit der Trump-Administration dürfen US-Behörden in EU-Staaten nicht nur Gesichtsbilder, sondern auch Namen, Gesundheitsdaten oder sexuelle Orientierung in Polizeidatenbanken abfragen. Von Matthias Monroy –
Artikel lesen
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Laut dem nun vorliegenden Entwurf eines Rahmenabkommens über eine „Grenzpartnerschaft“ mit der Trump-Administration dürfen US-Behörden in EU-Staaten nicht nur Gesichtsbilder, sondern auch Namen, Gesundheitsdaten oder sexuelle Orientierung in Polizeidatenbanken abfragen.

Die Europäische Kommission hat nach Erteilung ihres Verhandlungsmandats im vergangenen Dezember ein Rahmenabkommen mit den USA über eine „Grenzpartnerschaft“ fertig ausgehandelt. Den Entwurf hat die britische Bürgerrechtsorganisation Statewatch veröffentlicht. Demzufolge geht das geplante Abkommen weit über die bislang bekannten US-Forderungen hinaus.
Den Abschluss einer „Enhanced Border Security Partnership“ (EBSP) hatte die US-Regierung bereits 2022 von allen Teilnehmerstaaten des Visa-Waiver-Programms (VWP) verlangt – mit einer Frist bis Ende 2026. Das VWP ermöglicht Staatsangehörigen aus 43 befreundeten Ländern im Rahmen von Kurzaufenthalten bis zu 90 Tagen visafreies Reisen in die USA – und umgekehrt.
Nun knüpft die Regierung in Washington die weitere Teilnahme an dem Programm an den Abschluss der „Grenzpartnerschaft“: Die beteiligten Staaten sollen ihre Polizeidatenbanken für US-Behörden öffnen. Wer sich weigert, verliert den visafreien Status. Das Abkommen soll dem Entwurf zufolge auf dem Prinzip der Gegenseitigkeit beruhen. EU-Mitgliedstaaten sollen also ihrerseits Zugriff auf US-Datenbanken erhalten – sofern sich die US-Regierung nicht dagegen sperrt.
Mehr als Fingerabdrücke und Gesichtsbilder
Im Entwurf für das Rahmenabkommen ist nun auch die Rede davon, die Datenabfrage dazu zu nutzen dass „Personen, die ein echtes Risiko für die öffentliche Sicherheit oder öffentliche Ordnung darstellen“, daran gehindert werden, in den USA „zu verbleiben“. Es geht also auch um Abschiebungen, wie sie derzeit monatlich tausendfach von der brutalen US-Einwanderungsbehörde ICE durchgeführt werden. Ursprünglich hieß es, die „Grenzpartnerschaft“ solle nur bei Einreisen in die USA angewandt werden.
Außerdem galt bislang, dass US-Grenzbehörden nur Zugriff auf Fingerabdrücke und Lichtbilder in Polizeidatenbanken der VWP-Staaten verlangen. Im von der EU-Kommission ausgehandelten Entwurf steht darüber hinaus, dass auch „alphanumerische Daten zur Identifizierung einer Person, wie Vorname, Nachname und Geburtsdatum“ abgefragt werden können.
Kommt es bei einer Anfrage zu einem Treffer, darf die angefragte Behörde – in Deutschland etwa das Bundeskriminalamt – ihrerseits nachfragen, was das Interesse an der Person ausgelöst hat und alle „bei der anfragenden zuständigen Behörde verfügbaren alphanumerischen und kontextuellen Daten zu derselben Person anfordern“.
Alles netzpolitisch Relevante
Drei Mal pro Woche als Newsletter in deiner Inbox.
Weitergabe an Drittstaaten möglich
Unter bestimmten Bedingungen dürfen laut Entwurf auch besonders sensible Kategorien personenbezogener Daten übermittelt werden, darunter Informationen zu „rassischer oder ethnischer Herkunft, politischen Ansichten oder religiösen oder sonstigen Überzeugungen, Gewerkschaftszugehörigkeit“ sowie Angaben zu „Gesundheit oder Sexualleben“.
Der Entwurf erlaubt sogar die Weitergabe empfangener Daten an Behörden in Drittstaaten oder internationale Organisationen – allerdings nur mit vorheriger Zustimmung der übermittelnden Behörde. Welche Drittstaaten konkret gemeint sein könnten, lässt der Entwurf offen. In Betracht kämen neben Interpol auch enge Verbündete der USA, etwa Großbritannien oder andere Staaten des Commonwealth sowie Israel, das eigene Abkommen zum Datentausch mit den USA geschlossen hat.
In Deutschland wären Millionen Datensätze betroffen
Angaben zu den abfrageberechtigten Behörden – auf US-Seite kämen vor allem der Zoll- und Grenzschutz (Customs and Border Protection, CBP) sowie ICE in Frage – enthält der nun veröffentlichte Rahmenentwurf nicht. Das soll jeweils in bilateralen Umsetzungsabkommen geregelt werden, die jeder betroffene Staat separat mit Washington schließen muss.
In Deutschland beträfe dies wohl die INPOL-Datenbank aller Polizeien des Bundes und der Länder, die derzeit Fotos und Fingerabdrücke von 5,4 Millionen Personen enthält – darunter mehr als die Hälfte Asylsuchende. Selbst innerhalb der EU gibt es bislang keinen gegenseitigen Direktzugriff auf derartig umfangreiche Informationssysteme einzelner Mitgliedstaaten – das geplante Abkommen mit den USA ist deshalb besonders intrusiv.
Wir sind ein spendenfinanziertes Medium.
Unterstütze auch Du unsere Arbeit mit einer Spende.
Das Rahmenabkommen regelt auch den Einsatz von Software zur Erstellung von Prognosen aus den abgefragten Datensätzen. Zwar sollen Entscheidungen mit „erheblichen nachteiligen Auswirkungen“ nicht ausschließlich automatisiert erfolgen, sondern stets mit „menschlicher Beteiligung“. Vollautomatische Entscheidungen sind aber erlaubt, wenn dies „nach dem jeweiligen Rechtsrahmen der Vertragsparteien zulässig“ ist. In der EU wäre dies nach der KI-Verordnung ausgeschlossen, in den USA gibt es einen vergleichbaren Rechtsakt nicht.
Eingeschränkte Rechte für Betroffene
Der Entwurf enthält auch Vorgaben zur Protokollierung für „Prüftätigkeiten“ unter anderem von Datenschutzbehörden. Das Abkommen sieht außerdem vor, dass betroffene Personen Auskunft über ihre gespeicherten Daten sowie deren Berichtigung oder Löschung beantragen können.
Diese Rechte stehen jedoch unter Einschränkungsvorbehalt: Verwehrt werden darf der Zugang unter anderem aus Gründen der nationalen Sicherheit, zum Schutz laufender Ermittlungen oder zur Strafverfolgung.
Den Entwurf des Rahmenabkommens werden die EU-Innen- und Justizminister*innen auf einer ihrer kommenden Sitzungen beraten. Nach derzeitigem Stand wird das Parlament daran nicht beteiligt. Die endgültige Entscheidung über den Abschluss wird dann im Rat der Europäischen Union von den 27 Mitgliedstaaten getroffen. Ob dies noch vor der Sommerpause erfolgt, ist unklar. Auch die US-Regierung muss ihre Zustimmung zu dem Entwurf geben. Bis zur Deadline am 31. Dezember 2026 könnte es dann in Kraft treten.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Lieber Leser:innen, mit dem digitalen Euro will sich die Europäische Union unabhängig von US-Zahlungsdienstleistern machen. Doch das Vorhaben steht doppelt unter Druck: Zum einen inhaltlich, weil Bankenverbände und Teile der Konservativen lieber einen schwachen D€ wollen. Zum anderen aber auch zeitlich, weil die Europäische Zentralbank schon nächstes Jahr mit einem Pilotprojekt starten und den digitalen […]
Lieber Leser:innen,
mit dem digitalen Euro will sich die Europäische Union unabhängig von US-Zahlungsdienstleistern machen. Doch das Vorhaben steht doppelt unter Druck: Zum einen inhaltlich, weil Bankenverbände und Teile der Konservativen lieber einen schwachen D€ wollen. Zum anderen aber auch zeitlich, weil die Europäische Zentralbank schon nächstes Jahr mit einem Pilotprojekt starten und den digitalen Euro bis Ende des Jahrzehnts ausrollen will. Das Europäische Parlament aber ringt nach drei jahren noch immer um seine Position, kritische Themen wie Datenschutz wurden noch nicht mal verhandelt. Meine Kolleg:innen Anna und Leonhard erklären, was auf dem Spiel steht.
Habt ein schönes Wochenende
Euer Ingo
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Journalismus wird weltweit immer häufiger kriminalisiert. Auch in demokratischen Ländern. Zum ersten Mal fallen in der Rangliste von Reporter ohne Grenzen über die Hälfte aller Länder in die schlechtesten Kategorien. Trump hat dabei einen weltweiten Negativ-Effekt auf die Pressefreiheit.

Journalismus wird weltweit immer häufiger kriminalisiert. Zu diesem Ergebnis kommt die neue Rangliste der Pressefreiheit 2026 von Reporter ohne Grenzen (RSF). Auch in demokratischen Ländern werde das Recht auf Informationen zunehmend beschnitten.
Gegenüber dem Vorjahr haben sich in 110 von 180 betrachteten Ländern die rechtlichen Rahmenbedingungen für den Journalismus verschlechtert – und damit in mehr als der Hälfte aller Länder. Vorwände wie „Nationale Sicherheit“, „Desinformation“, „Terrorismus“ und „Extremismus“ würden zunehmend genutzt, um gegen Journalist:innen vorzugehen, heißt es im Bericht.
Die Delegitimierung journalistischer Arbeit wird von vielen Reporter:innen auch in Deutschland (Rang 14) zunehmend als große Bedrohung für den Journalismus wahrgenommen, wie die Nahaufnahme des Reports zeigt. Dass Deutschland erneut im Ranking absinke, sei Ausdruck eines aufgeheizten Klimas, sagt Christian Mihr, Geschäftsführer für Politik und Strategie bei RSF. Journalist:innen empfänden zunehmend starken Druck. Dazu komme die Sorge, für ihre Arbeit öffentlich an den Pranger gestellt zu werden.
55 Angriffe auf Medienschaffende und Redaktionen wurden für 2025 in Deutschland verifiziert. Im Vorjahr waren es 89. Die Dunkelziffer sei hoch. Gefährlich sei demnach vor allem die Recherche im rechtsextremen Milieu. So wurde zum Beispiel Thomas Heise (Spiegel TV) im März 2025 bei einer Neonazi-Versammlung am Berliner Ostkreuz im Gesicht verletzt. Dominik Lenze (Tagesspiegel) im Mai 2025 in Herford. Auch Cyberangriffe und Online-Hetze würden eine zunehmende Rolle spielen.
Tief polarisierend wirke zudem die Berichterstattung über den Gaza-Krieg. Journalist:innen berichten, sie hätten Schwierigkeiten, Menschenrechtsverbrechen der israelischen Armee in derselben Weise aufzugreifen wie bei anderen Konflikten.
Auch Exiljournalist:innen aus Iran (177), Afghanistan (175) oder Russland (172) geraten in Deutschland zunehmend ins Visier ihrer Herkunftsregime. RSF spricht hier von transnationaler Repression.
Alles netzpolitisch Relevante
Drei Mal pro Woche als Newsletter in deiner Inbox.
Trump hat weltweit Negativ-Effekt
Trump systematisiere in den USA (64) die Pressefeindlichkeit. Die Polizei und die US-Einwanderungsbehörde ICE gingen zunehmend gewaltsam gegen Reporter:innen vor. Die Inhaftierung und Abschiebung des salvadorianischen Journalisten Mario Guevara habe die ohnehin angespannte Sicherheitslage für die Presse verschärft.
Hinzu kämen drastische Kürzungen bei der US Agency for Global Media (USAGM) mit weltweiten Auswirkungen auf die Pressefreiheit: In der Konsequenz kam es zur Schließung oder Verkleinerung vieler internationaler Sender wie Voice of America (VOA), Radio Free Europe/Radio Liberty (RFE/RL) und Radio Free Asia (RFA) – in Ländern, in denen diese Medien verlässliche Informationsquellen darstellen.
In Argentinien (98) und El Salvador (143) seien mit Javier Milei und Nayib Bukele zudem zwei Präsidenten an der Macht, die ihre lautstarkte Unterstützung für Trump und die eigene Pressefeindlichkeit offen zur Schau stellen.
Repression und Inhaftierung
In autoritären Staaten hat sich die Lage weiter verschärft. In Russland (172) seien derzeit 48 Medienschaffende inhaftiert, davon 26 aus der Ukraine. Georgien (135) fiel um 21 Plätze in der Rangliste, weil Gesetze zunehmend strategisch umformuliert und gegen Reporter:innen eingesetzt würden.
Beim Krieg in der Ukraine töte Russland immer wieder gezielt auch Journalist*innen. In Gaza wurden zudem seit Oktober 2023 mehr als 220 Journalist:innen durch Angriffe der israelischen Armee getötet, so der Report. „Darunter mindestens 70 bei der Ausübung ihrer Arbeit.“
In der Türkei (163) seien „Beleidigung des Präsidenten“ und „Verunglimpfung staatlicher Institutionen“ ein häufiger Vorwand, um Journalist:innen zu unterdrücken. Der Deutsche Welle-Korrespondent Alican Uludağ ist auf jener Grundlage seit Februar 2026 in Haft.
Wir sind ein spendenfinanziertes Medium.
Unterstütze auch Du unsere Arbeit mit einer Spende.
Die Anwendung solcher Instrumente fände jedoch zunehmend auch in Demokratien statt. Länder wie Japan (62), die Philippinen (114) und Israel (116), Indien (157) nutzen demnach zunehmend Gesetze unter dem Vorwand der Terrorismusbekämpfung oder des Schutzes der nationalen Sicherheit, um gegen Journalismus vorzugehen.
Nur ein Prozent der Weltbevölkerung im grünen Bereich
Nur in sieben Staaten liegt die Pressefreiheit nach Einschätzung von RSF noch im grünen Bereich – also bei „gut“. Diese sieben Staaten machen nur ein Prozent der Weltbevölkerung aus. Erstmals befindet sich mehr als die Hälfte der 180 betrachteten Länder in den beiden schlechtesten Kategorien In der 25-jährigen Dokumentation des „sehr ernst“ oder zumindest „schwierig“.
„Nur noch einer von 100 Menschen weltweit kann sich durch eine vielfältige, gesunde Medienlandschaft informieren. Auch wenn wir den Niedergang der Pressefreiheit seit einem Vierteljahrhundert dokumentieren, bleibt dieser Befund dramatisch“, kommentiert Mihr.
Den größten Absturz legte Niger (120) mit 37 Plätzen minus hin. In der gesamten Sahel-Region sei die Pressefreiheit durch Angriffe bewaffneter Gruppen drastisch gesunken. Saudi-Arabien (176) sackt nach der Hinrichtung des Journalisten Turki al-Jasser zu den Schlusslichtern China, Nordkorea und Eritrea auf.
Die größten Gewinne für die Pressefreiheit gibt es in Syrien (141). Der Sturz des Assad-Regimes im Dezember 2024 und der politische Wandel ließen das Land um 36 Plätze aufrücken. Die Situation für Journalist:innen sei zwar weiterhin „sehr ernst“, aber besonders die rechtliche Bewertung der Pressefreiheit habe sich verbessert. An der Spitze des Rankings stehen wie immer die skandinavischen Länder.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Die EU arbeitet mit Hochdruck an der Abschiebeverordnung. ICE-ähnliche Razzien in Privatwohnungen und elektronische Fußfesseln für Menschen ohne Aufenthalt könnten Realität werden, wenn die Verordnung in dieser Form beschlossen wird – warnen Expert*innen und zivilgesellschaftliche Organisationen.

Ein „Gemeinsames Europäisches Rückkehrsystem“ soll künftig dafür sorgen, dass abgelehnte Asylbewerber*innen und andere Migrant*innen ohne legalen Aufenthalt schneller und in größerer Zahl abgeschoben werden. Die höchst umstrittene Rückführungsverordnung, auch als Abschiebeverordnung bekannt, befindet sich in den letzten Zügen der EU-Gesetzgebung. EU-Kommission, Parlament und Mitgliedstaaten haben ihre Positionen festgelegt und müssen nun im Trilog eine geeinte Version verhandeln. Der EU-Innen- und Migrationskommissar Magnus Brunner bezeichnete die Verordnung zuletzt als „das fehlende Puzzlestück“. Das Gesamtbild ist dabei die härtere Migrationspolitik, die die EU mit dem Migrations- und Asylpakt eingeschlagen hat, der ab Juni 2026 zur Anwendung kommen soll.
„Die Verordnung ist ein klares Zeichen dafür, dass sich die Migrationspolitik in der EU radikalisiert hat“, sagt Bernd Parusel, Senior Researcher am Schwedischen Institut für Europäische Studien gegenüber netzpolitik.org. „Die weitgehende und drastische Verschärfung der bisherigen Rückführungspolitik der EU geht an die Grenzen dessen, was menschenrechtlich vertretbar ist“, so der Wissenschaftler, der zur geplanten Verordnung forscht.
Ein Teil der Verordnung sieht Abschiebungen in sogenannte „Return Hubs“ in Länder außerhalb der EU vor, zu denen die Menschen keinerlei Bezug haben. Es geht auch um die Inhaftierung von Familien sowie Kindern ohne Eltern und die massive Ausweitung maximal zulässiger Abschiebehaft. Außerdem setzt das Gesetzesprojekt darauf, Menschen ohne Papiere aufzuspüren und jene, die abgeschoben werden sollen, verstärkt digital zu überwachen.
Stehen ICE-ähnliche Razzien in der EU bevor?
Eine Regelung, die einen großen Aufschrei unter zivilgesellschaftlichen Akteuren und Angestellten im öffentlichem Sektor ausgelöst hat, verpflichtet Mitgliedstaaten, Menschen ohne Papiere „aufzuspüren“. Dass birgt die Gefahr, dass es auch in der EU zu Menschenjagden nach Migrant*innen an öffentlichen Plätzen und im Privaten geben könnte. Der Vorschlag der Kommission sieht vor, dass Mitgliedstaaten „effektive und angemessene Maßnahmen“ einführen sollen, „um Drittstaatsangehörige aufzuspüren, die sich illegal in ihrem Staatsgebiet aufhalten“.
Das EU-Parlament hat diese Regelung in seiner Fassung gestrichen. Doch es besteht die Möglichkeit, dass der noch härtere Vorschlag der Mitgliedstaaten Eingang in den finalen Text findet. Ihre Position sieht „investigative Ermittlungsmaßnahmen“ vor, um die Zahl der Abschiebungen zu erhöhen. Dazu gehören beispielsweise Durchsuchungen von Wohnungen und „anderen relevanten Räumlichkeiten“. Dies würde der Polizei ermöglichen, Krankenhäuser, Schulen, Arbeitsplätze, öffentliche und soziale Einrichtungen und Wohnungen zu durchsuchen – ganz ohne richterliche Anordnung. Betroffen wären alle, die Menschen ohne Papiere unterstützen, und Bürger*innen, in deren Wohnungen die Behörden sie vermuten.
Auch die Durchsuchung und Beschlagnahmung von elektronischen Geräten, darunter Handys, wären Teil dieser investigativen Maßnahmen – etwas, was auch das EU-Parlament will, als eine Mitwirkungspflicht der Betroffenen ohne Möglichkeit des Widerspruchs.
Risiko von Racial Profiling für ganze Communitys
Zahlreiche unabhängige Expert*innen, darunter 16 UN-Sonderberichterstatter*innen für Menschenrechte sowie mehr als 100 zivilgesellschaftliche Organisationen, warnen, dass solche erweiterten Befugnisse illegale Praktiken des Racial Profiling befeuern und Grundrechte von Menschen ohne Papiere untergraben würden. Da rassistisches Profiling sich oft auf das Aussehen, die Sprache oder die vermutete Herkunft der Betroffenen stützt, erhöhe sich das Risiko von Diskriminierung. Das gelte nicht nur für Menschen ohne Aufenthaltserlaubnis, sondern für ganze gesellschaftliche Gruppen, die von Rassismus betroffen sind, schreibt Platform for International Cooperation on Undocumented Migrants (PICUM), eine der rund 100 kritischen Organisationen.
„Aufspürmaßnahmen schüren Angst, Diskriminierung und Verfolgung und zerstören soziale Bindungen und Gemeinschaften“, kritisiert PICUM in ihrer Stellungnahme. Solche Regelungen halten Menschen davon ab, grundlegende Gesundheitsversorgung wie beispielsweise Schwangerschaftsbetreuung, Behandlung chronischer Krankheiten und Impfungen in Anspruch zu nehmen.
Die Organisationen sowie die UN-Sonderberichterstatter*innen befürchten außerdem, dass die Aufspür-Regelung eine Meldepflicht für Beschäftigte im öffentlichen Dienst nach sich ziehen könnte. Lehrkräfte und Ärzt*innen müssten demnach Menschen ohne gültige Aufenthaltspapiere melden, damit sie abgeschoben werden können. Das würde das Vertrauen zwischen ihnen und ihren Klient*innen nachhaltig beeinträchtigen und könne eine Krise des Gesundheitssystems ähnlich wie in den USA nach sich ziehen, warnen die Organisationen weiter. Dort meiden Menschen ohne Aufenthaltsgenehmigung aus Angst medizinische Einrichtungen.
In Europa haben sich deshalb 1.100 medizinische Fachkräfte im Vorfeld der Abstimmung im Europaparlament gegen die Verordnung ausgesprochen. „Wir weigern uns, zu Instrumenten der Einwanderungskontrolle zu werden“, heißt es in dem Brief.
Europaweite Zementierung von Menschenrechtsverletzungen
Derartige Aufspürmaßnahmen sind nicht ganz neu. Ähnliche Praktiken werden in einzelnen Mitgliedstaaten bereits angewandt, wenn auch uneinheitlich. In Deutschland beispielsweise hat die Polizei immer wieder Schlafzimmer in Geflüchtetenunterkünften ohne Durchsuchungsbeschluss gestürmt, um Menschen abzuschieben. Erst im vergangenen Herbst hat das Bundesverfassungsgericht diese Praxis für verfassungswidrig erklärt. Dieses Beispiel zeigt, dass solche Maßnahmen auf nationaler Ebene erfolgreich angefochten werden konnten.
Schafft es die Regelung in die geeinte Verordnung, würden entsprechende Maßnahmen EU-weit festgeschrieben. Das würde solchen Praktiken neue Legitimität verleihen, ihre Ausweitung auf ganz Europa erfordern und es in Zukunft erheblich erschweren, sie anzufechten oder rückgängig zu machen, warnt PICUM.
Kommt die elektronische Fußfessel für Menschen ohne Papiere?
Laut ProtectNotSurveil, einem Zusammenschluss von Organisationen, die sich mit digitalen Rechten von Migrant*innen befassen, gehen die umstrittenen Aufspürmaßnahmen mit einem verstärkten Einsatz von Überwachungstechnologien einher. Denkbar wären beispielsweise mobile Geräte zur biometrischen Identifizierung, wie sie etwa ICE-Agent*innen in den USA nutzen. Seit Anfang des Jahres setzen diese die App „Mobile Fortify“ zur Gesichtserkennung ein, um den Aufenthaltsstatus von Personen bei Kontrollen auf der Straße festzustellen.
Ein anderes alarmierendes Beispiel ist die geplante elektronische Überwachung von Personen, die abgeschoben werden sollen. Die Verordnung führt sie als vermeintliche Alternative zur Abschiebehaft ein. Vielfach haben Jurist*innen und Menschenrechtsorganisationen jedoch kritisiert, dass sie keine echte Alternative zur Haft darstellt. „Sie ist nicht nur eine Alternative, sondern auch eine zusätzliche Zwangsmaßnahme“, erklärt Parusel. Denn die elektronische Überwachung könnte laut der Verordnung nicht nur statt der Haft, sondern auch davor oder danach eingesetzt werden – selbst wenn die ohnehin ausgedehnte Haftdauer von 24 Monaten bereits überschritten ist.
Wie die elektronische Überwachung im Konkreten aussehen soll, legt die geplante Verordnung nicht näher fest. „Denkbar sind vielleicht eine elektronische Fußfessel oder GPS-Ortung“, sagt Parusel. „Der Entwurf der Verordnung gibt dem nationalen Gesetzgeber hier Freiräume.“
Weil solche Technologien in hohem Maße in die Privatsphäre sowie die Bewegungsfreiheit eingreifen und potenziell stigmatisierend sind, gelten sie weithin als de-facto-Inhaftierung.
Darüber hinaus sieht der Vorschlag vor, dass alle Personen, die abgeschoben werden sollen, sich in einem bestimmten geografischen Gebiet aufhalten, an einer bestimmten Adresse wohnen oder regelmäßigen Meldepflichten nachkommen müssen. Das werfe nicht nur ernsthafte Bedenken hinsichtlich der Verhältnismäßigkeit auf, sondern könnte ebenfalls durch den Einsatz invasiver Überwachungs- und Kontrolltechnologien umgesetzt werden, warnt ProtectNotSurveil.
Neue Europäische Rückkehrentscheidung
Das Kernstück der Verordnung ist die „Europäischen Rückkehrentscheidung“. Diese enthält ein standardisiertes digitales Datenblatt mit Informationen zur Abschiebeentscheidung. Alle Mitgliedstaaten sollen dieses Datenblatt abrufen können. „Wenn ein Mitgliedstaat eine Rückführungsentscheidung getroffen hat, dann ist sie im System drin“, erklärt Parusel gegenüber netzpolitik.org. „Sollte die Person in ein anderes EU-Land weiterwandern, wird dieser Mitgliedstaat sehen können, dass die Person im ersten Land schon zur Ausreise aufgefordert wurde, und ob schon ein Zielland festgelegt wurde“, so der Wissenschaftler.
Sobald ein Mitgliedstaat entschieden hat, eine Person abzuschieben, soll diese Entscheidung von allen anderen EU-Mitgliedstaaten ab 2027 verpflichtend anerkannt und auch umgesetzt werden, schlägt das Europaparlament vor. Die anderen Mitgliedsstaaten wären dann nicht mehr verpflichtet, die Situation der Person und ihre Schutzbedürftigkeit selbst zu prüfen. Unter den Mitgliedstaaten ist dieser Punkt umstritten, in ihrem Entwurf haben sie Einschränkungen bei der gegenseitigen Anerkennung vorgesehen.
Nationale Migrationsbehörden sollen die „Europäische Rückkehrentscheidung“ parallel zur nationalen Abschiebeanordnung erlassen und über das Schengener Informationssystem (SIS II) zur Verfügung stellen. Dadurch werden personenbezogene Daten von Betroffenen für Tausende Polizeibeamt*innen in der gesamten EU zugänglich, kritisieren die ProtectNotSurveil-Organisationen. Das Schengener Informationssystem II, das größte Migration- und Polizeidaten-Austauschsystem der EU, sei ohnehin für wiederholten Datenmissbrauch und die systematische Verweigerung der Datenschutzrechte bekannt. Es gibt dokumentierte Fälle, in denen Polizei- und Einwanderungsbehörden sich nicht an Vorschriften gehalten haben. Die Verordnung baut direkt auf dieser Architektur auf und verstärkt ihre Eingriffsintensität.
Datenübermittlung an Drittstaaten darf nicht zu Todesstrafe führen
Zudem setzt die Verordnung auf die Erfassung großer Datenmengen ausreisepflichtiger Personen auf, die allein zum Zweck der Abschiebung erhoben und zwischen den Mitgliedstaaten ausgetauscht werden sollen. Neben Gesundheitsdaten und Auszügen aus Strafregistern sind es auch biometrische Daten und Informationen wie Bildungsabschlüsse, Reiserouten oder Kontakte von Familienangehörigen im Zielland der Abschiebung. „Es handelt sich um einen noch weitergehenden rückkehrspezifischen Datenaustausch“, sagt Parusel. „Ausreisepflichtige Drittstaatsangehörige werden in einem ganz anderen Ausmaß durchleuchtet und überwacht als beispielsweise EU-Bürger, von denen der Staat diese Daten nicht braucht und auch nicht haben will“, fügt der Wissenschaftler hinzu.
Sensible personenbezogene Daten wie Gesundheitsdaten und Auszüge aus Strafregistern sollen auch an Drittländer fließen, in denen es keine mit der EU vergleichbaren Datenschutzgarantien gibt. Den betroffenen Personen stehen dort deshalb keine wirksamen Rechtsbehelfsmechanismen zur Verfügung, kritisert ProtectNotSurveil.
Für Menschen, die in ihren Herkunftsstaaten politisch verfolgt werden, stelle das ein großes Risiko dar, sagt Parusel. Bei Ausreisepflichtigen gehe man von Menschen aus, die keine Schutzgründe haben. „Aber es gibt auch Menschen, deren Asylgesuch fälschlicherweise abgelehnt wurde oder denen nicht gelungen ist, ihre Schutzgründe glaubhaft vorzubringen“. Diese Menschen seien dann leichter auffindbar und ihnen drohe akute Verfolgungsgefahr. Auch der Europäische Datenschutzbeauftragte warnte, die Übermittlung von strafrechtlich relevanten Daten darf nicht zu einer Todesstrafe oder anderer grausamer Behandlung im Drittstaat führen.
Wird die Verordnung zu mehr Abschiebungen führen?
Ob die Verordnung tatsächlich zu einfacheren und wirksameren Abschiebeverfahren und steigenden Abschiebezahlen führen wird? Mehr als 250 Organisationen gehen davon aus, dass sie den gegenteiligen Effekt haben wird. Sie werde die Zahl der ausreisepflichtigen Menschen eher künstlich in die Höhe treiben. Denn der Vorschlag etabliert die Abschiebung als Standardoption für Menschen ohne legalen Aufenthalt und lässt wenig bis gar keine Alternativen übrig. Er verpflichtet die Mitgliedstaaten, bei jeder Entscheidung zur Beendigung eines legalen Aufenthalts zugleich einen Abschiebebescheid zu erlassen, ohne zuvor andere Aufenthaltsmöglichkeiten auf nationaler Ebene zu prüfen. Das sind zum Beispiel Aufenthaltsgenehmigungen aus humanitären, medizinischen oder familiären Gründen.
Damit das europäische Rückführungssystem besser funktioniert, sollten die Mitgliedstaaten nicht mehr Menschen als nötig in das Rückführungssystem leiten, findet auch Bernd Parusel. „Zur Ausreise sollten nur diejenigen aufgefordert werden, die eine realistische Aussicht auf Rückkehr haben.“
In der Wissenschaft geht man außerdem davon aus, dass der gewünschte abschreckende Signaleffekt der neuen Zwangsmaßnahmen begrenzt sein wird. „Ich glaube nicht, dass man mit Zwangsmaßnahmen alleine das Problem löst. Man muss auch über Alternativen zur Zwangsrückkehr nachdenken“, so der Wissenschaftler gegenüber netzpolitik.org. Das könne beispielsweise die Legalisierung von Menschen ohne legalen Aufenthalt sein. Denn anders als Abschiebungen sind Bleiberechte effektiver darin, die Zahlen der sogenannten Ausreisepflichtigen zu senken und der Überforderung der Verwaltung entgegenzuwirken.
Am 22. April trafen sich Vertreter*innen der Mitgliedstaaten mit Abgeordneten des EU-Parlaments zum zweiten Mal, um ihre Positionen zur Abschiebeverordnung zu verhandeln. Die ersten Trilog-Verhandlungen fanden bereits am 26. März statt. Nur wenige Stunden vorher hatte die konservative EVP-Fraktion im EU-Parlament unter der Führung des deutschen CSU-Politikers Manfred Weber mit Unterstützung rechtsextremer Parteien wie der AfD ihren Standpunkt verabschiedet.
Da die Mitgliedstaaten und das Europaparlament sich in vielen Punkten einig sind, ist mit einem schnellen Abschluss der Trilog-Verhandlungen zu rechnen. Ein Beschluss ist noch im ersten Halbjahr 2026 geplant, die nächsten Verhandlungen sind für Juni angesetzt. Für die meisten Maßnahmen wünschen sich die Mitgliedstaaten eine Umsetzungsfrist von zwei Jahren, bis auf die Abschiebungen in „Return Hubs“. Diese sollen direkt nach Beschluss der Verordnung möglich sein, auch wenn es hier noch viele Fragezeichen gibt. Deutschland versucht derzeit aktiv, solche Deals mit Drittstaaten auszuhandeln.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Das Europäische Parlament sucht eine gemeinsame Position zum Digitalen Euro. Ein besonders umstrittener Vorschlag ist nun erst einmal vom Tisch, Themen wie Datenschutz und sogenannte Haltelimits aber noch offen. Viel Zeit für eine Einigung bleibt nicht mehr.

Dass einer Person der Zugang zu Visa, Mastercard, Paypal und Co. abgestellt werden kann und wie schwer der Alltag dadurch wird, haben in letzter Zeit mehrere Fälle gezeigt. Auch deshalb will sich die Europäische Union beim Bezahlen unabhängiger von US-Anbietern machen. Schon vor drei Jahren stellte die EU-Kommission den Gesetzentwurf für den Digitalen Euro (D€) vor, seitdem wird er verhandelt.
Die Mitgliedstaaten einigten sich im Dezember auf ihre Position und auch im Parlament scheint es einen Durchbruch gegeben zu haben. Dort waren die Verhandlungen zeitweise ins Stocken geraten. Wie Euronews berichtete und aus Verhandlungskreisen gegenüber netzpolitik.org bestätigt wurde, haben sich die zuständigen Abgeordneten darauf geeinigt, dass man mit dem Digitalen Euro sowohl online als auch offline bezahlen können soll. Dem war ein monatelanger Streit vorausgegangen.
Bankenlobby hat erst einmal das Nachsehen
Der für das Thema zuständige Berichterstatter im EU-Parlament, Fernando Navarrete von der konservativen Europäischen Volkspartei (EVP), hatte zunächst einen sogenannten Konditionalitätsmechanismus vorgeschlagen. Demnach hätte die Europäische Zentralbank (EZB) nur dann einen Online‑D€ launchen dürfen, wenn es bis zum Start kein privatwirtschaftliches pan-europäisches Bezahlsystem gegeben hätte.
Navarrete bekam dafür vor allem Lob von der Bankenlobby. Sie befürchtet, durch den D€ Einlagen zu verlieren und Profite bei den Zahlungen einzubüßen und treibt deswegen Wero als Alternative zu bestehenden Zahlungsmitteln voran. Schon in der vorherigen Legislaturperiode wurde der EVP vorgeworfen, den Digitalen Euro im Sinne der Banken zu verschleppen. Und auch ein Bericht der Organisation Finanzwende zeigte jüngst auf, wie die Banken erfolgreich gegen den Digitalen Euro lobbyieren.
Die EZB, die EU-Kommission und die Fraktionen von links (The Left) über sozialdemokratisch (S&D) bis liberal (Renew) hatten sich hingegen für einen D€ ausgesprochen, der sowohl on- als auch offline funktioniert. Auch der bei der EU-Kommission für den D€ zuständige Ulrich Clemens sagte vor kurzem bei einer Veranstaltung, es müsse “von Anfang an” eine Online- und Offline-Variante geben. Das sei eine grundlegende Voraussetzung, damit der Digitale Euro erfolgreich sein wird.
Aus der Wissenschaft erhielten die EVP-Pläne ebenfalls spürbaren Gegenwind: “Ein starker Digitaler Euro erfordert sowohl Online- als auch Offline-Funktionalität”, schrieb das Leibniz-Institut für Finanzforschung (SAFE). Kompromisse, die ausschließlich auf Online- oder ausschließlich auf Offline-Nutzung setzen, würden den strategischen Wert des Projekts schmälern. Im Januar warnten gleich 70 Ökonom:innen vor einer Aushöhlung des Vorhabens.
Welche dieser kritischen Stimmen den Berichterstatter Navarrete letztlich davon überzeugte, die Konditionalität fallen zu lassen, ist offen.
Kommt die schrittweise Einführung des Digitalen Euro?
Dennoch ist im Parlament noch keine Einigung in Sicht. Im Gegenteil: Die Verhandlungen sind in vollem Gange. Die zentrale Abstimmung im Ausschuss für Wirtschaft und Währung (ECON) war eigentlich für den 5. Mai geplant gewesen. Doch weil es noch zu viel zu besprechen gibt und die Visionen bislang zu unterschiedlich sind, wurde die Abstimmung auf den 23. Juni verschoben. Brüsseler Beobachter:innen zeigen sich davon wenig überrascht.
So steht derzeit die Frage im Raum, ob der Digitale Euro stufenweise eingeführt werden könnte. Dabei geht es nicht nur um Online- oder Offline-Funktionalität, sondern auch um die Frage, ob man schon zum Start sowohl physisch im Handel als auch beim Online-Shopping bezahlen kann und ob Nutzer:innen ihren Freund:innen und Bekannten auch privat Digitale Euros schicken können.
Die Banken begrüßen diesen Ansatz, auch weil er ihnen mehr Zeit geben würde, die eigene IT-Infrastruktur für den Digitalen Euro umzubauen. “Bei der schrittweisen Einführung geht es nicht um eine Verwässerung, sondern um die Nachfrage des Marktes und eine erfolgreiche Einführung”, sagte etwa Katharina Paust-Bokrezion von der Deutschen Bank bei einer Podiumsdiskussion im vergangenen März.
Aus Sicht von Befürworter:innen des Digitalen Euros könnte eine stufenweise Einführung auch Verzögerungen bei dessen Einführung verhindern. Sollte die Offline-Variante länger brauchen, könnte so schon einmal mit der Online-Variante gestartet werden, statt dass sich beide verspäten.
Datenschutz auch für kleinere Zahlungen
Für Diskussionen werden voraussichtlich auch noch weitere wichtige Vorschriften für die Digitale Währung sorgen, die etwa Datenschutz und Privatsphäre betreffen. Diese Themen wurden in den Verhandlungen noch nicht im Detail besprochen.
Der Linken-Abgeordnete Martin Schirdewan setzt sich für ein höheres Datenschutzniveau beim Online‑D€ ein. Gegenüber netzpolitik.org erklärte er: “Wir brauchen einen Privatsphäre-Schwellenwert bei kleineren Zahlungen, der ähnlich wie Bargeld die höchstmögliche Anonymität gewährleistet.” Ähnlich lautende Änderungsanträge finden sich quer durch das politische Spektrum. Markus Ferber von der bayerischen CSU etwa schlägt einen Schwellenwert von 100 Euro pro Transaktion vor.
Der Schattenberichterstatter für die Grünen-Fraktion, Damian Boeselager (Volt), schlägt darüber hinaus vor, dass für den D€ das Prinzip “privacy by design and default” (Datenschutz als Standard) gelten soll. Kryptografische Verfahren und „neueste Technologien“ sollen demnach ermöglichen, dass Daten minimiert und nicht verknüpft werden. Dass sich Menschen gegenüber Zahlungsdienstleistern mit biometrischen Daten identifizieren müssen, will Boeselagers Fraktion ebenso wie die fraktionslose Abgeordnete Sibylle Berg (Die PARTEI) verbieten.
Verschiedene Ansichten gibt es hingegen beim „zentralen Zugangspunkt“ (single-access-point). Mit seiner Hilfe sollen einerseits die Haltelimits durchgesetzt, andererseits aber auch der Wechsel zwischen verschiedenen Zahlungsdienstleister ermöglicht werden. Während die meisten Fraktionen auf diesen Vorschlag der Kommission setzen, plädiert etwa Berg für eine dezentrale Speicherung, wie sie auch der Europäische Datenschutzausschuss vorschlägt.
Wie viel Digitale Euro dürfen wir halten?
Die Haltelimits legen fest, wie viele Digitale Euros jede:r Nutzer:in halten darf. Das soll vor allem verhindern, dass die Europäer:innen zu viel Bankguthaben in Digitale Euros umtauschen und den Banken damit die privaten Einlagen ausgehen. Umgekehrt verringert ein zu niedriges Haltelimit möglicherweise die Attraktivität des Digitalen Euros.
Selbst die EVP ist sich hier nicht einig. Eine Mehrheit um Berichterstatter Navarrete, zu der auch Markus Ferber (CSU) gehört, sorgt sich vor allem um die Finanzstabilität und will dies zum zentralen Maßstab bei der Bestimmung der Limits machen. Andere EVP-Abgeordnete stimmen eher mit Sozialdemokrat:innen, Grünen und Linken überein und wollen, dass Haltelimits nicht zu niedrig angesetzt werden.
Bisher wurden Haltelimits zwischen 500 und 3000 D€ pro Person diskutiert. Von den Abgeordneten haben nur die wenigsten konkrete Zahlen vorgeschlagen. Stärker diskutiert wird hingegen, wer die verschiedenen Haltelimits setzen darf. Teile der EVP sowie die liberale Renew-Fraktion wollen, dass die Kommission die Haltelimits bestimmt. Sozialdemokrat:innen, Grüne und Linke sowie einzelne EVP-Abgeordnete sehen hier die EZB in der Verantwortung.
Die Mitgliedstaaten haben sich bereits darauf geeinigt, selbst eine Obergrenze für die Obergrenze setzen zu wollen. Die EZB dürfte das jeweilige Haltelimit somit nur unterhalb dieser Obergrenze festlegen. Die Mitgliedstaaten brachten auch eine Obergrenze von null Euro für Unternehmen ins Spiel. Dank einer automatischen Umwandlung und der Verknüpfung mit einem herkömmlichen Bankkonto könnten Unternehmen dann zwar trotzdem in D€ Geschäfte abwickeln, selbst jedoch keine Digitalen Euros halten.
Europäische Zentralbank scharrt mit den Hufen
Bis wann all diese Fragen geklärt sind? Markus Ferber von der CSU sagt: „Unser Ziel bleibt unverändert, die Verhandlungsposition des Europäischen Parlaments noch vor der Sommerpause zu fixieren.“
Dass sich das Parlament bis dahin auf den Digitalen Euro einigt, ist wichtig für den Zeitplan. Die Europäische Zentralbank, die das Projekt maßgeblich vorantreibt, scharrt schon mit den Hufen. Im Jahr 2029 möchte sie den Digitalen Euro unter die Menschen bringen. Und schon im nächsten Jahr sollen die eigenen Mitarbeitenden in einem gemeinsamen Pilotprojekt mit anderen europäischen Zentralbanken den D€ testen.
Für die Vorbereitungen braucht die EZB Klarheit darüber, was die europäischen Gesetzgeber für den D€ vorschreiben. Die Zentralbank bestätigt auf netzpolitik.org-Anfrage, dass der Zeitplan des Projekts an den Gesetzgebungsprozess gebunden ist. Bisher rechneten die EZB und die Bundesbank damit, den Zeitplan einhalten zu können, wenn das Gesetz bis 2026 verabschiedet ist.
Ob das aktuell noch gilt, lässt die EZB auf Anfrage offen. Fest stehe hingegen, dass das Pilotprojekt 2027 anlaufen wird, “auch wenn das Gesetzgebungsverfahren bis Ende 2026 noch nicht abgeschlossen sein sollte”, schreibt eine Sprecherin. Und sie fügt hinzu, dass die EZB die Vorbereitungen eines “potenziellen” Digitalen Euros weiter vorantreiben werde, auch wenn der EZB-Rat erst dann eine Entscheidung über dessen Ausgabe treffen werde, wenn die Regulierung der EU verabschiedet wurde.
Trilog unter Zeitdruck
Damit es dazu kommt, müssen sich nicht nur die Abgeordneten unter sich einig werden, sondern auch mit den Mitgliedsstaaten. Solche Trilog-Verhandlungen könnten in der ersten Juli-Hälfte starten, bevor in Brüssel die Sommerpause beginnt. Die Verhandlungen können sich dann ohne weiteres über mehrere Monate hinziehen; bei der KI-Verordnung lagen zwischen Parlamentsposition und endgültiger Annahme rund neun Monate.
Immerhin einigten sich EU-Parlament, Kommission und Rat vergangene Woche noch einmal offiziell darauf, den Digitalen Euro mit höherer Priorität zu behandeln und den Gesetzesprozess noch in diesem Jahr abzuschließen. Wie lange die Verhandlungen aber am Ende tatsächlich dauern werden, hängt maßgeblich davon ab, was das Parlament demnächst beschließt und wie sehr sich seine Position von der des Rates unterscheidet. Sollten die Position weit auseinanderliegen, werde es überaus schwierig, die gesetzte Frist bis zum Jahresende noch einzuhalten, heißt es in Brüssel.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Die EU will unter hohem Zeitdruck ihre Regeln für Künstliche Intelligenz aufweichen. Nun sind eigentlich abschließende Verhandlungen gescheitert. Alle Beteiligten machen sich gegenseitig Vorwürfe, am Ende könnten Regeln zum besseren Schutz vor KI-generierten Nacktbildern unter die Räder geraten.

Die EU-Institutionen können sich weiter nicht auf eine abgeschwächte Fassung der KI-Verordnung einigen. Medienberichten zufolge sind gut zwölfstündige Trilog-Verhandlungen zwischen dem Europäischen Parlament, dem Rat und der Kommission am Dienstag gescheitert.
Ein zentraler Streitpunkt war offenbar eine vorgeschlagene Ausnahme für risikoreiche KI-Systeme in der Industrie, wie Table Media [€] berichtet. Das Parlament hatte demzufolge vorgeschlagen, die sektorspezifischen Regelungen zu ändern: Industriemaschinen sollten demnach aus der Hochrisiko‑Kategorie herausfallen. Entscheidend für eine Einstufung als Hochrisiko sollte stattdessen die tatsächliche Sicherheitsfunktion der KI werden. Rat und Parlament sind sich in dieser Frage jedoch uneins.
Gestritten wurde dem Bericht zufolge zudem über ein Verbot sogenannte „Nudifier“-Anwendungen. Das sind generative KI‑Systeme, die Menschen auf Foto- oder Videomaterial entkleiden können. Das Parlament möchte nicht‑einvernehmliche intime Inhalte verhindern, es konnte jedoch keine Einigung darüber erzielt werden, welche Körperteile darunterfallen.
Das kritisiert unter anderem Eva Lejla Podgoršek, Senior Policy Managerin bei AlgorithmWatch. Es sei wichtig, „dass die wenigen guten Vorschläge nicht unter die Räder geraten.“ Das geplante Verbot von KI-Systemen, die nicht einvernehmliche sexualisierende Deepfakes ermöglichen, sei ein wichtiger Baustein, um Betroffene wirksam zu schützen.
Wenn drei sich streiten, freut sich niemand
Die Anpassungen der bereits im August 2024 in Kraft getretenen KI-Verordnung sollen im Rahmen des sogenannten Digitalen Omnibus erfolgen. Mit dem von der EU-Kommission vorgeschlagenen Gesetzespaket sollen Vorschriften im digitalen Sektor vereinfacht werden, um bürokratische Hürden für Unternehmen abzubauen und Europas Wettbewerbsfähigkeit zu steigern. Das Paket ist jedoch umstritten. Es enthält auch Lockerungen der Datenschutzgrundverordnung, etwa beim Training von KI mit personenbezogenen Daten oder einer Neudefinition personenbezogener Daten.
Während die Verhandlungen über den Daten-Omnibus sich offenbar länger hinziehen, machten die Beratungen über den KI-Omnibus schnell Fortschritte. Die Zeit drängt: Zentrale Pflichten des AI Acts für besonders risikoreiche KI-Systeme werden ab dem 2. August 2026 wirksam. Diese Fristen sollen mit dem Omnibus aufgeschoben werden. Gestern sind die finalen Verhandlungen allerdings bereits zum zweiten Mal geplatzt.
Laut Table Briefings sieht die zypriotische Ratspräsidentschaft keine Schuld bei sich: „Wir sind mit einer sehr konstruktiven Haltung in die heutige Sitzung gegangen und haben konkrete Vorschläge zur Lösungsfindung unterbreitet“. Man habe während der Verhandlungen ein hohes Maß an Flexibilität gezeigt, aber keine Einigung mit dem Europäischen Parlament erzielen können. Das Ziel der Vereinfachung werde jedoch weiterhin verfolgt.
Stimmen aus dem Parlament sehen dies anders. Es sei „inakzeptabel, dass die Ratspräsidentschaft nicht bereit war, einen substanziellen Kompromiss zu machen, um die Überregulierung von KI zu beenden“, sagte die Europaabgeordnete Svenja Hahn (FDP). Michael McNamara (parteilos), Verhandlungsführer für das EU-Parlament, räumte in einem Interview mit Tech Policy Press jedoch selbst ein, dass die vorgeschlagene Verlagerung in sektorale Gesetze „eher zu Deregulierung als zu einer Vereinfachung führen könnte“.
Schwere Vorwürfe kommen von den Grünen im EU-Parlament, insbesondere gegenüber deutschen Konservativen, wie Euractiv berichtet. Sie werfen der Europäischen Volkspartei vor, das Omnibus-Gesetz bewusst zu verzögern und dabei auch die Hilfe von rechtsextremen Parteien im Parlament in Anspruch zu nehmen. Merz wolle noch weitergehende Lockerungen der KI-Regeln, als sie derzeit verhandelt würden. Das wiederholte Scheitern lassen der Verhandlungen sei ein Schachzug, um Zeit zu gewinnen und so die Positionen der EU-Mitgliedstaaten zu beeinflussen.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Liebe Leser*innen, wer sich in der Natur verlieren will, wird dennoch geortet. Zahlreiche Navigations- und Wanderapps sammeln persönliche Daten. Und sie setzen auf Premium-Abos. Meine Kollegin Anna stellt Alternativen vor, die weder datenhungrig sind noch in die Irre führen. Dass gescheiterte Start-ups angehäufte Nutzungsdaten gerne mal fürs KI-Training verscherbeln, könnt ihr in unserem Ticker nachlesen. […]
Liebe Leser*innen,
wer sich in der Natur verlieren will, wird dennoch geortet. Zahlreiche Navigations- und Wanderapps sammeln persönliche Daten. Und sie setzen auf Premium-Abos. Meine Kollegin Anna stellt Alternativen vor, die weder datenhungrig sind noch in die Irre führen.
Dass gescheiterte Start-ups angehäufte Nutzungsdaten gerne mal fürs KI-Training verscherbeln, könnt ihr in unserem Ticker nachlesen.
Genießt das Summen und Brummen
Daniel
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Erstmals hat die EU-Kommission überprüft, wie sich der Digital Markets Act in der Praxis bewährt hat. In einem Bericht stellt sie dem EU-Digitalgesetz ein gutes Zeugnis aus. Ganz rosig ist die Lage jedoch nicht.

Die EU-Kommission zieht eine überwiegend positive erste Bilanz zum Digital Markets Act (DMA). Das EU-Digitalgesetz erfülle seinen Zweck und habe sich positiv auf digitale Märkte ausgewirkt, heißt es in der ersten Evaluation des Gesetzes, die gestern veröffentlicht wurde.
Rund drei Jahre ist der DMA in Kraft, schrittweise mussten große Tech-Konzerne eine Reihe an Auflagen umsetzen, darunter Vorgaben zur Interoperabilität oder mehr Auswahlmöglichkeiten für Nutzer:innen. Das Gesetz soll die Macht großer Online-Dienste wie Amazon oder Apple begrenzen und so faire Verhältnisse in digitalen Märkten schaffen.
Besonders betroffen sind sogenannte Gatekeeper. Damit sind übermäßig große Online-Dienste gemeint, die in bestimmten Sektoren zu viel Marktmacht konzentrieren und damit funktionierenden Wettbewerb bedrohen. Bislang hat die Kommission sieben Unternehmen beziehungsweise 23 von deren Kernangeboten als Gatekeeper eingestuft. Darunter sind WhatsApp von Meta, der App Store von Apple oder die Google-Suchmaschine von Alphabet.
DMA öffnet Geschäftsfelder
Laut EU-Kommission funktioniert der Ansatz: „Der DMA hat das Verhalten, technische Design-Entscheidungen und die vertraglichen Vereinbarungen von Gatekeepern maßgeblich verändert und damit neue Möglichkeiten für Unternehmen und Wettbewerber eröffnet“, resümiert die Kommission im Evaluationsbericht. Für Endnutzer:innen habe der DMA in wichtigen Bereichen für mehr Kontrolle und Wahlmöglichkeiten gesorgt.
Konkret hebt die Kommission eine Reihe an Punkten hervor, an denen sich der Erfolg des DMA messen lasse. Nutzer:innen könnten nun einfacher von einem Online-Dienst zu einem anderen wechseln und dabei ihre Daten mitnehmen; marktmächtige Dienste wie Meta könnten Daten ihrer Nutzer:innen nicht mehr so einfach zusammenführen und verwerten wie früher; zudem seien neue App Stores und Messenger entstanden, die Nutzer:innen mehr Wahlmöglichkeiten bieten würden.
Trotz dieser positiven Bilanz ist die Lage aber weiterhin nicht optimal. Im Vorjahr hagelte es millionenschwere Wettbewerbsstrafen für Apple und Meta, weil sie bestimmte DMA-Vorgaben nicht umgesetzt haben. Ein interoperables und florierendes Ökosystem aus Messengern ist bis heute nicht entstanden. Auch eigentlich verbotenes manipulatives Design ist nicht aus den Online-Auftritten der Gatekeeper verschwunden.
DMA kann bremsen, aber kaum verhindern
Entsprechend gemischt beurteilt Aline Blankertz von der Nichtregierungsorganisation Rebalance Now den DMA. „Er war nicht dazu gemacht, die Macht der Tech-Konzerne einzuhegen, sondern er verlangsamt etwas die Geschwindigkeit, mit der sie weitere Macht erlangen, indem er teilweise verhindert, dass sie diese missbrauchen“, sagt die Wirtschaftswissenschaftlerin.
Zwar habe das Gesetz „kleine Verbesserungen“ bewirkt, etwa bei der Interoperabilität oder der Deinstallierbarkeit von Apps, so Blankertz. Auch habe der DMA dazu beigetragen, von der „sehr einzelfallbasierten Analyse unter dem klassischen Wettbewerbsrecht“ zu einer „etwas einfacheren, etwas schnelleren Bekämpfung besonders problematischer Verhaltensweisen“ der Tech-Konzerne zu kommen.
Gerade bei der Durchsetzung des DMA hapert es jedoch, schreibt nicht zuletzt die EU-Kommission selbst in ihrer Evaluation. Demnach habe das immer noch relativ junge Gesetz „noch nicht sein volles Potenzial“ ausschöpfen können. Allerdings halten sich die vorgeschlagenen Verbesserungen in Grenzen: So sollte es etwa mehr Transparenz und Informationsaustausch im Rahmen des „regulatorischen Dialogs“ mit Gatekeepern geben. Zudem will die Kommission mehr Bewusstsein bei betroffenen Online-Anbietern schaffen und sie verstärkt darüber aufklären, an welche Auflagen sie sich zu halten haben.
Angst vor Trump
Damit will sich Blankertz nicht begnügen, zumal sich europäische Digitalgesetze immer wieder als Zankapfel in den transatlantischen Beziehungen zwischen der EU und den USA erwiesen haben. Nur kurz nach seinem Amtsantritt hatte US-Präsident Donald Trump in einem Memorandum festgelegt, US-amerikanische Unternehmen vor „Erpressung und unfairen Geldbußen aus dem Ausland“ schützen zu wollen. Seitdem wurden immer wieder Gerüchte laut, dass die EU-Kommission, auch aus Angst vor Strafzöllen, Verfahren verschleppt und nicht so stark auftritt, wie es der DMA eigentlich verlangt.
Die Durchsetzung des DMA sei aufwändiger und langwieriger als diejenigen erhofft haben, die ihn als „self-enforcing“ bezeichnet hatten, so Blankertz. Hinzu komme, dass aufgrund der zunehmend EU-feindlichen Haltung der US-Regierung „selbst das bisherige, moderate Maß an Durchsetzung noch weiter zurückgefahren wird“.
Dies geschehe auch mit Rückendeckung der deutschen Regierung, entgegen des Koalitionsvertrags. „Damit steht nicht nur die Wirksamkeit wettbewerbspolitischer Regeln zur Debatte, sondern auch Prinzipien von europäischer Rechtsstaatlichkeit“, warnt Blankertz.
Spielraum habe die Kommission jedenfalls genug, ohne das Gesetz aufschnüren zu müssen, sagt die Wirtschaftswissenschaftlerin. „Viele der Regeln sind auch drei Jahre später noch in Spezifikationsphasen und werden von den Torwächtern deutlich enger ausgelegt als im Sinne der im DMA artikulierten Ziele von Fairness und Bestreitbarkeit.“
Gemischte Signale aus Brüssel
Entsprechend kritisch sei demnach die Ankündigung der Kommission zu bewerten, dass sie künftig den Fokus des DMA auf KI-Anwendungen und Cloud-Dienste ausweiten werde. Zum einen treibt die Kommission unter Ursula von der Leyen eine Deregulierungsagenda voran, mit der sie unter anderem eine „Überregulierung“ Künstlicher Intelligenz verhindern will.
Zum anderen weist Blankertz auf die jüngste und größte Firmenübernahme hin, die Google jemals angestoßen hatte. Erst im März hat der Tech-Riese knapp 28 Milliarden Euro auf den Tisch gelegt, um sich mit dem Segen der EU-Kommission und trotz zivilgesellschaftlicher Proteste das Sicherheits-Startup Wiz einzuverleiben.
„Es wäre illusorisch zu glauben, dass der DMA auch nur annähernd hinreichend wäre, um der weiteren Machtkonzentration in Cloud und KI effektiv entgegenzuwirken“, sagt Blankertz. Die Deregulierungsagenda und eine sich andeutende Aufweichung von Leitlinien zur Fusionskontrolle würden großen Konzernen in die Hände spielen, so die Expertin. „Selbst eine Ausweitung des DMA auf Cloud und KI sollte also nicht darüber hinwegtäuschen, dass viele andere Hebel ebenfalls genutzt werden müssen, um die Macht der Tech-Konzerne einzuhegen.“
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Wer bei Sicherheit nur an Verbrechensbekämpfung denkt, verliert vieles aus dem Blick. Genau das scheint die aktuelle Bundesregierung mit ihrem Überwachungspaket zu tun, doch das kann gefährlich werden. Ein Kommentar.

Mehr Sicherheit sollen drei Gesetzentwürfe bringen, die das Bundeskabinett am heutigen Mittwoch beschlossen hat. Der „Gesetzentwurf zur Stärkung digitaler Ermittlungsbefugnisse in der Polizeiarbeit“, der „Gesetzentwurf zur Stärkung digitaler Ermittlungsbefugnisse zur Abwehr von Gefahren des internationalen Terrorismus“ und der „Gesetzentwurf zur Änderung der Strafprozessordnung“ legen die Grundlage dafür, dass Ermittlungsbehörden Gesichtsbilder mit Aufnahmen aus dem Internet abgleichen können und automatisierte Datenanalysen durchführen dürfen. Warum sie das brauchen? Unter anderem wegen der „hohen abstrakten Bedrohungslage“, erklärt der Vorspann der Entwürfe.
Dass dieses Paket jede Menge neue Überwachungsbefugnisse bringen soll und tief in Grundrechte eingreift, haben Datenschützer:innen und Bürgerrechtsorganisationen überdeutlich und immer wieder kritisiert. Darauf hören will die Bundesregierung offenkundig nicht.
Eingeschränktes Sicherheitsverständnis
Damit offenbart sie nicht nur, dass ihr die fachlichen Einwände egal sind und sie in Kauf nimmt, dass das heute geplante Gesetz später vor einem Verfassungsgericht wieder fallen könnte. Sie präsentiert auch ein hochgradig beschränktes Verständnis von Sicherheit. Und das gefährdet uns alle.
Sicherheit ist in der Welt der Merz-Regierung ein Schlagwort, um Kontroll- und Ordnungspolitik durchzusetzen. Das ist kein neuer Kurs, auch Vorgängerregierungen setzten auf immer mehr Gesetzesverschärfungen im Namen der Sicherheit, während andere Sicherheitsbereiche aus dem Blick gerieten.
Das war einmal anders. In seiner Regierungserklärung im Jahr 1969 sagte Willy Brandt: „Dauerhafte Sicherheit kann es in einer entwickelten Gesellschaft nur durch Veränderung geben.“ Und er sprach danach zuerst von Bildungspolitik und finanzieller Stabilität. Sein Verständnis und das der damaligen Politik machten nicht an Polizeibefugnissen und militärischer Stärke halt. Ja, auch Verbrechensbekämpfung und Militärbündnisse kamen in seiner Rede vor. Aber sie waren nicht die einzigen Aspekte eines Sicherheitsbegriffs, sondern zwei Faktoren von vielen, die in einer Gesellschaft wichtig sind.
Sicherheit ist mehr als Verbrechensbekämpfung
Wenn wir Sicherheit nur auf Verbrechensbekämpfung beziehen, verlieren wir die Gesamtheit unserer Lebensgrundlagen aus dem Blick.
Sicherheit ist, dass Menschen in Ruhe gesunden können, wenn sie krank geworden sind – ohne dass sie Nachteile fürchten müssen. Und nicht, dass ein Bundeskanzler ihnen Müßiggang unterstellt und sie dazu aufruft, mehr zu arbeiten.
Sicherheit ist, wenn sich eine Regierung darum kümmert, dass Menschen sich auch in Zukunft Strom, Heizung und Mobilität leisten können. Und nicht, dass sie sich mit einer fossilverliebten Energiepolitik an den untergangsgeweihten Status Quo klammert.
Sicherheit ist, wenn Menschen sich ohne Angst frei entfalten und an der Gesellschaft teilhaben können – egal wo sie herkommen, wer sie sind oder ob sie in der Mehrheitsgesellschaft auffallen. Dazu passt weder der Kurs der Merz-Regierung zum Selbstbestimmungsgesetz noch zum Asylrecht und vielen anderen Bereichen.
Sicherheit ist kein Supergrundrecht
Und das wichtigste: Grundrechte müssen die Basis für jegliche Sicherheitspolitik sein. Denn ohne Grundrechte gefährden wir unsere Demokratie. Und eine Bundesregierung darf nicht selbst an deren Schwächung arbeiten. Sicherheit ist kein Supergrundrecht, wie der einstige CSU-Innenminister Hans-Peter Friedrich es vor mehr als zehn Jahren zu kolportieren versuchte.
Wenn es schon ein Supergrundrecht geben soll, ist das zweifelsohne die unantastbare Menschenwürde. Sicherheit kommt in der Liste der Grundrechte so nicht vor. Doch umgekehrt sind die Rechte, die in unserer Verfassung verankert sind, Basis für jede Sicherheit, die wir als Menschen in einem demokratischen Staat haben können.
Grundrechte können eingeschränkt werden, das stimmt. Aber dafür gibt es Voraussetzungen: Die entsprechenden Maßnahmen müssen geeignet, erforderlich und verhältnismäßig sein. Und dass das im Fall der derzeit vorgelegten Gesetzentwürfe der Fall wäre, daran – damit wieder zurück zur Kritik vom Anfang – zweifeln Fachleute stark.
Ein Gegenteil von Sicherheit ist Verunsicherung
Wir dürfen nicht aufhören, diese Kritik zu üben. An jeder einzelnen Maßnahme, die Grundrechte im Übermaß beschneidet. Wir dürfen auch nicht aufhören, eine evidenzbasierte sogenannte Sicherheitspolitik zu fordern, die sich aus mehr speist als performativer Innovationsinszenierung und schnellen technischen, vermeintlichen Antworten auf tieferliegende Probleme.
Aber wir dürfen dabei nicht vergessen, dass Sicherheit mehr ist als das, was in Polizei- und Strafgesetzen steht. Wer Menschen immer wieder verunsichert, versteht Sicherheit falsch. Und das kann schnell gefährlich werden.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Die EU-Kommission wirft Meta vor, Kinder unter 13 Jahren nicht wirksam von Instagram und Facebook fernzuhalten und damit gegen den Digital Services Act zu verstoßen. Vizepräsidentin Henna Virkkunen stellte heute parallel neue Leitlinien für den Einsatz der Altersverifikations-App der Kommission vor.

Facebook und Instagram tun zu wenig, um Kinder unter 13 Jahren von ihren Plattformen fernzuhalten. Das hat die Europäische Kommission heute nach zwei Jahren Untersuchung vorläufig festgestellt. Die beiden Plattformen des Mutterkonzerns Meta hätten Risiken für Minderjährige nicht sorgfältig genug identifiziert und damit gegen Auflagen des Gesetzes über Digitale Dienste (DSA) verstoßen.
Die Ansage fällt in eine Zeit, in der die EU-Kommission unter großem Druck steht, EU-weit wirksame Alterskontrollen durchzusetzen. Unter anderem Frankreich, Dänemark und Griechenland haben Social-Media-Verbote für Kinder und Jugendliche angekündigt. Sie fordern von der EU, die Plattformen zu harten Alterskontrollen zu zwingen. Auch Bundeskanzler Friedrich Merz (CDU) und mehrere deutsche Minister*innen haben Sympathien für ein solches Verbot bekundet. Die Entwicklung hat Fahrt aufgenommen, nachdem Australien als erster Staat weltweit Kindern und Jugendlichen unter 16 Jahren den Zugang zu Social Media verwehrt hatte.
Parallel zu der Ankündigung stellte die EU heute Vormittag neue Leitlinien für den Einsatz ihrer Altersverifikations-App vor. “Unsere Lösung zur Altersverifikation muss Hand in Hand mit der starken Durchsetzung des DSA gehen”, sagte Digitalkommissarin Henna Virkkunen in einem Pressestatement, bevor sie zu den Untersuchungsergebnissen zu Meta überleitete.
Die App soll laut Kommissionspräsidentin Ursula von der Leyen “fertig” sein, wird allerdings von Sicherheitsexpert*innen massiv kritisiert, weil sie unsicher und leicht manipulierbar sei. Fachleute warnen zudem seit Monaten vor den Konsequenzen harter Alterskontrollen im Internet. Die damit geschaffene Infrastruktur sei unsicher und gefährde die Anonymität im Internet.
Vorbeugen, identifizieren, entfernen
Das Gesetz über digitale Dienste sieht keine Pflicht zu Alterskontrollen vor, sondern empfiehlt diese als eine mögliche Maßnahme, mit der Plattformen das Risiko für Kinder und Jugendliche mindern und sich an die Auflagen halten können.
Konkret wirft die Kommission Meta vor, entgegen der eigenen Geschäftsbedingungen, die ein Mindestalter von 13 Jahren vorsehen, Konten zu lax zu prüfen. Kinder unter 13 Jahren könnten bei der Registrierung einfach ein falsches Geburtsdatum angeben und sich so Zugang verschaffen. Auch seien die Möglichkeiten, Konten von Minderjährigen zu melden, zu kompliziert und die Meldungen würden nicht konsequent verfolgt.
Die Kommission zweifelt auch an der Risikobewertung, die Meta wie alle großen Plattformen im Rahmen des DSA abgeben musste. Die Bewertung widerspreche Erhebungen, die darauf hindeuteten, dass etwa 10 bis 12 Prozent der Kinder unter 13 Jahren auf Instagram oder Facebook zugreifen. Meta müssen seine Maßnahmen “stärken”, um solchen Registrierungen vorzubeugen, entsprechende Konten zu identifizieren und zu entfernen. Die Untersuchungsergebnisse seien vorläufig und keine finale Bewertung, sagte die Kommission.
Meta widerspricht
Meta widerspricht den Feststellungen: „Wir stellen klar, dass Instagram und Facebook für Personen ab 13 Jahren bestimmt sind, und wir haben Maßnahmen getroffen, um Konten von Personen unter diesem Alter zu erkennen und zu löschen“, erklärte ein Sprecher. Das Unternehmen werde weiterhin mit der EU zusammenarbeiten.
Der Konzern kann nun schriftlich auf die Vorwürfe reagieren und Einwände vorbringen. Gelangt die Kommission im nächsten Schritt dennoch zu dem Schluss, dass die Maßnahmen nicht ausreichen, droht eine Geldbuße von maximal 6 Prozent des weltweiten Jahresumsatzes. Meta verzeichnete für das Jahr 2025 einen Umsatz von 201 Milliarden US-Dollar.
Die Kommission hat die Untersuchung gegen Meta bereits im Jahr 2024 angestoßen. Parallel zum aktuellen Verfahren zum Schutz von Minderjährigen laufen weitere Untersuchungen, unter anderem zu süchtigmachenden Mustern auf Facebook und Instagram sowie Melde- und Beschwerdesysteme für illegale Inhalte.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Viele Navigations- und Wanderapps setzen auf Premium-Abos oder sammeln viele persönliche Daten. Aber es gibt Alternativen.

Die Bäume haben ihre Blätter ausgerollt, Löwenzahn tupft die Wiese gelb und dazwischen summt es immer lauter: Der Frühling ist da und bei steigenden Temperaturen holen viele die Räder aus dem Keller und putzen die Wanderstiefel für den Wochenendausflug.
Aber wohin soll es gehen? Wo finden wir die schönste Strecke für die Radtour am Fluss entlang und welcher Wanderweg bietet eine gute Aussicht? Wie können wir unsere Lieblingsstrecken aufzeichnen und vielleicht noch unsere Wegzeit von Anfang des Jahres mit unserem fitten Zukunfts-Ich vergleichen?
Alles netzpolitisch Relevante
Drei Mal pro Woche als Newsletter in deiner Inbox.
Schnell landet man bei der Suche nach digitalen Helferlein bei Apps mit zahlungspflichtigen Bonus-Funktionen, ohne die eine Orientierung im Funkloch flachfällt. Oder bei Anwendungen, bei denen wir unsere sensiblen Standortdaten mit unbekannten Dritten teilen müssen. Doch es gibt einige Alternativen zu den datenhungrigen Apps, die ihr Geschäftsmodell auf Premium-Abos und Werbung aufbauen. Eine garantiert unvollständige Auswahl findet ihr hier.
Wanderer

Mit und bei wanderer kann man Routen finden, teilen und austauschen.
Für wen? Alle auf der Suche nach Empfehlungen für Touren und alle, die gern ihre Lieblingsstrecken teilen.
Plattformen? Web
Was kann Wanderer? Die Strecken-Datenbank-Anwendung wanderer ist dezentral und basiert auf ActivityPub. Damit ist wanderer eine Fediverse-Version für den Austausch und das Teilen von Routen- und Streckenempfehlungen.
Nutzer:innen können Routen über gpx-Tracks hochladen und speichern, Beschreibungen und Fotos ergänzen und mit anderen teilen. Außerdem lässt sich über Suchfunktionen erkunden, welche Routen andere genommen haben. Man kann Profilen folgen und Strecken favorisieren.
Routen lassen sich auch von anderen Plattformen importieren, für Komoot und Strava gibt es direkte Import-Funktionalitäten.
Was trübt das Vergnügen? Auf den verschiedenen Wanderer-Instanzen ist teilweise noch nicht so viel los. Daher gibt es weniger Routen als auf den proprietären Plattformen.
OsmAnd

OsmAnd bietet eine datenschutzfreundliche Offline-Navigation, die so ziemlich alles kann – wenn man es findet.
Für wen? Wanderer, Radfahrerinnen und alle anderen, die von A nach B über C wollen.
Plattformen? Android, iOS, Web
Was kann OsmAnd? Die auf OpenStreetMap basierende Navigationsanwendung OsmAnd macht fast alles, was man sich vorstellen kann. Und funktioniert auch – wenn man die benötigte Karte vorher heruntergeladen hat – ganz ohne Netz. OsmAnd kann Rad- und Wanderwege highlighten, alle Supermärkte markieren oder Trinkwasserstellen anzeigen. Geplante Routen lassen sich im- und exportieren und ungeliebte Straßen bei der Navigation vermeiden.
Wer mag, kann mit einem Plugin auch gelaufene oder gefahrene Strecken aufzeichnen, um danach zum Beispiel die eigenen Geschwindigkeiten zu analysieren.
Wer mehr als sieben Regionenkarten offline nutzen will, muss dafür wahlweise einmal oder monatlich etwas zahlen. Gegen Geld gibt es auch Offline-Wikipedia-Artikel zu Orten und besonderen Punkten.
Was trübt das Vergnügen? Gerade am Anfang kann OsmAnd durch die vielen Konfigurationsmöglichkeiten vielleicht schnell überfordern. Und manchmal funktioniert die Suche nach Adressen nicht optimal, wenn man nicht die exakte Schreibweise gefunden hat – oder OsmAnd eine „Hauptstr“ nicht gleich mit einer „Hauptstraße“ matcht.
CoMaps und OrganicMaps

CoMaps und OrganicMaps bieten datenschutzfreundliche Offline-Navigation mit intuitiver Bedienung.
Für wen? Wanderer, Radfahrerinnen und alle, die einfach einen Weg finden wollen.
Plattformen? Android, iOS, Web
Was können CoMaps und OrganicMaps? Wie OsmAnd basieren CoMaps und OrganicMaps auf der OpenStreetMap. Das Wichtigste, was man für den Ausflug braucht, bringen die Apps mit: Routen von A nach B festlegen, Zwischenstopps definieren, Supermärkte oder Sehenswürdigkeiten highlighten, Strecken importieren und exportieren. All das macht keine Probleme und ist schnell und intuitiv bedienbar.
Auch hier müssen Karten für die Offline-Navigation heruntergeladen werden. Die Anzahl der Karten-Downloads ist unbegrenzt.
CoMaps und OrganicMaps ähneln sich sehr: Vor rund einem Jahr entstand CoMaps als Abspaltung von OrganicMaps, da es Kontroversen in der Entwickler:innen-Gemeinschaft zu Führungsstil und Transparenz gab.
Was trübt das Vergnügen? Die leichtere Bedienbarkeit von CoMaps und OrganicMaps gegenüber OsmAnd liegt auch daran, dass die Anwendungen weniger Einstellmöglichkeiten haben. Wem es wichtig ist, etwa genau zu definieren, welche Untergründe vermieden werden sollen, oder wer einen extra Modus für Ski- oder Bootstouren braucht, wird sich über OsmAnd freuen.
BRouter

BRouter bietet Routenplanung, vor allem fürs Radfahren.
Für wen? Radler:innen, die nicht nur von A nach B wollen, sondern schöne und sichere Wege suchen.
Plattformen? Integration in andere Anwendungen, mehrere Web-Optionen
Was kann BRouter? BRouter ist eine Routing-Engine, die speziell fürs Radfahren entwickelt wurde. Sie berücksichtigt etwa Höhenmeter und offiziell deklarierte Radwege. Es lassen sich verschiedene Profile wählen und selbst konfigurieren. Damit lassen sich Präferenzen steuern, etwa speziell für die Fahrt mit einem Mountainbike oder einem Rennrad. Es gibt auch eines fürs Wandern zu Fuß, das gut funktioniert.
BRouter lässt sich als Routing-Engine unter anderem in OsmAnd nutzen. Aber es gibt auch mehrere Web-Interfaces, die auf BRouter setzen. Eines davon ist BRouter-Web.
Was trübt das Vergnügen? Wer seine Strecke mit BRouter-Web planen will, sollte das am besten am Desktop tun, dort fällt die Bedienung leichter. Die geplante Strecke lässt sich dann exportieren und in Navigations-Apps oder auf den Rad-Computer laden.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Obwohl die gezielte Phishing-Kampagne Nutzer des Messengers Signal schon seit September 2025 ins Visier nimmt, haben deutsche Behörden erst im Februar Alarm geschlagen. Wann Mitglieder des Bundeskabinetts betroffen waren, möchte jetzt niemand verraten.

Der für Spionageabwehr zuständige Verfassungsschutz (BfV) hat Bundestag und Bundeskabinett erst am 6. Februar vor der laufenden Signal-Phishing-Attacke gewarnt. Das bestätigte ein Sprecher des Bundesinnenministeriums indirekt gegenüber netzpolitik.org.
Die Attacke hatte zuletzt an Brisanz gewonnen, weil herauskam, dass offenbar zwei Bundesministerinnen und die Bundestagspräsidentin auf die Masche hereingefallen sind und damit ihre Accounts gegenüber dem Angreifer offengelegt haben. Sicherheitskreise gehen von rund 300 Betroffenen aus und davon, dass „zahlreiche Signal-Gruppen im parlamentarischen Raum derzeit von den Angreifern nahezu unbemerkt ausgelesen werden“, warnte das BfV in einem Schreiben an die Bundestagsfraktionen.
Nach Informationen von netzpolitik.org läuft die Phishing-Kampagne gegen hochrangige Vertreter:innen aus Politik, Militär und Journalismus allerdings schon mindestens seit September 2025. Sie erreichte laut unseren Recherchen im November und Dezember letzten Jahres einen ersten Höhepunkt, bevor sie sich im Januar ausweitete.
Bekannt wurde die Attacke in Deutschland, als netzpolitik.org am 28. Januar darüber berichtete, dass zahlreiche Journalist:innen im Visier stünden. Gut eine Woche nach dem Bericht warnten dann BfV und das Bundesamt für Sicherheit in der Informationstechnik (BSI) vor der Angriffswelle. Mittlerweile haben die Behörden ein weiteres Update der Warnung samt Handlungsleitfaden veröffentlicht.
Wann wurden die Accounts kompromittiert?
Unbekannt ist bislang, wann Familienministerin Karin Prien (CDU), Bauministerin Verena Hubertz (SPD) und Bundestagspräsidentin Julia Klöckner (CDU) der Phishing-Attacke auf den Leim gingen. Wir haben sowohl den Verfassungsschutz wie auch das BSI, das Bundesinnenministerium sowie das Familien- und Bauministerium gefragt, wann die Beteiligten Opfer der Phishing-Attacke wurden. Doch die angefragten Behörden und Ministerien mauern in dieser Frage.
Man äußere sich zu etwaigen Betroffenheiten einzelner Personen grundsätzlich nicht, heißt es etwa aus dem Bundesinnenministerium. Das Bauministerium antwortet auf die Frage, wann der Account von Frau Hubertz kompromittiert worden sei, dass es die Annahme der Frage selbst „weder bestätigen noch dementieren“ könne. Der Verfassungsschutz teilt mit, dass er zu „Details, die etwaige nachrichtendienstliche Erkenntnisse oder Tätigkeiten betreffen, grundsätzlich nicht öffentlich Stellung nimmt“. Das Familienministerium ging auf die gestellten Fragen nicht ein, das BSI reagierte gar nicht. (Update: Das BSI hat eine Stellungnahme nachgereicht, siehe unten.)
Signal äußert sich zu den Angriffen
Unterdessen hat der Messenger Signal selbst eine Stellungnahme auf Mastodon und Bluesky verbreitet. Darin stellt der Anbieter klar, dass es sich bei dem Angriff nicht um einen „Hack“ handele: Verschlüsselung, Infrastruktur und die Integrität des App-Codes seien nicht beeinträchtigt. Man sei sich aber der Tragweite des Angriffs bewusst und werde in den kommenden Wochen „verschiedene Änderungen“ einführen, um diese Art von Angriffen weiter zu erschweren.
Welche Änderungen das sein werden, ist bislang nicht klar. Denkbar ist etwa, dass die bislang nicht standardmäßig eingeschaltete „Registrierungssperre“ für neue Geräte in Zukunft per default aktiv ist. Signal schreckte vor diesem Schritt in der Vergangenheit zurück, da dieser für Nutzer:innen beispielsweise bei einem Handy-Wechsel als Hürde wahrgenommen würde.
In dem Post erklärte Signal auch erstmals das Vorgehen der Angreifer offiziell:
Laut dem, was uns die Opfer mitgeteilt haben, folgten die Angriffe einem ähnlichen Muster: Nachdem die Angreifer die Nutzer dazu gebracht hatten, ihre Signal-Zugangsdaten preiszugeben, nutzten sie diese, um deren Konto zu übernehmen und änderten häufig auch die zugehörige Telefonnummer. Da eine solche Übernahme zur Abmeldung des Signal-Kontos auf dem Gerät des Opfers führt, bereiteten die Angreifer die Opfer darauf vor, indem sie ihnen mitteilten, die Abmeldung sei beabsichtigt und sie müssten sich lediglich „neu anmelden“ oder ein neues Konto erstellen. Beim Erstellen eines neuen Signal-Kontos – das nun von dem übernommenen Konto getrennt war – glaubten die Opfer, sich wieder in ihr Hauptkonto einzuloggen. Daher bemerkten viele die Übernahme nicht. Die kompromittierten Konten wurden anschließend missbraucht, um die Kontaktlisten der Opfer anzugreifen, indem sich die Angreifer als Kontoinhaber ausgaben.
In der Stellungnahme wiederholte Signal, dass die Nutzer:innen selbst auch wachsam sein müssten: „Denken Sie daran: Niemand vom Signal-Support wird Sie jemals per Nachricht kontaktieren oder nach Ihrem Registrierungs-Verifizierungscode oder Ihrer Signal-PIN fragen.“
Viel spricht für Russland als Urheber des Angriffs
Das niederländische Verteidigungsministerium hatte Anfang März verlautbart, dass Russland hinter der laufenden Phishing-Kampagne gegen hochrangige Personen aus Politik, Militär, Zivilgesellschaft und Journalismus stecken soll. BSI und Verfassungsschutz hatten vor den Attacken gewarnt und diese als „wahrscheinlich staatlich gesteuert“ bezeichnet. Die Bundesregierung schreibt den Angriff bislang nicht offiziell einem Land zu, ließ aber über Regierungskreise verbreiten, dass Russland dahinter stecke.
In einer Mitteilung auf der Webseite des niederländischen Verteidigungsministeriums sprechen sowohl der militärische Geheimdienst MIVD als auch der zivile Geheimdienst AIVD von „russischen Staatshackern“, die hinter dem Angriff auf Signal und WhatsApp stecken würden. Auch netzpolitik.org hat Hinweise, welche die Theorie einer russischen Urheberschaft des Angriffs untermauern.
Das Medienhaus Correctiv hatte zudem den Angriff auf den früheren Vizepräsidenten des Bundesnachrichtendienstes, Arndt Freytag von Loringhoven, ausgewertet und ist dabei auch auf digitale Spuren gestoßen, die nach Russland führen.
Eine Auftraggeberschaft des russischen Staates kann dies nicht beweisen. Die eindeutige Zuschreibung ist bei solchen Angriffen in der Regel sehr schwierig, da es viele Faktoren gibt, um die Herkunft eines Angriffs zu verschleiern oder falsche Fährten zu legen. Dazu kommen politische Interessen bei der Zuweisung der Urheberschaft und der Drahtzieher, die sich in einer militärischen Auseinandersetzung wie dem Angriffskrieg gegen die Ukraine noch verschärfen.
Update 29.04.2026:
Das BSI hat eine Stellungnahme nachgereicht. In dieser sagt eine Sprecherin:
Dem BSI sind einzelne Fälle von Phishing über Signal innerhalb der zuletzt benannten Zielgruppe seit Ende 2025 bekannt geworden. Eine Häufung ließ sich seit Anfang 2026 feststellen und hat dann zum Sicherheitshinweis vom 6. Februar 2026 geführt. Die betroffenen Personen wurden durch das BSI im direkten Gespräch sensibilisiert und auf die Gefährdung ihrer Signal-Kontakte hingewiesen.
Das heißt, dass Phishing-Versuche gegen Kabinettsmitglieder offenbar schon Ende 2025 bekannt wurden. Zur Frage, wann die Accounts der beiden Bundesministerinnen kompromittiert wurden, wollte das BSI hingegen keine Aussage treffen.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
While Brussels talks up digital sovereignty, funding for the projects that would make it a reality remains uncertain. Michiel Leenaars of the Dutch NLnet Foundation offers insights into his work supporting alternatives and what he expects from the EU.

What actually makes infrastructure independent? For Michiel Leenaars of the NLnet Foundation, the answer is not where technology comes from, but whether it can be controlled and replaced. One year after raising concerns about missing EU funding for initiatives like his own, the foundation’s Director of Strategy reflects on what has changed since then and what Europe still gets wrong about building a sovereign digital stack.
netzpolitik.org: What is NLnet currently doing to support open source infrastructure?
Michiel Leenaars: We do open calls to fund open infrastructure. On all layers of the stack, from people making open hardware chips to office suites, search engines and social media, like Mastodon.
People just knock on our door and tell us what’s wrong with the internet and if it’s a good idea, we will help them.
netzpolitik.org: With money?
Michiel Leenaars: Yes, but also with team building, legal questions, performance tuning, security audits, license compliance, accessibility scans…
We want to make sure that we’re not just talking about building a European stack, but that we’re actually supporting the people who are building it. It really boils down to paying the people who work on alternatives. And to do so in a way that it can actually scale.
And it works. We have already funded over 1.450 projects in about 80 countries. You can see them all on our website. And some of the best people apply to us.
netzpolitik.org: But you are a small team and have a limited budget, how do you manage?
Michiel Leenaars: Yes. We are a tiny team with a fairly limited budget compared to the size of the challenges we try to address, around 15 million Euro a year. But we work with targeted small grants, between 5.000 and 50.000 Euro.
Small budgets are often looked down upon. But there really isn’t a need for billion-dollar projects in most cases. You just need individual experts to solve the actual problems and for all these components to fit together in a very specific way.
netzpolitik.org: Where do you get your money from?
Michiel Leenaars: It’s a beautiful blend. The biggest share comes from the EU’s Next Generation Internet programme from the European Commission which has been our main driver in the last couple of years.
There is a company called Radically Open Security, and every year they give use their profits. We also receive some funding from governments, such as the Dutch and French governments, as well as just regular people that care about what we do, private donors and aligned organisations.
netzpolitik.org: The Next Generation Internet programme was discontinued. What is happening now with EU funding for open source projects?
Michiel Leenaars: There is now a successor initiative called the Open Internet Stack. The contours of that are still vague, and it has more constraints and a smaller budget. We are about to start the first programme, and that will allow us to at least continue tackle some of the work that needs to be done.
We of course applied for the new calls for 2026. We hope to be awarded some of that money, but these calls are massively oversubscribed. A lot of organisations apparently also want to take some of this budget to advance their own projects, but they don’t realise that this is all the budget there is to be had. We have a huge sense of urgency, but it is quite uncertain we’ll come out on top.
And then for 2027 there is no new budget. So without intervention from say the European Commissioner on digital sovereignty, the new opportunity will be the next EU budget, the Multiannual Financial Framework (MFF) in 2028. That would mean a big gap.
netzpolitik.org: The European Commission is planning an Open Source Strategy for end of May. What do you expect from it?
Michiel Leenaars: We are hoping that the Commission’s strategy will tackle all the long term interest of the European economy and design a strategic intervention for the benefit of all the European society, not just what it needs itself.
The difficult thing will be to operationalize it.
netzpolitik.org: The Commission also stated that the Open Source sector needs to be more commercial. Do you agree?
Michiel Leenaars: I think that there are many ways to be sustainable, and while there is certainly healthy profit to be made developing and maintaining critical infrastructure, there are not that many examples of where this works well in the long term. There is a tension.
Collective models are an interesting model. You can have a nonprofit which gets paid by the stakeholders. If you look at how many internet exchanges are organised, you see that such collective approaches are robust and allow for healthy independent organisations. As long as you get enough money to operate, you don’t need to go look for business.
Essential software should be treated as a shared public good and funded collectively, so it can be maintained securely and sustainably without the incentives of commercial tech markets to move super fast and get money.
netzpolitik.org: These days, the idea of “Buy European”, a European preference in procurement, is being discussed a lot. Do you believe that this would help Europe’s digital sovereignty?
Michiel Leenaars: Any dependency is a bad thing. The fact that something is owned by an entity with a European address doesn’t make it honest. The fact that you can leave when they do bad stuff keeps them honest.
Many digital services today are actually pseudo-infrastructure. Messaging services like WhatsApp or Signal can be switched off at any moment, if a single manager decides to do so.
We hate that idea. That’s why we are funding all these alternatives.
netzpolitik.org: So, it doesn’t matter if it is a European product or a US product if it’s proprietary?
Michiel Leenaars: I think there is a benefit in hosting services in Europe.
Although what is important is the jurisdiction, not the locality. That other jurisdictions can’t turn it off, don’t have a kill switch. Like, if Microsoft or Amazon puts up a datacentre in Europe, they could still be forced to turn off the service.
netzpolitik.org: What is your take on digital sovereignty, then?
Michiel Leenaars: From a societal perspective, my idea is that at least the basic stuff should not be dependent on anybody. Governments should own their infrastructure, or be owned.
I believe that it is fundamental to be self-sustaining and to choose the conditions under which we run society – without having to ask for permission or fearing to be degraded in terms of functionality, because someone else decides so.
netzpolitik.org: What should Europe focus on if it wants to strengthen its digital independence?
Michiel Leenaars: Europe needs to invest in open source infrastructure and long-term maintenance.
In the artificial intelligence field, I believe the vast majority of investment in AI now is a disinvestment because you’re just pumping up the Nvidia shares while pursuing a dead end. We should instead increase our capacity, build our own chips and shift gear towards the AI models we believe in.
And stop the economic haemorrhaging from our insane dependency on rented computers and proprietary software, if you follow the money, that is absolutely clear. The „AI Race“ frame is tempting, but wrong: it is not a fair sprint, it is long term economic sustainability and societal health we are seeking in the face of a skewed and broken market.
We therefore need to enforce the legislation, to remove bad actors, and force competitors to have interoperability, allowing the Digital Markets Act (DMA) to do its work.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Während in Brüssel viel von digitaler Souveränität gesprochen wird, bleibt die Finanzierung der Projekte, die diese verwirklichen sollen, ungewiss. Michiel Leenaars von der niederländischen NLnet Foundation gibt Einblicke in seine Arbeit zur Förderung von Alternativen und erläutert, was er von der EU erwartet.

Was macht eine Infrastruktur eigentlich unabhängig? Für Michiel Leenaars von der NLnet Foundation liegt die Antwort nicht darin, woher die Technologie stammt, sondern ob sie kontrolliert und ersetzt werden kann. Ein Jahr, nachdem er Bedenken hinsichtlich fehlender EU-Finanzierung für Initiativen wie die seine geäußert hatte, reflektiert der Strategiedirektor der Stiftung darüber, was sich seitdem geändert hat und was Europa beim Aufbau eines souveränen digitalen Stacks immer noch falsch macht.
netzpolitik.org: Was unternimmt NLnet derzeit, um Open-Source-Infrastruktur zu fördern?
Michiel Leenaars: Wir schreiben offene Ausschreibungen aus, um offene Infrastruktur zu finanzieren. Auf allen Ebenen des Stacks, von Entwicklern offener Hardware-Chips bis hin zu Office-Suiten, Suchmaschinen und sozialen Medien wie Mastodon.
Die Leute klopfen einfach an unsere Tür und erzählen uns, was im Internet nicht stimmt, und wenn es eine gute Idee ist, helfen wir ihnen.
netzpolitik.org: Mit Geld?
Michiel Leenaars: Ja, aber auch mit Team-Entwicklung, rechtlichen Fragen, Leistungsoptimierung, Sicherheitsaudits, Lizenzkonformität, Barrierefreiheitsprüfungen …
Wir wollen sicherstellen, dass wir nicht nur über den Aufbau eines europäischen Stacks reden, sondern dass wir die Menschen, die ihn aufbauen, auch tatsächlich unterstützen. Im Grunde läuft es darauf hinaus, die Menschen zu bezahlen, die an Alternativen arbeiten. Und das so zu tun, dass es tatsächlich skalierbar ist.
Und es funktioniert. Wir haben bereits über 1.450 Projekte in rund 80 Ländern finanziert. Die kann man alle auf unserer Website einsehen. Und einige der besten Leute bewerben sich bei uns.
netzpolitik.org: Aber ihr seid ein kleines Team und habt ein begrenztes Budget. Wie schafft ihr das?
Michiel Leenaars: Ja. Wir sind ein winziges Team mit einem Budget von etwa 15 Millionen Euro pro Jahr. Das ist recht begrenzt im Vergleich zur Größe der Herausforderungen, die wir angehen wollen. Aber wir arbeiten mit gezielten Förderungen zwischen 5.000 und 50.000 Euro.
Kleine Budgets werden oft belächelt. Aber in den meisten Fällen besteht gar kein Bedarf an Milliardenprojekten. Man braucht lediglich einzelne Expert:innen, um die tatsächlichen Probleme zu lösen, und dass all diese Komponenten auf ganz bestimmte Weise zusammenpassen.
netzpolitik.org: Woher bekommt ihr euer Geld?
Michiel Leenaars: Es ist eine bunte Mischung. Der größte Teil stammt aus dem Programm „Next Generation Internet“ der Europäischen Kommission, das in den letzten Jahren unsere wichtigste Triebkraft war.
Es gibt ein Unternehmen namens Radically Open Security, das uns jedes Jahr seine Gewinne spendet. Wir erhalten auch Mittel von Regierungen wie der niederländischen und der französischen, sowie von ganz normalen Menschen, denen unsere Arbeit am Herzen liegt, also von privaten Spendern und gleichgesinnten Organisationen.
netzpolitik.org: Das Programm „Next Generation Internet“ wurde eingestellt. Wie sieht es aktuell mit der EU-Förderung für Open-Source-Projekte aus?
Michiel Leenaars: Es gibt nun eine Nachfolgeinitiative namens „Open Internet Stack“. Die Konturen davon sind noch vage, aber es ist enger gefasst und hat ein kleineres Budget. Wir stehen kurz vor dem Start des ersten Programms, und das wird es uns zumindest ermöglichen, einen Teil der anstehenden Arbeit weiter voranzutreiben.
Wir haben uns natürlich für die neuen Ausschreibungen für 2026 beworben. Wir hoffen, einen Teil dieser Mittel zu erhalten, aber diese Ausschreibungen sind massiv überzeichnet. Offenbar wollen viele Organisationen ebenfalls einen Teil dieses Budgets für ihre eigenen Projekte nutzen, aber ihnen ist nicht klar, dass dies das gesamte verfügbare Budget ist. Wir haben eine große Dringlichkeit, aber es ist ziemlich ungewiss, ob wir den Zuschlag erhalten werden.
Und für 2027 gibt es kein neues Budget. Ohne ein Eingreifen beispielsweise der EU-Kommissarin für digitale Souveränität wird die nächste Chance also der nächste EU-Haushalt sein, der Mehrjährige Finanzrahmen (MFR) im Jahr 2028. Da würde eine große Lücke klaffen.
netzpolitik.org: Die Europäische Kommission plant für Ende Mai eine Open-Source-Strategie. Was erwartet ihr davon?
Michiel Leenaars: Wir hoffen, dass die Strategie der Kommission alle langfristigen Interessen der europäischen Wirtschaft berücksichtigt und eine strategische Maßnahme zum Wohle der gesamten europäischen Gesellschaft entwirft, nicht nur zum eigenen Nutzen.
Die Schwierigkeit wird darin bestehen, sie in die Praxis umzusetzen.
netzpolitik.org: Die Kommission hat außerdem erklärt, dass der Open-Source-Sektor kommerzieller werden müsse. Stimmst du dem zu?
Michiel Leenaars: Ich denke, es gibt viele Wege, nachhaltig zu sein, und obwohl sich mit der Entwicklung und Wartung kritischer Infrastruktur sicherlich gesunde Gewinne erzielen lassen, gibt es nicht allzu viele Beispiele dafür, dass dies langfristig gut funktioniert. Da besteht ein Spannungsverhältnis.
Kollektive Modelle sind ein interessantes Modell. Man kann eine gemeinnützige Organisation haben, die von den Interessengruppen bezahlt wird. Wenn man sich ansieht, wie zahlreiche Internet-Knotenpunkte organisiert sind, erkennt man, dass solche kollektive Ansätze robust sind und gesunde, unabhängige Organisationen ermöglichen. Solange man genug Geld für den Betrieb erhält, muss man nicht nach Geschäftsmöglichkeiten suchen.
Unverzichtbare Software sollte als gemeinsames öffentliches Gut behandelt und kollektiv finanziert werden, damit sie sicher und nachhaltig gewartet werden kann, ohne den Anreizen kommerzieller Technologiemärkte zu unterliegen, extrem schnell zu agieren und Geld zu verdienen.
netzpolitik.org: Derzeit wird viel über das Konzept „Kaufe Europäisch“ diskutiert, also die Bevorzugung europäischer Anbieter bei der Beschaffung. Glaubst du, dass dies Europas digitale Souveränität stärken würde?
Michiel Leenaars: Jede Form von Abhängigkeit ist schlecht. Die Tatsache, dass etwas einem Unternehmen mit europäischer Anschrift gehört, macht es noch lange nicht vertrauenswürdig. Die Tatsache, dass man wechseln kann, wenn sie etwas Unrechtes tun, sorgt hingegen dafür, dass sie ehrlich bleiben.
Viele digitale Dienste sind heute eigentlich Pseudo-Infrastruktur. Messaging-Dienste wie WhatsApp oder Signal können jederzeit abgeschaltet werden, wenn ein einzelner Manager dies beschließt.
Wir hassen diese Idee. Deshalb finanzieren wir all diese Alternativen.
netzpolitik.org: Es spielt also keine Rolle, ob es sich um ein europäisches oder ein US-amerikanisches Produkt handelt, wenn es proprietär ist?
Michiel Leenaars: Ich denke, es hat Vorteile, Dienste in Europa zu hosten.
Wichtig ist jedoch die Rechtshoheit, nicht der Standort. Andere Rechtsordnungen können den Dienst nicht abschalten, sie haben keinen „Kill Switch“. Wenn Microsoft oder Amazon beispielsweise ein Rechenzentrum in Europa errichten, könnten sie dennoch gezwungen werden, den Dienst abzuschalten.
netzpolitik.org: Wie stehst du dann zur digitalen Souveränität?
Michiel Leenaars: Aus gesellschaftlicher Sicht bin ich der Meinung, dass zumindest die grundlegenden Dinge von niemandem abhängig sein sollten. Regierungen sollten ihre Infrastruktur besitzen.
Ich halte es für grundlegend, selbsterhaltend zu sein und die Bedingungen zu wählen, wie wir unsere Gesellschaft gestalten – ohne um Erlaubnis bitten zu müssen oder befürchten zu müssen, in unserer Funktionsfähigkeit eingeschränkt zu werden, weil jemand anderes dies so beschließt.
netzpolitik.org: Worauf sollte sich Europa konzentrieren, wenn es seine digitale Unabhängigkeit stärken will?
Michiel Leenaars: Europa muss in Open-Source-Infrastruktur und langfristige Wartung investieren.
Im Bereich der Künstlichen Intelligenz glaube ich, dass der Großteil der aktuellen Investitionen in KI eigentlich eine Desinvestition ist, weil man damit lediglich die Nvidia-Aktien in die Höhe treibt und dabei in eine Sackgasse läuft. Stattdessen sollten wir unsere Kapazitäten ausbauen, unsere eigenen Chips entwickeln und den Fokus auf die KI-Modelle richten, an die wir glauben.
Und wir müssen den wirtschaftlichen Ruin stoppen, der durch unsere unsinnige Abhängigkeit von gemieteten Computern und proprietärer Software entsteht – wenn man dem Geldfluss folgt, wird das absolut deutlich. Der Begriff „KI-Wettlauf“ ist verlockend, aber falsch: Es handelt sich nicht um einen fairen Sprint, sondern um langfristige wirtschaftliche Nachhaltigkeit und gesellschaftliche Gesundheit, die wir angesichts eines verzerrten und kaputten Marktes anstreben.
Wir müssen daher die Gesetzgebung durchsetzen, um schlechte Akteure zu entfernen, und Wettbewerber zur Interoperabilität zwingen. Der Digital Markets Act (DMA) muss seine Wirkung entfalten.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Liebe Leser:innen, die Bundestagsvizepräsidentin Andrea Lindholz (CSU) will, dass Abgeordnete nicht mehr den Messenger Signal nutzen, weil einige hochrangige Politiker:innen einem Phishing-Angriff auf den Leim gegangen sind. Dabei ist doch das Prinzip von Phishing bei allen möglichen Kommunikationsmedien gleich. Mein Kollege Markus hat das kommentiert. Besser wäre es jetzt zu überlegen, wie man Menschen befähigt, […]
Liebe Leser:innen,
die Bundestagsvizepräsidentin Andrea Lindholz (CSU) will, dass Abgeordnete nicht mehr den Messenger Signal nutzen, weil einige hochrangige Politiker:innen einem Phishing-Angriff auf den Leim gegangen sind. Dabei ist doch das Prinzip von Phishing bei allen möglichen Kommunikationsmedien gleich. Mein Kollege Markus hat das kommentiert.
Besser wäre es jetzt zu überlegen, wie man Menschen befähigt, Phishing-Angriffe zu erkennen – ganz egal ob per E‑Mail, Messenger oder Enkel-Trick-mäßig am Telefon. Da lässt sich sicher in den Anwendungen selbst etwas nachbessern. Am wichtigsten aber bleibt der Faktor Mensch. Daher hat es auch etwas Gutes, dass der Angriff ein so breit diskutiertes Thema ist und so viele noch einmal sensibilisiert.
Liebe Grüße
anna
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
In Hamburg läuft eine KI, die analysiert, was die Menschen auf zwei zentralen Plätzen gerade tun. Wissenschaftler*innen haben den Überwachungs-Feldversuch ein Jahr lang begleitet. Hier sprechen sie über ihre Ergebnisse.

Erst Mannheim, dann Hamburg, dann die halbe Republik: Gerade breitet sich rasant eine Überwachungstechnologie aus, mit der die Polizei vollautomatisch Gewalt detektieren will. Wissenschaftler*innen haben die erste Ausbaustufe in Hamburg ein Jahr lang beobachtet, den medialen und parlamentarischen Diskurs dazu analysiert sowie zahlreiche Interviews mit unterschiedlichen Beteiligten und Betroffenen geführt. Das Projekt “Lokale Öffentlichkeiten und soziale Konflikte um KI-gestützte Sicherheitstechnologien“, kurz LoKI, war an der Uni Hamburg und der TU Chemnitz angesiedelt. Geleitet haben es Stephanie Schmidt und Philipp Knopp, Fabian de Hair hat als wissenschaftlichem Mitarbeiter mitgewirkt. Mit uns sprechen der Sozialwissenschaftler Knopp und der Kriminologe de Hair über die Forschungsergebnisse.
netzpolitik.org: Was haben Sie herausgefunden?
Philipp Knopp: Was da als Test gerahmt wird, ist mit dem Konzept Test eigentlich nicht ausreichend zu verstehen. Es gibt keine festgelegte Technik, die nach fixen Kriterien bewertet wird. Es ist eher ein Überwachungs-Experiment. Da werden eine Überwachungstechnologie und das Setting vor Ort kalibriert, das Verhältnis von Raum und Kamera optimiert. Gleichzeitig ändern sich die Anforderungen an die Beamt*innen, die jetzt bewerten müssen, ob die KI etwas richtig detektiert hat. Und es wurde ja auch der rechtliche Rahmen angepasst. Experiment ist nicht normativ gemeint. Wir wollen mit dem Begriff das Unfestgelegte aufzeigen. Es geht in Hamburg darum, ein experimentelles System zum Laufen zu bringen.
netzpolitik.org: Hamburg ist nach Mannheim die zweite deutsche Stadt, die Verhaltensscanner einsetzt. Zahlreiche weitere Städte und Länder haben Interesse an der Technologie angemeldet. Warum hat die gerade so einen Lauf?
Fabian de Hair: Die Technologie der sogenannten Bewegungsmusteranalyse gilt als vermeintlich bessere Alternative zur konventionellen und biometrischen Videoüberwachung. Es heißt, sie würde die Polizeiarbeit durch die Automatisierung einerseits erheblich effizienter machen, andererseits sei das technische Verfahren dazu besonders datenschutzsensibel. Überprüfbar ist das im derzeitigen Entwicklungsstadium nicht. Vielmehr wird mit einer Zukunftsvision der KI-Technologie argumentiert, deren konkrete Nutzungsszenarien offenbleiben.
Die Deutungen der vermeintlichen Vorzüge dieser KI-Überwachung finden sich insbesondere prominent im Mediendiskurs, der von Akteur*innen der inneren Sicherheit und ihren Bewertungen geprägt ist. Kritische Positionen kommen vor, aber werden nicht zum Anlass der Berichterstattung. Was sich da im Diskurs zeigt, nennen wir eine Purifizierung, eine rituelle Läuterung also, durch die bisherige zentrale Kritiken an Formen der Videoüberwachung direkt adressiert und gleichzeitig abgestreift werden. Die Purifizierung erhöht die Durchsetzbarkeit der Maßnahme, weil die Bewegungsmusteranalyse jetzt als sozusagen gute Überwachung erscheint.
Ausweitung in Aussicht
Philipp Knopp: Gleichzeitig drängt die Technologie auf ihre eigene Ausweitung. Für KI-Training braucht man Daten.
Fabian de Hair: Die Hoffnung ist: Je mehr Landespolizeien sich daran beteiligen, umso präziser wird das Modell.
netzpolitik.org: Das heißt, künftig werden immer mehr und mehr Areale damit überwacht?
Philipp Knopp: Es weiß noch niemand, worauf es am Ende hinauslaufen wird. Auch das Sondieren von Einsatzmöglichkeiten ist Teil des Experimentierens mit der neuen Technik. Es gibt die Idee des Black Screens, wo nur dann jemand auf den Bildschirm schaut, wenn die KI eine verdächtige Situation präsentiert. Dann gibt es die Variante, dass die KI als Assistenzsystem zusätzlich zur menschlichen Überwachung im Hintergrund läuft. Und dann gibt es noch Überlegungen, damit den Überwachungsbereich auszuweiten, weil man nicht mehr so viele Menschen braucht, um auf die Videobilder zu schauen und man davon ausgeht, dass diese Form der Überwachung nicht so stark in die Freiheitsrechte der Bürger*innen eingreift. Also hin zu einem Basislevel von Videoüberwachung von größeren Bereichen.
netzpolitik.org: Die Logik der Verhaltensscanner-Befürworter*innen ist: Weil da kein Mensch, sondern nur eine Software zuschaut, ist es keine Überwachung mehr.
Fabian de Hair: Das ist das Framing. Aber faktisch wird dabei die komplette Datenpipeline – also das technische Verfahren von der Vektorisierung menschlicher Körper auf Videobildern, über die Kategorisierung dieser Vektorenbündel bis zur Alarmierung – ausgeblendet. Die Praxis der Überwachung wird hier auf die Prüfung durch Polizeibeamt*innen, also das menschliche Sehen, reduziert.
99 von 100 zu Unrecht beobachtet?
netzpolitik.org: Ist die Technologie denn so effektiv wie von den Befürworter*innen erhofft?
Philipp Knopp: Es gibt da unterschiedliche Bewertungsmuster. Als Erfolg gilt auch schon die positive Resonanz von Medien und anderen Polizeien. Nach einem ersten Test wurden auch einige Kennzahlen vorgelegt. Allerdings wurden dabei die falsch-positiven Meldungen im Vergleich zu den korrekten Detektionen recht ungenau angegeben. Überwachungskritische Bewegungen haben daraufhin berechnet, dass nur etwa ein Prozent der Alarme eine korrekte Detektion war. Das heißt, in 99 von 100 Fällen wurden Menschen aus Sicht der Kritiker*innen zu Unrecht beobachtet.
netzpolitik.org: Angeblich verhindere die Verhaltensanalyse Diskriminierung, weil sie nicht berücksichtigt, welche Hautfarbe, welches Geschlecht oder Alter eine Person hat.
Fabian de Hair: Die Idee hinter dieser KI-Überwachung ist die Automatisierung von Verdachtspraktiken. Es geht um Kategorien wie zum Beispiel Schlagen, Treten, Liegen, Fallen. Der Mensch wird zu einem Bündel von Vektoren umgerechnet, wodurch der soziale Kontext eines Ortes, einer Situation oder einer Bewegung gelöscht wird. Dabei kann eine Bewegung je nach Kontext verschiedene Bedeutungen haben. Und es lässt sich auch an bestimmten Verhaltensweisen feststellen, ob jemand zu einer marginalisierten Gruppe gehört. An einem Ort wie dem Hamburger Hansaplatz, wo es unter anderem Straßenprostitution gibt, hat Stehen eine soziale Bedeutung. Weil ebenso Obdachlose den Platz nutzen, hat auch Liegen eine soziale Bedeutung. Und in der technischen Formatierung werden diese Bewegungen dann in einen Verdacht übersetzt.
Die Polizei als Akteur in der Datenökonomie
netzpolitik.org: Die Rechte für die Technologie liegen beim Fraunhofer IOSB, einer Forschungsorganisation. Trainiert wird sie mit den Daten von zahllosen Menschen in Mannheim und Hamburg.
Philipp Knopp: Das ist auch etwas Neues, das sich durch die rechtlichen Neuerungen im Hamburger Polizeigesetz anbahnt. Die Polizei wird zum Akteur in einer globalen Datenökonomie rund um KI-Training, zum Datenlieferanten. Diese Entwicklung ist nicht auf den Hamburger Fall beschränkt. Auch in anderen Bundesländern versteht die Polizei zunehmend, dass sie über besondere Daten und eine seltene Anwendungsumgebung verfügt, die sie für die Technologieentwicklung einsetzen will.
Fabian de Hair: Das ist eine sehr spezielle Form der Datenverarbeitung, die besondere Aufmerksamkeit bedarf.
Philipp Knopp: Da ist auch immer die Frage, welche sozialen Gruppen sind davon betroffen, wessen Alltag wird in diesen Daten festgehalten. Die Verhaltensanalyse wird in Hamburg auf einem Platz getestet, wo Menschen sich nicht so gut wehren können wie in einem noblen Viertel. Da gibt es viele Menschen, die keine deutschen Staatsbürger*innen sind. Es gibt Wohnungslose, Trinker*innen, Menschen, die viel Zeit auf der Straße verbringen und nicht beispielsweise in Parteien organisiert sind. Ihnen fehlen die politischen Einflussmöglichkeiten und teilweise sind die überwachten Orte für diese Menschen sehr wichtig. Sie können nicht einfach woandershin ausweichen und werden notgedrungen Teil dieses KI-Trainings.
Tanz als Widerstand
netzpolitik.org: In Hamburg sind auch Grüne und Datenschutzbehörden einverstanden mit der Verhaltensanalyse. Gibt es denn überhaupt noch Gegner*innen?
Fabian de Hair: Ja, definitiv. Das Bündnis Hansaplatz zum Beispiel. Die Aktivist*innen haben eine Demo und Veranstaltungen zum Thema organisiert sowie die Entwicklung kritisch begleitet. Es gibt auch noch andere nachbarschaftliche Organisationen am Hansaplatz, die sich ebenfalls kritisch äußern. Aber sie sind, wie bereits erwähnt, medial nicht durchgedrungen mit ihrer Position, dass es sich um eine weitergehende Kriminalisierung sozialer Probleme handele.
netzpolitik.org: Was können kritische Akteur*innen tun, um im Diskurs mehr Gewicht zu bekommen?
Philipp Knopp: Diese Tests mit Bewegungsdetektion haben interessante neue Formen der Widerständigkeit hervorgebracht: Tanzperformances, die die angenommene Korrelation von Bewegung und Kriminalität hinterfragen. Das gab es in Mannheim und darüber haben Medien dann auch berichtet. Was sich außerdem gezeigt hat: Die meisten Bündnisse, die sich mit solchen Überwachungsprojekten beschäftigen, überlegen, wie sie eine soziale Basis aufbauen und alternative Sicherheitskonzepte weiterentwickeln können wie etwa soziale Sicherheit. Sie schauen über den Anlass Kamera hinaus und stellen die Frage: Welche Probleme gibt es im Viertel und wie können wir damit arbeiten?
Fabian de Hair: Unsere Interviews zeigen, dass fehlende Transparenz seitens der Überwachungs-Betroffenen bemängelt wird. Eine Informationsgrundlage herzustellen, mit der Zivilgesellschaft und Wissenschaft agieren können, ist hier insofern elementar. In Hamburg hat Die Linke als Oppositionspartei mit vielen Kleinen Anfragen dazu beigetragen.
Das Gefühl, beobachtet zu werden
netzpolitik.org: Die Verhaltensanalyse sucht sogenanntes atypisches Verhalten. Geht damit die Gefahr einher, dass Menschen sich im Überwachungsbereich angepasster verhalten?
Philipp Knopp: Es ist schwierig, das empirisch zu belegen. Die Wirkung von Videoüberwachung lässt sich schlecht isolieren. In Medienberichten kam aber heraus, dass sich Menschen, die viel auf dem Platz sind, permanent beobachtet fühlen.
netzpolitik.org: Wenn eine KI die Videos beobachtet statt eines Menschen – wird dann die Überwachung entmenschlicht?
Philipp Knopp: Die Automatisierungsleistung der Technologie ist es, den Bürger und den Notruf auszuklammern aus der Verbindung von Polizei und Ereignis. Die Polizei muss nicht mehr hinzugerufen werden – sie kommt von alleine. Befürworter*innen sehen darin durchaus etwas Positives: Die Polizei wird unabhängig von den Bürger*innen und deren Wachsamkeit und Courage.
Die andere Seite der Medaille ist allerdings, dass gerade diese Abhängigkeit die Polizei zur Bürgernähe anhält. Um ihre Aufgabe zu erfüllen, muss sie nämlich daran arbeiten, dass die Bevölkerung ihr vertraut. Für eine demokratische Polizei ist diese Abhängigkeit von der Bevölkerung ein notwendiges Momentum externer Kontrolle. Dieser Effekt kann durch die Automatisierung abgeschwächt werden. Sie verschiebt das Verhältnis zwischen Bevölkerung und Polizei in eine bestimmte Richtung.
netzpolitik.org: Ist die KI-Überwachung eine politische Maßnahme, um Handlungsfähigkeit zu suggerieren?
Philipp Knopp: Diese Annahme wird in Studien zu Videoüberwachung häufig geäußert. Kameras sind auf jeden Fall ein kostengünstiges Mittel, um zu sagen: Wir tun etwas.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Je größer das Ausmaß der Phishing-Attacke, desto mehr Unsinn gerät in die Debatte. Dabei sind die wichtigsten Fragen doch: Wie hätten Regierung und Parlament geschützt werden können und gab es Versäumnisse der Behörden? Ein Kommentar.

Die Phishing-Attacke über den Messenger Signal hat die höchste Ebene der Politik erreicht. Zwei Ministerinnen und die Bundestagspräsidentin sind offenbar auf den Trick hereingefallen – und haben damit ihre Kontakte, Netzwerke und vermutlich auch Chat-Inhalte dem Angreifer offengelegt. Zahlreiche Signal-Gruppen im parlamentarischen Raum sollen derzeit von den Angreifern nahezu unbemerkt ausgelesen werden können, sagen Sicherheitskreise gegenüber dem Spiegel.
Deutsche Medien berichten aufgeregt von einem „Signal-Hack“. Nur ist Phishing eben gerade kein üblicher „Hack“. Es handelt sich hier nicht um ein Softwareproblem oder eine Sicherheitslücke im Code, sondern einen Angriff auf die gutgläubige Person am Smartphone. Die vertraut dem sicheren Messenger so sehr, dass sie den mehr oder weniger plumpen Nachrichten eines gefälschten Signal-Supports Glauben schenkt und dann freigiebig und naiv ihre privaten Sicherheitscodes an die Angreifer herausgibt. Gleich zwei Mal hintereinander.
Das kann passieren, denn die Angreifer spielen mit der Angst des Ziels, setzen es unter Druck. Wer nicht mit den Grundlagen der IT-Sicherheit vertraut ist, kann darauf hereinfallen. So bitter das ist.
Umso mehr würde man von einer Spionageabwehr erwarten, dass sie vor solchen Attacken warnt – und vor allem auf höchster Ebene mit Nachdruck und frühzeitig sagt: „Wenn Sie ein vermeintlicher Signal-Support anschreibt, folgen Sie niemals dessen Anweisungen. Finger weg, das ist gefährlich! Der Signal-Support schreibt niemanden auf Signal an.“
Alles netzpolitisch Relevante
Drei Mal pro Woche als Newsletter in deiner Inbox.
Haben die Behörden versagt?
Wir wissen, dass diese Art der Phishing-Attacke seit mindestens September 2025 im Umlauf ist und schon früh auch Abgeordnete des Bundestages im Visier waren. Eine große Frage ist, wann die für die Abwehr von solchen Attacken zuständigen Behörden BSI und Verfassungsschutz selbst aktiv geworden sind und Regierung und Parlament gewarnt haben. Erst nach unserer Berichterstattung im Januar gab es Anfang Februar eine offizielle Mitteilung der beiden Behörden. Haben diese erst so spät reagiert?
Daran schließt sich die Frage an: Wann sind die mittlerweile angeblich 300 Betroffenen, die Bundestagspräsidentin und die beiden Ministerinnen auf das Phishing hereingefallen? Funktionieren hier Warnmechanismen nicht oder werden ignoriert? Und was hilft in Zukunft gegen solche geschickten, aber doch trivialen Angriffe?
Immer mehr Spuren beim Messenger-Phishing weisen auf Russland
Aktionismus hilft nicht
Was auf jeden Fall nicht hilft, sind spontan aufgestellte Forderungen wie die der Bundestagsvizepräsidentin Andrea Lindholz (CSU). Sie will als Konsequenz aus dem Schlamassel den Messenger Signal im Bundestag verbieten. Stattdessen sollen die Abgeordneten den „Bundes-Messenger“ Wire nutzen. Das ist realitätsfern wie unsinnig.
Signal hat sich nicht ohne Grund als sicherer Messenger in Politik, Journalismus und Aktivismus etabliert. Er macht es endlich einfach, dass Menschen verschlüsselt, vertraulich und privat kommunizieren können – ohne sich in die Untiefen von E‑Mail-Verschlüsselung einarbeiten zu müssen. Das ist ein großer Gewinn an Sicherheit.
Phishing ist auf allen möglichen Kommunikationskanälen und Programmen möglich: Nicht ohne Grund hat noch niemand ernsthaft gefordert, E‑Mails zu verbieten, weil darüber Phishing stattfindet. Dieser Art des Angriffs begegnet man mit Aufklärung, Warnungen und vor allem digitaler Bildung, nicht mit unsinnigen Verboten.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Wir wollen soziale Medien dazu nutzen, um mit unseren Freunden in Kontakt zu bleiben. Doch nun macht auch noch KI-generierter Content das Internet immer unpersönlicher und unmenschlicher. Die eigentliche Idee wird so ad absurdum geführt.

Das Internet und seine Plattformen werden immer weniger von Menschen, sondern stattdessen von Bots bevölkert. Die meisten Interaktionen und Inhalte, die wir online sehen, sind automatisiert erstellt und verbreiten sich automatisiert. Menschen werden im Internet zur Minderheit. Das Internet ist deshalb längst „tot“ oder wird bald sterben. Das sagt zumindest die „Dead Internet Theory“.
Mittlerweile drängt sich der Eindruck auf, dass die verschwörungsmythisch angehauchte Theorie in Teilen nicht ganz falschliegt.
Content, der sich zum Obst macht
Was wir in sozialen Medien derzeit vor allem sehen, sind immer mehr automatisiert generierte Inhalte. Offensichtlich maschinell erstellte Kommentare und KI-generierte Videos fluten unsere Feeds. Besonders häufig tauchen dabei KI-Videos von Früchten oder Katzen auf, die stark emotionalisierte und oftmals fragwürdige Handlungen darstellen.
Die Zigtausend Clips erzählen meist die gleichen Geschichten, die in der Regel keinen Sinn ergeben. Dennoch werden die Videos teils millionenfach geklickt. In den vergangenen Wochen berichteten zahlreiche Medien über den vermeintlich neuen Trend. Das Phänomen vollkommen sinn- und inhaltsloser Videos ist jedoch mindestens so alt wie der „Italian Brainrot“-Trend zu Beginn des Jahres 2025.
All diese Videos erfüllen vor allem einen Zweck: Die Betreiber haben ein Interesse daran, dass möglichst viele Menschen möglichst viel Zeit auf ihren Plattformen verbringen. Je mehr Zeit wir auf den Plattformen verbringen, desto mehr Daten geben wir preis, desto mehr bezahlte Werbung bekommen wir angezeigt und desto wahrscheinlicher ist es, dass wir Geld auf den Plattformen ausgeben.
Maschinen, die uns unterhalten sollen
Bei der Ökonomisierung menschlicher Aufmerksamkeit ist es ziemlich egal, mit welcher Art von Beiträgen diese erzeugt wird. Und so schlecht eine Content-Form auch sein mag: Wenn Tausende solcher Videos hochgeladen werden, stehen die Chancen nicht schlecht, dass zumindest eines der Videos viral geht – selbst dann, wenn es inkohärente Geschichten mit KI-Obst in den Hauptrollen sind. Und je mehr Content es gibt, desto mehr Content kann konsumiert werden und desto mehr Profitoptionen ergeben sich für die Betreiber.
Insofern können Maschinen auf sozialen Medien die Hauptproduzenten von Inhalten sein. Gleichzeitig erstellen Maschinen nicht nur die originalen Posts, sondern kommentieren und teilen diese auch. Das Ergebnis sind Beiträge, die Maschinen erstellen und pushen, die möglichst viele menschliche Konsumenten erreichen sollen.
Die Wertlos-Maschinerie
Wenn Maschinen Menschen ablösen, stellt das die Plattformen jedoch vor ein Problem: Bots erstellen Inhalte, kommentieren, liken und teilen andere Beiträge – und das rund um die Uhr, unter Zugriff auf immer mehr Ressourcen. Das ist in etwa so, als würde ein Freizeitpark-Betreiber alle seine Fahrgeschäfte automatisieren und humanoide Roboter hineinsetzen, die Menschen dazu animieren, mitzufahren.
Die Aufmerksamkeit der Bots ist kommerziell nichts wert. Es gibt keine personalisierten Nutzerprofile von Bots, die man semilegal verkaufen kann. Ein Bot gibt auch kein Geld für beworbene Produkte aus. Und es lohnt sich wohl auch nicht, das Nutzungsverhalten eines Bots zu überwachen. Die Plattformbetreiber haben deshalb nichts davon, wenn sich in ihren Foren ausschließlich Bots gegenseitig entertainen. Wenn die Achterbahnwagen bis auf den letzten Platz nur mit Robotern gefüllt sind, ist alle Mühe umsonst.
Große digitale Dienste sind auf menschliche Konsument:innen angewiesen. Nur ihre Aufmerksamkeit erzeugt den Mehrwert, mit dem Plattformbetreiber ihr Geld verdienen. Wenn echte Menschen das Interesse an sozialen Medien verlieren, verliert auch der Maschinen-Freizeitpark seinen Sinn.
Die Entmenschlichung sozialer Medien
Diese Entmenschlichung sozialer Medien hat jedoch begonnen, lange bevor KI-generierter Content sie flutete. Neben KI-Obst, KI-Influencern und Tung tung tung Sahur existiert auf sozialen Medien massenweise Content, der von Menschen produziert ist. Dabei handelt es sich vor allem um Inhalte von besonders großen Accounts, die uns ihre Erzählungen wie eine Fernsehserie präsentieren. Schon das hat mit der eigentlichen Idee hinter den sozialen Medien nur noch wenig zu tun.
Soziale Medien sollten – zumindest aus Nutzer:innenperspektive – ursprünglich ein Ort sein, an dem wir mit unseren Freund:innen in Kontakt bleiben können. Doch ihre Accounts nehmen wir kaum noch wahr. Ein Großteil unserer Feeds besteht längst aus Beiträgen von Personen, die wir nicht kennen und maschinell generierten Inhalten. Das macht die Nutzererfahrung auf sozialen Medien immer unmenschlicher und unpersönlicher.
Dennoch ist Plattformbetreibern daran gelegen, dass Nutzer:innen den Eindruck haben, auf sozialen Medien noch mit ihren Bekannten zu interagieren. So hat Instagram vor wenigen vergangenen Jahren ein kleines Icon eingeführt, das Nutzer:innen anzeigt, wenn ein Bekannter einen anderen Beitrag reposted oder kommentiert. Das kann die zwischenmenschliche Verbindung, die soziale Medien einst schaffen sollten, jedoch nicht ersetzen.
Maschinen können Menschen nicht ersetzen
Die maschinelle Erstellung von Inhalten ist, menschlich gesehen, wertlos. Und sie widerspricht dem menschenzentrierten Grundgedanken sozialer Medien: eine digitale Welt von Menschen für Menschen zu schaffen, mit deren Hilfe wir uns vernetzen und einander näherkommen.
Eine digitale Welt, in der hauptsächlich Bots mit Hilfe sogenannter künstliche Intelligenz miteinander interagieren, führt die Idee sozialer Medien endgültig ad absurdum. Setzt sich diese Entwicklung weiterhin ungehemmt fort, werden Orte, die einst dem digitalen Austausch dienten, obsolet.
Tot ist das Internet, wie wir es kennen, sicher lange noch nicht. Das heißt aber nicht, dass es den Maschineninhalten nicht doch irgendwann zum Opfer fallen wird.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Die 17. Kalenderwoche geht zu Ende. Wir haben 15 neue Texte mit insgesamt 118.753 Zeichen veröffentlicht. Willkommen zum netzpolitischen Wochenrückblick.

Liebe Leser:innen,
habt ihr einen Lieblingspulli? Also eines dieser Kleidungsstücke, die euch seit vielen Jahren begleiten? Vielleicht hat dieser Lieblingspulli schon ein paar kleine Löcher, die ihr immer wieder geflickt habt. Vielleicht ist er am Ärmelbündchen reichlich ausgeleiert und die Waschgänge der letzten Jahre haben die Farbsättigung ordentlich nach unten geschraubt.
Wenn ich einen solchen Lieblingspulli habe und er irgendwann wirklich seine Lebenszeit überschritten hat, werde ich ein bisschen wehmütig. Denn meist hängen da auch Erinnerungen dran: die schöne Wanderung mit Freund:innen, bei der ich ihn von oben bis unten mit Kirschsaft bekleckert habe zum Beispiel. Aber irgendwann ist es Zeit für einen neuen. Und dann bin ich froh, wenn der schnell genauso bequem und warm ist wie der alte, der dann noch ein bisschen im Kleiderregal hängen darf – für alle Fälle.
Das Gefühl habe ich auch heute. Aber es geht nicht um einen Pulli, es geht um unsere Website. Wir haben uns getraut und schlagen optisch ein neues Kapitel für netzpolitik.org auf. Nach neun Jahren mit unserem liebgewonnenen und bewährten Design haben wir ein Redesign der Seite gemacht. Das ist jetzt der dritte Relaunch bei netzpolitik.org, den ich persönlich miterlebe. Und für mich ist es mit Abstand der aufregendste.
Als ich anfing, für netzpolitik.org zu schreiben, gab es auf der Über-uns-Seite noch eine Tag-Cloud, an den Seiten sah man Werbeanzeigen, wir haben gedruckte Jahrbücher produziert und Leser:innen haben Artikel „geflattert“, also über einen Micro-Payment-Dienst teils winzige Centbeträge hinterlassen. Seitdem hat sich immer wieder vieles verändert, sowohl an unserer Arbeit als auch am Aussehen der Website – sogar unser Logo.
Ich freue mich jetzt ungemein, mit der neuen Seite zu arbeiten. Was man auf den ersten Blick noch nicht sieht: Wir haben jede Menge frische Möglichkeiten, Texte zu gestalten. Auch die Startseite können wir flexibler sortieren. Nicht mehr viele starre Kategorien, sondern Platz für wichtige, aktuelle Themen und Orte für das, was uns ausmacht: tiefe Recherchen, treffende Kommentare, Podcasts aus unserem Maschinenraum oder netzpolitische Dauerbrenner. Einen Überblick findet ihr in unserer Launch-Ankündigung und ich bin mir sicher, dass die regelmäßigen Leser:innen unter euch schnell noch viel mehr entdecken werden.
Ein Teil der Aufregung kommt aber auch daher, dass ich richtig gespannt auf euer Feedback bin. Von den letzten Redesigns weiß ich, dass Ungewohntes oft erst mal zu Skepsis führt und es sicher auch viel Kritik geben wird. Mir ist auch klar, dass uns und euch in den ersten Tagen noch Fehler auffallen werden – egal wie gründlich wir getestet haben. Aber ich bin mir sicher, dass ihr unser neues Aussehen liebgewinnen werdet. Und die Erfahrungen haben gezeigt, dass euch beim Zurechtfinden noch jede Menge gute Anregungen und Ideen kommen!
Ich mag unser neues Outfit mit seiner großen Klarheit sehr gern und es ist eine Freude, damit zu arbeiten. Für mich ist es mehr als eine Klamotte, denn es gibt uns Freiheiten, unsere journalistischen Inhalte angemessen zu präsentieren. Die bisherige Seite hat uns lange bestens gekleidet, aber mittlerweile hier und da gezwickt und war an anderen Stellen schon abgeschubbert. Die neue gibt uns eine gute Form und macht uns beweglich. Und wir würden uns freuen, wenn ihr mitkommt und uns beim Strecken und Recken begleitet.
Gutes Entdecken wünscht euch
anna
Transparenzbericht 1. Quartal 2026: Unsere Einnahmen und Ausgaben – und viele kleine Lagerfeuer
Wenn die eigenen Recherchen verfilmt werden, ist das schon ein ganz besonderes Ereignis. Wir haben uns vor ein emotionales Lagerfeuer gesetzt und spüren, wie sich nach Jahren der Recherchearbeit ein Kreis schließt. Und an dessen Anfang steht ihr, liebe Spender:innen. Von netzpolitik.org –
Artikel lesen
Deutschland-Stack und Zivilgesellschaft: Digitalministerium sendet widersprüchliche Signale
Das Digitalministerium hatte die Zivilgesellschaft aufgerufen, sich beim Deutschland-Stack einzubringen. Doch in beiden Konsultationsphasen wurde deren Expertise nicht gefragt. Dabei bringt die Zivilgesellschaft Fragen ein, die sonst untergehen. Das zeigt der Workshop zu „KI in der Verwaltung“ des Bündnisses F5. Von Esther Menhard –
Artikel lesen
Polizeiliche Kriminalstatistik: Kriminalitätsrate sinkt um fast sechs Prozent
Die von der Polizei erfasste Kriminalität geht in vielen Feldern deutlich herunter. Dennoch will CSU-Innenminister Dobrindt mehr Überwachungmaßnahmen und schärfere Gesetze. Von Markus Reuter –
Artikel lesen
Automatisierte Datenanalyse in NRW: Palantir-Gesetz nicht verfassungskonform
Die Datenschutzbeauftragte von Nordrhein-Westfalen geht mit der im neuen Polizeigesetz geregelten automatisierten Datenanalyse hart ins Gericht. In ihrem Tätigkeitsbericht bezweifelt sie die Rechtmäßigkeit der Norm, die den Einsatz von Palantir-Software erlaubt. Der NRW-Innenminister Herbert Reul liebäugelt mit Palantir-Alternativen. Von Constanze –
Artikel lesen
Weizenbaum Report 2026: Demokratie erfordert Trotz
Die Bevölkerung nimmt Gewalt gegen Politiker:innen zunehmend als Bedrohung für die Demokratie wahr. Zu dieser Einschätzung kommt der aktuelle Weizenbaum-Report zu politischer Partizipation. Auch Hass und Falschinformationen prägen den Alltag im Netz und beeinflussen die Bereitschaft zur Teilnahme an gesellschaftlichen Debatten. Von Denis Glismann –
Artikel lesen
Uneingelöstes Versprechen auf digitale Souveränität: Europäischer Bezahldienst Wero nutzt Amazon-Server
Wero verspricht mehr digitale Unabhängigkeit und will eine europäische Alternative zu US-Bezahldiensten sein. Doch der Dienst nutzt ausgerechnet Cloud-Infrastruktur der Amazon-Tochter AWS. Das ist auch ein Sicherheitsrisiko für die dort hinterlegten Daten. Von Daniel Leisegang –
Artikel lesen
Nach Enthüllungen zur Überwachungsbrille: Meta kündigt Outsourcing-Firma, die entlässt daraufhin 1000 Menschen
Meta verletzte mit seinen „Smart Glasses“ die Privatsphäre der eigenen Nutzer:innen. Leidtragende des Vorfalls sind nun ausgerechnet Datenarbeiter:innen in Kenia, denen das intime Material zur Bewertung vorgesetzt wurde. Von Markus Reuter –
Artikel lesen
Amnesty Report : „Bundesregierung bedient sich bewährter Instrumente autoritärer Politik“
Die Bundesregierung geht gegen zivilgesellschaftliche Organisationen vor, streicht Gelder und lässt Akteure durch den Verfassungsschutz überprüfen. Diese und andere Freiheitseinschränkungen sowie den Ausbau der Überwachung in Deutschland kritisiert der weltweite Menschenrechtsbericht von Amnesty International. Von Markus Reuter –
Artikel lesen
Fachleute fordern: Bundesregierung muss KI auf Klima-Kurs bringen
Der KI-Boom wird mehr und mehr zum Problem für Umwelt und Klima. Expert:innen haben jetzt für das Umweltministerium skizziert, wie eine nachhaltigere Alternative aussehen könnte. Ihr Gutachten vermeidet Kritik am aktuellen Kurs, die Empfehlungen laufen jedoch auf eine drastische Politikwende hinaus. Von Ingo Dachwitz –
Artikel lesen
Rotlichtviertel Frankfurt am Main: Hier analysiert die Polizei jedes Gesicht
Frankfurt am Main ist ein Freiluftlabor für automatisierte Gesichtserkennung. Die Bilder von Überwachungs-Kameras werden permanent nach bestimmten Personen durchsucht, bei Kontrollen nutzt die Polizei eine Foto-App, um Menschen zu identifizieren. Dabei bleiben hier viele lieber unerkannt: Die Videokameras zeigen auf die Eingänge von 16 Bordellen. Von Martin Schwarzbeck –
Artikel lesen
Dritter Versuch: Bundesregierung beschließt anlasslose Vorratsdatenspeicherung
Die Bundesregierung nimmt einen dritten Anlauf zur Vorratsdatenspeicherung. Internet-Zugangs-Anbieter sollen IP-Adressen aller Nutzer speichern – anlasslos und massenhaft. Internet-Dienste wie E‑Mails und Messenger müssen auf Anordnung ebenfalls Daten speichern und herausgeben. Von Andre Meister –
Artikel lesen
Familienministerium: Fachleute blenden Gefahren von Alterskontrollen aus
Die Familienministerin will ein Social-Media-Verbot für Minderjährige. Die von ihr berufenen Expert*innen eher nicht. Das zeigt deren erster Bericht – der jedoch eine gefährliche Leerstelle bei Alterskontrollen lässt. Die Analyse. Von Sebastian Meineck –
Artikel lesen
Attacke auf Politik und Journalismus : Signal-Phishing gegen Julia Klöckner erfolgreich
Laut dem Verfassungsschutz soll das Phishing über den Messenger Signal so erfolgreich sein, dass „zahlreiche Signal-Gruppen im parlamentarischen Raum derzeit von den Angreifern nahezu unbemerkt ausgelesen werden“. Auch der Account der CDU-Bundestagspräsidentin wurde übernommen. Von Markus Reuter –
Artikel lesen
Informationsfreiheit: Thüringen will sich von Transparenz entlasten
In einem „Entlastungsgesetz“ der Thüringer Brombeerkoalition versteckt sich die Abwicklung staatlicher Transparenzpflichten. Zivilgesellschaftliche Organisationen fordern stattdessen eine Verbesserung des bestehenden Transparenzgesetzes und mehr Digitalisierung in der Verwaltung. Von Denis Glismann –
Artikel lesen
Relaunch: Alles so schön neu hier
Wir haben der Website ein neues Outfit verpasst. Aber auch unter der Haube hat sich jede Menge getan. Hier erfahrt ihr, was wir alles gemacht haben. Wir freuen uns über das neue Design und sind gespannt auf euer Feedback. Von netzpolitik.org –
Artikel lesen
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Wir haben der Website ein neues Outfit verpasst. Aber auch unter der Haube hat sich jede Menge getan. Hier erfahrt ihr, was wir alles gemacht haben. Wir freuen uns über das neue Design und sind gespannt auf euer Feedback.

Neun Jahre lang hat sich die Website von netzpolitik.org optisch kaum verändert. Doch seit dem 25. April 2026 haben wir ein neues Design. Wir freuen uns sehr auf die Möglichkeiten, die unsere neue Website bereithält.
Aus vergangenen Relaunches kennen wir dieses Gefühl: Oh, das ist jetzt aber ungewohnt. Denn immerhin ist so eine Seite ein täglicher Begleiter und auf einmal sieht das ganz anders aus. Es braucht ein bisschen neue Orientierung, aber dann findet sich der Blick schneller zurecht als wir zuerst denken.
Der Relaunch bringt nicht nur optisch Neues, sondern bietet auch viele neue Möglichkeiten für unsere Inhalte.
Veränderung auf der Startseite
Der Aufbau der Startseite wird dynamischer als bisher. Seit vielen Jahren hat sich der Grundaufbau der Seite aus festen Kategorien wie „Überwachung“, „Datenschutz“ und „Nutzer:innenrechte“ ergeben – ergänzt durch einzelne Themencontainer zu aktuellen Highlights. Das hat dazu geführt, dass in einigen Kategorien ältere Texte lange auf der Seite blieben, während in anderen Kategorien schon nach wenigen Tagen die Texte verschwanden. Wir wollen ab jetzt stärker kuratieren, welche Themenblöcke aktuell wichtig sind und wo sich viel bewegt. Es wird in Zukunft also weniger in großen Kategorien gedacht, sondern in Themen, Debatten und Schwerpunkten.
Im netzpolitischen Themenfeld hat sich in den letzten Jahren sehr viel getan. Das soll nun auch bei uns sichtbarer werden. Dazu gibt es auch die aktuellen “Themen” oben in der Navigation. Sie zeigen, was gerade wichtig ist – und geben Zugang zur gesamten Berichterstattung zu einem Schlagwort.





Aber keine Sorge: Natürlich gibt es weiterhin eine chronologische Ansicht, wenn ihr lieber alle Texte in der Reihenfolge der Veröffentlichung lesen wollt. Wir möchten verschiedene Gewohnheiten und Zugänge zur Seite berücksichtigen.
Wir haben mit dem neuen Design nun deutlich mehr Optionen, wenn ein Artikel neben Buchstaben auch andere Elemente enthalten soll. Bisher fehlten uns Möglichkeiten, schöne Bilderstrecken oder opulente Fotos einzubinden oder auf einfache Art Audio- und Videoinhalte darzustellen. Das und vieles andere bei der Seitengestaltung haben sich deutlich vereinfacht. Dabei ist die Seite auch responsiver geworden, ist also besser auf verschiedene Ansichten vom Laptop über das Tablet bis zum Smartphone optimiert. Was sich alles geändert hat, werdet ihr nach und nach merken, wenn wir Artikel und Podcasts mit den neuen Features veröffentlichen.
Mehr Abwechslung und mehr Kontrast
Uns war es wichtig, auf besser lesbare und kontrastreichere Farbkombinationen umzusteigen. Das heißt zum Beispiel: „Unser“ Blau ist ein wenig dunkler geworden. Die Schrift ist im hellen Modus nun nicht mehr dunkelgrau, sondern schwarz. Das und vieles weitere soll das Lesen angenehmer gestalten.
Vor allem in der mobilen Ansicht gibt es jetzt mehr Abwechslung und wir haben die Möglichkeit, euch auch dort Anreißertexte anzuzeigen. Da uns viele Menschen vor allem über ihr Smartphone lesen, war das lange überfällig. Es gibt auf der Mobilseite jetzt mehr zu sehen als jede Menge Überschriften mit klitzekleinen Bildern. Wir hoffen, dass euch das bei der Orientierung hilft und mobil mehr Spaß macht!
Für die Rechercheur:innen unter euch ist unsere Suchfunktion ordentlich aufgemöbelt worden. Ihr könnt nach Jahren filtern, die Sortierung wählen und die Relevanz der Suchergebnisse hat sich deutlich verbessert. Das soll dafür sorgen, dass ihr schneller das findet, was ihr sucht – ohne auf eine große externe Suchmaschine zurückgreifen zu müssen.
Technisch haben wir uns mit dem Relaunch wieder mehr an den Kern des von uns genutzten CMS WordPress angenähert. Früher haben wir die Seite und die Inhalte mit einem selbst entwickelten Plugin unserer Agentur „gefahren“. Damals hatte WordPress noch nicht so viele Optionen, um eine Nachrichtenseite sinnvoll zu bedienen. Da hat sich viel getan: Mit dem Relaunch nutzen wir jetzt Funktionalitäten, die WordPress selbst an Bord hat.
Und: Wir haben nun endlich auch einen Darkmode, den sich viele von euch immer wieder gewünscht haben.
Was sich nicht ändern wird
Egal wie netzpolitik.org aussieht, es gibt Dinge, die sich auf keinen Fall ändern werden: In unserem Fokus steht gemeinwohlorientierter Journalismus. Wir arbeiten und kämpfen für digitale und analoge Freiheitsrechte. Wir berichten aus der Perspektive der digitalen Zivilgesellschaft. Und wir wünschen uns, dass unsere Recherchen, Kommentare, Analysen, Berichte und vieles mehr für alle frei zugänglich sind. Und hoffentlich in Zukunft noch mehr Menschen erreichen. Dafür soll auch der Relaunch ein Schritt von vielen sein.
Unterstützt dabei hat uns insbesondere die Agentur Palasthotel. Das Palasthotel-Team hat den Relaunch geleitet, das Design erarbeitet und technisch umgesetzt. Mit großer Geduld hat Palasthotel unsere Wünsche umgesetzt und uns an einigen Stellen geholfen herauszufinden, was eigentlich diese Wünsche sind. Vielen Dank!
Nun ist die Seite raus aus der Werkstatt und für euch alle im Netz. Schaut euch gerne um und schreibt uns in den Ergänzungen oder über relaunch@netzpolitik.org, wenn euch etwas auffällt. Es finden sich sicher noch hier und da Fehler und wir freuen uns, wenn ihr uns meldet, wenn euch einer auffällt.
Wir haben uns angeschnallt und sind auf ein paar Turbulenzen eingestellt. Vor allem aber wünschen wir euch jetzt: Viel Spaß!
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Liebe Leser:innen, Entlastungsgesetz, so was klingt erst mal gut. Aber wenn man öffentliche Stellen vor allem von ungeliebten Transparenzpflichten entlasten will, dann klingt das gar nicht mehr so super. Gerade weil sich Transparenz auch mit weniger Belastung erreichen ließe. Dann würde nichts leiden und alle hätten was davon: Staat, Menschen und am Ende die Demokratie. […]
Liebe Leser:innen,
Entlastungsgesetz, so was klingt erst mal gut. Aber wenn man öffentliche Stellen vor allem von ungeliebten Transparenzpflichten entlasten will, dann klingt das gar nicht mehr so super. Gerade weil sich Transparenz auch mit weniger Belastung erreichen ließe. Dann würde nichts leiden und alle hätten was davon: Staat, Menschen und am Ende die Demokratie. Mein Kollege Denis hat die Diskussion um ein geplantes Gesetz in Thüringen für euch zusammengefasst.
Auch im Ticker geht es um Transparenz – bei der häuslichen Videoüberwachung.
Viele Grüße
anna
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
In einem „Entlastungsgesetz“ der Thüringer Brombeerkoalition versteckt sich die Abwicklung staatlicher Transparenzpflichten. Zivilgesellschaftliche Organisationen fordern stattdessen eine Verbesserung des bestehenden Transparenzgesetzes und mehr Digitalisierung in der Verwaltung.

Die Thüringer Regierungskoalition (CDU, SPD, BSW) will im Namen der Modernisierung ein sogenanntes „Entlastungsgesetz“ verabschieden und damit nach eigenen Angaben die Bürokratie abbauen. Die Maßnahmen haben demnach das „Ziel, Abläufe zu vereinfachen und Ressourcen zu schonen“.
Das sieht Arne Semsrott, Transparenz-Experte und Chefredakteur von FragDenStaat, anders. Gegenüber netzpolitik.org äußert dieser: „Die längst überfällige Veröffentlichungspflicht für Kommunen auf den letzten Metern noch zu streichen, passt zur peinlichen Digitalisierungs- und Demokratieverweigerung von CDU und SPD. Dass der BSW daran mitwirkt, ist auch kein Wunder.“
Die Open Knowledge Foundation (OKF), Wikimedia und der Hackspace Jena kritisieren das Gesetzesvorhaben ausführlich in ihren parlamentarischen Stellungnahmen. Der Stellungnahme des Hackspace schließt sich der Chaos Computer Club (CCC) an. Sie alle kommen zu ähnlichen Ergebnissen: Das geplante Entlastungsgesetz baut Transparenz gegenüber den Bürger:innen und Presse ab – und verfehlt sein Modernisierungsziel. Bisherige Fortschritte würden mit dem Gesetz zunichtegemacht. Auch das ausgewiesene Ziel der Landesregierung, die Effizienz zu erhöhen, werde verfehlt. Nicht trotz, sondern aufgrund des Rückbaus.
Transparenzpflicht soll Kann-Bestimmung werden
Die Organisationen sehen im Entlastungsvorhaben vor allem einen Rückbau des Thüringer Transparenzgesetzes (ThürTG) aus dem Jahr 2019. Thüringer Behörden stellen aufgrund des Gesetzes amtliche Informationen unaufgefordert auf dem Thüringer Transparenzportal (TTP) zur öffentlichen Verfügung. Diese Veröffentlichungspflichten sollen nun „zusammengekürzt werden – getarnt als ‚Bürokratieentlastung’ “, moniert der CCC.
Die Vorschriften des Transparenzgesetzes sollen in „Kann-Bestimmungen“ umgewandelt werden, die auf Freiwilligkeit setzen und damit zu weniger Transparenz führen, heißt es dazu in der Stellungnahme des Hackspace Jena. „Der geplante § 6 Abs. 3 S. 1 ThürTG schafft die bisherige Transparenzpflicht de facto ab. Die Informationen aus dem gekürzten Katalog können eingestellt werden. Damit ist zu erwarten, dass die ohnehin sehr dürftigen Informationen im TTP noch weniger werden.“
Der Landesbeauftragte für Datenschutz und Informationsfreiheit Timo Melzer kritisiert die Änderungen in der Anhörung zum Gesetzesvorhaben. Sein Amt spreche sich deutlich gegen eine Umwandlung von Soll- in Kann-Bestimmungen aus. Dies diene „nicht dem Zweck des Thüringer Transparenzgesetzes, der die Förderung der demokratischen Meinungs- und Willensbildung sowie die Ermöglichung der Kontrolle staatlichen Handelns verfolgt“. Beides sei in der heutigen Zeit „wichtiger denn je, auch gerade im Hinblick auf Fake News“, so Melzer. Ohne eine verbindliche Veröffentlichungspflicht würde zudem die Qualität und Quantität der Informationen im TTP erheblich reduziert werden.
Frustrierendes Transparenzportal
Melzer sagt, dass durch die Änderung sogar ein höherer Verwaltungsaufwand möglich sei. Er ist davon überzeugt, dass die Attraktivität des TTP durch konsequente Digitalisierung gesteigert werden kann. Die tatsächliche Nutzung der Plattform ließe sich demnach erhöhen, wenn die Nutzbarkeit der Webseite verbessert werde. Beispielsweise durch ein verbessertes IT-Design und KI-Unterstützung auf dem Portal.
Der Hackspace Jena kritisiert in diesem Zusammenhang die ohnehin dürftige Bilanz des staatlichen Portals im Vergleich mit anderen Bundesländern: Seit Inkrafttreten des Transparenzgesetzes Im Jahr 2020 seien insgesamt nur 907 Dokumente eingestellt worden. Gleichzeitig habe Hamburg insgesamt 170.000 Dokumente veröffentlicht. In Rheinland-Pfalz seien es 31.000 Dokumente.
Der Hackspace kritisiert auch die technische Umsetzung des Portals selbst: Aus Sicht der Psychologie und Kognitionsforschung führten lange Ladezeiten bereits ab 5 Sekunden zu einem Gefühl von Verunsicherung und Vertrauensverlust bei den Nutzenden. Ab 15 Sekunden sei es Frustration. Nutzende würden eine Webseite unter solchen Umständen wieder verlassen – und beim TTP läge die vollständige Ladezeit zwischen 20 und 47 Sekunden. Netzpolitik.org hat die langen Ladezeiten in einer Stichprobe ebenso nachvollziehen können.
De facto Rückabwicklung zum Informationsfreiheitsgesetz
„Letztlich entwickelt sich das Transparenzgesetz zurück und ist damit im Kern nur noch ein Informationsfreiheitsgesetz“, so der Hackspace Jena in der Stellungnahme. Berichtspflichten an den Landtag entfielen. Beispielsweise für Gutachten, Stellungnahmen von Verbänden und für Kabinettsvorlagen würden Ausnahmen geschaffen. Es würden damit genau jene Dokumente herausgelöst, die für informierte gesellschaftliche Teilhabe zentral seien.
„Ein Ziel eines Transparenzgesetzes sollte es sein, den Bürgerinnen und Bürgern Informationen auch während des normsetzenden Verfahrens zur Verfügung zu stellen“, so Hackspace Jena. Die Ausnahmen sorgten nun dafür, dass Dokumente „erst nach Abschluss des Verfahrens und auf Antrag zur Verfügung stehen“. Damit werde die Möglichkeit eingeschränkt, das Verfahren überhaupt noch beeinflussen zu können.
Informationsfreiheitsgesetze regeln den voraussetzungslosen Zugang zu amtlichen Informationen. Doch unter dieser Maßgabe bleibt Transparenz auf die Eigeninitiative von Bürger:innen und Journalist:innen angewiesen – die Informationen müssen extra angefragt werden. Transparenzgesetze verfolgen demgegenüber das Ziel, die Behörden zu einer unaufgeforderten Veröffentlichung zu verpflichten.
Laut der Stellungnahme der OKF, Betreiberin der Plattform FragDenStaat, werde nun aus der Pflicht, digitale Dokumente vorzulegen, ein Ermessen, dies zu verweigern. Auch die Rechte des Landesbeauftragten für den Datenschutz und die Informationsfreiheit würden de facto abgeschwächt.
Abbau von Transparenz führt zu Ineffizienz
Die Thüringer Landesregierung begründet das „Entlastungsgesetz“ mit zwei Hauptargumenten: Die Transparenzpflicht würde Personalressourcen binden. Ein prominent genanntes Beispiel ist dabei der Aufwand durch Schwärzungen. Zudem werde das Portal ohnehin kaum genutzt, während kommerzielle Suchmaschinen in der Regel schnellere Ergebnisse lieferten. Beide Argumente seien laut den Stellungnahmen ungültig – und zwar unter Berufung auf den Evaluationsbericht, den die Landesregierung selbst beim Deutschen Forschungsinstitut für öffentliche Verwaltung in Auftrag gegeben hat.
Laut der OKF kam das Institut in dem rund 200 Seiten starken Bericht zu dem Ergebnis, dass es am Vollzug der Regelungen mangele – nicht, dass der Verwaltungsaufwand ein Problem darstelle. Vielmehr gäbe es „ ‚deutliche Vollzugsdefizite’ beim Einstellen von Informationen, die auch auf unklare Formulierungen in den §§ 5 und 6 ThürTG zurückzuführen seien“.
„Anstelle einer Abschwächung der Transparenz empfiehlt die Evaluation eine Schärfung der Definitionen sowie die Verfolgung des in anderen Bundesländern gängigen ‚Access for one – Access for all’-Ansatzes, bei dem individuell beantragte Informationen automatisch auch ins Transparenzportal überführt werden“, so die OKF. Es könne zudem keine Lösung sein, die Bereitstellung staatlicher Informationen an Privatkonzerne zu übertragen – zumal bei Suchmaschinen ohnehin nur gelistet werden könne, was vorher auch veröffentlicht wurde.
Regierungskoalition ignoriert Evaluationsbericht
Auch der Hackspace Jena quittiert der Landesregierung insgesamt: „Bei dem vorliegenden Entwurf ist nicht zu erkennen, dass diese Vorschläge umgesetzt worden oder dass diese Erkenntnisse irgendwie in den Entwurf eingeflossen sind.“
Dem Aufwand von Schwärzungen ließe sich durch eine konsequente Digitalisierung der Verwaltung ebenfalls begegnen, so die Stellungnahme von Wikimedia, und zwar automatisiert, „technisch wirksam und ohne weiteres Zutun“ indem personenbezogene Sachverhalte in Dokumenten maschinenlesbar codiert werden. Es sei demnach die IT-Infrastruktur zu modernisieren, die gleichsam die Voraussetzung für weitere Modernisierungsvorhaben sei.
„Die geplanten Änderungen des Thüringer Transparenzgesetzes gehen an der ausweislichen Zielstellung des Thüringer Entlastungsgesetzes vorbei“, kritisiert Wikimedia ferner. Wenn die Handlungsfähigkeit und Effizienz der Verwaltung durch das ThürTG beeinträchtigt werde, sei dies lediglich ein Indikator für mangelnde Verwaltungsdigitalisierung. Die automatisierte Veröffentlichung von Dokumenten schaffe nicht nur Transparenz, sondern auch eine Grundlage für viele weitere alltägliche Behördenabläufe – intern oder im Austausch mit den Bürger:innen.
Probleme bei personellen Ressourcen ausgerechnet durch den Abbau von Transparenzvorschriften lösen zu wollen, sei deshalb kontraproduktiv, so Wikimedia. Grundlegende Ursachen würden dadurch nicht angegangen, sondern lediglich die „sichtbaren Konsequenzen abgeschafft“. Dies mache es in der Zukunft umso schwerer, Effizienzprobleme zu erkennen.
Gemeinde- und Städtebund begründet mit Personalmangel
Dr. Carsten Rieder, geschäftsführendes Vorstandsmitglied des Gemeinde- und Städtebundes Thüringen, argumentiert in der Anhörung zum Gesetzesvorhaben dennoch mit einer Mehrbelastung für die Kommunen. Transparenz werde prinzipiell unterstützt, aber durch die Pflichten entstünden personelle Mehrbelastungen im Verwaltungsalltag. Zudem gäbe es Berichte von Einzelfällen, in denen Verwaltungseinheiten mit Anfragen überhäuft würden. Die Transparenzgesetze könnten demnach „ansatzweise missbräuchlich“ genutzt werden, um „Verwaltungen lahmzulegen“.
Melzer sieht auch in dieser Hinsicht das Potenzial bei technischen Lösungen, die Missbrauch verhindern können. Nach seinem Kenntnisstand würden Mitarbeitende der Kommunen das TTP zudem selbst nutzen, um sich einen schnellen Informationsüberblick zu verschaffen.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Laut dem Verfassungsschutz soll das Phishing über den Messenger Signal so erfolgreich sein, dass „zahlreiche Signal-Gruppen im parlamentarischen Raum derzeit von den Angreifern nahezu unbemerkt ausgelesen werden“. Auch der Account der CDU-Bundestagspräsidentin wurde übernommen.

Die Phishing-Attacken auf dem Messenger Signal gegen prominente Personen aus Politik und Journalismus sind offenbar erfolgreich. Nun ist bekannt geworden, dass auch Bundestagspräsidentin Julia Klöckner auf den Phishing-Versuch hereingefallen ist. Nach Informationen von netzpolitik.org waren die Angreifer bei mindestens einem weiteren Bundestagsabgeordneten sowie mehreren Angehörigen großer Redaktionen erfolgreich.
„Es ist davon auszugehen, dass so zahlreiche Signal-Gruppen im parlamentarischen Raum derzeit von den Angreifern nahezu unbemerkt ausgelesen werden“, heißt es in der 20-seitigen Warnung des Verfassungsschutzes (BfV) an Bundestagsabgeordnete, aus der der Spiegel zitiert. Dem BfV seien bereits „zahlreiche hochrangige Betroffenheiten“ bekannt geworden, so der Bericht weiter. Angesichts der Art der Angriffe vermutet der Geheimdienst laut dem Spiegel allerdings eine „deutlich höhere Dunkelziffer“.
Zusammen mit Netzwerk Recherche hatte netzpolitik.org Informationen gesammelt, wer im Journalismus wann die Phishing-Attacke zugesandt bekam. Demnach hatten hierzulande deutlich mehr als 100 Journalist:innen aller Mediengattungen und zahlreicher Medienhäuser den Angriffsversuch erhalten.
Unter den Angegriffenen sind viele Journalist:innen aus dem investigativen Bereich sowie mehrere sehr prominente Vertreter:innen der Medienbranche. Die Angriffe laufen nach Informationen von netzpolitik.org seit September 2025. Dabei wurden manche Personen auch schon mehrfach von den Angreifern angeschrieben, manche bis zu vier Mal.
Bei der Phishing-Attacke, über die netzpolitik.org als erstes in Deutschland berichtet hat, schreiben die Angreifer eine Nachricht im Namen des Signal-Supports an die betroffene Person, in der sie behaupten, dass deren Account attackiert werde. Dazu fordert der falsche Support, dass die Nutzer:innen ihren Verifizierungscode senden. Geben die Nutzer:innen diesen und ihre Signal-PIN an die Angreifer, können diese den Account übernehmen und damit Kontakte, Netzwerke, Chats und Chatgruppen aus- und mitlesen.
Immer mehr Spuren beim Messenger-Phishing weisen auf Russland
Viel spricht für Russland als Urheber des Angriffs
Das niederländische Verteidigungsministerium hatte Anfang März gesagt, dass Russland hinter der laufenden Phishing-Kampagne gegen hochrangige Personen aus Politik, Militär, Zivilgesellschaft und Journalismus stecken soll. BSI und Verfassungsschutz hatten vor den Attacken gewarnt und diese als „wahrscheinlich staatlich gesteuert“ bezeichnet.
In einer Mitteilung auf der Webseite des niederländischen Verteidigungsministeriums sprechen sowohl die militärische Geheimdienst MIVD als auch der zivile Geheimdienst AIVD nun von „russischen Staatshackern“, die hinter dem Angriff auf Signal und WhatsApp stecken würden. Auch netzpolitik.org hat Hinweise, welche die Theorie einer russischen Urheberschaft des Angriffs untermauern.
Das Medienhaus Correctiv hatte zudem den Angriff auf den früheren Vizepräsidenten des Bundesnachrichtendienstes, Arndt Freytag von Loringhoven, ausgewertet und ist dabei auch auf digitale Spuren gestoßen, die nach Russland führen.
Verfassungsschutz und das Bundesamt für Sicherheit in der Informationstechnik (BSI) hatten vor einigen Tagen noch einmal vor der Phishing-Attacke gewarnt und auch einen Leitfaden für Betroffene veröffentlicht.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Die Familienministerin will ein Social-Media-Verbot für Minderjährige. Die von ihr berufenen Expert*innen eher nicht. Das zeigt deren erster Bericht – der jedoch eine gefährliche Leerstelle bei Alterskontrollen lässt. Die Analyse.

Mit einem pauschalen Social-Media-Verbot ist Kindern und Jugendlichen eher nicht geholfen, dafür sind die Gefahren und Vorteile des Internets zu komplex. Das geht hervor aus dem mit Ungeduld erwarteten ersten Bericht der Unabhängigen Expertenkommission „Kinder- und Jugendschutz in der digitalen Welt“ vom 20. April. Im Vorfeld hatte Familienministerin Karin Prien (CDU) für ein Social-Media-Verbot geworben.
Auf 128 Seiten fächern die von ihr beauftragten Fachleute nun auf, was jungen Menschen im Netz passieren kann, und wo Hilfe ansetzen könnte. Dabei geht es nicht nur um Technologien und Plattform-Regulierung, sondern auch um die Rolle von Eltern, Schulen oder Ärzt*innen.
Die aktuelle Bestandsaufnahme soll lediglich „Handlungsfelder“ beschreiben. Konkrete Handlungsempfehlungen wollen die Expert*innen erst Ende Juni vorlegen. Erkennen lässt sich dennoch, in welche Richtung manche Empfehlungen gehen könnten. So legt der Bericht unter anderem strenge Alterskontrollen nahe.
Auf die Gefahren dieser Maßnahme für Privatsphäre, Datenschutz und Teilhabe aller Menschen im Netz gehen die Fachleute jedoch nicht ein. Diese Leerstelle fällt umso mehr ins Auge, weil im März mehr als 400 Forscher*innen aus 29 Ländern in einem offenen Brief eindringlich vor Alterskontrollen gewarnt hatten.
Unsere Analyse zeigt: Ohne kritische Auseinandersetzung mit den Technikfolgen von Alterskontrollen drohen die Expert*innen des Familienministeriums einen Kernaspekt der Debatte zu unterschätzen.
- Die 5C-Typologie: Das droht jungen Menschen im Netz
- Typisch Wissenschaft: Es kommt drauf an
- Von Eltern bis Ärzt*innen: Diese Menschen sollen Kindern helfen
- Alterskontrollen: Die Achillesferse des Berichts
- Forschende schlagen Alarm: Kontrollen „nicht hinnehmbar“
- Reaktion: SPD-Fraktion will „verpflichtende“ Altersverifikation
Die 5C-Typologie: Das droht jungen Menschen im Netz
Ausführlich beschreiben die Expert*innen zunächst, was jungen Menschen im Netz drohen kann. Dabei nutzen sie die sogenannte 5C-Typologie. Das Modell sortiert die Phänomene in fünf Gruppen, die mit dem Buchstaben C beginnen.
- Content: Hier geht es um für junge Menschen potenziell schädliche Inhalte wie Gewalt, Hass und Pornografie, aber auch Fehl- und Desinformation.
- Contact: Im persönlichen Kontakt können Erwachsene junge Menschen etwa in Abhängigkeitsverhältnisse locken und sexuell erpressen, sie stalken oder für extremistische Ideologien rekrutieren.
- Conduct: Diese Risiken drehen sich um Verhalten unter Minderjährigen; hier können junge Menschen sowohl Opfer als auch Täter*innen sein. Es geht unter anderem um Mobbing, sexuelle Belästigung oder Communitys, in denen sich junge Menschen dazu motivieren, sich selbst zu verletzen.
- Contract: Hier geht es um Risiken, die sich auf Verträge oder kommerzielle Ausnutzung beziehen. Junge Menschen können etwa durch manipulative Designs oder glücksspielähnliche Mechanismen dazu verleitet werden, ihr Taschengeld zu verprassen.
- Cross-cutting: Zuletzt soll eine Sammelkategorie namens Querschnitt weitere Risiken bündeln, etwa Verletzung der Privatsphäre, negative Folgen für die Gesundheit wie Bewegungsmangel oder auch Diskriminierung.
Wie schlecht geht es jungen Menschen also in der digitalen Welt? Der Bericht fasst hierzu viele Studien zusammen, das Gesamtbild ist ambivalent. Manches ist alarmierend – etwa, dass 4,7 Prozent der 10- bis 17-Jährigen in Deutschland „die Voraussetzungen für eine pathologische Nutzung sozialer Netzwerke“ erfülle sollen. Andere Befunde wiederum machen Mut – etwa dass sich soziale Medien positiv auf die „Lebenszufriedenheit“ auswirken können.
Typisch Wissenschaft: Es kommt drauf an
Für die Debatte um ein Social-Media-Verbot liefert die Bestandsaufnahme zwei wichtige Differenzierungen. Erstens zeigt die 5C-Typologie eindrücklich: Digitale Gefahren für junge Menschen lassen sich nicht auf soziale Medien reduzieren. Sie umfassen unter anderem auch Messenger (etwa beim Mobbing), Websites (etwa bei Gewaltdarstellungen) oder die Gaming-Welt (etwa bei manipulativen Designs). Ein Zuschnitt allein auf soziale Medien dürfte den Punkt verfehlen.
Zweitens zeigen die Schilderungen zum Forschungsstand: Digitale Gefahren für junge Menschen lassen sich nicht nur am Alter oder der Bildschirmzeit festmachen. „Aus der bisherigen Forschung lässt sich ableiten, dass digitale Risiken und Belastungen nicht für alle Jugendlichen gleichermaßen auftreten, sondern nach Geschlecht, Alter, und soziodemografischem Kontext variieren können“, schreiben die Forschenden.
Es sei „entscheidend, nicht nur die Nutzungsdauer zu betrachten, sondern auch typische Nutzungsweisen sowie die Inhalte, denen Jugendliche ausgesetzt sind.“ Mehrere Studien würden betonen, „dass Auswirkungen digitaler Technologien weder einheitlich negativ noch einheitlich positiv sind, sondern die Wirkungen variieren – je nach Persönlichkeit, Nutzungsform, Plattform, Zeitverlauf und Lebenslage.“
Herunterdampfen lässt sich das auf die Formel: Es kommt drauf an.
Als anschauliches Beispiel nennen die Expert*innen junge Menschen, die Depressionen oder Angststörungen haben. Für sie kann etwa der soziale Vergleich durch Likes besonders belastend sein. Ein anderes Beispiel sind junge Menschen, die aufgrund emotionaler oder sexueller Misshandlung traumatisiert sind. Für sie wiegen Phänomene wie Mobbing oder nicht-einvernehmliche sexualisierte Kontaktaufnahme schwerer.
Zugleich halten die Expert*innen fest, wie wichtig die digitale Welt gerade für vulnerable junge Menschen sein kann:
(Digitale) Verbundenheit hat insbesondere für Jugendliche in isolierten Lebenssituationen einen hohen Stellenwert. Eine besonders konsistente Erkenntnis ist, dass marginalisierte Jugendliche überdurchschnittlich stark von Social Media profitieren. Dies betrifft queere Jugendliche, ethnische oder religiöse Minderheiten sowie Menschen mit Behinderungen oder mit chronischen Erkrankungen.
Für diese Gruppen und insbesondere für Gruppenangehörige aus ländlichen Regionen sind digitale Räume häufig die einzigen Orte, an denen sie akzeptierende Gemeinschaften finden, ihre Identität ausdrücken können und verlässliche Peer-Unterstützung erfahren. Plattformen werden damit zu einem niedrigschwelligen Zugangspunkt zu emotionaler Hilfe und stabilisierenden Beziehungserfahrungen.
Mit Blick auf die Rechtslage schlussfolgern die Expert*innen, es bedürfe „einer besonderen Begründung pauschaler Nutzungsverbote, die sich undifferenziert auf ganze Altersgruppen von Nutzenden erstrecken“. Kurzum: Der Bericht ist ein Dämpfer für alle, die sich Rückenwind für ein Social-Media-Verbot erhofft hatten.
Zumindest in ihrer Reaktion auf den Zwischenbericht hat Familienministerin Prien nicht erneut auf ein Social-Media-Verbot gepocht, sondern sich differenziert und zurückhaltend geäußert: „Es wird darum gehen müssen, bestehende rechtliche Instrumente konsequent durchzusetzen und diese durch einen breiten Instrumentenkasten auf verschiedenen Ebenen zu ergänzen.“ Die Ministerin erwarte nun „mit Spannung die konkreten Handlungsempfehlungen“.
Von Eltern bis Ärzt*innen: Diese Menschen sollen Kindern helfen
Aktuell dreht sich die öffentliche Debatte um Jugendschutz im Netz vor allem um Regulierung und Technologien. Große Teile des Zwischenberichts haben dagegen einen anderen Fokus: Menschen.
Ausführlich gehen die Expert*innen auf die Rolle von Eltern ein. Aus dem Bericht geht hervor: Die Erwachsenen sollen erst einmal selbst das Handy weglegen: „Elterliches Medienverhalten, Erziehungsstil und mediale Vorbildfunktion beeinflussen das Nutzungsverhalten von Kindern und Jugendlichen.“
Programme für Prävention würden vor allem Eltern erreichen, die schon sensibilisiert sind, heißt es weiter. „Manche Eltern werden nur schwer oder gar nicht erreicht.“ Der Grund: Ein Großteil der Angebote für Eltern sei lediglich auf Deutsch und würde die „unterschiedlichen Lebenslagen von Familien“ nicht adressieren. Das deutet darauf hin, dass aktuelle Hilfsangebote wohl Familien benachteiligen, die ohnehin weniger Privilegien haben.
Wichtig ist dem Bericht zufolge außerdem, dass Eltern und Schulen an einem Strang ziehen: „Digitale Erziehung ist wirksamer, wenn Schule und Elternhaus konsistente Normen und Regeln festlegen“, so die Expert*innen. Ein wirksamer Erziehungsstil setze auf „Wärme, Struktur und Partizipation“. Die Formulierung lässt aufhorchen: Wärme statt Verbote.
Neben Eltern und Lehrer*innen gehen die Expert*innen auf weitere Menschen ein, die helfen können, gerade um „Familien mit Unterstützungsbedarf tatsächlich zu erreichen“. Konkret nennen sie Kinderärzt*innen, Gynäkolog*innen und Hebammen, „da sie in der Regel das Vertrauen der Familien genießen“.
Um Menschen geht es auch in der Kinder- und Jugendhilfe oder der Medienpädagogik. Letztere sei eine „freiwillige Leistung der Länder und Kommunen“, schreiben die Expert*innen; eine verlässliche Finanzierung sei „nicht gegeben“.
Sogar Polizist*innen sollen dem Bericht zufolge die Lage für Kinder und Jugendliche im Netz verbessern. Obwohl die Expert*innen keine Handlungsempfehlungen aussprechen wollen, heißt es im Bericht: Es „fehlt“ an „Formen zufälliger Sichtbarkeit von Polizeibehörden im Sinne einer Form von virtuellen Streifen in Deutschland.“ Der direkte Kontakt mit Beamt*innen im Netz könne angeblich die Bereitschaft junger Menschen erhöhen, Dinge wie Grooming anzuzeigen.
Was all diese Ansätze gemeinsam haben: Eltern und Fachkräfte müssten sich vermehrt Kindern und Jugendlichen widmen. Im Gegensatz zu Verboten und technischen Hürden kostet das Zeit und Geld.
Alterskontrollen: Die Achillesferse des Berichts
Auch Plattformregulierung spielt eine wichtige Rolle im Zwischenbericht. Das zentrale Regelwerk hierfür ist das EU-Gesetz über digitale Dienste (DSA). Demnach müssen unter anderem große Social-Media-Plattformen Maßnahmen zum Schutz junger Menschen ergreifen. Zum Beispiel können sie Chat-Kontakte mit Fremden einschränken oder es Nutzer*innen einfach machen, Vorfälle zu melden.
Eine wichtige Rolle spielen auch manipulative und suchtfördernde Designs, insbesondere die Sogwirkung personalisierter Feeds, von denen man sich ohne starke Impulskontrolle kaum lösen kann. Mithilfe des DSA könnte die EU genau dort ansetzen und Social-Media-Konzerne dazu zwingen, nicht länger die Aufmerksamkeit junger Menschen mit allen Mitteln zu Geld zu machen.
Alterskontrollen sind laut DSA nur eine Option unter mehreren solcher Vorsorgemaßnahmen. Offenbar wollen die Expert*innen Alterskontrollen jedoch mehr ins Zentrum rücken, eventuell zur Pflicht machen. Das zeigt folgender Schlüsselsatz:
Strukturelle Vorsorgemaßnahmen wie sie der DSA vorsieht, können ihre volle Wirksamkeit nur mithilfe einer funktionalen Altersüberprüfung entfalten.
Dahinter steckt ein folgenschwerer Regulierungsansatz. In diesem Fall wären Alterskontrollen überhaupt erst die Grundlage für weitere Jugendschutzmaßnahmen. Sie würden nicht mehr dazu dienen, junge Menschen von einer Plattform auszusperren. Stattdessen würden sie sicherstellen, dass junge Menschen einen Account wirklich nur im passenden Jugendschutz-Modus nutzen. Die mögliche Konsequenz wären großflächige Alterskontrollen über weite Teile des Internets.
Obwohl die Expert*innen noch keine Handlungsempfehlungen aussprechen wollen, fordern sie im Zwischenbericht sogar eine Ausweitung der Alterskontrollen über den aktuellen DSA hinaus: „Ausgangspunkt einer Altersverifikation sollten jedoch grundsätzlich bestehende Risiken für Kinder und Jugendliche sein, daher ist der Schutz auszuweiten“, heißt es. Konkret nennt der Bericht „Klein- und Kleinstunternehmer“, die der DSA aktuell von Jugendschutz-Pflichten ausnimmt.
Auch das hätte weitreichende Folgen: Selbst Unternehmen mit nur einem Angestellten müssten demnach möglicherweise Alterskontrollen für ihre Online-Angebote einführen.
Forschende schlagen Alarm: Kontrollen „nicht hinnehmbar“
Solche Alterskontrollen sind nicht bloß ein Website-Feature. Um, wie oft gefordert, wirksam zu sein, müssen sich Nutzer*innen etwa mit Ausweisdokumenten oder biometrischen Gesichtsscans verifizieren. Die eingangs erwähnten mehr als 400 Forscher*innen aus den Bereichen Technologie, IT-Sicherheit und Privatsphäre warnten in ihrem offenen Brief eindringlich vor den Folgen.
Es fehle ein klares Verständnis dafür, was Alterskontrollen anrichten können – für „Sicherheit, Privatsphäre, Gleichberechtigung“ und die „Autonomie“ aller Menschen. Deren Einführung ohne weitere Forschung sei „gefährlich und gesellschaftlich nicht hinnehmbar“.
Jüngst hat die EU-Kommission einen Vorschlag zur Umsetzung von Alterskontrollen präsentiert: Eine App, die zunächst nur auf iOS und Android läuft, und primär Ausweispapiere nutzt. Bereits das schafft potenziell gefährliche Abhängigkeiten von den US-Konzernen Apple und Google, führt zu einem Handy-Zwang und benachteiligt Menschen, die keine (oder keine mit der App kompatiblen) Papiere haben.
Rund um die Alterskontroll-App der EU gibt es zudem mehrere technische Unklarheiten und falsche Versprechungen. So soll die App laut EU-Kommission „komplett anonym“ sein, setzt aber noch auf Pseudonyme. Die Spezifikationen der App bieten in der nationalen Umsetzung viele Spielräume, die Privatsphäre schlimmstenfalls weiter schwächen.
Die größte Gefahr von Alterskontrollen liegt jedoch darin, dass sie eine umfassende Kontroll-Infrastruktur im Netz schaffen. Selbst wenn zu Beginn Datenschutz und Privatsphäre im Mittelpunkt stehen: Es bräuchte lediglich eine kleine Anpassung im Code und eine neue Rechtsgrundlage – fertig wären Ausweis- und Klarnamenpflicht im Netz. Alterskontrollen rücken die EU gefährlich nah an eine Form der Massenüberwachung, die in der Türkei gerade auf dem Weg ist.
Reaktion: SPD-Fraktion will „verpflichtende“ Altersverifikation
Für ihren Zwischenbericht mussten sich die Forschenden wohl sehr beeilen. Ursprünglich sollten alle Ergebnisse in Ruhe gemeinsam erscheinen, nach einem Jahr Arbeit. Aber Spitzenpolitiker*innen aus Bund, Ländern und der EU erhöhen seit Monaten den Druck.
Die Co-Vorsitzende der Expert*innen-Kommission hatte dem Tagesspiegel noch im März gesagt: „Ich rate der Politik dringend, uns in Ruhe arbeiten zu lassen“. Daraus ist nichts geworden. Früher als ursprünglich geplant hatten die Expert*innen nun die Bestandsaufnahme vorgelegt. Und selbst das geht manchen nicht schnell genug.
Nach der ersten Veröffentlichung, die ausdrücklich noch keine konkreten Empfehlungen geben sollte, sieht sich die SPD bereits in ihren Forderungen bestätigt. In einer hastigen Pressemitteilung der SPD-Fraktion im Bundestag pochte die jugendpolitische Sprecherin Jasmina Hostert unter anderem auf „verpflichtende, datensparsame Altersverifikation“. Die CDU hatte sich schon per Parteitagsbeschluss im Februar auf verpflichtende Alterskontrollen eingeschworen.
Solche Schnellschüsse werfen die Frage auf, wie viel Respekt die Regierungsparteien gegenüber Wissenschaft und evidenzbasierter Politik haben. Zugleich zeigen sie den Expert*innen, wofür sich die Politik offenkundig am meisten interessiert. Zumindest bisher scheinen die Technikfolgen von Alterskontrollen für die Expert*innen-Kommission keine große Rolle gespielt zu haben.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
