netzpolitik.org
Bitte aktualisieren Sie PHP auf Version 8.2.0 (zurzeit: 8.1.2-1ubuntu2.23). Info
Ein halbes Jahr lang hat sich Pornhub den britischen Alterskontrollen gebeugt und massenhaft Nutzer*innen überprüft. Jetzt macht der Konzern eine Kehrtwende und kündigt seinen Rückzug aus dem Vereinigten Königreich an. Dahinter steckt ein geschickter PR-Stunt. Die Analyse.

Seit dem 25. Juli vergangenen Jahres müssen im Vereinigten Königreich Apps und Websites das Alter ihrer Nutzer*innen kontrollieren, falls es dort pornografische Inhalte zu sehen gibt. So verlangt es der Online Safety Act, den die britische Medienaufsicht Ofcom durchsetzt.
Ein halbes Jahr lang ist Pornhub, eine der meistbesuchten Websites der Welt, diesen Regeln gefolgt. Um zu beweisen, dass sie schon erwachsen sind, mussten sich britische Nutzer*innen etwa über eine Kreditkarte oder ihren Mobilfunkanbieter verifizieren lassen. Doch damit soll bald Schluss sein.
Wie Pornhubs Mutterkonzern Aylo nun bekanntgab, wird die Plattform am 2. Februar für britische Nutzer*innen dichtmachen. Die Ausnahme sind diejenigen, die vor dem Stichtag bereits einen Account angelegt hatten. Das gleiche gilt für die kleineren Schwesterseiten Redtube und YouPorn.
Zur Begründung schreibt der Konzern, das britische Gesetz habe sein Ziel verfehlt, den Zugang Minderjähriger zu Inhalten für Erwachsene einzuschränken. Die Erfahrung nach sechs Monaten habe das gezeigt. Weiter heißt es auf Englisch:
Wir können innerhalb eines Systems, das unserer Ansicht nach sein Versprechen des Jugendschutzes nicht einlöst und sogar gegenteilige Auswirkungen hatte, nicht weiter operieren. Wir sind der Auffassung, dass dieses Regelwerk in der Praxis den Datenverkehr in dunklere, unregulierte Bereiche des Internets verlagert und zudem die Privatsphäre sowie die persönlichen Daten von Bürger:innen des Vereinigten Königreichs gefährdet hat.
Pornhub spielt damit auf gleich drei Punkte an, die Kritiker*innen von Alterskontrollen häufig ins Feld führen.
- Erstens, dass neugierige Kinder und Jugendliche ihre Recherche nach sexuellen Inhalten nicht beenden, wenn sie bei populären Pornoseiten auf eine Alterskontrolle stoßen – sondern diese Hürde entweder mit Tools wie VPN-Diensten überwinden oder auf andere Seiten ausweichen.
- Zweitens, dass strenge Alterskontrollen generell Nutzer*innen zu weniger regulierten Angeboten mit möglicherweise weniger Inhaltsmoderation locken.
- Und drittens, dass sich durch Alterskontrollen Berge sensibler Daten anhäufen können; verlockend sowohl für Kriminelle als auch für staatliche Überwachung.
Künstliche Verknappung
Neu ist diese Kritik nicht, auch nicht für Pornhub. Auf Grundlage dieser Argumente hätte die Plattform von Anfang an die Alterskontrollen im Vereinigten Königreich zurückweisen können. Zum Vergleich: In mehreren US-Bundesstaaten hat die Plattform ihre Geschäfte eingestellt statt Kontrollen einzuführen.
Die jetzige Kehrtwende nach sechs Monaten britischer Alterskontrollen legt nahe, dass Aylo einen PR-Stunt hinlegt. Besonders ins Auge fällt die Ankündigung, dass Brit*innen die Plattform weiter nutzen können, sofern sie bis 2. Februar einen Account anlegen. Diese von Aylo selbst gewählte Frist ist künstliche Verknappung – also eine bewährte Marketing-Strategie. Droht ein landesweiter Aufnahme-Stopp neuer Nutzer*innen, dürften sich viele vorher noch schnell einen Account anlegen, für alle Fälle.
Was Aylo nicht weiter ausführt: Auch ohne Account dürften britische Nutzer*innen künftig Pornhub erreichen können, wenn sie ihre britische IP-Adresse verschleiern, zum Beispiel per VPN oder Tor-Netzwerk.
Mehrfach verknüpft Aylo in seinem Blogbeitrag valide Argumente mit eigenen Konzerninteressen. So warnt Aylo ausdrücklich vor Pornoseiten, die keine Alterskontrollen durchführen, Uploader*innen nicht verifizieren, Inhalte nicht moderieren – und dennoch auftauchen, wenn Brit*innen nach „free porn“ googeln. Im Kontrast dazu kann sich Pornhub selbst als vorbildlich inszenieren und schreibt in polierter PR-Prosa von seiner „Bibliothek vollständig moderierter, einvernehmlicher Erwachsenen-Unterhaltung“.
In der Tat hat die Plattform inzwischen umfassende Richtlinien eingeführt, um Uploader*innen und Inhalte zu prüfen. Geschehen ist das allerdings erst nach jahrelangen Skandalen zu laxen Kontrollen und nicht-einvernehmlichen Aufnahmen auf der Plattform – was Aylo an dieser Stelle unerwähnt lässt. Früher hatte sich Pornhub mit diesen Maßnahmen mühsam aus einer internationalen Image-Krise herausgearbeitet; heute verkauft die Plattform es als Alleinstellungsmerkmal.
Strategie: Flucht nach vorn

Inzwischen wählt Pornhub wiederholt die Flucht nach vorn als Strategie. Klar erkennbar ist das spätestens seit 2023, als Pornhub die eigenen Krisen in der Netflix-Doku „Money Shot“ aufarbeiten ließ – und sich dabei fast nebenbei als Stellvertreter der gesamten Branche überhöhte.
Während Regierungen und Aufsichtsbehörden weltweit Druck mit verschärften Alterskontrollen machen, erprobt Pornhub-Mutter Aylo unterschiedliche Reaktionen. Augenscheinlich lotet der Konzern dabei die eigenen Optionen aus. So hatte Pornhub auch in Frankreich feierlich eine freiwillige Selbst-Sperre verkündet; das war im Juni 2025.
Derweil sind Sperren in Deutschland kein Thema, wobei es hierzulande ähnlich strenge Pflichten für Alterskontrollen gibt. Stattdessen streitet sich Pornhub seit Jahren mit der deutschen Medienaufsicht vor Gericht. Noch vor wenigen Monaten hatte Pornhub auf Anfrage von netzpolitik.org zumindest Bereitschaft signalisiert, in der EU Ausweise zu kontrollieren.
Ruf nach Jugendschutz auf Geräte-Ebene
Den prominenten Appell für einen strategischen Umgang von Pornoseiten mit kommender Regulierung gab es bereits im Jahr 2022, und zwar durch den Unternehmer Fabian Thylmann. Er ist ehemaliger Geschäftsführer des Aylo-Vorgängers Manwin. Im Gespräch mit dem Bayerischen Rundfunk sagte Thylmann damals, es brauche strenge Gesetze für Pornoseiten und der Pornhub-Mutterkonzern solle mitwirken. Dahinter steckt ein simples Kalkül: Wenn eine Regulierung nicht mehr zu vermeiden ist, dann können sich große Plattformen ihre Vormachtstellung sichern, indem sie aktiv mitmachen und mitbestimmen.
Genau das versucht Aylo offenbar heute. So betont Aylo: „Wir bleiben der Zusammenarbeit mit dem Vereinigten Königreich, der Europäischen Kommission und anderen internationalen Partnern verpflichtet.“ Den geplanten Rückzug aus dem Vereinigten Königreich verbindet der Konzern mit einer klaren netzpolitischen Forderung. Demnach sollten alle Smartphones, Tablets und Computer zuerst in einem Kinderschutz-Modus ausgehändigt werden, der bekannte Websites für Erwachsene ab Werk blockiert.
Diese Forderung nach Jugendschutz auf Geräte-Ebene anstelle von Alterskontrollen hat Aylo bereits wiederholt vorgebracht. Auf etwaige Bedenken zu den Fallstricken von Filtersystemen für Jugendliche geht der Konzern an dieser Stelle nicht ein.
Der Kurs, den nicht zuletzt die Europäische Union etwa mit der Richtlinie für audiovisuelle Mediendienste (AVMD-RL) und dem Gesetz über digitale Dienste (DSA) beim Jugendschutz einschlägt, geht ohnehin in eine andere Richtung. Großflächige Ausweiskontrollen scheinen vor allem politisch gewollt zu sein. Statt Pornoseiten stehen in der aktuellen Debatte derzeit insbesondere Social-Media-Seiten im Fokus, während Kinder und Jugendliche auch jenseits davon eine Vielzahl an Risiken im Netz erleben.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Mit einem Phishing-Angriff versucht ein bislang unbekannter Akteur, offenbar gezielt Zugriff auf die Signal-Konten von Journalist:innen und Aktivist:innen zu bekommen. Wir erklären, wie der Angriff funktioniert und wie man sich vor ihm schützen kann.

In den letzten Tagen und Wochen wurden nach Informationen von netzpolitik.org vermehrt Journalist:innen mit einer bekannten Phishing-Attacke auf dem Messenger Signal angegriffen. Betroffen sind nach Kenntnis von netzpolitik.org dutzende (investigative) und teilweise prominente Journalist:innen bei öffentlich-rechtlichen Fernsehsendern sowie mehreren großen und kleinen Medienhäusern, darunter die Zeit, Correctiv, Euractiv und netzpolitik.org. Hinzu kommen einzelne bekannte Vertreter:innen der Zivilgesellschaft, darunter auch Rechtsanwälte.
Netzpolitik.org hat im Zusammenhang mit dem Angriff bislang keine Betroffenen gefunden, die nicht diesen Kategorien zuzuordnen sind. Das deutet auf einen gezielten Phishing-Angriff auf bestimmte Telefonnummern hin, ist aber kein Beweis für einen solchen.
„Wir haben erste Anzeichen dafür gesehen, dass Journalist:innen, Politiker:innen und Mitglieder der Zivilgesellschaft in Deutschland und ganz Europa ins Visier genommen wurden“, bestätigt Donncha Ó Cearbhaill, Leiter des Security Labs von Amnesty International gegenüber netzpolitik.org.
„Diese Signal-Phishing-Kampagne scheint sehr aktiv zu sein“, so Ó Cearbhaill weiter. Es sei unklar, wie oft die Angriffe erfolgreich seien, aber die Ausbreitung der Kampagne würde wahrscheinlich durch die Kontaktlisten auf Signal angeheizt, die von früheren Opfern gesammelt würden.
Wie geht der Angriff?
Bei dem Angriff verschicken die Angreifer eine Nachricht über den Messenger Signal, bei der sie sich als „Signal Support“ ausgeben und behaupten, dass es verdächtige Aktivitäten auf dem Handy sowie den Versuch gegeben habe, auf private Daten zuzugreifen. Deswegen müssten die Betroffenen den Verifikationsprozess von Signal erneut durchlaufen und den Verifikationscode dem vermeintlichen „Signal Security Support ChatBot“ übermitteln. Die ersten netzpolitik.org bekannten Betroffenen des Angriffs wurden im November kontaktiert, erste Berichte über die Angriffsversuche gab es im Oktober von Citizen-Lab-Forscher John Scott-Railton.
In der Anfrage des gefälschten Support-Accounts heißt es auf englisch:
Dear User, this is Signal Security Support ChatBot. We have noticed suspicious activity on your device, which could have led to data leak. We have also detected attempts to gain access to your private data in Signal. To prevent this, you have to pass verification procedure, entering the verification code to Signal Security Support Chatbot. DON’T TELL ANYONE THE CODE, NOT EVEN SIGNAL EMPLOYEES.
Wird diese Chatanfrage angenommen, bekommt der Angegriffene eine SMS mit einem Verifikationscode auf sein Handy geschickt, wie ein Betroffener gegenüber netzpolitik.org bestätigte. Das ist offenbar ein echter Verifikationscode von Signal. Das weist darauf hin, dass sofort nach Annahme der Chatanfrage von den Angreifenden versucht wird, einen Account unter der Handynummer neu zu registrieren.
Alles netzpolitisch Relevante
Drei Mal pro Woche als Newsletter in deiner Inbox.

Gibt man diesen Code an den falschen „Signal Support“ weiter, können die Angreifer einen neuen Account registrieren. Signal-Accounts sind zusätzlich mit einer Signal-PIN geschützt, die neben der SMS ein zweiter Sicherheitsfaktor ist. Wenn die Angreifer diese PIN nicht kennen, sehen sie weder Kontakte, noch Gruppen oder Inhalte.
Würde man jedoch die Signal-PIN an die Angreifer weitergeben, können sie Profil und Kontakte sehen. Sie sehen zwar nicht die vergangenen Chats, können aber dann den ehemaligen Nutzer aus seinem Account ausschließen, indem sie die Signal-PIN ändern und dann die Registrierungssperre aktivieren. Damit wäre es Angreifenden möglich, den Account dauerhaft zu übernehmen – andere Nutzer:innen in Chats oder Gruppen bekommen maximal mit, dass sich die Sicherheitsnummer geändert hat.
Mögliches Ziel: Politische Netzwerke und Quellen ausspähen
Es lassen sich dann Chatgruppen mitlesen und die Kontakte und Netzwerke der Betroffenen ermitteln. Im Falle von Journalist:innen könnten dadurch zum Beispiel Quellen offengelegt werden, die verschlüsselt mit den Journalist:innen kommunizieren. Bei Aktivist:innen könnten politische Netzwerke und Kontakte offenbart werden. Im Zuge einer dauerhaften Account-Übernahme kann der Angreifer zudem alle ab der Übernahme auflaufenden Kommunikationsinhalte mitlesen.
Keiner der netzpolitik.org bekannten Betroffenen ist weiter gegangen, als den Chat anzunehmen und die Verifikations-SMS geschickt zu bekommen.
Wer hinter dem Angriff steckt, lässt sich mit den vorliegenden Informationen nicht sagen. Ein Angreifer mit Überwachungszugriff auf Mobilfunknetze könnte jedoch die per SMS verschickten Verifizierungscodes selbst auslesen und müsste sie nicht erfragen. Um vollen Zugriff auf den Account zu erlangen, müsste auch er die Signal-PIN abfragen.
Wie kann man sich schützen?
„Diese Angriffe nutzen keine Schwachstelle in der Signal-Anwendung selbst aus. Signal ist nach wie vor eine der sichersten und am weitesten verbreiteten verschlüsselten Messaging-Apps“, sagt Donncha Ó Cearbhaill, Leiter des Security Lab bei Amnesty International.
Von Signal selbst heißt es gegenüber netzpolitik.org: „Signal wird Sie niemals in irgendeiner Form über einen Zwei-Wege-Chat innerhalb der App kontaktieren.“ Zudem sollten die Nutzer:innen die Registrierungssperre aktivieren. Das geht unter „Einstellungen“ –> „Konto“ und dann den Schieberegler bei „Registrierungssperre“ aktivieren. Zudem sagt Signal: „Geben Sie Ihre Signal-PIN oder Registrierungssperre niemals an Dritte weiter.“
Wenn eine Nachricht eines bislang unbekannten Accounts mit dem beschriebenen oder einem ähnlichen Inhalt ankommt, sollte man die ankommende Nachricht „melden“ und dann „melden und blockieren“ klicken. In keinem Fall sollte man den Anweisungen folgen, weil Signal niemals Nutzer:innen auf einem solchen Weg kontaktieren würde.
Sollte in Chats die Nachricht auftauchen, dass sich die Sicherheitsnummer eines Kontakts geändert hat, bedeutet das häufig nur, dass dieser ein neues Handy hat. Dennoch sollte man immer in solchen Situationen auf einem anderen Kanal als dem Signal-Textchat bei dem betreffenden Kontakt nachfragen, warum sich dessen Sicherheitsnummer geändert hat.
Für die Überprüfung eignet sich in der Regel ein Telefonat oder noch besser ein Videotelefonat. Ratsam ist zudem, sich alle mit Signal verbundenen Devices anzeigen zu lassen und nicht mehr benötigte zu löschen.
Wenn du Ziel dieses Angriffs geworden bist, Zugriff auf deinen Signal-Account auf diese Weise verloren hast oder weitergehende Informationen und Hinweise zu diesem Angriff hast, wende Dich vertrauensvoll an uns für weitere Nachforschungen und Recherchen.
Update 28.1. – 12:29 Uhr:
Bei der Nennung der betroffenen Medien Euractiv hinzugefügt.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Microsoft hat auf dem Rechner einer österreichischen Schülerin ohne deren Zustimmung Tracking-Cookies installiert und so persönliche Daten abgegriffen. Die österreichische Datenschutzbehörde hat nun festgestellt, dass der Datenabfluss illlegal war. Auch andere Microsoft-Nutzende können von illegalen Microsoft-Cookies betroffen sein.

In vielen Schulen arbeiten Schüler*innen mit dem Softwarepaket Microsoft 365 Education. Doch das spielt scheinbar rechtswidrig Tracking-Cookies aus. Damit steht die Nutzung von Microsoft 365 Education – womöglich sogar aller Microsoft-365-Produkte – in der EU generell in Frage.
Die österreichische Datenschutzbehörde entschied im Fall einer Schülerin, die Microsoft 365 Education über einen Browser nutzte. Dabei installierte Microsoft ohne Wissen und Zustimmung der Schülerin fünf Tracking-Cookies auf deren Gerät. Wie ein Netzwerk-Mitschnitt belegt, wurden nachfolgend persönliche Informationen der Schülerin an Microsoft gesendet. Und das obwohl die Schülerin zuvor in den Datenschutzeinstellungen wo immer möglich die Datenübermittlung abgelehnt hatte.
Die Datenschutzbehörde hat Microsoft nun aufgefordert, das Tracking der Beschwerdeführerin innerhalb von vier Wochen einzustellen. Sollte Microsoft nicht einlenken, sind Geldstrafen möglich. Die Verbraucherschutzorganisation noyb, die die zugrundeliegende Beschwerde bei der Datenschutzbehörde eingereicht hatte, geht allerdings davon aus, dass Microsoft vor das österreichische Bundesverwaltungsgericht zieht.
Max Schrems von noyb sagt: „Unternehmen und Behörden in der EU sollten konforme Software verwenden. Microsoft hat es erneut versäumt, die gesetzlichen Vorschriften einzuhalten.“
Die Verantwortung von Microsoft
Die Cookies wurden 2023 gefunden. 2024 hat die Schülerin gemeinsam mit der NGO noyb Beschwerden darüber bei der Schule, der Schulbehörde und bei Microsoft eingereicht. Microsoft erklärte laut noyb daraufhin, dass die Schulen, die Microsoft 365 Education einsetzen, selbst für den Datenschutz zuständig seien.
In der zugrundeliegenden Beschwerde schreibt noyb, dass es problematisch sei, wie die Verantwortung für die Datenverarbeitung in den Microsoft-Verträgen geregelt sei: „Für die betroffenen Personen führt dies zu Situationen, in denen der vermeintliche ‚Auftragsverarbeiter‘ (hier: Microsoft) nicht auf die Ausübung der Rechte aus der DSGVO reagiert, während der vermeintliche ‚Verantwortliche‘ (hier: die Schule) nicht in der Lage ist, solchen Anfragen nachzukommen.“
2025 hatte die Datenschutzbehörde sich schon einmal mit dem Fall beschäftigt und festgestellt, dass Schule, Schulbehörde und Microsoft die Schülerin über die Datenerhebung hätten informieren und umfassend auf eine Anfrage der Schülerin nach den erhobenen Daten antworten müssen.
Microsoft-Cookies auch bei Erwachsenen problematisch
Der aktuelle Beschluss beschäftigt sich nun konkret mit den Tracking-Cookies, die Microsoft auf dem Gerät der Schülerin installierte. Solche Cookies schneiden das Nutzungsverhalten mit, identifizieren Nutzende eindeutig und werden oft zum Ausspielen von Werbung genutzt.
Laut noyb hat Microsoft gegenüber der österreichischen Datenschutzbehörde versucht, die EU-Tochtergesellschaft in Irland für zuständig zu erklären. Dort werden EU-Datenschutzbestimmungen kaum durchgesetzt. Doch die Datenschutzbehörde stellte fest, dass die relevanten Entscheidungen in den USA getroffen werden.
Weil das unautorisierte Tracking nicht nur bei Minderjährigen illegal ist, geht noyb davon aus, dass die Nutzung von Microsoft 365 auch bei erwachsenen EU-Usern juristische Probleme aufwirft. Tracking erscheine auch in Microsoft 365, also der gewöhnlichen Office Suite, wahrscheinlich, wenn dies selbst bei Minderjährigen in Microsoft 365 Education stattfinde. Die deutschen Datenschutzbehörden hatten bereits 2022 festgestellt, dass Microsoft 365 nicht DSGVO-konform betrieben werden kann.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Per Mausklick lassen sich Fotos bekleideter Personen in Nacktbilder verwandeln. Die Organisation AlgorithmWatch bittet nun um Hinweise auf solche Apps und Websites, um systematisch dagegen vorzugehen. Wie das klappen soll, erklärt Forschungsleiter Oliver Marsh im Interview.

Aus der Nische in die Newsfeeds: nicht-einvernehmliche, sexualisierte Deepfakes verbreiten sich zunehmend, nicht nur durch den kaum regulierten Chatbot Grok des rechtsradikalen Multi-Milliardärs Elon Musk.
Bereits im Jahr 2022 berichteten wir über teils populäre Apps, mit denen sich beliebige Gesichter auf die Körper von Pornodarsteller*innen montieren ließen. Nur wenige Jahre später waren die technischen Möglichkeiten ausgereifter, und offen zugängliche Shops boten an, Kleider in beliebigen Fotos durch nackte Haut zu ersetzen.
Wer solche Aufnahmen ohne Einvernehmen erstellt, übt digitale Gewalt aus. Jüngst hat die Debatte besonders Fahrt aufgenommen, weil massenhaft nicht-einvernehmliche, sexualisierte Deepfakes von Grok über den Twitter-Nachfolger X ein breites Publikum fanden.
Mithilfe von EU-Gesetzen will die gemeinnützige Organisation AlgorithmWatch nun etwas gegen das Phänomen unternehmen – und bittet Interessierte um Unterstützung. Was genau der NGO helfen würde, erklärt Tech-Forschungsleiter Oliver Marsh. Das Interview wurde aus dem Englischen übersetzt.
Internationale Netzwerke aus Deepfake-Anbietern
netzpolitik.org: Oliver, Warnungen vor der Gefahr durch nicht-einvernehmliche, sexualisierte Deepfakes gibt es schon länger. Welche Bedeutung hat das Phänomen heute?
Oliver Marsh: Eine große. Es ist bedauerlich, dass es erst ein Ereignis wie die aktuellen Vorfälle rund um Grok geben musste, bevor auch Aufsichtsbehörden und Regierungen das Problem als „dringend“ einstufen. Hoffentlich führt diese Dringlichkeit auch zu ernsthaftem Handeln, nicht nur auf Social-Media-Plattformen. Wir sollten uns fragen, was geschehen muss, um die Vielzahl der beteiligten Unternehmen in die Pflicht zu nehmen, darunter auch Anbieter großer Sprachmodelle. Sie müssen das Problem gemeinsam mit Regulierungsbehörden und Fachleuten angehen.
netzpolitik.org: Welche Unternehmen spielen eine Schlüsselrolle bei den Deepfakes?
Oliver Marsh: Dahinter steckt ein internationales Netzwerk aus Anbietern für Deepfake-Tools. Das Ökosystem betrifft auch große Plattformen. Auch ohne Grok hatte X bereits große Probleme mit nicht-einvernehmlicher Sexualisierung, etwa durch Netzwerke von Accounts, die dort Deepfake-Werkzeuge bewerben. Weitere Recherchen haben solche Probleme auch bei den Meta-Plattformen Facebook und Instagram gefunden, auf den App-Marktplätzen von Google und Apple und in der Google-Suche.
Auch Plattformen wie Reddit, Telegram und Discord werden genutzt, um Werkzeuge für Deepfakes zu verbreiten. Dort kursieren auch Tipps, wie Nutzende die Schutzmechanismen von weit verbreiteten Chatbots umgehen können, um solche Inhalte zu generieren. Und natürlich treiben Konzerne wie OpenAI, Google, Meta und Microsoft mit ihren KI-Anwendungen die Technologie voran, mit der sich nicht-einvernehmliche Inhalte einfacher erstellen lassen.
netzpolitik.org: Wie würde es konkret aussehen, wenn große Tech-Unternehmen erfolgreich gegen solche Deepfakes vorgehen?
Oliver Marsh: Die Plattformen würden sich zum Beispiel gegenseitig über entdeckte Accounts informieren, die solche Werkzeuge bewerben. Außerdem würden sie Aufsichtsbehörden und Fachleuten Informationen zur Verfügung stellen, damit sie das Problem weiter erforschen und etwas dagegen tun können. Genau so etwas ist bereits vor rund zehn Jahren geschehen, als Plattformen gemeinsam gegen Desinformation durch Accounts vorgegangen sind, die sich mit hoher Wahrscheinlichkeit der russischen Propaganda-Agentur „Internet Research Agency“ zuordnen ließen. In jüngerer Zeit ergreifen Plattformen jedoch weniger Initiative für solche Vorhaben.
Bisher nur wenige Hinweise eingegangen
netzpolitik.org: Per Online-Formular bittet ihr gerade die Öffentlichkeit um Hinweise auf Apps und Websites, mit denen sich nicht-einvernehmliche Deepfakes erstellen lassen. Warum?
Oliver Marsh: Über das Formular möchten wir jegliche Informationen sammeln, die uns dabei helfen, Posts, Accounts und Apps zu finden, die Menschen zu Werkzeugen für nicht-einvernehmliche Sexualisierung führen. Unser Fokus liegt auf den Meta-Plattformen Facebook und Instagram, auf X, dem Google Play Store und dem Apple App Store. Nützliche Hinweise sind zum Beispiel Stichwörter und Accounts, die wir auf den Plattformen suchen können.
netzpolitik.org: Wie gut klappt das mit den Hinweisen?
Oliver Marsh: Das Formular ist bereits seit Mitte vergangenen Jahres online. Bisher haben wir nur eine Handvoll Einreichungen erhalten; einige davon enthielten Hinweise auf mehrere Apps und Websites. Wir machen uns aber auch selbst auf die Suche und haben – was am meisten hilft – Partner in Journalismus und Forschung, mit deren Unterstützung wir unsere Datenbank erweitern können.
netzpolitik.org: Was genau macht ihr am Ende mit den entdeckten Posts, Accounts und Apps?
Oliver Marsh: Es ist äußerst schwierig, dafür zu sorgen, dass solche Inhalte ganz aus dem Netz verschwinden. Wir wollen die Verbreitung nicht-einvernehmlicher, sexualisierter Deepfakes jedoch einschränken. Unser Projekt soll vor allem prüfen, ob wir sehr große-Online Plattformen (VLOPs) mithilfe des Gesetzes über digitale Dienste (DSA) dazu bringen können, das Problem effektiv anzugehen.
netzpolitik.org: Der DSA verpflichtet Plattformen nicht nur dazu, einzelne gemeldete Inhalte zu prüfen. Sehr große Plattformen müssen auch generell einschätzen, welche systemischen Risiken von ihnen ausgehen und dagegen Maßnahmen ergreifen.
Oliver Marsh: Ja, unsere Hoffnung ist, dass sehr große Online-Plattformen selbst aktiv werden, und Posts über solche Werkzeuge sowie nicht-einvernehmlich erzeugte Bilder eindämmen. Immerhin sind sie es, die ein riesiges Publikum haben und neue Nutzende damit in Kontakt bringen könnten.
Hoffnung auf Durchsetzungswillen der EU
netzpolitik.org: Seit der Machtübernahme der rechtsradikalen Trump-Regierung stößt Tech-Reglierung aus der EU bei US-Anbietern auf vehemente Gegenwehr. Andererseits hat Donald Trump selbst mit dem Take It Down Act ein Gesetz gegen Deepfakes unterzeichnet. Müsste die US-Regierung es also nicht begrüßen, wenn man auch auf Basis des europäischen DSA gegen sexualisierte Deepfakes vorgeht?
Oliver Marsh: Ich bezweifle, dass die Trump-Regierung diesen Zusammenhang erkennen wird. Egal, was die EU tut, die US-Regierung wird deren Regulierung attackieren, verzerrt darstellen und allein US-Gesetze als brillant bezeichnen. Aber ich hoffe, dass die EU dennoch gezielte und entschiedene Maßnahmen gegen nicht-einvernehmliche sexualisierte Inhalte ergreift und gegen alle Widerstände klar kommuniziert, dass es ihr nicht um Zensur oder Machtpolitik geht.
netzpolitik.org: Wenn Leser*innen euch Hinweise auf bedenkliche Deepfake-Angebote schicken möchten, was sollten sie beachten? Immerhin handelt es sich um potentiell illegale Inhalte.
Oliver Marsh: Menschen sollten illegale Inhalte nicht weiterverbreiten, selbst wenn sie dabei helfen möchten, Belege zu sammeln. Tipps zum Umgang gibt es bei der Internet-Beschwerdestelle, zum Beispiel: keine Inhalte speichern, nicht selbst weiter recherchieren.
Was wir suchen, sind Eckdaten, die uns dabei helfen, unsere textbasierte Suche zu erweitern. Das sind zum Beispiel die Namen von Firmen und Apps oder auch Begriffe, mit denen Menschen verschleiern, wofür ihre Anwendung da ist, zum Beispiel „undress“. Auch der Kontext eines Fundes ist hilfreich, etwa, dass er auf einer bestimmten Plattform beworben wurde.
netzpolitik.org: Vielen Dank für das Interview!
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Der neue Anlauf zur Reform des Bundespolizeigesetzes traf im Innenausschuss des Bundestags auf Kritik. Die Bundespolizei soll künftig Staatstrojaner nutzen dürfen, ohne dass für diese Hacking-Werkzeuge ein IT-Schwachstellenmanagement existiert.

Im Innenausschuss des Bundestags wurde gestern in einer Sachverständigen-Anhörung die Reform des Bundespolizeigesetzes (BPolG) diskutiert. Die Bundesregierung hatte dazu im Dezember einen umfangreichen Gesetzentwurf vorgelegt, der die Befugnisse der Bundespolizei ausbauen soll.
Künftig soll nun auch die Bundespolizei hacken dürfen. Dafür könnten Polizeibeamte Computer oder Smartphones mit Schadsoftware infiltrieren, um laufende Kommunikation und einige weitere Daten auszuleiten.
Neu sind im Gesetzentwurf auch die verdachtsunabhängigen Kontrollen in sogenannten „Waffenverbotszonen“, die von der Ampel-Vorgängerregierung für die Bundespolizei bereits beschlossen worden waren, aber im Bundesrat scheiterten. Diese Kontrollen stehen in der Kritik, weil die Diskriminierung von bestimmten Personengruppen befürchtet wird. Die früher geplanten Kontrollquittungen, die von Polizeibeamten nach solchen Kontrollen ausgehändigt werden sollten, fehlen im Gesetzentwurf.
Weggefallen im Vergleich zum Entwurf der Ampel ist auch die Kennzeichnungspflicht für Polizisten. Uli Grötsch, SPD-Politiker und der Polizeibeauftragte des Bundes beim Deutschen Bundestag, nannte den Streit darum eine „rein ideologische Debatte“. Es gäbe keine schlechten Erfahrungen damit auf Polizeiseite. Er bedauerte die fehlende Kennzeichnungspflicht, die polizeiliches Handeln nachvollziehbarer und transparenter gemacht hätte.
Kritische Anmerkungen von einigen geladenen Sachverständigen betrafen auch die neuen Regelungen zu V-Personen. Das sind polizeiliche Informationszuträger, die aber keine Polizeibeamten sind. Zwar sei der Kernbereichsschutz der Überwachten – also der Schutz ihrer Intimsphäre – im Gesetzentwurf enthalten, damit die V-Personen nicht etwa enge Beziehungen zu Ausgehorchten aufnehmen. Was aber darin fehle, seien zeitliche Vorgaben und ein Katalog, der vorgibt, welche Personen ungeeignet sind. Der war im Vorgängerentwurf der Ampel-Regierung noch enthalten. Er sollte dafür sorgen, dass keine Menschen als V-Personen in Frage kommen, die beispielsweise geschäftsunfähig oder minderjährig sind oder ihr Einkommen wesentlich über Polizeizahlungen beziehen.
Staatstrojaner gegen WhatsApp
Das Bundespolizeigesetz ist ein umfängliches Regelwerk mit zahlreichen Neuerungen. Der Deutsche Anwaltverein (DAV) hatte schon in seiner ersten Stellungnahme zum Referentenentwurf die „äußerst kurze Stellungnahmefrist“ bemängelt, die der umfassenden Reform nicht gerecht werden könne. Der DAV konzentrierte sich daher auf besonders Kritikwürdiges. Dazu gehört die neue Regelung zu einer Version des Staatstrojaners, die im Amtsdeutsch „Quellen-Telekommunikationsüberwachung“ heißt. Diese Form des Staatstrojaners wird durch den Gesetzentwurf erstmals für die Bundespolizei zur Abwehr von Gefahren eingeführt.
Die „Quellen-TKÜ“ lehnt zwar ihren Namen an die Überwachung laufender Telekommunikation an, ist aber praktisch ein Hacking-Werkzeug. Die dafür notwendige Schadsoftware wird unter Ausnutzung von Sicherheitslücken heimlich auf einem Endgerät aufgebracht und zeichnet die gewünschten Inhalte unbemerkt vom Nutzer auf.
Im Gesetzentwurf heißt es, dass die Überwachung und Aufzeichnung von Telekommunikation „ohne Wissen der betroffenen Person auch in der Weise erfolgen [darf], dass mit technischen Mitteln in von der betroffenen Person genutzte informationstechnische Systeme eingegriffen wird“, um an verschlüsselte Gespräche oder Messenger-Nachrichten zu kommen. Die Gesetzesbegründung erwähnt beispielsweise konkret den Messenger WhatsApp, der sich allerdings auch ohne Staatstrojaner als abhörbar erwies.
„Nicht zu Ende gedacht“
Neben der laufenden Telekommunikation sollen mit dem Staatstrojaner auch weitere Kommunikationsinhalte überwacht werden dürfen, „deren Übertragung zum Zeitpunkt der Überwachung bereits abgeschlossen ist“. Praktisch wären das beim Beispiel WhatsApp etwa gespeicherte Chat-Verläufe, die ebenfalls heimlich von der Schadsoftware aufgezeichnet werden dürften. Der Zeitpunkt der Anordnung des Staatstrojaners soll maßgeblich dafür sein, wie weit in die Vergangenheit die Schadsoftware gespeicherte Kommunikationsinhalte überwachen darf.
Die Sachverständige Lea Voigt, Juristin und Vorsitzende des Ausschusses Recht der Inneren Sicherheit im DAV, sieht die Hacking-Befugnisse in ihrer Stellungnahme kritisch. Sie seien auch „nicht zu Ende gedacht“, sagte sie im Ausschuss. Denn laut der Begründung des Gesetzes sind sie für sofortige Interventionen vorgesehen, um Gefahren schnell abzuwehren. Staatstrojaner seien jedoch gar nicht sofort einsetzbar, sondern bräuchten eine gewisse Vorlaufzeit, um die Schadsoftware an Hard- und Software anzupassen, die sie heimlich ausspionieren soll. Die Begründung überzeuge also nicht.
Heiko Teggatz, stellvertretender Bundesvorsitzender der Deutschen Polizeigewerkschaft, wurde in der Anhörung nach einem Beispiel für den Staatstrojanereinsatz gefragt. Er betonte, dass nur die Gefahrenabwehr im Vordergrund stünde, etwa bei Schleusungen. Es „komme nicht selten vor“, dass Polizisten beispielsweise „Handynummern bei geschleusten Personen“ fänden. Keiner wisse, ob es sich dabei um Nummern von Kontaktpersonen, Schleusern oder Angehörigen handele. Dann könne es um die abzuwendende Gefahr gehen, dass an unbekanntem Ort „irgendwo in Europa“ ein LKW führe, in dem Menschen zu ersticken drohten. Ein Staatstrojaner müsse dann „schnell zur Gefahrenabwehr“ genutzt werden.
Es herrscht offenkundig nicht nur bei Teggatz die Vorstellung, dass eine Spionagesoftware ein geeignetes Werkzeug sei, um in kürzester Zeit eine laufende Kommunikation abhören zu können. Denn auch in der Gesetzesbegründung ist der Staatstrojaner als „gefahrenabwehrende Sofortintervention“ charakterisiert.
Die Sachverständige Voigt weist in ihrer Stellungnahme diese Vorstellung ins Reich der Phantasie und zitiert den Generalbundesanwalt. Der hatte aus praktischen Erfahrungen berichtet, dass die Umsetzung der „Quellen-Telekommunikationsüberwachung“ einige Zeit brauche: „In der Regel“ würden „zwischen Anordnung und Umsetzung jedenfalls einige Tage vergehen“.
Staatstrojaner sind Sicherheitsrisiken
Eine „Quellen-TKÜ“ birgt unvermeidlich verschiedene Risiken. Denn ein Staatstrojaner lässt sich nur heimlich einschleusen, wenn IT-Sicherheitslücken bei den gehackten Geräten offenstehen. Und dass sie offengelassen und eben nicht geschlossen werden, ist eine aktive Entscheidung und ein Sicherheitsrisiko für alle Computernutzer.
Zudem hat sich in den letzten Jahren ein wachsender Markt an kommerziellen Staatstrojaner-Anbietern etabliert, der eine zunehmende Bedrohung für die IT-Sicherheit, aber auch für die Achtung der Grund- und Menschenrechte ist. Wird eine Polizeibehörde Kunde eines solchen Anbieters, finanziert sie diesen gefährlichen Markt.
Der Sachverständige Kai Dittmann von der Gesellschaft für Freiheitsrechte (GFF) kritisierte, dass die „Quellen-TKÜ“ der Bundespolizei erlaubt werden soll, obgleich noch immer Vorschriften zum Schwachstellenmanagement fehlen. Denn in Deutschland gibt es bisher keine Regelungen, die IT-Sicherheitslücken hinsichtlich ihrer Risiken bewerten und vorschreiben, wie diese Schwachstellen jeweils zu behandeln sind. Dittmann verwies auf Millionenschäden für die Wirtschaft in Deutschland, die durch offene IT-Sicherheitslücken und Schadsoftware entstünden. Er forderte, ein staatliches Schwachstellenmanagement gesetzlich vorzuschreiben. Die „Quellen-TKÜ“ dürfe erst danach eingeführt werden.
Der Sachverständige erntete damit bei der grünen Innenexpertin und Polizeibeamtin Irene Mihalic Zustimmung. Sie nannt eine Staatstrojanerbefugnis für die Bundespolizei ohne ein vorgeschriebenes Schwachstellenmanagement „unverantwortlich“.
Staatshacker
Wir berichten seit mehr als achtzehn Jahren über Staatstrojaner. Unterstütze uns!
Auch Amnesty International hatte die Staatstrojaner-Befugnis kritisiert und die Besorgnis geäußert, dass die „Quellen-TKÜ“ auch gegen Personen zum Einsatz kommen könnte, die friedliche Proteste planen: Denn der Staatstrojaner „soll bezüglich Straftaten erlaubt werden, die etwa die Störung von öffentlichen Betrieben oder bestimmte Eingriffe in den Straßenverkehr erfassen, und zum Schutz von Einrichtungen des Bahn- und Luftverkehrs – Orten, an denen oft Proteste etwa für mehr Klimaschutz oder gegen Abschiebungen stattfinden“, wie Amnesty International schrieb. In einem Klima zunehmender Repression von friedlichem Protest forderte die Menschenrechtsorganisation „entsprechende Klarstellungen, die einen solchen Missbrauch ausschließen“.
Der Sachverständige Marc Wagner von der Hochschule des Bundes für öffentliche Verwaltung verwies hingegen darauf, dass die „Quellen-TKÜ“ beim Bundeskriminalamt und in einigen Landespolizeigesetzen doch „längst Standard“ wäre. Das sei „nicht anderes als ein Update“. Doch selbst Wagner sieht wie die Sachverständigen Voigt und Dittmann die Eingriffsschwellen für den Staatstrojanereinsatz als zu niedrig.
Dittmann von der GFF bescheinigte dem Gesetzentwurf bei der Staatstrojanerbefugnis zudem „handwerkliche Fehler“. Insgesamt seien die Regelungen bei dieser sehr eingriffsintensiven Maßnahme nicht überzeugend.
Auch gute Nachrichten
Es gibt aus bürgerrechtlicher Sicht auch gute Nachrichten: Sowohl der Ausbau der Gesichtserkennung als auch Regelungen, die eine automatisierte Big-Data-Analyse nach Art von Palantir ermöglichen, sind nicht unter den neuen Befugnissen. Auch findet sich keine „KI“ im ganzen Gesetzentwurf.
Vielleicht ist das auch aus Kostengründen eine gute Nachricht, denn technisierte Überwachung ist ein teures Unterfangen. Der Polizeibeauftragte Grötsch wies in der Anhörung darauf hin, dass Bundespolizisten auch mit lange verschleppten Baumaßnahmen und schlechten Bedingungen an ihren Arbeitsplätzen zu kämpfen hätten, die er „teilweise desolat“ nannte. Die hohen Geldsummen für ohnehin fragwürdige Staatstrojaner-Anbieter könnten vielleicht woanders in der Bundespolizei sinnvoller investiert werden.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Meist im Verborgenen bereiten Unternehmen Daten aus der Online-Werbung für Geheimdienste auf. Manche prahlen damit, praktisch jedes Handy verfolgen zu können. Eine Recherche von Le Monde gewährt seltene Einblicke in eine Branche, die auch europäische Sicherheitsbehörden umwirbt.

Überwachungsfirmen, die auf Daten aus der Online-Werbeindustrie zurückgreifen, umwerben offenbar offensiv europäische Sicherheitsbehörden. Das geht aus einer am 22. Januar veröffentlichten Recherche von Le Monde (€) hervor. Die französische Zeitung konnte mehreren vertraulichen Werbe-Präsentationen unterschiedlicher Hersteller beiwohnen und Gespräche mit französischem Sicherheitspersonal führen.
Die Recherche zeigt, wie aktiv mehrere sogenannte ADINT-Firmen auch in Europa für ihre Dienste werben. Die Abkürzung steht für advertising-based Intelligence, werbebasierte Erkenntnisse. Es geht um einen anscheinend wachsenden Zweig der globalen Überwachungsindustrie, der sich darauf spezialisiert hat, Daten aus dem Ökosystem der Online-Werbung für staatliche Akteure aufzubereiten. Insbesondere für Handy-Standortdaten ist die Online-Werbebranche wohl eine Goldgrube, wie nicht zuletzt unsere Databroker-Files-Recherchen gezeigt haben.
Le Monde gibt nun neue Einblicke in die Selbstvermarktung einer sonst verschlossenen Branche. „Jedes Gerät, jederzeit, überall“, so lautet beispielsweise der Slogan einer ADINT-Firma. „Wir sammeln permanent Daten“, rühmt sich der Vertreter einer anderen. Mindestens eine Person aus französischen Sicherheitsbehörden hat das dem Bericht zufolge beeindruckt.
Von wegen anonym: Daten sammeln, Menschen finden
Für ADINT machen sich Firmen und Behörden zunutze, dass die Online-Werbeindustrie in den vergangenen Jahrzehnten den wohl größten Überwachungsapparat der Menschheitsgeschichte aufgebaut hat. Im Mittelpunkt stehen populäre Handy-Apps. Von dort fließen Standortdaten und andere Informationen in einem unübersichtlichen Ökosystem aus hunderten bis tausenden Firmen, für die Betroffenen weitgehend unkontrolliert. Tracking-Unternehmen, Datenhändler und ADINT-Dienstleister sammeln diese Daten auf unterschiedlichen Wegen ein und gründen darauf ihr Geschäft.
Insgesamt habe LeMonde um die 15 Firmen gezählt, die ADINT-Dienstleistungen anbieten. Darunter mehrere Anbieter mit Sitz in Israel oder den USA wie Penlink, Rayzone, Cognyte und Wave Guard. Doch auch das italienische RCS Lab biete mit seinem Produkt Ubiqo laut Bericht ADINT-Services an. Die genannten Anbieter ließen eine Presseanfrage von netzpolitik.org unbeantwortet.
Eine Vertriebsperson von RCS Lab soll dem Bericht zufolge in einer vertraulichen Präsentation damit geprahlt haben, man könne mit hoher Trefferquote Personen hinter pseudonymen Werbe-IDs identifizieren. Das sind einzigartige Kennungen, die mobile Betriebssysteme von Apple und Google ihren Nutzer*innen verpassen. Apps schicken diese Kennungen ins Werbe-Ökosystem, oftmals gemeinsam mit Standortdaten. Gelegentlich werden solche IDs als „anonym“ bezeichnet.
Laut Le Monde wolle RCS Lab mithilfe von Werbedaten angeblich 95 Prozent der italienischen Handys de-anonymisieren können. Die Zeitung bezieht sich dabei auf Aussagen eines Verkäufers. Auf offizielle Anfrage habe das Unternehmen das gegenüber Le Monde jedoch „vehement“ bestritten.
Durchwachsene Datenqualität
Wie leicht es möglich ist, konkrete Personen mithilfe von Standortdaten aus der Werbe-Industrie zu identifizieren, zeigen die Databroker-Files-Recherchen von netzpolitik.org, dem Bayerischem Rundfunk und Partnermedien. Mit verhältnismäßig einfachen Mitteln und kostenlosen Vorschaudatensätzen ist das mehrfach gelungen. Welcher Aufwand notwendig wäre, um dies im großen Stil zu machen, lässt sich nur schätzen.
Laut Le Monde haben jedoch auch andere Firmen mit ihren Fähigkeiten geworben, Personen gezielt zu identifizieren. Auf der Fachmesse für innere Sicherheit Milipol habe etwa das Unternehmen Wave Guard im Jahr 2025 seine „ADINT-Deanonymisierungsplattform“ vorgestellt. Auch Rayzone und Cognyte hätten demnach ähnliche Fähigkeiten versprochen. Penlink wiederum solle Ermittlern gesagt haben, es nutze gehackte und geleakte Daten aus dem Internet, um Standortdaten und Werbe-IDs echten Personen zuzuordnen.
Im Widerspruch zu vollmundigen Marketing-Versprechen der Branche steht die mangelhafte Qualität der Daten aus der Online-Werbeindustrie. Einer Studie des NATO-Forschungszentrums Stratcom aus 2021 zufolge könnten wohl nur 50 bis 60 Prozent der kursierenden Werbe-Daten als präzise angesehen werden. Die Vertriebsperson eines israelischen Unternehmens habe gegenüber Le Monde geschätzt, dass sogar 80 bis 85 Prozent der Daten, die sie sammeln, unbrauchbar seien.
Realistischerweise könne man weltweit etwa zehn oder 15 Prozent der Handys mit ADINT überwachen, soll eine andere anonyme Quelle geschätzt haben, wie Le Monde berichtet. Für Strafverfolgung eigne sich das weniger, für Geheimdienste jedoch mehr.
Zur Zielgruppe zählt offenbar auch der private Sektor

Beworben werden solche Überwachungsprodukte offenbar auch als Werkzeuge, um Migrant:innen ins Visier zu nehmen. So berichtet Le Monde aus einer vertrauliche Präsentation des Unternehmens Rayzone, das sein ADINT-Produkt als Waffe im „Kampf gegen illegale Migration“ angepriesen haben soll. Durch das gezielte Sammeln von Werbe-IDs an bekannten Grenzübergängen für Geflüchtete sollen Behörden demnach in die Lage versetzt werden, Telefone zu identifizieren, die dort regelmäßig auftauchen. So könnten etwa Schleuser gefunden werden. Gegenüber Le Monde habe Rayzone mitgeteilt, Kund:innen streng zu prüfen. Das Produkt könne nur für bestimmte Zwecke eingesetzt werden, etwa um Kriminalität oder Terror zu verhindern.
Bekannt ist, dass in den USA die paramilitärische ICE-Truppe bereits ADINT-Dienstleister nutzt, um Menschen für die Deportation aufzuspüren. Neu ist hingegen, dass ADINT-Firmen ihre Produkte offenbar nicht nur an staatliche Abnehmer verkaufen. Dem Bericht von Le Monde zufolge soll beispielsweise Wave Guard seine Dienste auch als Werkzeug für Finanzinstitute vermarkten – für „verbesserte Sicherheit und Betrugsprävention“.
Ob auch deutsche Behörden ADINT-Produkte beziehen, ist nicht öffentlich bekannt. Expert:innen halten das für wahrscheinlich, da diese Praxis in anderen europäischen Ländern wie Norwegen und den Niederlanden bereits belegt ist. Erst im Dezember verweigerte die Bundesregierung jedoch der Bundestagsabgeordneten Donata Vogtschmidt (Die Linke) eine Antwort auf diese Frage.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Nach einer Flut sexualisierter Grok-Deepfakes auf X prüft nun die EU-Kommission, ob Elon Musks Unternehmen gegen den Digital Services Act verstoßen haben. Erste Studien liefern derweil Details über das Ausmaß der produzierten sexualisierten Bilder.

Am Montagmittag hat die EU-Kommission ein weiteres Verfahren gegen den Kurznachrichtendienst X eingeleitet. Dabei will sie prüfen, ob das eng mit dem KI-Chatbot Grok verzahnte soziale Netzwerk gegen den Digital Services Act (DSA) verstoßen hat. Der Kommission zufolge ist unklar, ob der Online-Dienst vor dem Ausrollen des Produkts damit verbundene Risiken untersucht hat.
Elon Musks Plattform X ist mit dem integrierten KI-Chatbot zuletzt stark in die Kritik geraten, nachdem dieser auf Nachfrage von Nutzer*innen ungefiltert sexualisierte Bilder von Frauen und Kindern auf X veröffentlicht hat.
Nachdem X lange untätig blieb, hatte das Unternehmen am 9. Januar angekündigt, die Funktion zahlenden Nutzer*innen vorzubehalten. Am 14. Januar kündigte X dann weitere technische Maßnahmen an und schränkte die pornografische Bildgenerierungsfunktion nach eigenen Angaben für alle Nutzer*innen ein. Für andere Zwecke soll das Bildfeature jetzt nur noch zahlenden X-Nutzer*innen offenstehen.
Erst am vergangenen Dienstag hatte das EU-Parlament über KI-Deepfakes in sozialen Medien debattiert. Kurz danach haben mehr als fünfzig Abgeordnete in einem Brief die EU-Kommission zu konsequenterem Vorgehen im Falle Grok aufgefordert.
X muss Nachweise liefern
Nun muss die Plattform vor der EU-Kommission Rechenschaft ablegen, ob es der gesetzlich vorgeschriebenen Risikobewertung und -minderung nachgekommen ist. Solche Berichte sollen potenzielle „systemische Risiken“ aufdecken, die von Online-Diensten ausgehen können. Sollte X vor der Integration von Grok keine Folgenabschätzung vorgenommen haben, könnten auf X hohe Geldbußen zukommen.
Dass der Schaden bereits eingetreten ist, führte EU-Digitalkommissarin Henna Virkkunen aus: „Sexualisierte Deepfakes von Frauen und Kindern sind eine gewalttätige, inakzeptable Form der Entwürdigung. Mit dieser Untersuchung werden wir feststellen, ob X seinen gesetzlichen Verpflichtungen gemäß dem DSA nachgekommen ist oder ob es die Rechte europäischer Bürger – einschließlich der Rechte von Frauen und Kindern – als Kollateralschaden seines Dienstes behandelt hat.“
Die Einleitung solch eines Verfahrens ist noch kein Nachweis für einen Verstoß gegen den DSA. Allerdings befähigt es die Kommission zu weiteren Maßnahmen. Sie kann beispielsweise Unterlagen betroffener Unternehmen anfordern, Durchsuchungen vornehmen oder Mitarbeiter*innen befragen.
Neben dem neuen Verfahren hat die EU-Kommission angekündigt, eine seit Dezember 2023 laufende Untersuchung zu verlängern, die sich unter anderem auf die Moderationsfunktion, Maßnahmen gegen illegale Inhalte und Risiken des Empfehlungssystems bezieht. Das Verfahren umfasst zusätzlich die mangelnde Werbetransparenz von X. Dafür verhängte die EU-Kommission Anfang Dezember eine 120-Millionen-Euro-Geldbuße, da die Plattform Vorschriften nicht eingehalten hatte.
Sexualisierte Deepfakes im Millionenfachen
Inzwischen haben mehrere Organisationen die Tragweite der Vorfälle untersucht. Die britische NGO Center for Countering Digital Hate (CCDH) schätzt etwa, dass im Zeitraum vom 29. Dezember bis 8. Januar über 4 Millionen Bilder generiert wurden. Davon sollen rund 3 Millionen sexualisierter Art gewesen sein, auf rund 23.000 Bildern sollen Kinder dargestellt worden sein.
Die NGO AI Forensics kommt zu ähnlichen Ergebnissen. Bis zum 1. Januar waren mehr als die Hälfte der generierten Bilder sexualisierte Deepfakes. Nachdem X am 14. Januar technische Einschränkungen vorgenommen hatte, sei der Anteil sexualisierter Bilder auf unter 10 Prozent gefallen.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Kinder und Jugendliche haben ein Recht auf Information und Teilhabe – auch auf sozialen Medien. Wenn Erwachsene sie per Social-Media-Verbot von solchen Orten der Meinungsbildung ausschließen, werden sie ihrer Verpflichtung nicht gerecht.

Wer Kinder und Jugendliche von sozialen Medien ausschließen möchte, um sie zu schützen, der könnte ihnen ebenso die Teilnahme an Demonstrationen verbieten. Schließlich könnte man sich dabei verletzen, manchmal werden Steine geschmissen und viele Demo-Parolen sind sehr polemisch. Auch die Mitgliedschaft in einer Partei könnte eine Altersgrenze bekommen; der Politikbetrieb ist alles andere als harmlos. Und bei all den Horrornachrichten wäre es besser, wenn junge Menschen nicht länger die Tagesschau sehen dürften.
Solche Forderung stellt derzeit zwar keiner. Sie machen aber deutlich, was hinter dem vielfach geforderten Social-Media-Verbot steckt: Im Namen des Schutzes für Minderjährige wird mehr eingeschränkt, als nötig wäre. Das Recht junger Menschen auf politische Teilhabe und die Pflicht des Staats, sie dazu zu befähigen, fallen unter den Tisch.
Seit die australische Regierung Ende des vergangenen Jahres ein Social-Media-Verbot für Menschen unter 16 Jahren eingeführt hat, findet die Regelung auch in Deutschland immer mehr Zuspruch. Hierzulande drehen sich große Teile der Debatte darum, ob ein Verbot für bestimmte Altersgruppen juristisch umsetzbar wäre, welche technischen Mittel wie datensicher wären und wie hoch die Altersgrenze sein sollte. Doch egal, welche Methode zur Durchsetzung eines Social Media-Verbots für Kinder und Jugendliche herangezogen würde: Der Ausschluss einer ganzen Bevölkerungsgruppe von relevanten Orten der politischen Teilhabe ist nicht mit ihren Teilhaberechten vereinbar.
Es darf nicht nur Hürden geben
Besonders düster sind die Bilder, die Befürworter eines Social-Media-Verbots für Jugendliche malen. Soziale Medien würden junge Menschen demnach regelrecht vergiften. Es drängt sich der Eindruck auf, Reels zu schauen sei ungefähr genauso schädlich, wie Crack zu nehmen, und gehöre selbstredend verboten.
Oft ins Feld geführt wird außerdem, Jugendliche seien besonders empfänglich für politischen Populismus in sozialen Medien, der eine der Hauptursachen für die Zunahme radikal rechter Tendenzen bei jungen Menschen wäre. Um das zu verhindern, solle man deswegen für antidemokratische Inhalte empfängliche Menschen von bestimmten Plattformen ausschließen.
Oft vernachlässigt wird in der Debatte jedoch, dass Kinder und Jugendliche nicht nur das Recht haben, vor jugendgefährdenden Inhalten geschützt zu werden. Kinder und Jugendliche haben all die Grundrechte, die auch Erwachsene haben. Nicht ihre Freiheit muss begründet werden, sondern die Begrenzung ihrer Freiheitsrechte.
Für Kinder und Jugendliche bedeutet das: Es darf nicht nur Hürden geben, sondern es muss auch Freiheiten geben – etwa die, sich zunehmend selbstständig aus einer Vielzahl öffentlicher Quellen zu informieren, Medien selbst zu wählen und Informationen mit anderen zu teilen. Eine Beschränkung dieser Freiheit wäre ein starker Eingriff in die Grundrechte einer Bevölkerungsgruppe, die über zwölf Millionen Menschen umfasst.
Instagram ist kein Psychothriller
Auch für Filme, Spiele und Bücher gibt es Altersgrenzen – aber soziale Medien sind kein einzelnes Medium wie ein Film, sondern große, vielfältige Räume des öffentlichen Lebens. Sie sind der Ort, an dem Kinder und Jugendliche in großer Zahl etwa Nachrichten konsumieren, politische Geschehnisse verfolgen und sich eine Meinung bilden.
Junge Menschen informieren sich zunehmend weniger über klassische Nachrichtenmedien wie den Rundfunk oder Tageszeitungen. Dass 12- bis 15-Jährige nach einem Social-Media-Verbot verstärkt damit anfangen würden, die FAZ zu lesen oder das Heute Journal zu schauen, ist lebensfremd. Was ein solches Verbot also bewirken würde, ist, Jugendliche von Information auszuschließen und ihre Informiertheit zu verringern.
Das Recht, sich ungehindert zu informieren und eine eigene Meinung zu bilden, unterscheidet sich in seiner Relevanz für die Gestaltung des eigenen Lebensentwurfs junger Menschen fundamental von der grundsätzlichen Freiheit, einen Psychothriller zu schauen oder einen Ego-Shooter zu spielen.
Wer Kinder und Jugendliche vor den schädlichen Aspekten sozialer Medien schützen möchte, müsste also spezifischer vorgehen, je nach konkretem Risiko. Um Jugendliche vor Horrorfilmen zu schützen, gibt es schließlich auch kein pauschales Kinoverbot, sondern eine Altersgrenze pro Film. Entsprechend bräuchte es zum Beispiel eher Einschränkungen für die potenziell radikalisierende Sogwirkung algorithmisch sortierter Feeds auf sozialen Medien – aber kein pauschales Social-Media-Verbot.
Auf sozialen Medien geht es um Austausch
Was soziale Medien ebenso fundamental von Büchern oder Filmen unterscheidet, ist, dass sie nicht nur konsumiert werden, sondern auch Plattform für Austausch sind. Menschen teilen eigene Informationen über soziale Medien, etwa explizit politische Meinungen oder bloße Dokumentationen ihres Alltags, und geben sie an andere weiter, die diese Inhalte wiederum selbst konsumieren und weitergeben können. Dazu gehört auch etwa das Liken und Kommentieren von Beiträgen.
Das bedeutet, dass soziale Medien nicht nur Räume sind, an denen Informationen und Meinungen passiv wahrgenommen werden – etwa, wenn man sich die Tagesschau ansieht –, sondern auch aktiv geteilt und verbreitet werden – wie wenn man ein Flugblatt verteilt oder eine Demo-Rede hält.
Politische Teilhaben stärken statt schwächen
Erwachsene sollten Möglichkeiten zur politischen Teilhabe von Kindern und Jugendlichen stärken, statt sie durch ein Social-Media-Verbot zu schwächen. Minderjährige von sozialen Medien auszuschließen würde Misstrauen in eine gesamte Generation ausdrücken und könnte den Eindruck erwecken, man würde sich vor der Politisierung junger Menschen fürchten.
Vielmehr müssen junge Menschen stärker in die öffentliche Meinungsbildung mit einbezogen werden. Soziale Medien sind dazu besonders gut geeignet, weil Jugendliche sich dort austauschen, vernetzen und organisieren können. Bewegungen wie etwa Fridays for Future, #MeToo, Black Lives Matter, „Frau, Leben, Freiheit“ oder die Proteste um Lützerath hätten wohl nicht dieselbe Resonanz gefunden, wenn insbesondere junge Menschen nicht über etwa Instagram oder Twitter davon erfahren und daran teilgenommen hätten. Wäre der Demokratisierung junger Menschen geholfen, sie von diesen Teilhabemöglichkeiten auszuschließen?
Würde jetzt ein Social-Media-Verbot für Kinder und Jugendliche eingeführt werden, würden bestehende demokratiekritische Tendenzen bei jungen Menschen nicht einfach verschwinden. Wahrscheinlicher ist, dass viele junge Menschen das Verbot als Beeinträchtigung ihrer Informations- und Meinungsfreiheit erkennen und darüber – auch politisch – frustriert wären.
BzKJ sieht Verstoß gegen UN-Kinderrechtskonvention
Ablehnung für das Social-Media-Verbot gibt es nicht nur von Kindern und Jugendlichen, die sich ihre digitalen Räume nicht wegnehmen lassen möchten. Die Bundeszentrale für Kinder- und Jugendmedienschutz sieht in einem Social-Media-Verbot für unter 16-Jährige gar einen Verstoß gegen den 17. Artikel der UN-Kinderrechtskonvention. Demnach müssen die Vertragsstaaten sicherstellen, dass Kinder „Zugang [haben] zu Informationen und Material aus einer Vielfalt nationaler und internationaler Quellen“.
Das Internet und die Plattformen, die es bereithält, gehören zur Lebenswelt von Kindern und Jugendlichen und sind ein wesentlicher Ort, an dem sie Informationen erlangen. Gerade deshalb muss ihnen ein sicherer Zugang dazu ermöglicht werden. Um das zu erreichen, sieht das EU-Gesetz über digitale Dienste (DSA) je nach Dienst und Risiko zahlreiche mögliche Maßnahmen vor: Neben Datenschutz-wahrender Altersverifikation sind das etwa ein Verbot suchtförderder Funktionen oder verstärkte Anforderungen an Inhaltsmoderation.
Plattformen für alle sicherer machen
Es stimmt, dass soziale Medien diverse Gefahren bereithalten. Sexuelle Übergriffe, Bedrohungen, Desinformation, manipulative Designs, Gewaltdarstellungen oder demokratiefeindliche Inhalte sind nur einige davon. Das sind jedoch nicht nur Gefahren für Kinder und Jugendliche, sondern für alle. Besonders angreifbar sind dabei vulnerable Gruppen – nicht alle haben die hohe Medienkompetenz oder die ausgefeilten Recherche-Kenntnisse, die dabei helfen, sich vor Übergriffen zu schützen.
Es gibt auf sozialen Medien auch Inhalte, die niemand sehen sollte, weder Kinder noch Erwachsene. Etwa weil sie in extremem Maße gewaltverherrlichend, volksverhetzend oder ehrverletzend sind. Vor der Verbreitung solcher Inhalten müssen mehr Menschen als nur Kinder und Jugendliche geschützt werden – sowohl diejenigen, die als Opfer in diesen Darstellungen abgebildet werden als auch die Vielzahl von Menschen, die durch den Konsum solchen Materials gefährdet werden kann. Gegenüber all diesen Menschen hat der Staat eine Schutzpflicht.
Wenn der Staat sich hier aber nicht imstande sieht, seinen Schutzpflichten gegenüber der gesamten Bevölkerung gerecht zu werden, entscheidet er sich stattdessen für einen unverhältnismäßigen Eingriff in die Rechte einer Bevölkerungsgruppe.
Statt Kinder und Jugendliche von potenziell gefährlichen Orten auszuschließen, sollten die Gefahren selbst entschärft werden. Das muss insbesondere durch konsequente Plattformregulierung und eine politische Weiterentwicklung des DSA geschehen. Das Ziel sollte sein, Plattformen für alle Menschen sicherer zu machen.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Die 4. Kalenderwoche geht zu Ende. Wir haben 10 neue Texte mit insgesamt 72.575 Zeichen veröffentlicht. Willkommen zum netzpolitischen Wochenrückblick.

Liebe Leser*innen,
der TikTok-Deal ist komplett. Das US-Geschäft der einflussreichen Plattform liegt nun in den Händen des Konsortiums „TikTok USDS“ und rückt damit stärker unter den Einfluss der rechtsradikalen Trump-Regierung.
Große Anteile haben die US-Investmentfirma Silver Lake und der Cloud-Anbieter Oracle. Letzterer wurde gegründet von Trump-Amigo Larry Ellison. Ein weiterer großer Anteil liegt bei einem Staatskonzern der Vereinigten Arabischen Emirate, einer Monarchie. Das chinesische ByteDance behält knapp ein Fünftel der Anteile.
Wenn das vor sechs Jahren geschehen wäre, als die zähe TikTok-Saga ihren Anfang nahm, hätte mich das aufgewühlt. Damals hatte ich nämlich noch TikTok aktiv genutzt. Es hätte mich persönlich umgetrieben, was all das nun genau bedeutet:
- Wohin fließen meine Daten, wenn ich direkt mit US-Inhalten interagiere?
- Bekommt die Moderation der Inhalte von US-Creator*innen einen MAGA-Drall?
- Werden Menschen in den USA jetzt mehr rechtsradikale Propaganda in ihren Feeds sehen?
Auf diese Fragen habe ich heute keine Antwort. Was wir wissen: Mehr US-Einfluss macht die Plattform nicht vertrauenswürdiger als vorher. Schon vorher war es schwer zu durchschauen, was wirklich bei TikTok vor sich geht. Künftig wird es noch schwieriger.
Immer wieder hatte TikTok in der Vergangenheit etwa den Einfluss des chinesischen Mutterkonzerns ByteDance heruntergespielt – und damit auch die Nähe zur chinesischen Regierung. Bis heute ist unklar, in welchem Umfang Daten von EU-Nutzer*innen nach China geflossen sind. Nun hat sich mit den USA ein weiterer fragwürdiger Player im Maschinenraum der Plattform breit gemacht.
Tor für Popkultur und Information
Zwar hat TikTok für meinen eigenen Medienkonsum inzwischen keine Bedeutung mehr. Trotzdem weiß ich, dass TikTok für viele Menschen das Tor schlechthin ist zu Popkultur, Information und Unterhaltung. TikTok hat also kulturellen und politischen Einfluss. Nach dem TikTok-Deal muss sich die Plattform die Frage gefallen lassen: Wie stark wird MAGA künftig auf TikTok Einfluss nehmen?
Klare Antworten könnten lange auf sich warten lassen. Mögliche Einflussnahmen auf große Social-Media-Plattformen können nämlich auch sehr subtil sein, und dennoch eine breite Wirkung haben:
- Mit welchen konkreten Signalen arbeiten die Filtersysteme der Inhaltsmoderation?
- Mit welcher Priorität prüfen wie viele Menschen welche Inhalte?
- Sollen die Empfehlungsalgorithmen eher Inhalte bevorzugen, die Menschen beruhigen und ablenken – oder eher Inhalte, die sie aufwühlen und aktivieren?
Diese Beispiele zeigen: Schon mit simplen Stellschrauben einer großen Plattform lässt sich das allgemeine Befinden oder die Aufmerksamkeit eines US-amerikanischen Millionenpublikums in bestimmte Richtungen lenken. Und selbst wenn solche Einflussnahmen nicht bewusst geschehen, sondern Nebeneffekte einer Plattform sind, die bloß ihren Profit maximieren will – unbedenklich werden sie dadurch nicht.
Um die Medienmacht großer Plattformen wie TikTok untersuchen zu können, um den Verdacht von Einflussnahme auszuräumen, dafür bräuchte es Transparenz. Etwa durch einen wirksamen Zugriff auf interne Daten für unabhängige Forschende. In der EU gibt es Gesetze dafür, TikTok und andere große Plattformen sträuben sich dennoch dagegen. Diese Intransparenz hinterlässt bei mir ein mulmiges Gefühl.
Euch ein schönes Wochenende
Sebastian
US-Einwanderungsbehörde: Mit Palantir und Paragon auf Migrantenjagd
Die US-Einwanderungsbehörde ICE nutzt für ihre Massenfestnahmen zunehmend digitale Überwachungstechnologie. Ein berüchtigter Konzern liefert dafür das „ImmigrationOS“. Doch es gibt Ideen für eine Kampagne, die sich gegen diese Beihilfe zur Menschenjagd richtet. Von Matthias Monroy –
Artikel lesen
Generative KI: Finger weg von Bildgeneratoren
Nicht alle KI-Bilder sind KI-Slop, findet unser Autor. Trotzdem rät er Redaktionen von Bildgeneratoren ab. Zu den Gründen gehören hohe unsichtbare Kosten und die gefährliche Machtkonzentration der Tech-Konzerne. Ein Essay. Von Sebastian Meineck –
Artikel lesen
Konsultation: EU-Kommission arbeitet an neuer Open-Source-Strategie
Die EU-Kommission erkennt Open Source als entscheidend für die digitale Souveränität an und wünscht sich mehr Kommerzialisierung. Bis April will Brüssel eine neue Strategie veröffentlichen. In einer laufenden Konsultation bekräftigen Stimmen aus ganz Europa, welche Vorteile sie in offenem Quellcode sehen. Von Anna Ströbele Romero –
Artikel lesen
Partnerschaftsgewalt: „Viel zu wenige wissen, dass es solche Tools gibt“
Die Juristin Franziska Görlitz erklärt, wie man die Hersteller von Spionage-Programmen zur Rechenschaft ziehen kann – und warum wir viel öfter überprüfen sollten, welche Apps auf unseren Telefonen laufen. Von Chris Köver, Martin Schwarzbeck –
Artikel lesen
Bundesdruckerei: Datenatlas Bund ist durchgefallen
Noch im Dezember hat die Bundesdruckerei den Datenatlas Bund mit allen Mitteln vor öffentlicher Kritik abgeschirmt. Nun ist das Großprojekt für die datengetriebene Verwaltung gescheitert. Das Finanzministerium hat es abgehakt, das Digitalministerium weist es zurück. Von Esther Menhard –
Artikel lesen
Digital Networks Act: So will die EU-Kommission den Sprung ins Glasfaserzeitalter schaffen
Mit dem lange erwarteten Digital Networks Act (DNA) zeigt die EU-Kommission, wie sie sich den EU-Markt für Telekommunikation vorstellt. Die Vision eines umfassend harmonisierten Binnenmarktes will sie vorerst nicht umsetzen, geht jedoch erste Schritte in diese Richtung. Von Tomas Rudl –
Artikel lesen
Firmenübernahme: US-TikTok rückt zu Trump
Jetzt wurde die Firma gegründet, die den US-Zweig von TikTok vor dem Verbot rettet. Ein internationales Konsortium übernimmt 80 Prozent, die Daten liegen künftig bei einem Trump-Kumpel. Von Martin Schwarzbeck –
Artikel lesen
Gefährliche Abhängigkeiten: EU-Parlament macht Vorschläge für mehr digitale Souveränität
Die Abgeordneten des EU-Parlaments sehen eine Gefahr in der technologischen Abhängigkeit der EU. In einem Bericht präsentieren sie mögliche Lösungswege. Jetzt sind die Kommission und die EU-Länder an der Reihe, die Forderungen umzusetzen. Von Anna Ströbele Romero –
Artikel lesen
Bayerischer Landtag: Streit um Microsoft eskaliert
Das bayerische Finanzministerium will weiterhin Microsoft-Produkte im Freistaat einsetzen und dafür einen millionenschweren Vertrag verlängern. Die Opposition will eine Abkehr vom Tech-Riesen und fordert „digitale Souveränität“. Doch auch diese Forderung könnte sich als Bumerang erweisen. Von Esther Menhard –
Artikel lesen
Gaming-Plattform Roblox: Gewalt und bauchfreie Oberteile
Berichte über zahlreiche Fälle von Cybergrooming auf der Gaming-Plattform Roblox werfen Fragen über ihre Sicherheit auf. Ich erkunde Roblox, um mehr über die Probleme herauszufinden, und begegne sinnloser Gewalt und knappen Outfits für Fünfjährige. Von Paula Clamor –
Artikel lesen
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Berichte über zahlreiche Fälle von Cybergrooming auf der Gaming-Plattform Roblox werfen Fragen über ihre Sicherheit auf. Ich erkunde Roblox, um mehr über die Probleme herauszufinden, und begegne sinnloser Gewalt und knappen Outfits für Fünfjährige.

Wir stehen umschlungen in der Ecke eines verlassenen Klassenzimmers. Meine Arme liegen um den Hals meines unbekannten Gegenübers, während er mich so an der Hüfte hält, dass meine Füße über dem Boden schweben. Ich trage eine winzige Shorts und ein bauchfreies Oberteil, das ist hier für Frauen der Standard. Er trägt lange Hose und T-Shirt. Ich wollte diese Umarmung nicht. Er hat mich einfach gepackt. Ich versuche mehrfach, mich aus seinem Griff zu befreien, er fragt nach meinem Namen.
Der Übergriff geschieht in einem Computerspiel namens „Boys and Girls Highschool experience roleplay“. Auf der populären Gaming-Plattform Roblox werden Millionen Spiele angeboten, Nutzer*innen können dort auch selbst Spiele erstellen. Roblox ist eines der populärsten Videospielangebote der Welt. Über zwei Stunden verbringen Kinder dort im Schnitt am Tag, so eine Studie. Doch Roblox ist in Verruf geraten.
Im vergangenen Jahr reichten mehrere Bundesstaaten der USA Klagen gegen den Gaming-Giganten ein. Sie werfen der Roblox Corporation vor, minderjährige Nutzer*innen nicht ausreichend vor Sexualstraftäter*innen zu schützen. Liz Murrill, Generalstaatsanwältin von Louisiana, schrieb: „Roblox wird von schädlichen Inhalten und Sexualstraftätern überrannt, da die Plattform Nutzerwachstum, Umsatz und Profit über die Sicherheit von Kindern stellt.“
Altersempfehlung: ab 16. Freigabe: ab 5.
Roblox dürfen Nutzer*innen ab fünf Jahren spielen. Die Altersempfehlung der deutschen Unterhaltungssoftware Selbstkontrolle (USK) allerdings wurde im vergangenen Jahr von 12 auf 16 Jahre erhöht, unter anderem weil Kinder auf der Plattform vielen Kaufanreizen ausgesetzt seien. Mit der Währung „Robux“, die man auf der Plattform oder Tauschbörsen für echtes Geld erwerben kann, können sich Spieler*innen Waffen und andere Spielvorteile kaufen sowie ihren Avatar individualisieren.
Einige Monate nachdem die USK ihre Altersempfehlung für Roblox heraufgesetzt hatte, gab die Spieleplattform eine Kooperation mit der International Age Rating Coalition bekannt, deren Mitglied die USK ist. Die einzelnen Spiele sollen künftig regional unterschiedlich altersklassifiziert werden, auf Basis eines Fragebogens, den die Spiel-Entwickler*innen ausfüllen. Diese Einstufungen werden von der International Age Rating Coalition und ihren Mitgliedsorganisationen überwacht.
Roblox unterteilt Spiele in vier Kategorien: minimal, mild, moderat und beschränkt. Erlebnisse der Kategorien minimal und mild sind allen Spieler*innen zugänglich. Erst wenn Spiele „moderate Gewalt, leichtes realistisches Blut, milderen derben Humor und milde wiederholte Angst“ enthalten, stuft Roblox diese als moderat ein und verbirgt sie vor Kindern unter neun Jahren. Alle Inhalte mit dem Label „beschränkt“ sind erst ab 18 Jahren einsehbar.
Ich will wissen, was Roblox den Kindern zumutet, die dort Spiele spielen, und erstelle deshalb einen Account. Dabei gebe ich an, acht Jahre alt zu sein. Dennoch empfiehlt mir Roblox auf der Startseite Spiele aus dem „Horror“-Genre. In „Käse-Flucht (Horror)“ werde ich von einer monströsen Ratte durch ein Labyrinth aus Käse verfolgt. In „SCP-Monster“ begegnet mir zu Gruselsounds ein oberkörperfreier Machetenträger. Beide Spiele dürfen auch Fünfjährige schon spielen.
Sturmgewehr, Messer oder Handgranate?
„Kampfarena“ ist ein weiterer Vorschlag auf meiner Startseite. Auch dieses Spiel ist laut der Kennzeichnung für Fünfjährige geeignet. Hier muss man andere Spieler*innen mit einem Sturmgewehr erschießen oder mit Messern und Handgranaten töten. „nice, headshot“ schreibt eine*r der Mitspieler*innen im Chat.

Im Spiel „Dress To Impress“ geht es darum, sich zu einem vorgegebenen Thema möglichst attraktiv zu kleiden, um gute Bewertungen der Mitspieler*innen zu bekommen. Weibliche Avatare haben dabei eine Figur, die Barbie im Vergleich dick aussehen lassen würde.
Bei „[FREE] Hug Fights“ haben weibliche Charaktere, wie auch bei „Highschool experience“ fast nur extrem knappe Outfits zur Auswahl. Die meisten bestehen aus einer winzigen Shorts mit bauchfreiem Oberteil.
Als ich das Spiel starte, werde ich von einem Fremden in ein leeres Haus getragen. Dann kommt ein anderer Avatar und nimmt mich dem ersten ab. Er lässt mich fallen und wirft eine Bombe auf mich – Game Over. Während ich abtrete, sehe ich noch, wie meine ehemaligen Träger sich mit anderen Spielenden schlagen.
Grooming über die Chatfunktion
Auch in „Brookhaven RP“ stirbt mein Avatar schnell. „Brookhaven RP“ ist eine Art sozialistisches Paradies, in dem Häuser, Transport- und Lebensmittel für alle frei verfügbar sind. Um meine Nachbarn kennenzulernen, mache ich einen Ausflug zu einem Haus in meiner Nähe. Ich klingele, zwei Avatare kommen heraus und springen um mich herum. Mein Avatar zerfällt. Meine Nachbarn haben mich umgebracht.
Ich erlebe viel Gewalt in Roblox-Spielen und auch eine unangemessene Sexualisierung weiblicher Körper. Grooming-Versuche habe ich allerdings nicht erlebt. Die geschehen angeblich vor allem über die Chatfunktion.
Da mein Account vorgibt, acht Jahre alt zu sein, sind für mich nur die Chats der einzelnen Spiele zugänglich. Am Chat von „Brookhaven RP“ kann ich teilnehmen, auch ohne die Zustimmung eines Eltern-Accounts. Einen solchen kann man aus Sicherheitsgründen mit den Accounts Minderjähriger verknüpfen.
Im Chat wird jemand als „Hässlichkeit“ beleidigt, ein Mensch schreibt „DIGGA KÜSS MICH ND“, ein anderer verkündet: „Ich steche Männer ab“.
Aufgemalte Bartstoppeln sollen die Altersschätzung täuschen
Wer mit anderen Nutzer*innen auch außerhalb einzelner Spiele – und womöglich auch unter vier Augen – chatten möchte, muss sich seit Anfang Januar einem Gesichtsscan unterziehen, mit dem das Alter bestimmt werden soll. Spieler*innen sollen so in Altersklassen, wie 13-16 und 18+, einsortiert werden und nur mit Menschen aus eigenen oder angrenzenden Altersstufen chatten können.
Berichten zufolge funktioniert der Gesichtsscan nicht einwandfrei. Es gebe Nutzer*innen, deren Alter als zu gering eingeschätzt wird. Andererseits behaupten Kinder, die Software mit aufgemalten Bartstoppeln und Falten zu einer höheren Alterseinschätzung gebracht zu haben.
Zum Teil bahnten Täter*innen Gespräche mit Minderjährigen auf Roblox an, um sie dann auf anderen Plattformen weiterzuführen, zum Beispiel auf Discord. Die US-amerikanische Kanzlei Anapol Weiss vertritt Opfer, die über Roblox sexuell ausgebeutet wurden, und hat in zehn Fällen Klage gegen Roblox eingereicht, in sechs dieser Fälle haben die Täter*innen ihre Kommunikation mit den Opfern von Roblox zu Discord verlegt. Die Kanzlei gibt außerdem an, hunderte ähnliche Fälle zu bearbeiten.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Das bayerische Finanzministerium will weiterhin Microsoft-Produkte im Freistaat einsetzen und dafür einen millionenschweren Vertrag verlängern. Die Opposition will eine Abkehr vom Tech-Riesen und fordert „digitale Souveränität“. Doch auch diese Forderung könnte sich als Bumerang erweisen.

Die öffentliche Verwaltung steckt in einem Dilemma: Seit Jahrzehnten nutzen die meisten Behörden Microsoft-Produkte und Alternativen sind offenbar nur schwer vorstellbar. Nirgends zeigt sich das derzeit so deutlich wie in Bayern.
Im Oktober regte sich Kritik (PDF) an den Plänen des bayerischen Finanzministers Albert Füracker (CSU), Microsoft für fünf weitere Jahre in der Landesverwaltung einsetzen zu wollen. Seit 2023 besteht ein sogenannter Handelspartnervertrag zwischen der bayerischen Staatsverwaltung und dem US-Konzern. Er legt die Konditionen fest, zu denen das Bundesland Bürosoftware und Windows-Lizenzen bezieht. Dieses Vertragsverhältnis will Füracker nun verlängern.
Doch es regt sich breiter Widerstand gegen seine Pläne. „Wir reden hier nicht über den Kauf einzelner Excel-Lizenzen, sondern über eine Zementierung unserer kompletten digitalen Infrastruktur auf Jahre hinaus“, sagt Florian von Brunn (SPD) gegenüber netzpolitik.org.
Aber auch in der Landesregierung gibt es deutliche Kritik. Füracker und Digitalminister Fabian Mehring (Freie Wähler) stritten öffentlich um Datenschutz, Abhängigkeit – und um die Frage, ob die US-Regierung über Microsoft auf bayerische Daten zugreifen könnte. Die breite Medienberichterstattung über den Konflikt brachte Markus Söder (CSU) dazu, sich einzuschalten: „Solche Fragen gehören intern besprochen“, mahnte der bayerische Ministerpräsident.
Mit alten Gewohnheiten brechen
Dass die öffentliche Verwaltung auch ohne Microsoft-Produkte arbeiten kann, zeigt das Beispiel Schleswig-Holstein. Das nördliche Bundesland gelang vergangenes Jahr der Umstieg auf einen Open-Source-Arbeitsplatz in der öffentlichen Verwaltung. Das Fazit fällt bisher positiv aus. Seit dem Umstieg habe man bereits rund 15 Millionen Euro an Lizenzkosten eingespart, sagt Digitalisierungsminister Dirk Schrödter auf Anfrage. Dagegen befürchten Fürackers Kritiker, dass der für seine Verhandlungen mit Microsoft einen dreistelligen Millionenbetrag veranschlagt. Auf Anfrage von netzpolitik.org will sich das Ministerium weder zu den Lizenzkosten noch dazu äußern, mit welchen Einsparungen es rechnet.
Auch in Bayern schaut man Richtung Norden. Er stehe im engen Austausch mit der SPD-Fraktion in Kiel, erklärt von Brunn. Er hofft offenbar darauf, dass die positiven Impulse von dort auch im Süden ankommen. „Es entbehrt nicht einer gewissen Ironie, dass die Regierung Söder in Bayern die Zeichen der Zeit nicht erkennt, während der CDU-Kollege Daniel Günther im Norden auf digitale Souveränität setzt.“
Als „Zeichen der Zeit“ sehen derzeit viele die dramatische geopolitische Lage, ausgelöst durch eine erratische Politik der US-Administration unter Präsident Donald Trump.
Trumps langer Arm
Die Auswirkungen zeigt etwa der Fall am Internationalen Strafgerichtshof in Den Haag. Mindestens zwei Richter verloren im Mai vergangenen Jahres jeglichen Zugriff auf digitale Dienste von US-amerikanischen Unternehmen, mutmaßlich infolge ihrer Rechtsprechung. Zu diesen Diensten gehören auch Microsoft-Produkte wie Outlook oder Office.
Seitdem stellen sich Politiker*innen zunehmend die Frage, wie viel Microsoft in der öffentlichen Verwaltung vertretbar ist – zumal diese in der Regel auch mit sensiblen Daten arbeitet. Zwar versichert das bayerische Finanzministerium gegenüber netzpolitik.org, dass die Daten dauerhaft „in mehreren staatseigenen Rechenzentren auf bayerischem Boden gesichert“ seien. Das schließt aber nicht aus, dass US-Behörden auch auf bayerische Verwaltungs- und Bürger:innendaten zugreifen.
Zu diesem Schluss kommt ein Gutachten vom März 2025, das im Auftrag des Bundesinnenministeriums (BMI) erstellt wurde. Demnach erlaube der US-amerikanische Clarifying Lawful Overseas Use of Data Act, kurz CLOUD Act, den dortigen Sicherheitsbehörden weitreichenden Zugriff auf Daten in europäischen Rechenzentren. Auch der Foreign Intelligence Surveillance Act (FISA) lasse einen solchen Datenzugriff zu. Die Gefahr, die von diesen Gesetzen für die Verwaltung ausgeht, diskutierte (PDF) auch der Landtag Baden-Württemberg im Sommer.
„Das hebelt europäisches Recht aus“, so von Brunn. Daher fordere die SPD in Bayern nicht nur „ein sofortiges Moratorium für den Microsoft-Deal“, sondern auch „einen verbindlichen Migrationsplan bis 2030 hin zu Open Source“. Diese Strategie sollte auch vorsehen, technologische Abhängigkeiten von einzelnen Konzernen überhaupt erst zu identifizieren, sagt Benjamin Adjei von den Grünen auf Anfrage. Um die „heimische Digitalwirtschaft“ zu stärken, brauche es außerdem jene finanziellen Mittel, die die bayerische Landesregierung in Lizenzkosten von Microsoft aufwende.
Gefahr „einer schutzlosen Preisgestaltung“
Inzwischen hat sich auch die SPD-Bundestagsfraktion in die Causa Microsoft eingeschaltet. In einem offenen Brief an Füracker positionieren sich deren digitalpolitischer Sprecher, Johannes Schätzl, der Landesvorsitzende der BayernSPD, Sebastian Roloff, und die Vorsitzende der SPD-Landesgruppe Bayern, Carolin Wagner, „gegen die Entscheidung, zentrale staatliche IT-Strukturen langfristig und ohne strategische Alternativenbewertung an einen einzelnen Anbieter zu binden“.
Füracker habe auf das Schreiben bislang nicht reagiert, sagt Carolin Wagner gegenüber netzpolitik.org, „ich bin mir aber sicher, dass er es gelesen hat“. An ihren Forderungen hält sie weiterhin fest: „Wir werden als Bundesrepublik nicht digital souverän, wenn die Bundesländer nicht souverän werden und dafür gilt es jetzt in München die Weichen zu stellen.“ Andernfalls setze Microsofts „monopolistische Stellung“ die öffentliche Verwaltung weiterhin „einer schutzlosen Preisgestaltung“ aus, warnt die SPD-Politikerin.
Souveränität as a service
Von der Forderung nach digitaler Souveränität hält der Politikwissenschaftler Thorsten Thiel von der Universität Erfurt indes wenig. Der Begriff führe viele, teils widersprüchliche Interessen zusammen und verschleiere, worum es im Kern eigentlich gehen sollte: eine öffentliche digitale Infrastruktur, die Politik und Zivilgesellschaft demokratisch gestalten.
Eines der Hauptprobleme sieht er darin, dass die Politik digitale Souveränität bestellt und die Wirtschaft liefert. Amazon, Google und Microsoft bieten inzwischen vermeintlich souveräne Cloud-Lösungen an – ohne dass die darin gespeicherten Daten tatsächlich sicher vor einem Zugriff durch US-Behörden sind. Souveränität sei so längst zu einem Service geworden, den Tech-Konzerne anbieten, sagt Thiel. In der Forschung wird dies als sovereignty-as-a-service bezeichnet.
Gleichzeitig greifen die Unternehmen gezielt in die Debatte darum ein, was digitale Souveränität bedeutet. „Sie eignen sich die Bedeutungen des zivilgesellschaftlichen Konzepts gezielt an und höhlen es aus“, sagt Thiel gegenüber netzpolitik.org. In der Folge entkämen sie auch einer schärferen Kontrolle und Regulierung durch die Politik.
„Wir sollten daher nicht danach fragen, ob das betreffende IT-Produkt nach Standard XY souverän ist“, sagt Thiel. Viel wichtiger sei die Frage, wie sehr wir uns binden, wenn wir eine bestimmte Software in der öffentlichen Verwaltung einsetzen.
Bei den Plänen Fürackers geht es aus Sicht des Politikwissenschaftlers um die Frage, ob in Bayern damit Alternativen verhindert werden. Thiel fordert daher positive Gegenbegriffe wie jenen der Interoperabilität. Der Begriff beschreibt die Fähigkeit verschiedener digitaler Systeme, miteinander zusammenzuspielen und Daten auszutauschen. Proprietäre Software verhindere dies in der Regel.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Die Abgeordneten des EU-Parlaments sehen eine Gefahr in der technologischen Abhängigkeit der EU. In einem Bericht präsentieren sie mögliche Lösungswege. Jetzt sind die Kommission und die EU-Länder an der Reihe, die Forderungen umzusetzen.

„Die Europäische Union ist von ausländischen Technologien abhängig, was erhebliche Risiken für sie birgt“, heißt es in einem Bericht, den das Europäische Parlament am Donnerstag mit großer Mehrheit angenommen hat. Einige wenige Unternehmen verfügten über eine „konzentrierte Macht“ über wichtige digitale Märkte. Außerdem hätten sie die Kontrolle über die Infrastruktur: Betriebssysteme, künstliche Intelligenz, Suchmaschinen, Zahlungsdienste, Werbung und soziale Medien.
„Die jüngsten geopolitischen Spannungen zeigen, dass die Frage der digitalen Souveränität Europas von enormer Bedeutung ist“, schreibt der liberale Abgeordnete Michał Kobosko in einem Post auf X. Die EU sei aufgrund der Abhängigkeiten gleich mehreren Bedrohungen ausgesetzt: der Erpressung durch die USA, der Spionage durch China, der Sabotage durch Russland oder Störungen in den Lieferketten.
Daher wendet sich das Parlament mit einer Reihe von Forderungen und Ideen an die Kommission und die Mitgliedstaaten. Erstens soll die Kommission die Abhängigkeiten Europas in der digitalen Infrastruktur ermitteln und die Risiken bewerten. Auf Grundlage einer solchen Bestandsaufnahme könnten dann die notwendigen Maßnahmen koordiniert werden.
Bevorzugte Vergabe an EU-Unternehmen
Zweitens wünschen sich die Abgeordneten die Möglichkeit, manche öffentliche Aufträge exklusiv an souveräne europäische Unternehmen vergeben zu können. Unternehmen aus Drittstaaten würden dann ausgeschlossen werden. Solche Mechanismen gebe es etwa in China oder den USA, aber noch nicht in der EU, betonen die Abgeordneten.
Die Reform des Vergaberechts ist ohnehin für das zweite Quartal dieses Jahres geplant, wie im Arbeitsprogramm der Kommission für 2026 abzulesen ist. Die Präsidentin der Kommission, Ursula von der Leyen, hat schon mehrfach versprochen, dass die Reform auch die Bevorzugung von europäischen Unternehmen in „bestimmten strategischen Sektoren“ ermöglichen wird. Bei ihrer Rede zur „Lage der Union“ im September 2025 erklärte sie, das Kriterium „Made in Europe“ einführen zu wollen.
Drittens machen die Abgeordneten auf die besonders gravierenden Abhängigkeiten im Cloud-Bereich aufmerksam. Die Daten würden „zum Großteil“ außerhalb des EU-Gebiets gespeichert und gehostet. Daher verlangen sie eine Definition der souveränen Cloud in der Verordnung über Cloud- und KI-Entwicklung, die die Kommission am 25. März vorstellen will.
Cloud-Daten vor Zugriff schützen
Außerdem wollen sie strengere Regeln für sensible Daten etablieren. Im europäischen System für die Cybersicherheitszertifizierung von Cloud-Diensten (EUCS), über das noch beraten wird, werde nicht ausreichend garantiert, dass Hosting-Anbieter nicht außereuropäischen Rechtsvorschriften unterliegen. Insbesondere der Cloud Act der USA dürfte hier gemeint sein. Der verpflichtet US-Unternehmen, Behörden aus den USA Zugriff auf von ihnen verarbeitete Daten zu gewähren, selbst wenn die Speicherorte außerhalb der Vereinigten Staaten liegen.
Im Bericht erwähnen die Abgeordneten auch die Wichtigkeit von „offenen und interoperablen Lösungen“, die ebenfalls durch die öffentliche Vergabe gefördert werden könnten. Insgesamt sprechen sie sich für Strategien wie Open Source als erste Wahl und „Öffentliches Geld – öffentlicher Code“ (Public Money, Public Code) aus. Dieser Grundsatz besagt, dass aus öffentlichem Geld finanzierte Software standardmäßig unter einer Open-Source-Lizenz veröffentlicht werden sollte.
Verurteilung von US-Druck
Durch einen Änderungsantrag der liberalen Renew-Fraktion hat es darüber hinaus ein weiterer Punkt in den Bericht geschafft: Die EU müsse auch bei der Durchsetzung ihrer Regulierung souverän bleiben, heißt es dort.
Damit reagieren die Abgeordneten auf die von den USA im Dezember verhängten Reiseverbote gegen Vertreter:innen der Zivilgesellschaft, darunter HateAid, und den ehemaligen Digitalkommissar Thierry Breton. Das Parlament fordert die Aufhebung dieser Verbote und eine „entschlossene“ Reaktion der Kommission und der Mitgliedstaaten auf diese „beispiellosen Angriffe“.
Der Bericht wurde im Sommer 2025 durch den Industrieausschuss (ITRE) erarbeitet. Die zuständige Berichterstatterin, die Abgeordnete Sarah Knafo, ist Teil der rechtsextremen ESN-Fraktion. Bei der Abstimmung in Straßburg wurde der Text mit 471 zu 68 Stimmen bei 71 Enthaltungen angenommen. Dagegen stimmten Mitglieder der Fraktionen der Linken und der rechtsextremen sogenannten „Patrioten für Europa“ (PfE).
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Jetzt wurde die Firma gegründet, die den US-Zweig von TikTok vor dem Verbot rettet. Ein internationales Konsortium übernimmt 80 Prozent, die Daten liegen künftig bei einem Trump-Kumpel.

Die chinesische Firma ByteDance hat einen Großteil des US-Geschäfts ihrer Video-App TikTok verkauft. Sie behält 19,9 Prozent der Anteile, der Rest geht an ein internationales Konsortium. Die größten Investoren darin sind mit jeweils 15 Prozent ein Staatskonzern der Vereinigten Arabischen Emirate, die US-Investmentfirma Silver Lake und der Cloud-Dienst-Anbieter Oracle. Dessen Gründer Larry Ellison ist ein alter Trump-Vertrauter.
Die US-Version der App soll künftig auf Oracle-Servern laufen. Oracle wird auch dafür verantwortlich sein, die Einhaltung nationaler Sicherheitsstandards zu überwachen und den Algorithmus anzupassen, über den personalisierte Inhalte gesteuert werden. Der Plan ist, eine Kopie des Codes, den ByteDance entwickelt hat, mit den Daten von US-Bürger*innen zu trainieren.
Verkauf auf Druck der US-Regierung
TikTok ist mit dem Verkauf einem Verbot entgangen, das die US-Regierung angedroht hatte. Die sah die Gefahr, dass der chinesische Staat über die App die Meinung von US-Amerikaner*innen manipulieren könnte und deren Daten abgreifen. 2024 verabschiedete sie ein Gesetz, nach dem ByteDance seine US-Geschäfte verkaufen musste, sonst wäre TikTok aus den App-Stores von Apple und Google verbannt worden. Donald Trump hatte einst auf das Verbot gedrängt, nach einem scheinbaren Sinneswandel dem Unternehmen dann aber immer wieder mehr Zeit gegeben, um eine einvernehmliche Lösung zur weitgehenden Abspaltung des US-Geschäfts zu finden.
Nun rückt TikTok ein gutes Stück weg von der chinesischen Regierung – hin zur amerikanischen. Donald Trump hat dann nicht mehr nur sein eigenes Soziales Netzwerk Truth Social sowie Einfluss auf die Plattformen seiner Kumpels Elon Musk (X) und Mark Zuckerberg (Facebook, Instagram), sondern über Larry Ellison auch einen kurzen Draht zu TikTok. Der Oracle-Gründer ist der fünftreichste Menschen der Welt, vier Plätze nach Musk, einer vor Zuckerberg.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Mit dem lange erwarteten Digital Networks Act (DNA) zeigt die EU-Kommission, wie sie sich den EU-Markt für Telekommunikation vorstellt. Die Vision eines umfassend harmonisierten Binnenmarktes will sie vorerst nicht umsetzen, geht jedoch erste Schritte in diese Richtung.

Mit dem gestern vorgestellten Entwurf des Digital Networks Acts (DNA) will es die EU-Kommission, wenn schon nicht allen, dann doch vielen recht machen. Weder schafft sie pauschal die Netzneutralität ab, noch die strenge Vorab-Regulierung marktmächtiger Unternehmen, noch wird sie EU-Länder dazu zwingen, vorschnell alternde Kupferleitungen abzuschalten.
Ziel des lange erwarteten Gesetzentwurfs ist ein großflächiger Umbau der EU-Regulierung im Telekommunikationsbereich. Davon erwartet sich die EU-Kommission mehr Investitionen der Netzbetreiber in Infrastruktur. Flächendeckend verfügbare, moderne Internetanschlüsse sollen „die Grundlage für Europas Wettbewerbsfähigkeit“ bilden sowie „innovative Technologien wie Künstliche Intelligenz und Cloud Computing“ ermöglichen, so die Kommission.
In der geplanten Verordnung sollen gleich mehrere EU-Gesetze aufgehen. Allen voran der European Electronic Communications Code (EECC); die Regeln zur Netzneutralität; die Verordnung über das Gremium der europäischen Regulierungsbehörden (GEREK) sowie das Radio Spectrum Policy Programme (RSPP), mit dem künftig die Nutzung von Funkfrequenzen EU-weit geregelt werden soll. Begleitend zum rund 260 Seiten starken Gesetzentwurf hat die Kommission mehrere ausführliche Folgeabschätzungen veröffentlicht.
Nutzungsrechte ohne Ablaufdatum
Einer der größte Änderungsvorschläge: Die Kommission will die zeitliche Befristung der Nutzungsrechte für Mobilfunkfrequenzen abschaffen. Künftig soll die Laufzeit unbegrenzt sein, regelmäßige Versteigerungen von Frequenzblöcken sollen demnach der Vergangenheit angehören. Allerdings soll die Zuweisung künftig nach dem Motto „use it or share it“ ablaufen. Netzbetreiber, die ihnen zugeteilte Frequenzen nicht nutzen, können sie also wieder verlieren. Neben Mobilfunkbetreibern sind etwa auch Satellitenanbieter erfasst.
Diese Vorschläge der Kommission dürften auf Widerstand mancher EU-Länder stoßen, die sich etwa die Einnahmen aus den Frequenzauktionen nicht entgehen lassen wollen. Auch Teile der Branche sind nicht begeistert. Als „sehr problematisch“ bezeichnet etwa der deutsche Betreiberverband Breko diesen Ansatz. Solche Regeln „würden das Oligopol der Mobilfunknetzbetreiber zementieren“ und den Wettbewerb beschädigen, warnt der Verband.
Umstieg auf Glasfaser
Für hitzige Debatten wird wohl auch der Plan sorgen, ab Ende des Jahrzehnts mit der Abschaltung veralteter Infrastruktur wie Kupferleitungen zu beginnen. Bis zum Jahr 2036 soll schließlich EU-weit der Umstieg auf moderne Glasfaser-, aber auch auf Gigabit-fähige Kabelanschlüsse vollzogen sein. Dazu hat die Bundesnetzagentur letzte Woche ein Regulierungskonzept vorgelegt, zugleich aber betont, dass es sich in erster Linie um einen „Debattenbeitrag“ handelt.
Betreiberverbände wie VATM oder ANGA begrüßen das „klare Ablaufdatum“, das allen Beteiligten „ausreichend Planungsperspektive“ geben würde, so VATM-Präsidentin Valentina Daiber. Dabei dürfe es jedoch nicht zu Marktverwerfungen kommen, wenn marktmächtige Unternehmen ihre Dominanz auf die neue Infrastruktur übertragen und dabei gar ausbauen würden. „Entscheidend ist dabei, dass der Übergang diskriminierungsfrei ausgestaltet wird. Die Regeln dürfen Wettbewerbsunternehmen im Prozess nicht schlechter stellen als etablierte Marktakteure“, schreibt ANGA in einer ersten Einschätzung.
Marktmacht bleibt relevant
Aufatmen können kleinere Netzbetreiber in einem zentralen Punkt: Marktmächtige Unternehmen, hierzulande die Telekom Deutschland, müssen sich auch künftig strengerer Vorab-Regulierung unterwerfen, wenn ein Marktversagen zu erkennen ist. Zugleich soll es aber nationalen Regulierungsbehörden wie der Bundesnetzagentur möglich sein, mehr auf sogenannte symmetrische Regulierung zu setzen. Dabei werden Marktakteure gleich behandelt und müssten gegebenenfalls ihrer Konkurrenz den Zugang zu ihren Netzen zu regulierten Bedingungen gestatten.
Vom ambitionierten Plan, einen vollharmonisierten Markt für Telekommunikation zu schaffen, ist die EU-Kommission abgerückt. Dazu seien die Ausgangsbedingungen in den 27 EU-Mitgliedsländern einfach zu unterschiedlich, sagte eine Kommissionssprecherin im Zusammenhang mit der Kupfer-Glas-Migration. Übrig geblieben ist jedoch der Vorschlag einer zentralen Autorisierung für Netzbetreiber. Diese könnten sich künftig in einem EU-Land registrieren, um ihre Dienstleistungen anschließend EU-weit anbieten zu können.
Netzneutralität und Netzzusammenschaltung
Die Regeln zur Netzneutralität hat die Kommission praktisch wortgleich aus der bislang geltenden Verordnung übernommen. Datenverkehr darf demnach in Zukunft weiterhin nicht unterschiedlich behandelt oder diskriminiert werden, auch die Endgerätefreiheit soll unberührt bleiben.
Allerdings behält sich die EU-Kommission das Recht vor, in einem eigenen Durchführungsgesetz („Implementing Act“) detaillierte Leitlinien zu sogenannten Spezialdiensten zu erlassen. Das sind besondere Zugangsprodukte, die über das normale Internet nicht funktionieren würden, beispielsweise das Gaming-Paket der Telekom Deutschland. Damit will die Kommission potenzielle Rechtsunsicherheiten beseitigen, über die manche Netzbetreiber klagen.
Mittelbar mit der Netzneutralität haben Konflikte rund um sogenanntes Peering zu tun. Ursprünglich hatten Ex-Monopolisten die Debatte unter dem Schlagwort „Fair Share“ losgetreten, um von großen Inhalte-Lieferanten wie YouTube oder Netflix eine Datenmaut erheben zu können. Das Konzept war jedoch auf großen Widerstand gestoßen, den offenkundig auch die Kommission nachvollziehen konnte. Der Markt für die Zusammenschaltung von Netzen funktioniere gut, sagte Digitalkommissarin Henna Virkkunen bei der Vorstellung des DNA.
Von der Debatte übrig geblieben ist jedoch eine freiwillige Schlichtungsstelle, die etwaige Konflikte rasch auflösen soll. Virkkunen verwies auf Rechtsstreitigkeiten vor nationalen Gerichten, die sich über viele Jahre hinziehen könnten. „Wir sind überzeugt, dass der von uns im DNA vorgeschlagene freiwillige Schlichtungsmechanismus den Parteien helfen wird, Streitigkeiten leichter beizulegen und eine effiziente, wirtschaftlich nachhaltige und zuverlässige durchgängige Datenübermittlung zu gewährleisten“, sagte die EU-Kommissarin.
Der Vorschlag geht jedoch manchen zu weit, etwa der Interessenvertretung CCIA (Computer & Communications Industry Association), die im Namen von Amazon, Google, Meta und anderen Tech-Konzernen spricht. Anstatt auf bewährte Marktmechanismen zu setzen, würde hier eine Regulierung nur um der Regulierung willen eingeführt, so der Verband. In der Praxis könnte sich der freiwillige Ansatz womöglich „in ein verbindliches System zur Beilegung von IP-Streitigkeiten verwandeln und damit die weithin abgelehnten Netzwerkgebühren wieder einführen“, warnt der Verband vor einer Datenmaut durch die Hintertür.
Der Vorschlag der Kommission geht nun an das EU-Parlament und an den EU-Rat, in dem sich die EU-Länder beraten. Beide Institutionen müssen zunächst eine eigene Position zu dem Vorhaben finden. Anschließend laufen die gemeinsamen Verhandlungen im sogenannten Trilog-Verfahren. Insgesamt dürfte sich das Verfahren über mehrere Jahre hinziehen.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Noch im Dezember hat die Bundesdruckerei den Datenatlas Bund mit allen Mitteln vor öffentlicher Kritik abgeschirmt. Nun ist das Großprojekt für die datengetriebene Verwaltung gescheitert. Das Finanzministerium hat es abgehakt, das Digitalministerium weist es zurück.

Für den Datenatlas Bund startet das Jahr aussichtslos. Das Metadaten-Portal sollte eigentlich die Arbeit der Bundesverwaltung vereinfachen: Behörden und Ministerien sollten damit interne Daten der Bundesverwaltung besser finden, verknüpfen und nutzen können. Doch nun hat die Bundesdruckerei den Datenatlas offline geschaltet. Das teilte eine Sprecherin des Bundesministeriums der Finanzen (BMF) auf Anfrage mit.
Das Ministerium hatte die Bundesdruckerei mit der Entwicklung des Datenatlas Bund beauftragt. Die setzte seit 2022 die Forderung aus der Datenstrategie des Bundes von 2021 um. In den einzelnen Ministerien waren die Datenlabore für den Datenatlas zuständig. Warum die Bundesdruckerei den Datenatlas vom Netz genommen hat, ist unklar.
Offiziell heißt es aus der Bundesdruckerei und dem BMF, das Vertragsverhältnis habe zum 31. Dezember 2025 geendet. „Damit endete auch der Betrieb durch uns als Dienstleister“, so die Bundesdruckerei. Auf ihrer Website bewirbt sie den Datenatlas noch immer damit, er sei modern, digital souverän und KI-fähig; über Social Media suggeriert ein Mitarbeiter, er bediene die Ansprüche einer datengetriebenen Verwaltung.
Datenatlas voller Mängel
Dass der Datenatlas weit weniger kann als beworben, zeigte ein unabhängiges wissenschaftliches Gutachten von David Zellhöfer. Der Professor von der Hochschule für Wirtschaft und Recht Berlin erstellte es eigeninitiativ und unentgeltlich und veröffentlichte es Anfang Dezember.
Zellhöfers Datengrundlage stammt aus dem Sommer 2025 und davor. Er wertete Aussagen von Mitarbeiter:innen der Datenlabore und einige Screenshots aus. Außerdem gewährten ihm einige Kolleg:innen aus der Bundesverwaltung Einblicke in das Metadaten-Portal über kurze Live-Demos. Seine direkte Anfrage nach Informationen für seine Forschung wies die Bundesdruckerei ab. Zellhöfers Fazit: In Teilen entspricht das Portal nicht einmal dem Stand der Technik von 1986.
Eigentlich sollte das Metadaten-Portal Datenbestände der öffentlichen Verwaltung für Behörden zugänglicher machen. Metadaten sind Daten über Daten, wie das Erstellungsdatum, der Dateityp oder der Speicherort. Doch habe es dem Datenatlas an grundlegenden Funktionalitäten gemangelt.
Beispielsweise habe es im Datenatlas keine explorative Suche gegeben, wie man das etwa von Suchmaschinen kennt, sondern nur eine gerichtete Suche. Dementsprechend hätten Suchende immer genau wissen müssen, welches Dokument oder welchen Datensatz sie suchen. Auch kontrollierte Vokabulare hätten gefehlt: Damit Verwaltungsmitarbeiter:innen Dokumente finden können, sollten die mit denselben Schlagwörtern belegt werden. Das sei im Datenatlas nicht umgesetzt worden. Problematisch sei das etwa bei Tippfehlern. Darunter leide nicht nur die Datenqualität. Auch die Trefferlisten seien aufgrund der gerichteten Suche unvollständig gewesen.
Auch grundlegende Suchfunktionen wie den Einsatz von Suchoperatoren seien im Datenatlas nur sehr eingeschränkt möglich gewesen, zum Beispiel hätten Mitarbeiter:innen die Operatoren „UND“, „ODER“ oder „NICHT“ nicht anwenden können.
Nicht mehr zuständig
Im Dezember hüteten die Bundesdruckerei und das BMF den Datenatlas noch wie ein Staatsgeheimnis. Gegenüber netzpolitik.org betonten beide: Der Datenatlas sei nicht „für die Nutzung durch die Öffentlichkeit“ bestimmt. Zellhöfer hielten sie vor, das Gutachten sei nicht beauftragt worden. Die Bundesdruckerei erwog sogar „rechtliche Schritte“ gegen den Gutachter.
Erst als das Gutachten Aufmerksamkeit bekam, lenkte die Bundesdruckerei ein und versicherte gegenüber netzpolitik.org, die von Zellhöfer angeführten Mängel bestünden nicht. Seine Datengrundlage hätte den Stand des Datenatlas im Sommer 2025 abgebildet, die Mängel scheinen also in der zweiten Jahreshälfte behoben worden zu sein. Offiziell habe die Bundesdruckerei die Entwicklung des Datenatlas bereits im ersten Quartal 2025 abgeschlossen, sagt das BMF heute.
Nun ist der Datenatlas offline. Sie seien für das Projekt nicht mehr zuständig, heißt es sowohl von der Bundesdruckerei als auch vom BMF. Letzteres erklärte gegenüber netzpolitik.org, man könne keine weitergehenden Fragen zur Umsetzung der Datenstrategie beantworten; bis Ende 2025 habe man „alle Maßnahmen zu einer Übergabe des Datenatlas Bund durchgeführt“.
Digitalministerium lehnt ab
Übernehmen sollte den Datenatlas das Bundesministerium für Digitales und Staatsmodernisierung (BMDS). Doch das lehnt eine „Übernahme des BMF-Projekts im aktuellen Projekt-Stadium“ als „nicht wirtschaftlich“ ab, so ein Sprecher des Ministeriums gegenüber netzpolitik.org.
Nach „intensiver Prüfung“ habe sich gezeigt, dass der Datenatlas Bund „trotz intensiver Bemühungen“ kaum genutzt werde. Um daraus ein „wirksames Tool“ zu machen, müsse außerdem noch viel Entwicklungsarbeit hineinfließen.
Ob das Ministerium die Entwicklung eines neuen Metadaten-Portals anstoßen wird, bleibt offen. Grundsätzlich liefere ein solches Portal „eine wichtige Grundlage für eine effiziente Datennutzung in der Bundesverwaltung“. Bei einer neuen Version wolle man „die im Projekt Datenatlas Bund gewonnenen Erkenntnisse“ berücksichtigen, um sicherzugehen, dass bereits getätigte Investitionen weitergenutzt werden können.
Zellhöfers grobe Wirtschaftlichkeitsbetrachtung veranschlagt als Gesamtkosten des Datenatlas gut 2,3 Millionen Euro. Die Gesamtausgaben für den Datenatlas Bund hätten seit Beginn etwa 24,6 Millionen Euro betragen, so die Sprecherin des BMF auf Anfrage. Mutmaßlich liegen die Kosten deutlich darüber, so äußerten sich zumindest anonyme Quellen gegenüber Zellhöfer.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Die Juristin Franziska Görlitz erklärt, wie man die Hersteller von Spionage-Programmen zur Rechenschaft ziehen kann – und warum wir viel öfter überprüfen sollten, welche Apps auf unseren Telefonen laufen.

In den USA bekannte sich gerade ein Hersteller einer Spionage-App für schuldig, weil er das Programm zur Kontrolle von Partner*innen vermarktete und seinen Kund*innen dabei half, Erwachsene ohne deren Wissen zu überwachen.
Auch in Deutschland können Privatpersonen Spionage-Apps leicht im Internet kaufen. Unternehmen wie mSpy bewerben ihre Produkte vordergründig als „Kinderschutz-App“ für besorgte Eltern. Recherchen zeigten, dass mSpy Kund*innen auch dann unterstützte, wenn sie offen zugaben, dass sie mit dem Programm heimlich Partner*innen überwachen wollen. E-Mail-Werbung legte einen Einsatz bei mutmaßlicher Untreue nahe. Ist es möglich, die Verantwortlichen zur Rechenschaft zu ziehen? Wir haben dazu Franziska Görlitz befragt, Juristin bei der Gesellschaft für Freiheitsrechte.
netzpolitik.org: Darf man in Deutschland Spionage-Software verkaufen?
Franziska Görlitz: Nur, wenn sie für legale Einsatzzwecke gedacht ist, zur Überwachung der eigenen Kinder beispielsweise oder von Mitarbeiter*innen. Das Inverkehrbringen von Programmen, die dazu da sind, Straftaten zu begehen, also zum Beispiel heimlich die Daten von Erwachsenen abzugreifen, kann mit bis zu zwei Jahren Haft bestraft werden.
Einsatzgrund: Eifersucht

netzpolitik.org: mSpy wird offiziell als Kinderschutz-App beworben. Aber wir haben im Januar 2025 eine E-Mail von mSpy bekommen, in der behauptet wird, dass 20 Prozent aller Verheirateten fremdgingen, und dass die Beweise dafür auf den Telefonen der Untreuen zu finden seien. Darunter war ein Link zum mSpy-Abonnement. Droht der mSpy-Chef-Etage dafür Knast?
Franziska Görlitz: Ob ein Programm einem illegalen Einsatzzweck dient, lässt sich ja auch am Design festmachen: Dafür spricht zum Beispiel, dass die App sich auf dem Gerät als unauffällige System-App tarnt, was eine App zum Schutz von Kindern nicht tun müsste. Sie hat auch keinen Notfallknopf, mit dem das Kind seine Eltern kontaktieren kann, Stundenpläne oder andere Features, die für Familientools typisch sind. Dafür aber extrem invasive Zugriffsrechte, vom Zugriff auf sämtliche Kommunikation bis hin zur heimlichen Fernsteuerung von Kamera und Mikrofon.
Ob man in der Werbung schon eine konkrete Anstiftung zu einer Straftat sehen kann, ist unklar. Und für eine Verurteilung müsste vor Gericht auch bewiesen werden, dass die Verantwortlichen von dieser speziellen E-Mail-Kampagne wussten, dass sie die App vorsätzlich so haben gestalten lassen. Man müsste ihnen die Verantwortung für das Vergehen nachweisen, das Wissen darum und auch einen Willen zur Tat. Dieser Nachweis ist schwierig. Und wenn die Firma wie mSpy im Ausland sitzt, braucht man für die Ermittlung auch noch die Unterstützung der dortigen Behörden.
Die Verantwortung des Unternehmens
netzpolitik.org: Gilt das Verbot des Inverkehrbringens von Programmen zur illegalen Überwachung eigentlich auch für das Unternehmen?
Franziska Görlitz: In Deutschland gibt es kein Unternehmensstrafrecht. Das heißt, wir brauchen für eine Verurteilung immer eine verantwortliche Person.
netzpolitik.org: Gibt es keine Gesetze, die dem Unternehmen verbieten, die Software zu verkaufen?
Franziska Görlitz: Geräte zur heimlichen Überwachung sind in der EU verboten. Software, die Telefone in heimliche Überwachungsgeräte verwandelt, ist allerdings erlaubt. Das ist nicht mehr zeitgemäß, hier müsste nachgebessert werden.
Der schwarz-rote Koalitionsvertrag sieht zwar vor, „Tracking-Apps“ vorzuschreiben, dass sie sich deutlich bemerkbar machen müssen, doch bisher ist kein entsprechender Gesetzentwurf in Sicht und es ist nicht klar, in welchem Gesetz diese Vorschrift verankert werden soll.
Beihilfe zu einer Straftat

netzpolitik.org: Wir haben in geleakten Chats mit dem mSpy-Kundendienst zahlreiche Menschen gefunden, die klar kommunizieren, dass sie mit der App ihre Partner*innen oder Ex-Partner*innen überwachen wollen – der Kundendienst unterstützte sie trotzdem. Fällt das in die Verantwortung der Firmen-Chefs?
Franziska Görlitz: Auch hier müsste man erst nachweisen, dass die Verantwortlichen davon wissen oder dieses Vorgehen sogar angeordnet haben. Strafbar machen sich erst mal nur die jeweiligen Mitarbeiter*innen im Kundendienst. Wenn die App für verbotene Zwecke genutzt wurde, zum Beispiel für das heimliche, nicht einvernehmliche Überwachen der Partnerin, und Mitarbeiter*innen des Unternehmens das wissentlich unterstützt haben, kann das möglicherweise Beihilfe zu einer Straftat sein. Und wenn das regelmäßig passiert, könnte das dafür sprechen, dass die Software insgesamt den Zweck hat, Straftaten zu ermöglichen.
netzpolitik.org: Können Betroffene, die mit Hilfe einer solchen App ausspioniert wurden, den Hersteller anzeigen?
Franziska Görlitz: Betroffene können neben den Personen, die sie illegal überwacht haben, auch die verantwortlichen Personen bei den Unternehmen anzeigen. Für eine mögliche Strafverfolgung wäre es wichtig, dass mehr Fälle zur Anzeige gebracht werden. Auch weil das Thema in Behörden dann präsenter wäre. Noch hat ja kaum jemand auf dem Schirm, dass es so einfach ist, fremde Telefone auszuspionieren. Aber viele Betroffene haben eine hohe Hemmschwelle, zur Polizei zu gehen. Das gilt besonders, weil die Überwachung häufig in gewaltvollen Beziehungen stattfindet.
Für eine Anzeige müssen die Betroffenen auch erst einmal herausfinden, dass sie überwacht werden. Viel zu wenige wissen, dass es solche Tools gibt, deshalb bleibt die Überwachung oft unbemerkt. Dabei sind Spionage-Apps wie mSpy relativ einfach zu finden, indem man zum Beispiel auf dem Smartphone nachschaut, ob Apps verdächtige Berechtigungen haben.
Juristische Hebel auf EU-Ebene
netzpolitik.org: Gibt es andere Wege für Betroffene, gegen Hersteller solcher Software vorzugehen?
Franziska Görlitz: Sie können ihre Rechte aus der Datenschutzgrundverordnung nutzen und darüber versuchen, ein Bußgeld zu erwirken – ihre ausgespähten Daten sind ja gegebenenfalls auf den Servern der Unternehmen gespeichert. Dafür braucht es keine konkrete verantwortliche Person, Bußgelder können auch gegen Unternehmen verhängt werden. Wenn Unternehmen aber außerhalb der EU sitzen, ist es schwierig, Maßnahmen gegen sie zu erwirken.
Die EU-Ebene bietet auch noch einen weiteren juristischen Hebel: Wir haben über den Digital Services Act eine Beschwerde gegen Google eingelegt. Die Suchmaschine spielt nämlich vor den organischen Suchergebnissen Anzeigen für Stalkerware wie mSpy aus – obwohl die App gegen die Google-Richtlinien verstößt. Wir wollen erreichen, dass die EU-Kommission als Aufsichtsbehörde einschreitet und darauf hinwirkt, dass Google aktiv verhindert, dass solche Anzeigen ausgespielt werden. Wir wissen, dass das Problem dadurch nicht gelöst wird, aber wenn die App keine Werbung mehr schalten kann, nutzen sie hoffentlich auch weniger Menschen.
netzpolitik.org: Warum ist im Fall von pcTattletale in den USA ein juristisches Vorgehen gelungen?
Franziska Görlitz: Im Fall dieses Spyware-Herstellers lag der Staatsanwaltschaft interne Kommunikation vor, die belegte, dass die Person wusste, dass die App für illegale Zwecke verkauft wird, dass die Person das so wollte und es auch nach unten angewiesen hat. Das sind genau die Beweismittel, die man braucht.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Die EU-Kommission erkennt Open Source als entscheidend für die digitale Souveränität an und wünscht sich mehr Kommerzialisierung. Bis April will Brüssel eine neue Strategie veröffentlichen. In einer laufenden Konsultation bekräftigen Stimmen aus ganz Europa, welche Vorteile sie in offenem Quellcode sehen.

Die EU-Kommission möchte Europas digitale Souveränität stärken und Abhängigkeiten reduzieren. Dafür setzt sie auf die Nutzung und Entwicklung von europäischer Open Source Software (OSS) als Alternative zu proprietären Angeboten, die oftmals aus den USA kommen.
Anfang Januar hat die Kommission eine Konsultation gestartet, um Input für eine neue Open-Source-Strategie zu erhalten. Bis zum 3. Februar können alle hier Ideen beitragen.
In einem Dokument zu der Konsultation beschreibt die Brüsseler Behörde ihr Vorhaben. Die Kommission teilt darin die Ansicht, dass es nicht ausreiche, nur die Forschung zu Open Source zu stärken. Vielmehr müsse auch das Open-Source-Ökosystem „strategisch gestärkt“ werden. Was bedeutet das konkret?
Einerseits sollen Open-Source-Projekte kommerzieller werden. Die Akteure sollen finanziell gesichert werden, damit sie ihre Angebote skalieren können. Andererseits soll die Organisation verbessert werden. Auch die Sicherheit der Lieferkette will die Kommission adressieren. Ebenfalls soll der öffentliche Sektor dazu animiert werden, Open Source zu nutzen. Das schließt die Kommission selbst ein.
Schlüsselrolle von Open Source anerkannt
„Die angekündigte Strategie zeigt, dass die Kommission auf höchster Ebene verstanden hat, dass nur Open Source digitale Souveränität und Handlungsfähigkeit garantiert“, sagt Sebastian Raible, Leiter für EU-Beziehungen beim europäischen Open-Source-Unternehmensverband APELL. Open Source bedeute ihm zufolge, „sich gar nicht erst in Abhängigkeiten zu begeben, weil Anwender:innen das Produkt nicht mieten, sondern vollständig mit Quellcode erwerben“.
Dafür würden Open-Source-Unternehmen bereits seit Jahrzehnten jährlich Millionenbeträge in die Entwicklung der Infrastruktur investieren. In Raibles Augen ist es sinnvoll – ökonomisch und für den Standort Europa –, dass öffentliche IT-Budgets dazu beitragen.
Raible ergänzt, dass die Kommission ein besonderes Augenmerk auf kritische Infrastruktur gerichtet habe. „Gerade hier brauchen wir konkrete Schritte, um Europas Unabhängigkeit auch vor dem Hintergrund von russischen Angriffen und US-amerikanischen Grönland-Drohungen abzusichern“, bekräftigt er.
Zu der Konsultation finden sich bereits mehrere Hundert Beiträge. Ein Großteil stammt dabei aus der Feder von EU-Bürger:innen, die in Kommentaren ihre eigenen Erfahrungen mit offenem Quellcode und ihre Gedanken zu dem Thema teilen. Daneben haben auch schon einige Unternehmen und NGOs ihre Position mitgeteilt.
Nextcloud will „Buy European“
Das deutsche Unternehmen Nextcloud GmbH zeichnet ein ähnliches Bild wie die Kommission: Vielen Projekten würden nachhaltige Geschäftsmodelle und die Professionalisierung fehlen. Daneben betont die GmbH die große Konkurrenz von Big-Tech-Angeboten, die oftmals Produkte bündeln und Kund:innen an sich fesseln könnten.
Als entscheidenden Hebel sieht das Unternehmen die bevorzugte Beschaffung von europäischen Open-Source-Lösungen durch europäische Regierungen. Dazu schlagen sie vor, den Ansatz „Buy European/Open Source“ zu realisieren, wo möglich. Nextcloud spricht sich dafür aus, dass Behörden vorbildhafte Open-Source-Nutzer sein sollen. Im zweiten Quartal dieses Jahres werden die EU-Vergaberegeln überarbeitet.
Dass so eine Bevorzugung in der Praxis möglich ist, zeigen aktuelle Entwicklungen: Im Ende Januar anstehenden „Industrial Accelerator Act“, der die Industrie in Europa stärken will, soll eine „Buy-European“-Klausel integriert werden. „Öffentliche Gelder sollten zur Stärkung der Resilienz und Wettbewerbsfähigkeit Europas eingesetzt werden“, sagte dazu am Montag bei einer Veranstaltung Madalina Ivanica, stellvertretende Referatsleiterin bei der Generaldirektion Binnenmarkt, Industrie, Unternehmertum und KMU (DG GROW) der Kommission.
Sicherheit durch Open Source
Der Rüstungsarm des französischen Thales-Konzerns und die französische Nationalgendarmerie hätten bewiesen, dass ein Wechsel zu Open Source möglich sei, heißt in einem Beitrag im Namen von Thales Defense. Der Konzern habe seine IT im Juni 2025 innerhalb von 48 Stunden vollständig auf Linux-Systeme migriert.
In seinem Beitrag zur Konsultation hebt das Unternehmen die Vorteile von OSS für die Sicherheit hervor: Wer freie Software einsetze, habe die Kontrolle über den Code und könne Sicherheitslücken schließen, ohne dabei von Dritten abzuhängen. Die Open-Source-Gemeinschaft reagiere außerdem schnell auf gemeldete Fehler.
Auch die Universität Oslo betont, dass Endnutzer:innen den Code selbst analysieren können, was die Sicherheit erhöhe. Darüber hinaus heißt es in ihrem Beitrag zur Konsultation: „Gute Open-Source-Lösungen sind nicht kostenlos. Daher braucht es Wege, um die Entwicklung und die Wartung der Lösungen zu unterstützen.“ Diese müssten über Geld- und Zeitspenden hinausgehen. Tatsächlich steckt hinter Open Source sehr viel freiwillige Arbeit von Ehrenamtlichen innerhalb der Community.
Ressourcen fehlen
Die tschechische NGO node9.org plädiert ebenfalls für mehr Unterstützung von Entwickler:innen durch die Kommission und verspricht: „Es wird sich sowohl finanziell als auch in Bezug auf die Souveränität auszahlen.“
Das kleine französische Unternehmen MiraLab beschreibt eine „Microsoft-Müdigkeit“ in verschiedenen IT-Abteilungen: „Sie suchen nach Alternativen, aber die EU muss die Führung übernehmen.“ Das einzige, was noch fehle, sei Handlung.
So geht es weiter
Die sogenannte „europäische Strategie für ein offenes digitales Ökosystem“ soll zusammen mit dem „Cloud and AI Development Act“, einer Verordnung zur Entwicklung von Cloud und KI, noch im ersten Quartal des Jahres als Paket veröffentlicht werden.
In dieser Woche wird europäische Souveränität außerdem in Straßburg im EU-Parlament debattiert. Auch Kommissionspräsidentin Ursula von der Leyen und Ratspräsident António Costa werden daran teilnehmen. Dabei geht es allerdings nicht spezifisch um den Digitalbereich.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Nicht alle KI-Bilder sind KI-Slop, findet unser Autor. Trotzdem rät er Redaktionen von Bildgeneratoren ab. Zu den Gründen gehören hohe unsichtbare Kosten und die gefährliche Machtkonzentration der Tech-Konzerne. Ein Essay.

Eines der ersten Bilder, das ich mit „generativer KI“ erstellt habe, war ein Waschsalon im Stil von Edward Hopper. Das Motiv entspricht dem US-amerikanischen Maler sehr: ein halb-öffentlicher, halb privater Raum; die Stimmung irgendwo zwischen Kontemplation und Melancholie. Aber gemalt hat er es nie. Das KI-generierte Bild hatte das typische Hopper-Gefühl in mir geweckt, ich war begeistert. Bildgeneratoren sind der Anfang von etwas Großem, da war ich mir im Jahr 2022 sicher.
Schon früh war die öffentliche Debatte über Bildgeneratoren begleitet von teils inbrünstigen Einwänden, dass Erzeugnisse von Maschinen doch keine ernst zu nehmenden Gefühle oder Bedeutungen zum Ausdruck bringen könnten. Immerhin berechnet Software ihre Erzeugnisse bloß aus Material, das es bereits gibt; es fehlt also der Wille eines Menschen, etwas auf bestimmte Weise auszudrücken.
Mich überzeugt das nicht. Warum soll das Erzeugnis einer Maschine von Gefühl und Bedeutung entleert sein, das Erzeugnis eines Menschen aber gefühlvoll und bedeutsam? Diese KI-Kritik ist von klassischen Kommunikations-Modellen geprägt, die Sender und Empfänger in den Mittelpunkt rücken. Einfach ausgedrückt packt demnach ein Sender einen gewünschten Inhalt auf einen Kommunikationsträger, der die Botschaft zum Empfänger bringt – etwa per Wort oder Bild. Gerade Künstler*innen können diesem Modell zufolge ihre Kommunikation in Form eines Kunstwerks ganz besonders mit Bedeutung aufladen, weil sie dabei auf geniale Weise wie aus tiefer Seele schöpfen.
Diesem Modell zufolge kann ein KI-erzeugtes Bild schon allein deshalb nichts Sinnvolles ausdrücken, weil die Maschine nichts meinen kann. Das Erzeugnis ist allenfalls ein Klumpatsch von einst bedeutsamen Inhalten, also: KI-Slop.
Spätere Ansätze – von Systemtheorie über Poststrukturalismus – haben jedoch das Modell verworfen, wonach Bedeutung wie ein Päckchen von A nach B transportiert wird. Bedeutung lässt sich demnach auch nicht in einem Bild verpacken, sodass es nur noch beim Betrachten ausgepackt und in Empfang genommen werden muss. Vielmehr lässt sich jede Kommunikation und damit auch jedes Bild als eine Art Remix aus bestehenden Bedeutungsträgern beschreiben. Die konkrete Bedeutung eines Werks wiederum entsteht bei jeder Beobachtung aufs Neue und zwar durch die Betrachtenden. Das heißt, nicht nur jedes Werk ist ein Remix, sondern auch jede Beobachtung eines Werks.
Selbst das Wetter meint etwas – für uns

Insofern fehlt maschinell erzeugten Bildern zwar die menschliche Intention bis ins Detail, die etwa anzunehmen ist, wenn jemand nach jahrelanger Übung gezielt eine Leinwand mit Pinsel und Farbe bearbeitet hat. Gefühl und Bedeutung können KI-Bilder trotzdem haben, und zwar beim Betrachten. Das klappt auch ohne jegliche Intention eines Senders.
Das Prinzip kennen wir alle aus unserem Alltag, und zwar vom Wetter: Auch Sonnenuntergänge, Gewitter oder Wolkenformationen können ins uns eine Menge Gefühle auslösen, obwohl das Wetter nichts meinen kann. Es meint trotzdem etwas – für uns.
Die Grenze zwischen menschengemachten und synthetischen Werken ist weniger klar, als man auf den ersten Blick meinen könnte. Auch ohne Einsatz von Software haben Künstler*innen immer wieder gezielt die Kontrolle über ihre Werke reduziert. So spielen beim Action Painting Zufall und Physik eine wichtige Rolle, wenn Künstler*innen Farben schleudern und spritzen. Im Konstruktivismus wiederum geht es um Berechenbarkeit statt Zufall, wenn Künstler*innen streng auf geometrische Formen setzen.
Die Beispiele zeigen, generative KI ist weniger ein radikaler Bruch im kreativen Schaffen, sondern eher eine neue Verschiebung in der Rolle des Menschen beim Entstehen eines Werks. Statt mit Pinsel und Farbe hantiert man mit Prompts; feilt an Textbefehlen, bis die Maschine etwas erzeugt, das man gerne speichern und weiterverbreiten möchte. Der Stoff, aus dem ein Werk entsteht, ist nicht roh wie etwa eine Tube Ölfarbe, sondern vorgeformt durch das einfließende Trainingsmaterial.
Wie es sich praktisch anfühlt, mit Bildgeneratoren zu arbeiten, habe ich eine Zeit lang selbst getestet. Über Monate hinweg habe ich die Software genutzt, um eigene Artikel zu bebildern. Es war reizvoll, mehr Freiheiten in der Gestaltung der Motive zu haben. Inzwischen habe ich aber damit aufgehört – und ich halte es sogar für besser, wenn Redaktionen die Finger von Bildgeneratoren lassen. Dafür sehe ich vor allem drei Gründe.
1. Der typische KI-Look wirkt unseriös

Nach ein paar Jahren KI-Hype und einer Flut KI-generierter Bilder auf Websites und in sozialen Medien zeigt sich eine Kluft zwischen Theorie und Praxis: Während KI-Bilder meiner Meinung nach bedeutsam, gefühlvoll und schön sein können, sind sie es erstaunlich oft – einfach nicht.
So unbegrenzt wie Anfangs vermutet sind die kreativen Möglichkeiten dann doch nicht. Zumindest Stand aktuell, und mit dem eher geringen Aufwand, den viele in ihre Prompts und KI-Erzeugnisse stecken. An einem Großteil der tatsächlich in meinen Feeds kursierenden, KI-generierten Bilder habe ich mich sattgesehen. Sie sind oft überladen und austauschbar, teils offensiv geschmacklos. Einflüsse von Stilrichtungen lassen sich erahnen, sind aber oft grobschlächtig miteinander vermengt, ohne Gefühl für Stimmigkeit. Ein schauriges Beispiel dafür ist das oben eingebettete KI-Bild, das ich leider selbst als Artikelbild veröffentlicht habe, und heute für einen Griff ins Klo halte.
Websites, die auf KI-Bilder setzen, erscheinen mir inzwischen suspekt. Denn in der Praxis nutzen die meisten seriösen Medien solche Bilder nicht oder kaum; fragwürdige Content-Schleudern aber schon.
Egal, wie man sonst zu KI-Bildern steht: Sie können mangelnde Seriosität ausstrahlen. Besonders wenn Leser*innen eine Website nicht gut kennen und nur die Bilder ins Auge springen. Es könnte bei manchen die Frage aufkommen, ob die Redaktion möglicherweise auch ihre Texte achtlos zusammenrührt; wie sorgfältig das redaktionelle Angebot wirklich ist. Die Bebilderung von Artikeln sollte funktional sein und nicht mehr Fragen aufwerfen als die Hauptinhalte.
2. Generative KI schafft bedenkliche Abhängigkeiten

Generative KI gibt Menschen mit Internetverbindung zuvor ungeahnte Produktionsmittel in die Hand. Selbst ohne Vorkenntnisse lassen sich etwa Texte, Übersetzungen, Code, Bilder und Videos in mindestens mittelmäßiger Qualität erstellen. Und wer würde so viele verschiedene Dinge schon mindestens mittelmäßig hinbekommen? Das bedeutet mehr Möglichkeiten und mehr Macht für alle. Aber das ist nur die eine Seite der Medaille.
Die andere Seite ist düster. Je mehr sich generative KI verbreitet, desto mehr zementieren deren Anbieter ihre Machtposition. Als der Bild-Generator Stable Diffusion erstmals gratis für alle veröffentlicht wurde, hatte ich die Hoffnung auf eine dezentrale Zukunft generativer KI ohne mächtige Tech-Unternehmen als Nadelöhr. Es kam anders.
Heute kontrollieren einige wenige Unternehmen wie OpenAI, Anthropic, Microsoft, Meta und Google die populären und effizienten KI-Anwendungen. Sie sammeln die Risiko-Milliarden ein, steigen zu den reichsten Unternehmen der Welt auf oder festigen diese Position. Unter der Regie der KI-Konzerne entsteht eine technologische Infrastruktur, die Produktionsweisen zentralisiert. Die Konzerne bestimmen in der Folge, welche KI-Anwendungen kostenlos sind und wofür man zahlen muss. Sie bestimmen, für welche Sprachen, welche gesellschaftlichen Gruppen, welche Einsatzmöglichkeiten ihre Dienste optimiert werden.
Auf rabiate Weise extrahieren KI-Konzerne massenhaft Werke zum Training ihrer Modelle aus dem Netz, selbst wenn die Künstler*innen und Urheber*innen dahinter das nicht möchten. Einerseits finde ich: Zur Freiheit von Kunst sollte es gehören, dass sich Menschen oder auch Maschinen frei an Werken bedienen können, um Neues zu schaffen. Andererseits bereitet mir das extreme Macht-Ungleichgewicht Bauchschmerzen, das besteht, wenn Milliarden-Konzerne diese Freiheit brachial für kommerzielle Interessen ausnutzen.
In der Folge profitieren nicht alle gleichermaßen von den Produktionsmöglichkeiten sogenannter KI. Die neue Technologie kann nicht nur Gewinner*innen hervorbringen, sondern auch Verlierer*innen. Sie birgt etwa das Potenzial, KI-freie Formen künstlerischer oder handwerklicher Bildproduktion allein durch diese Produktionsgewalt zu verdrängen, zu ersetzen und damit unter die Kontrolle weniger Konzerne zu bringen.
Diese Kontrolle bezieht sich nicht nur auf die Gestaltung der KI-Werkzeuge, sondern auch auf die erzeugten Inhalte. Die KI-Konzerne entscheiden und moderieren, was erlaubt und verboten ist. Bei Sprachmodellen wie Grok aus den USA oder DeepSeek aus China sieht man, wie schnell vermeintliche Inhaltsmoderation in autoritäre Zensur und Desinformation umschlägt.
Bei den meisten kommerziellen Bildgeneratoren gibt es zudem sehr hohe Hürden für jegliche Darstellung von Nacktheit. Damit wollen die Konzerne unter anderem verhindern, dass Menschen illegale Inhalte erzeugen, und nehmen dabei Overblocking in Kauf. Die Folge ist, dass selbst jugendfreie Darstellungen zensiert werden, etwa wissenschaftliche oder künstlerische Motive. Zum Vergleich: Sogar in der Sixtinischen Kapelle im Vatikan sind Adam und Eva ohne Kleider zu sehen.
Keine Skrupel haben die KI-Konzerne dagegen offenbar bei Deals über hunderte Millionen US-Dollar mit dem Militär der rechtsradikalen Trump-Regierung.
Die erhoffte Demokratisierung von Produktionsmitteln durch generative KI hat also auch gegenteilige Effekte. Solange Bildgeneratoren von wenigen Konzernen kontrolliert werden, entstehen neue Formen von Abhängigkeit, und zwar von konkreten KI-Modellen und deren Features, von Plattform-Policys, Finanzierungsmodellen und letztlich auch den Launen und Ideologien ihrer superreichen Eigentümer.
Entsprechend unangenehm ist es, etwa einen journalistischen Artikel oder einen Blogbeitrag mit einem Generator von Google oder OpenAI zu bebildern. Der Name dieser Konzerne in der Bildunterschrift: ein unerwünschter Werbe-Effekt.
Auch wenn meine kleinen Beiträge als Nutzer oder Konsument von KI-Bildgeneratoren das Machtgefüge dahinter nicht nennenswert beeinflussen – es muss einfach nicht sein. Gerade wenn Redaktionen ihre Artikel in großem Stil mit KI bebildern, verstetigen sie den Gebrauch fragwürdiger Produkte.
3. Hinter generativer KI stecken hohe, unsichtbare Kosten

Oft sind die wahren Kosten meines privilegierten digitalen Alltags unsichtbar, und bei den meisten Leser*innen hier dürfte es ähnlich sein. Wir tippen, streamen und surfen mit energiehungrigen Produkten aus unter anderem Plastik und Seltenerdmetallen, die durch geplante Obsoleszenz zugleich der umweltschädliche Elektroschrott von morgen sind; produziert und bis zur Haustür gebracht von oftmals schlecht behandelten Angestellten; entworfen und kontrolliert von Megakonzernen, die damit Milliarden anhäufen. Obendrauf kommen jetzt noch die Kosten für generative KI.
Es ist widersprüchlich, an einem Apple-Laptop sitzend von der Nutzung einer Technologie abzuraten, weil sie verborgene Kosten für Gesellschaft und Umwelt mit sich bringt. Denn was ich an generativer KI kritisiere, trifft auch auf meine eigenen Geräte zu. Um davon nicht völlig blockiert zu sein, will ich zwei Ebenen voneinander unterscheiden: einerseits strukturelle Ausbeutungsverhältnisse, andererseits individuelle Konsumentscheidungen. Ersteres lässt sich nicht durch letzteres überwinden. Dennoch sind individuelle Konsumentscheidungen nicht egal. Bildgeneratoren sind noch nicht so tief in unseren Alltag gesickert wie Laptops; sie sind noch kein wichtiger Teil digitaler gesellschaftlicher Teilhabe. Noch haben wir die Wahl.
Die Systeme hinter KI-generierten Bildern fressen Energie durch Training und Betrieb und sind deshalb klimaschädlich. Die Konzerne hinter kommerziellen Bildgeneratoren ziehen riesige Rechenzentren hoch, zapfen Atomkraftwerke an und können Menschen im Umland zur Kühlung der Server sogar das Wasser abgraben. Millionen gering bezahlte Arbeiter*innen, oftmals aus dem Globalen Süden, machen durch ihre Arbeit die Leistungen der Software überhaupt erst möglich.
Die menschliche Arbeit hinter sogenannter KI soll nicht nur bewirken, dass generierte Bilder möglichst gut aussehen, sondern auch, dass sie möglichst nicht illegal oder verstörend sind. Gewalt, Folter, Missbrauch – all das sollen Nutzer*innen am Ende nicht zu Gesicht bekommen. Dafür sichten und annotieren Angestellte im Akkord Inhalte, etwa Bilder aus dem Trainingsmaterial oder neue KI-Erzeugnisse. Solche Arbeit ist oftmals psychisch belastend, die therapeutische Begleitung schlecht. Für ihren Lohn zahlen Datenarbeiter*innen also nicht nur mit ihrer Arbeitskraft, sondern auch mit ihrer Gesundheit.
Diese und weitere Kosten verschwinden hinter den glatt designten Oberflächen der Bildgeneratoren, die per Mausklick Inhalte en masse ausspucken, als wären nur Maschinen am Werk. Ich finde: Gerade weil es leicht zugängliche KI-freie Alternativen zur Bebilderung gibt, muss man das als redaktionelles Angebot nicht aktiv unterstützen.
Ambivalenzen aushalten

Mehr als drei Jahre, nachdem ich mit Stable Diffusion einen Waschsalon im Stil von Edward Hopper erzeugt habe, wiederhole ich den Versuch. Dieses Mal mit Google Gemini Ende 2025: „Wie hätte Edward Hopper einen Waschsalon gemalt?“
Ich hoffe darauf, dass mich das Ergebnis kaltlässt, schließlich habe ich mich in diesem Text daran gemacht, Bild-Generatoren zu kritisieren und von ihrem Einsatz abzuraten. Bloß, das Gegenteil ist der Fall: Die Software erzeugt ein Bild, das mir sofort gefällt. Hätte ich es früher in einem Hopper-Sammelband gesehen, es hätte zu meinen Lieblingsmotiven gezählt. Zugleich merke ich, was für ein Luxus daraus spricht, dieses Bild generieren und genießen zu können.
KI genießen, KI ablehnen – wie lässt sich diese Ambivalenz aushalten?
Der Knackpunkt liegt für mich darin, in welcher Rolle ich mit KI-generierten Bildern umgehe. Im Fall vom Hopper-Bild entscheide ich mich als Privatperson dafür, ein problematisches Produkt wie einen Bildgenerator für eine ästhetische Erfahrung zu nutzen: Das ist reiner Luxus. Ob und wie oft man das tun möchte, darüber muss wohl jede*r für sich selbst entscheiden.
Anders ist die Lage, wenn ich in meiner Rolle als Redakteur KI-Bilder in die redaktionelle Routine integriere. Dann wären sie kein privater Luxus mehr, sondern beruflich genutzte Gebrauchsgrafiken für ein breites Publikum. Sie würden den Einsatz einer Technologie normalisieren, die ich sehr kritisch sehe. Mein Fazit: Finger weg.
Zumindest zu dokumentarischen Zwecken kommt der falsche Hopper als eingebettete Grafik in diesen Text. Typisch für Hopper sehen wir hier einen isolierten Menschen in einer urbanen Umgebung. Er scheint in sich gekehrt, als würde er dem Gefühl einer inneren Leere nachhängen. Wahrscheinlich interessiert mich dieses KI-Bild deshalb umso mehr: Weil sich auch KI-Bilder die Frage nach innerer Leere gefallen lassen müssen. Und schon sind sie nicht mehr leer.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Die US-Einwanderungsbehörde ICE nutzt für ihre Massenfestnahmen zunehmend digitale Überwachungstechnologie. Ein berüchtigter Konzern liefert dafür das „ImmigrationOS“. Doch es gibt Ideen für eine Kampagne, die sich gegen diese Beihilfe zur Menschenjagd richtet.

Eine der Kritiken an neuen Überwachungswerkzeugen für Verfolgungsbehörden lautet, dass diese zunehmend auch zweckentfremdet eingesetzt werden. Oder dass autoritäre Regierungen sie nach einer Machtübernahme gegen unliebsame Gruppen oder Personen richten.
Wie real diese Befürchtungen sind, lässt sich derzeit in den USA beobachten. Dort versieht Präsident Donald Trump die Einwanderungsbehörde ICE mit immer mehr Ressourcen für ihre Jagd auf Migrant*innen, sichert ihr für Verbrechen Straffreiheit zu und schafft sich so eine eigene brutale Präsidentengarde mit modernster technischer Ausrüstung.
Mapping von Deportationskandidat*innen
Über die digitalen Überwachungsmethoden des ICE berichtet häufig das US-Investigativportal „404 Media“. Dessen jüngste Recherche zeigt, wie etwa Palantir in die Massenfestnahmen eingebunden ist. Demnach entwickelt der berüchtigte Technologiekonzern ein Werkzeug namens ELITE, mit dem die Einwanderungsbehörde eine Karte mit Adressen von potenziellen Deportationskandidat*innen erstellen kann. Die Daten stammen unter anderem vom Gesundheitsministerium, von der US-Migrationsbehörde USCIS und vom Datenanbieter Thomson Reuters.
ICE nutzt die Software angeblich, um Orte zu identifizieren, an denen möglichst viele Personen auf einen Schlag festgenommen werden könnten. Zu jeder Person kann ein Dossier sowie ein „Confidence Score“ abgerufen werden – also eine Bewertung, wie verlässlich die angegebene aktuelle Adresse einer gesuchten Person ist.
„404 Media“ stützt ihre Recherche auf interne ICE-Materialien, öffentliche Beschaffungsunterlagen und Aussagen eines ICE-Beamten. Ihre Veröffentlichung erfolgte kurz nachdem Kristi Noem, die Chefin des Heimatschutzministeriums, angekündigt hatte, Hunderte weitere Bundesagent*innen nach Minneapolis zu entsenden. Vergangene Woche erschoss der ICE-Beamte Jonathan Ross dort die 37-jährige US-Bürgerin Renee Nicole Good, als diese ihr Auto wenden und die Szenerie einer Razzia und Protesten dagegen verlassen wollte.
Daten aus Online-Werbegeschäft
Zusätzlich zur Palantir-Software kaufte ICE zwei Überwachungssysteme namens Tangles und Webloc der Firma Penlink, die Zugriff auf Standortdaten von Hunderten Millionen Handys bieten. Darüber berichtete „404 Media“ vergangene Woche in einer weiteren Recherche.
Die Systeme nutzen GPS-Koordinaten sowie WLAN- und IP-Daten. Sie stammen aus dem Online-Werbegeschäft und werden über sogenannte Software Development Kits bei der Nutzung von Apps hinterlassen. Von Datenbrokern werden sie angeblich für personalisierte Werbung gesammelt, dann aber auch mit anderem Zweck verkauft.
Ermittler*innen können in Webloc ebenfalls Gebiete auf einer Karte markieren. Das System zeigt dann alle Handys an, die sich zu diesem Zeitpunkt dort befinden. Anschließend lassen sich die Bewegungen einzelner Geräte verfolgen. So stellen die Beamt*innen fest, wohin eine bestimmte Person nach der Arbeit fährt oder wo sich nachts ihr Handy befindet, was beides auf den Standort ihrer Wohnung schließen lässt. Die Software kann auch mehrere Orte gleichzeitig überwachen und anzeigen, welche Geräte an zwei oder mehr Orten waren, etwa bei einer politischen Versammlung.
Laut einer internen ICE-Rechtsanalyse, die die Bürgerrechtsorganisation ACLU durch eine Informationsfreiheitsklage erhielt, braucht die US-Behörde für die Nutzung dieser Daten aus ihrer Sicht keine richterliche Anordnung. Die Begründung: Menschen hätten die Informationen „freiwillig“ an Dritte weitergegeben, indem sie Apps nutzten.
Spyware „Graphite“ jetzt im US-Besitz
Bekannt ist außerdem, dass ICE die Spyware „Graphite“ des Unternehmens Paragon einsetzen darf. Die Trump-Regierung genehmigte einen Vertrag, den die Biden-Administration noch blockiert hatte.
Die Software gilt als eines der leistungsfähigsten Hacking-Werkzeuge weltweit und kann sämtliche Daten auf Smartphones auslesen, einschließlich der ansonsten verschlüsselten Kommunikation über Signal oder WhatsApp. Zudem lässt sich ein Telefon durch heimliches Aktivieren des Mikrofons zur Wanze umfunktionieren.
Nach Überwachungsskandalen in mehreren EU-Staaten wurde die bis dahin israelische Spyware-Firma Paragon Solutions Ende 2024 vom US-Private-Equity-Fund AE Industrial Partners übernommen, der dafür eine halbe Milliarde US-Dollar gezahlt haben soll. Dieser Wechsel erleichtert US-Behörden wie ICE den Einsatz der Software, obwohl größere Teile der Belegschaft weiterhin in Israel ansässig sind.
Kampagne gegen beteiligte Firmen
Weitere digitale Werkzeuge der US-Einwanderungsbehörde haben der Arbeitswissenschaftler Eric Blanc von der Rutgers University, der Gewerkschaftsorganisator Wes McEnany und Claire Sandberg, ehemalige nationale Organisationsdirektorin von Bernie Sanders’ Präsidentschaftskampagne 2020, in der US-Wochenzeitschrift „The Nation“ dokumentiert. Darin rufen sie zu einer Kampagne gegen die Firmen auf.
Als besonders verwundbar gelten den drei Autor*innen jene Unternehmen, deren Verträge mit ICE vor einer möglichen Verlängerung stehen. Dazu zählt etwa Dell mit einem Auftrag über umgerechnet 16 Millionen Euro für Microsoft-Software-Lizenzen, der im März ausläuft. Auch kleinere Verträge mit dem Paketdienst UPS und FedEx sowie dem Kommunikationsausrüster Motorola Solutions enden im Frühjahr.
Einen längerfristigen Vertrag hat ICE beispielsweise mit dem Kommunikationsdienstleister AT&T geschlossen. Er umfasst rund 70,5 Millionen Euro und könnte bis Juli 2032 laufen. Der Datenanbieter LexisNexis ermöglicht Trumps Milizen für 18 Millionen Euro Zugriff auf umfangreiche personenbezogene Daten aus öffentlichen und privaten Quellen, einschließlich Haftdaten.
Palantir liefert „ImmigrationOS“
Als einen der bedeutendsten Akteure in der ICE-Infrastruktur nennt „The Nation“ Amazon, dessen Web Services für die Daten- und Überwachungsoperationen der Behörde unerlässlich seien.
Eine besondere Rolle spielt laut Blanc, McEnany und Sandberg aber Palantir: Der Konzern stellt den US-Migrationsbehörden unter dem Namen „ImmigrationOS“ ein Rückgrat bereit, das Informationen aus verschiedenen Datenbanken und Anwendungen zusammenführt.
Mithilfe der Software können ICE-Beamt*innen ihre Operationen automatisieren – zu den Features gehören die KI-gestützte Zielpersonenpriorisierung, die Echtzeitüberwachung der Person sowie die Koordination von Festnahmen und Abschiebungen.
„ImmigrationOS“ greift dazu auf Daten der Sozialversicherungs-, der Steuer- und der Migrationsbehörden sowie staatlicher Wählerverzeichnisse zu. Für die Entwicklung des Systems Plattform erhielt Palantir 25,5 Millionen Euro.
„Außer Kontrolle geratener Zug“
Nach den jüngsten Enthüllungen von „404 Media“ hat sich die Electronic Frontier Foundation zu Wort gemeldet. Die US-Bürgerrechtsorganisation erklärt, dass sie bereits mehrere juristische Schritte gegen die Datensammelwut der Migrationsbehörden unternommen habe – darunter Klagen gegen den Zugriff von ICE auf Gesundheits- oder Steuerdaten.
Doch diese allein reichten nicht aus: Menschen müssten im öffentlichen Diskurs weiterhin Bedenken und Protest äußern, so die Electronic Frontier Foundation. Auch müsse der Kongress umgehend handeln, „um diesem außer Kontrolle geratenen Zug Einhalt zu gebieten, der die Privatsphäre und Sicherheit jeder einzelnen Person in Amerika zu zermalmen droht“.
Jedoch ist die Datensammelwut für diesen „außer Kontrolle geratenen Zug“ nicht auf die USA beschränkt. Die Regierung in Washington fordert von den mehr als 40 Teilnehmern ihres Visa-Waiver-Programms einen direkten Zugriff auf nationale Polizeidatenbanken mit biometrischen Informationen.
In Deutschland wäre dies die INPOL-Datei, in der auch weit über zwei Millionen Asylsuchende oder Ausreisepflichtige mit Fingerabdrücken und Gesichtsbildern gespeichert sind. Die EU-Staaten sind zu diesem US-Zugriff grundsätzlich bereit und haben die Kommission mit Verhandlungen über ein Rahmenabkommen beauftragt.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Die 3. Kalenderwoche geht zu Ende. Wir haben 17 neue Texte mit insgesamt 118.270 Zeichen veröffentlicht. Willkommen zum netzpolitischen Wochenrückblick.

Liebe Leser:innen,
wir alle haben mitbekommen, wie im Iran Hunderttausende aufgestanden sind, die vierte große Protestwelle in nur zehn Jahren hat das Land erfasst. Wieder keimt die Hoffnung, dass es dieses Mal endlich gelingt, das illegitime, brutale und autoritäre Regime zu stürzen. Ich telefoniere mit einem Freund, der iranische Wurzeln hat. Wir vereinbaren, dass wir nach der Revolution direkt nach Teheran fliegen. Dieses Mal wird es klappen.
Die Proteste sind riesig – doch dann geht das Internet aus.
An diesem Punkt fange ich an, wieder einmal einen Artikel über Internetabschaltungen zu schreiben, ich erkläre das Thema in Interviews. Mein Freund hat Angst, weil dieses Mal alles abgeschaltet ist. Sogar die Festnetztelefone sind gekappt, das hat der Iran noch nie gemacht. Es ist klar, was das heißt: brutale Gewalt.
Mich bewegt das Thema persönlich, ich habe schon öfter über das Land und die Proteste berichtet, war selbst im Iran unterwegs. Ich habe dort unglaublich schöne Erfahrungen mit wundervollen Menschen gemacht. Ich habe die Wut und Verzweiflung der Menschen gespürt und ihren Mut, gegen das Regime aufzustehen. Wer einmal die Iraner:innen erlebt hat, der kann nur noch die Daumen für die Befreiung drücken. Ich mache mich mit der Sache gemein, auch als Journalist. Gerade als Journalist.
In der letzten Protestwelle im Jahr 2022 habe ich zusammen mit Kollegen über die Abschottung des iranischen Internets recherchiert. In Folge unserer Artikel wurde ein an der Abschottung beteiligtes Unternehmen von der EU und den USA sanktioniert. Doch was ist dieser kleine journalistische Beitrag angesichts der Opfer, die die Menschen dort seit Jahren bringen. Auch jetzt.
Trotz des Blackouts sind in den vergangenen Tagen grauenhafte Nachrichten durchgedrungen. Zunächst war von hunderten Toten die Rede. Kurz darauf von 2.500 ermordeten Demonstrant:innen. Und dann lese ich morgens in einem Exil-Medium, dass es sogar 12.000 sein könnten. Am Frühstückstisch kommen mir die Tränen, ich fühle mich hilflos. Es ist nicht zu fassen. Der Bruder meines iranischen Freundes hat zwei Freunde im Kugelhagel in Teheran verloren. Plötzlich sind die Leichensäcke aus den Videos ganz nah.
Im Mail-Account der Redaktion häufen sich Bitten der persischen Diaspora, doch zu berichten, etwas zu tun. So viele Zuschriften zu einem Thema hatten wir noch nie. Doch die Proteste sind offenbar vorbei, niedergeschlagen mit brutalster und hemmungsloser Gewalt.
In der Redaktionssitzung Ratlosigkeit, uns sind hier die Hände gebunden, wir haben keine gesicherten Informationen. Was können wir tun? Es fühlt sich viel zu wenig an – angesichts der wohl größten Gewaltanwendung gegen Proteste seit dem Tiananmen-Massaker in China. Gewalt gegen Menschen, die für Freiheit und Würde kämpfen.
Bleibt stark und laut
Markus Reuter
Degitalisierung: Entfremdung
Zwischen dem aktuellen KI-Hype und der ersten Industrialisierung gibt es Parallelen, das zeigt sich besonders in der drohenden Entfremdung, analysiert unsere Kolumnistin. Aber es gibt Wege, die gleichen Fehler nicht nochmals zu machen. Von Bianca Kastl –
Artikel lesen
Großbritannien: Kommunikationsplattformen müssen Inhalte scannen
Am Donnerstag ist ein Gesetz in Kraft getreten, laut dem Anbieter von Social-Media- und Dating-Diensten untersuchen müssen, was britische Nutzer*innen einander zuschicken. So sollen Menschen vor ungewollten Dickpics geschützt werden. Von Martin Schwarzbeck –
Artikel lesen
Massenüberwachung und Hacking: Der BND soll neue mächtige Instrumente bekommen
Der BND soll weiter massenhaft Kommunikationsdaten durchsuchen, aber sie künftig länger speichern und zusätzlich millionenfach Inhalte von Kommunikation analysieren. Zudem soll der Geheimdienst Hacking-Angriffe durchführen dürfen. Von Constanze –
Artikel lesen
Repression gegen Proteste: Iranisches Regime setzt auf umfassende Kommunikationsblockade
Gegen die Massenproteste im Iran setzt die Regierung dieses Mal eine Komplettabschaltung der Kommunikation ein. Während früher Mobilfunk und Internet temporär und regional blockiert wurden, sind diesmal auch das Satelliteninternet Starlink und Festnetztelefon betroffen. Von Markus Reuter –
Artikel lesen
Digital Services Act: Was hinter dem Veto des polnischen Präsidenten steckt
Polen tut sich schwer damit, den Digital Services Act vollständig umzusetzen. Nun ist ein lange überfälliges Gesetz am Veto des Präsidenten Karol Nawrocki gescheitert, der Zensur wittert. Damit ist der Konservative auf einer Linie mit Donald Trump – und um Meinungsfreiheit im Netz geht es nur am Rande. Von Tomas Rudl –
Artikel lesen
SeaGuardian: Bundeswehr bestellt große Überwachungsdrohnen aus den USA
Die Marine kauft für 1,9 Milliarden Euro acht große US-Drohnen zur Seeaufklärung und U-Boot-Jagd. Sie ergänzen acht Drohnen der gleichen Größe der Luftwaffe in Jagel. Beide Systeme dürfen auch im Innern fliegen. Von Matthias Monroy –
Artikel lesen
Digitale Gewalt: Wie Regierungen gegen Grok und X vorgehen
Die EU und verschiedene Länder prüfen, wie sie die Deepfake-Flut, die Grok ausspuckt, eindämmen können. Malaysia und Indonesien haben den Chatbot am Wochenende sperren lassen. In der EU könnte ein Eilverfahren dafür sorgen, dass Grok keine Deepfakes mehr produzieren darf. Von Laura Jaruszewski –
Artikel lesen
Zugriff auf biometrische Polizeidaten: EU-Kommission will mit USA geheim verhandeln
Die USA fordern automatisierten Zugriff auf biometrische Polizeidaten in EU-Staaten. Ein Anwalt äußert bei „Beck Online“ erhebliche Bedenken. Die Kommission beginnt trotzdem Verhandlungen mit hoher Geheimhaltung. Von Matthias Monroy –
Artikel lesen
linksunten.indymedia.org: Durchsuchungsanordnungen wegen des Archivs waren rechtswidrig
Im August 2023 durchsuchte die Polizei Wohnungen mehrerer Personen, die angeblich das Archiv linksunten.indymedia.org betrieben haben sollen. Doch es gab weder einen ausreichenden Anfangsverdacht noch waren die Maßnahmen verhältnismäßig, entschied nun das Landgericht Karlsruhe. Von Anna Biselli –
Artikel lesen
Wikipedia wird 25: Ein anderes Internet ist möglich
Die große freie Online-Enzyklopädie wird 25 Jahre alt. In Zeiten von autoritärer Bedrohung, Deepfakes und Desinformation ist die Wikipedia heute wichtiger denn je. Und sie macht Spaß – zum Beispiel beim Wikipedia-Tauchen. Eine Liebeserklärung. Von Markus Reuter –
Artikel lesen
875 Eltern und Kinder befragt: Social-Media-Verbot ist nicht die beste Lösung
Hunderte Kinder, Jugendliche und Eltern in Deutschland wollen Social Media lieber einschränken als verbieten. Das geht aus einer Umfrage von Marktforschenden hervor. Während Australien ein Verbot für unter 16-Jährige eingeführt hat, läuft in Deutschland die Debatte. Von Sebastian Meineck –
Artikel lesen
Landgericht Berlin: Doctolib wegen Irreführung der Versicherten gerügt
Suchen Nutzer*innen ausschließlich nach Terminen für Kassenpatienten, zeigt ihnen Doctolib auch kostenpflichtige Privatsprechstunden an. Damit führe die Buchungsplattform Versicherte in die Irre, rügt das Landgericht Berlin. Endgültig ist die Entscheidung nicht. Von Laura Jaruszewski –
Artikel lesen
Pressefreiheit: Wie Vietnams Großkonzern einen Regimekritiker in Berlin schikaniert
Der vietnamesische Regimekritiker und Berliner Journalist Trung Khoa Lê musste wegen kritischer Reels in sozialen Medien vor das Berliner Landgericht. Geklagt hat der Chef des größten vietnamesischen Privatkonzerns Vingroup, der weltweit gegen Journalist*innen und Blogger*innen vorgeht. In Berlin verbuchte er nun einen Teilsieg. Von Timur Vorkul –
Artikel lesen
Innenministerium: Unbürokratisch überwachen
Das Bundesinnenministerium will weniger Bürokratie für sich und seine Behörden. Das BKA soll künftig Überwachungsanträge delegieren können und seltener Betroffene benachrichtigen müssen. Der entsprechende Gesetzentwurf ist nun im Bundestag und enthält viele weitere Maßnahmen. Von Anna Biselli –
Artikel lesen
Interview: „Wir wollen ImmoScout24 vergesellschaften“
Seit Jahren sind bezahlbare Mietwohnungen rar und wer eine sucht, ist meist auf Plattformen wie Immoscout24 angewiesen. Zwei Aktivist*innen haben sich deren Geschäftsmodell näher angesehen. Im Interview erläutern sie die Ergebnisse ihrer Datenanalyse und wie Wohnraum gerechter verteilt werden könnte. Von Leonhard Pitz –
Artikel lesen
Digitaler Omnibus: Direkt von Big Techs Wunschliste
Um Europas Wirtschaft zu stärken, will die EU ihre Regeln für die digitale Welt teilweise aufweichen. Das Gesetzespaket bedient allerdings vor allem die Interessen US-amerikanischer Tech-Unternehmen, wie jetzt eine Analyse des Corporate Europe Observatory und von LobbyControl zeigt. Von Tomas Rudl –
Artikel lesen
Digitale Unterdrückung: So schalten Staaten das Internet aus
Internetabschaltungen sind mittlerweile eine verbreitete Methode, vor allem in autoritären Regimes, die Bevölkerung und Informationen zu unterdrücken. Welche Formen dieser Informationskontrolle gibt es? Wie funktionieren sie? Und was hilft dagegen? Eine Analyse. Von Markus Reuter –
Artikel lesen
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Internetabschaltungen sind mittlerweile eine verbreitete Methode, vor allem in autoritären Regimes, die Bevölkerung und Informationen zu unterdrücken. Welche Formen dieser Informationskontrolle gibt es? Wie funktionieren sie? Und was hilft dagegen? Eine Analyse.

Im Januar 2026 hat der Iran die umfassendste und längste Internetabschaltung umgesetzt, die das Land jemals erlebt hat. Neben mobilem und stationärem Internet wurden auch Mobil- und Festnetztelefonie abgeschaltet und sogar das von iranischen Netzen unabhängige Satelliteninternet Starlink gestört.
Der Iran ist bei weitem nicht das einzige Land, das Internetsperrungen als Mittel der digitalen Unterdrückung gegen die Bevölkerung einsetzt. Zuletzt hat auch Uganda im Rahmen der Präsidentschafts- und Parlamentswahl Messenger und soziale Medien blockiert und das Internet fast komplett abgeschaltet.
Internetabschaltungen sind letztlich die härteste Form der Internetzensur, weil sie nicht nur einzelne Seiten, Dienste oder Medien zensieren, sondern alle Wege moderner Kommunikation blockieren oder erschweren.
Weltweit immer mehr Shutdowns
Laut dem zivilgesellschaftlichen Bündnis „Keep it on“ gab es im Jahr 2024 fast 300 Internetabschaltungen in 54 Ländern – Tendenz steigend. Die Begründungen und Anlässe für die Abschaltungen sind laut Keep it on sehr häufig Proteste, das Umfeld von Wahlen, aber manchmal auch die angebliche Prävention von Betrug bei zentralen Schul- und Universitätsprüfungen.
Internetabschaltungen basieren auf unterschiedlichen technologischen Maßnahmen und politischen Voraussetzungen, die diese überhaupt erst möglich machen. Dabei gibt es sehr verschiedene Formen und Ausprägungen dieser Form der Internetzensur und der Abschaltung des Netzes. Die Übergänge von klassischer Zensur bis hin zur Abschaltung sind dabei fließend.

Aufgrund der weltweit fortschreitenden Digitalisierung und den zunehmenden gesellschaftlichen, sozialen, wirtschaftlichen und institutionellen Abhängigkeiten von der Verfügbarkeit digitaler Kommunikation, sind Internetabschaltungen aus Sicht des unterdrückenden Regimes immer nur letztes Mittel. Weil das Leben und wirtschaftliche Tätigkeiten quasi zum Erliegen kommen, sind die Kosten kompletter Abschaltungen sehr hoch, weswegen oft auch nur regionale und temporäre Teilabschaltungen und die Abschaltung oder Erschwerung bestimmter Kommunikationsdienste genutzt werden.
Einige autoritäre Regime wollen deswegen von ihnen kontrollierte, zensierte und überwachte nationale Netze, in denen es nur partiell und restriktiv kontrolliert Zugang zum Internet gibt. Mit solchen Netzen können Behörden- und Wirtschaftsabläufe oder Online-Shopping weitergehen, während die Inhalte und Kommunikation der Bevölkerung zensiert, kontrolliert und gedrosselt werden können. Ein solches abgeschottetes und vollkommen kontrolliertes Netz hat technologisch bislang nur China vollständig umsetzen können, andere Staaten wie Russland oder Iran arbeiten an solchen Netzen.
Welche Formen von Abschaltungen gibt es?
Die einfachsten Formen von Abschaltungen sind die Blockade bzw. Zensur von Webseiten oder Messengern und sozialen Medien. Bei lokalen Protesten greifen Länder wie der Iran zudem auf temporäre und regionale Teilabschaltungen des Mobilfunks zurück. Sie erhoffen sich so, Mobilisierungen und Nachrichtenfluss zu erschweren und Proteste regional einzudämmen.
Eine weitere Methode ist die Drosselung des Internets. Hierbei wird die verfügbare Bandbreite, also der Durchfluss von Daten, künstlich begrenzt. Ziel ist, dass sich Videoaufnahmen, Bilder und Kommunikation verlangsamen und sich so demobilisierende Effekte in der Bevölkerung einstellen.
Die harte Form des Internet-Shutdowns ist die landesweite Aufhebung jeder Konnektivität, so wie sie im Januar 2026 im Iran geschehen ist. Hierbei wird in Kauf genommen, dass das wirtschaftliche, soziale und gesellschaftliche Leben fast vollkommen zum Erliegen kommt. Diese Form der Abschaltung lässt sich deswegen nicht lange durchhalten – außer dem Regime steht ein funktionierendes landesweites Intranet zur Verfügung, das es kontrolliert und das die wirtschaftlichen und institutionellen Folgen abfedern kann.

Wie gehen die Abschaltungen technisch?
Hierzu gibt es unterschiedliche Methoden. Im Falle des Iran im Januar 2026 berichtet das US-Unternehmen Cloudflare, dass der Internet-Verkehr in und aus dem Iran am 8. Januar auf praktisch Null gesunken ist. Die großen iranischen Netzwerk-Anbieter haben aufgehört, dem Rest des Internets mitzuteilen, auf welchem Weg ihre IP-Adressen zu erreichen sind.
Um 15:20 Uhr Ortszeit sank demnach die Menge von iranischen Netzwerken bekannt gegebener IPv6-Adressen um 98,5 Prozent von über 48 Millionen /48-Netzblöcken auf knapp über 737.000 /48-Netzblöcke. Ein Rückgang des gemeldeten IP-Adressraums bedeutet, dass die meldenden Netzwerke der Welt nicht mehr mitteilen, wie diese Adressen zu erreichen sind. Innerhalb von einer halben Stunde wurde so das Land fast vollständig vom globalen Internet abgeschnitten.
Technische Erklärungen zum kompletten Shutdown im Iran gibt es unter anderem bei:
Wie kann man Internet-Abschaltungen umgehen?
Eine Umgehung abgeschalteter zentraler Netze kann unter anderem mit Satellitentelefonen und Satelliteninternet wie Starlink erreicht werden. Diese sind unabhängig von der physischen Netzstruktur eines Landes. Deswegen sind diese in Ländern wie dem Iran auch verboten.
Dem Iran ist es bei der Abschaltung im Januar 2026 gelungen, auch Starlink massiv einzuschränken. Die Satelliten-Antennen benötigen GPS-Signale, um ihre Position zu kennen. Das Regime hat vermutlich mit einer Mischung aus GPS-Spoofing, beim dem falsche GPS-Signale gesendet werden und mit Jamming, bei dem die Frequenz mit Störsignalen geflutet wird, Starlink fast zum Erliegen gebracht. Hinzu kommen lokale repressive Maßnahmen wie Hausdurchsuchungen und ähnliches, bei denen nach den Antennen gesucht wird.
Welche Faktoren begünstigen Internetabschaltungen?
Je autoritärer ein Land ist, desto eher gibt es Internetabschaltungen. Je zentralisierter die Netze sind und je enger der staatliche Zugriff auf diese ist, desto effektiver und schneller kann ein Land das Internet abschalten.
Am Beispiel des Irans lässt sich das gut zeigen. Dort gibt es staatlich kontrollierte Gateways. Private Internetzugangsanbieter müssen sich über diese mit dem globalen Internet verbinden. Der Staat hat Zugriff auf alle Arten von Kommunikationsinfrastrukturen, viele zentrale Punkte werden vom dominanten Iranischen Telekommunikations-Unternehmen kontrolliert, auf das wiederum das Kommunikationsministerium und der Nationale Sicherheitsrat Durchgriff haben.
Recherchen von Netzwerkspezialisten, die durch eine Recherche von netzpolitik.org, Correctiv und taz im Jahr 2022 herauskamen, haben gezeigt, dass das iranische Netz nur über wenige „Brücken“ nach außen in das weltweite Internet verfügt. Diese Brücken heißen nicht wirklich Brücken, sondern es handelt sich um so genanntes Peering zwischen Autonomen Systemen. Von diesen gibt es weltweit mehr als 120.000, der Iran war 2022 aber nur über eine Handvoll dieser autonomen Systeme mit der Außenwelt verbunden. So lässt sich das Land schnell abkapseln vom Internet.
Was hätten autoritäre Regime gern?
Seit 2005 will der Iran ein so genanntes „Nationales Informations-Netzwerk“ aufbauen – eine Art Intranet im Iran, das vom weltweiten Internet unabhängig ist. In Teilen ist der Aufbau auch schon gelungen. Als Vorbild dient China, das mit der „Großen Firewall“ ein solches Netz schon funktionierend und in Gänze aufgebaut hat. Auch Russland will ein solches abgekapseltes Netz schaffen, das es „Souveränes Internet“ nennt.
Hintergrund sind neben dem Wunsch totaler Informationskontrolle der wirtschaftliche und soziale Schaden, den Internetabschaltungen bedeuten. Allein der Online-Handel soll nach älteren Informationen in jeder Stunde, in der das Internet abgeschaltet wird, etwa 1,5 Millionen Euro Verlust machen.
Deutsche Firma in Aufbau des abgeschotteten Internets im Iran verstrickt
Wer überwacht Internetabschaltungen?
Es gibt mehrere Organisationen und Unternehmen, die Internetabschaltungen überwachen. Aus der Zivilgesellschaft ist Netblocks.org zu nennen, die weltweit und aktuell über Abschaltungen berichten. Wer informiert bleiben möchte, kann Netblocks per Feed oder auf Bluesky und Mastodon folgen.
Die Kampagne „Keep it on“, der mehr als 100 internationale Organisationen angehören, veröffentlicht einen jährlichen Bericht zu Internetabschaltungen und setzt sich politisch gegen diese ein.
Aus der Privatwirtschaft gibt es unter anderem die Monitoringseite radar.cloudflare.com. Für den Shutdown im Iran hat auch Whisper-Security ein Monitoring geschaltet.
Wie können sich Gesellschaften technisch schützen?
Es gibt verschiedene Ansätze von sogenannten Mesh-Netzwerken, die beispielsweise auf Basis von WLAN, Bluetooth oder anderen Funkfrequenzen basieren. Würden sehr viele Menschen solche Netzwerke nutzen, könnte zumindest eine basale Kommunikation mit wenig Bandbreite auch ohne zentralisierte, privatwirtschaftliche und staatlich kontrollierte Infrastrukturen funktionieren.
Zu den bekannten Mesh-Netzwerken gehören unter anderem Freifunk, aber auch Meshtastic oder Meshcore sowie zahlreiche andere Varianten. Aber auch solche Netzwerke sind angreifbar, beispielsweise über Störsender. Zudem sind die Betreiber von Knotenpunkten je nach Typ des Netzwerkes auch lokalisierbar.
Was können Deutschland oder die EU tun?
Bundesregierung oder EU-Kommission können Internetabschaltungen öffentlich verurteilen und sich für Exportbeschränkungen von Technologien einsetzen, die zu Zensur, Überwachung und Internetkontrolle eingesetzt werden. Möglich sind auch wirtschaftliche Sanktionen gegen private Unternehmen, die sich an digitaler Unterdrückung beteiligen. Generell ist dafür nötig, die Zusammenhänge der Digitalisierung und von Menschenrechten mehr als bisher zu erkennen.
Kann ich Betroffenen mit Snowflake helfen?
Snowflake stellt zensierten Internetnutzern den Zugang zum Tor-Netzwerk zur Verfügung. Wenn das Internet komplett abgeschaltet ist, dann hilft Snowflake nicht. Aber es ist dennoch sinnvoll, wenn viele Menschen die Browsererweiterung nutzen. Denn sobald das Internet wieder angeht, hilft Snowflake den Menschen leichter, anonym im Netz unterwegs zu sein und die Zensur im Land zu umgehen.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Um Europas Wirtschaft zu stärken, will die EU ihre Regeln für die digitale Welt teilweise aufweichen. Das Gesetzespaket bedient allerdings vor allem die Interessen US-amerikanischer Tech-Unternehmen, wie jetzt eine Analyse des Corporate Europe Observatory und von LobbyControl zeigt.

Die EU-Kommission soll sich bei ihren Deregulierungsplänen in den Bereichen Datenschutz und KI maßgeblich von Big Tech inspiriert haben lassen. Das geht aus einer Analyse der NGOs Corporate Europe Observatory (CEO) und LobbyControl zum sogenannten „Digitalen Omnibus“ hervor. Demnach entsprechen viele Pläne der Kommission für das Gesetzespaket den Wünschen der IT-Branche, die mit immer mehr Geld in Brüssel für möglichst wenig Regulierung lobbyiert.
Den digitalen Omnibus hatte die Kommission im Spätherbst vorgestellt. Mit dem Gesetzespaket will sie laut eigener Aussage Bürokratie abbauen, Regeln entschlacken und überlappende Gesetze harmonisieren. Im Blick hat sie dabei den Datenschutz, Regeln für die Datennutzung, Cyber-Sicherheit sowie die KI-Verordnung. Vereinfachte Regeln sollen die Wettbewerbsfähigkeit Europas und vor allem europäischer Unternehmen verbessern, so die EU-Kommission.
Doch vieles im Kommissionsentwurf lese sich wie eine Wunschliste ausgerechnet US-amerikanischer Tech-Konzerne, schreiben CEO und LobbyControl: „Ironischerweise wird diese Deregulierungsagenda von der Kommission als Mittel zur Steigerung der Wettbewerbsfähigkeit der EU verkauft – obwohl sie damit in Wirklichkeit die US-amerikanischen Big-Tech-Unternehmen aktiv stärkt, die den Markt dominieren.“
Zugleich baut dieser „beispiellose Angriff auf digitale Rechte“ den beiden Nichtregierungsorganisationen zufolge wichtige Schutzmechanismen für EU-Bürger:innen ab. Diese sorgten dafür, dass die Daten aller sicher sind, Regierungen und Unternehmen zur Rechenschaft gezogen werden können, und Menschen davor bewahrt werden, dass unkontrollierte KI-Systeme über ihre Lebenschancen entscheiden.
Akribische Detailanalyse
Diese Schlussfolgerungen untermauern die NGOs mit einem detaillierten Vergleich des Gesetzentwurfs mit öffentlich bekannten Lobby-Forderungen der Tech-Branche, darunter Konzernen wie Google, Microsoft und Meta. So will die Kommission beispielsweise pseudonymisierte Daten überwiegend nicht mehr als personenbezogene Daten behandelt wissen. Setzt sie sich im laufenden Gesetzgebungsprozess durch, würden solche Daten aus dem Geltungsbereich der Datenschutz-Grundverordnung (DSGVO) herausfallen.
Was wie ein unscheinbares Detail klingt, hätte weitreichende Folgen. Damit hätten es unter anderem Tracking-Firmen und Datenhändler einfacher, die digitalen Spuren von Internet-Nutzer:innen zusammenzuführen, auszuwerten und zu monetarisieren. Zudem lassen sich aus pseudonymisierten Daten relativ einfach Einzelpersonen re-identifizieren, wie nicht zuletzt unsere Databroker-Files-Recherche gezeigt hat.
Für eine derartige Änderung setzt sich die Digitalbranche schon seit langem ein. So forderte der Lobby-Verband Digital Europe in einem Empfehlungspapier, das Schutzniveau für pseudonymisierte Daten abzusenken. Von Google bis Meta sind praktisch alle führenden Tech-Unternehmen in der Organisation vertreten. In die gleiche Richtung argumentiert an anderer Stelle auch Microsoft Deutschland: Die Änderung „wäre besonders wichtig, um die Entwicklung neuer Technologien, einschließlich (generativer) KI, zu unterstützen“, heißt es in einer Stellungnahme des US-Unternehmens zum EU Data Act.
Auf Anfrage des Online-Mediums Euractiv (€) wies ein Sprecher der EU-Kommission die Vorwürfe zurück. „Der Digitale Omnibus ist das Ergebnis eines umfassenden und transparenten Prozesses, in dem Zivilgesellschaft, kleine und mittlere Betriebe sowie akademische Einrichtungen gleichermaßen die Möglichkeit hatten, sich einzubringen.“ Der Digitale Omnibus verfolge ein klares Ziel, so der Sprecher weiter: „Die Förderung eines sicheren und wettbewerbsfähigen digitalen Binnenmarktes, der allen europäischen Bürgerinnen und Bürgern sowie allen europäischen Unternehmen unabhängig von ihrer Größe dient“.
Warnungen bewahrheiten sich
Doch das von den NGOs dokumentierte Muster wiederholt sich an zahlreichen Stellen. Mit Industrieforderungen praktisch deckungsgleiche Vorschläge finden sich zum Beispiel in Abschnitten zur Beschneidung des Auskunftsrechts über bei Unternehmen gespeicherte Daten oder beim geplanten Wegfall von Schutzvorkehrungen bei automatisiert getroffenen Entscheidungen. Auch eine Klarstellung zur Nutzbarkeit personenbezogener Daten für das Training von KI-Systemen hatte sich die Industrie gewünscht.
Bereits im Vorfeld der Omnibus-Veröffentlichung warnten zivilgesellschaftliche NGOs, Gewerkschaften und Verbraucherschutzorganisationen vor einem „der größten Rückschritte für digitale Grundrechte in der Geschichte der EU“. Der als „technische Straffung“ der EU-Digitalgesetze verkaufte Vorstoß sei „in Wirklichkeit ein Versuch, heimlich Europas stärkste Schutzmaßnahmen gegen digitale Bedrohungen abzubauen“, hieß es in einem Brief, den über 120 Organisationen unterzeichnet haben, darunter European Digital Rights (EDRi), Amnesty International und Wikimedia Deutschland.
Die Befürchtungen haben sich bewahrheitet, wie schon erste Analysen nach der Vorstellung des Omnibusses offengelegt haben. Überraschend ist dies gleichwohl nicht: Die Verbesserung der Wettbewerbsfähigkeit der EU zählt zu einem der erklärten Ziele der Ende 2024 wiedergewählten EU-Kommission unter der konservativen Präsidentin Ursula von der Leyen. Zuvor schlugen zwei wegweisende, von der EU in Auftrag gegebene Berichte europäischer Spitzenpolitiker, der sogenannte Draghi– sowie der Letta-Bericht, einen teils drastischen Abbau von Regulierung vor.
Lobbyist:innen umgarnen rechtsaußen-Parteien
Bei eher linksstehenden Parteien ist dieser Ruf nach Deregulierung auf ein überwiegend negatives Echo gestoßen. Ganz anders die Reaktion rechter und rechtsradikaler Parteien, die bei der letzten EU-Parlamentswahl zugelegt hatten und ihren Einfluss deutlich steigern konnten. Traditionell zeigen sich solche Parteien zum einen wirtschaftsliberalen Ansätzen gegenüber aufgeschlossen. Zum anderen lassen sie kaum eine Gelegenheit ungenutzt, Gesetzgebung aus Brüssel kurz und klein zu schlagen.
Dass sich die Berührungsängste der Europäischen Volkpartei (EVP), der auch von der Leyen angehört, zu Rechtsaußen-Fraktionen in Grenzen halten, hatte die Kommissionpräsidentin wiederholt ausgesprochen. Inzwischen ist daraus gelebte Praxis geworden: Bereits mehrfach machten moderate Konservative im EU-Parlament gemeinsame Sache mit der extremen Rechten, um beispielsweise das Lieferkettengesetz entscheidend zu schwächen. Eine Zusammenarbeit beim digitalen Omnibus zeichnet sich jetzt schon ab.
Die verschobenen Machtverhältnisse machen sich auch beim Lobbying bemerkbar, wie Corporate Europe Observatory und LobbyControl aufzeigen. Vor allem das Trump-freundliche Meta, das unter anderem Facebook, Instagram und WhatsApp betreibt, sucht offenbar gezielt die Nähe zu Rechtsaußen-Politiker:innen.
So hatten sich Meta-Lobbyist:innen laut der Analyse in der gesamten vorangegangenen Legislaturperiode nur ein einziges Mal mit einem Abgeordneten einer einschlägigen Fraktion getroffen. Seit im Sommer 2024 das Parlament neu bestellt wurde, lassen sich inzwischen 38 Treffen zwischen Meta und Abgeordneten der „Patrioten für Europa“ oder „Europäischen Konservativen und Reformer“ dokumentieren. Bei den Treffen sei der Digitale Omnibus eine „Schlüsselpriorität“ gewesen, so die NGOs.
„Die Lobbying-Strategie der großen Technologiekonzerne in den USA, wo sie sich mit der Trump-Administration verbündet haben, scheint nun auch auf das Europäische Parlament ausgeweitet worden zu sein“, schreiben die NGOs.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Seit Jahren sind bezahlbare Mietwohnungen rar und wer eine sucht, ist meist auf Plattformen wie Immoscout24 angewiesen. Zwei Aktivist*innen haben sich deren Geschäftsmodell näher angesehen. Im Interview erläutern sie die Ergebnisse ihrer Datenanalyse und wie Wohnraum gerechter verteilt werden könnte.

Wer in Deutschland eine Wohnung sucht, kommt an ImmoScout24 kaum vorbei. Auf dem 39. Chaos Communication Congress haben zwei Aktivist:innen das Geschäftsmodell der Immobilienplattform näher angesehen und mit einer Datenanalyse herausgefunden: Viele dort eingestellte Angebote verstoßen mutmaßlich gegen die Mietpreisbremse. Ihre Lösung: Vergesellschaftung.
Im Interview erklären die Aktivist:innen, welchen Einfluss ImmoScout24 auf hohe Mieten hat und was sie sich von einer alternativen Plattform erhoffen. Leonard ist aktiv bei „Deutsche Wohnen & Co Enteignen“ und veranstaltet das Meetup „tech from below“. Sandra engagiert sich in digitalpolitischen Zusammenhängen und setzt sich für soziale Infrastrukturen ein.
Die Verschärfung der Wohnungskrise
netzpolitik.org: Warum habt Ihr Euch ImmoScout24 genauer angeschaut?
Sandra: Gerade beim Thema Wohnraum erleben wir eine ziemlich starke Verschärfung der Wohnverhältnisse, besonders in Großstädten. Deshalb haben wir uns gefragt, wie läuft es mit der Wohnraumverteilung, also der Vermittlung über Plattformen wie ImmoScout24, aber auch Kleinanzeigen oder Immonet.
ImmoScout24 haben wir uns genauer angesehen aufgrund ihrer sehr hohen Gewinnmargen. Das passt nicht zusammen mit der Vorstellung, dass die Plattform nur ein neutraler Marktplatz ist, der Anbieter:innen und Kund:innen effizient zusammenbringt und über den Wohnungen verteilt werden.
Leonard: Wenn über digitale Plattformen gesprochen wird, gilt die Kritik meist den US-amerikanischen Tech-Konzernen. Deutsche Plattformen erscheinen dagegen als harmloser digitaler Mittelstand, obwohl ihr Geschäftsmodell tendenziell auch auf Rentenextraktion und ausgelagerter Wertschöpfung beruht. [Anm. d. Red.: „Rentenextraktion“ meint das Abführen von Einnahmen durch die schiere Kontrolle einer wichtigen Ressource, wie z.B. Land oder Teile der Infrastruktur.]
Für den Wohnungsmarkt ist diese Unterscheidung irreführend. Über Plattformen wie ImmoScout24 wissen wir wenig, obwohl sie zur zentralen digitalen Infrastruktur für Wohnungssuchende geworden ist.
Doppelter Lock-in-Effekt
netzpolitik.org: Welche Wirkung hat ImmoScout24 auf den Markt?
Sandra: Auf der einen Seite profitiert ImmoScout24 von der Wohnungskrise. Je weniger Wohnraum es gibt, desto weniger können sich Suchende solchen Plattformen entziehen.
Hier greift dann der Netzwerkeffekt, was die Marktmacht von ImmoScout24 stärkt. Menschen, die auf Wohnungssuche sind, neigen dazu, Abonnements bei ImmoScout24 abzuschließen, mit denen die Plattform Geld verdient. Wobei unklar ist, ob man mit dem Abo dann tatsächlich schneller eine Wohnung bekommt.
Auf der anderen Seite gibt es auch noch das weitaus profitablere Geschäftskunden-Segment, also Makler:innen und Eigentümer:innen. Auch dort verdient ImmoScout24 mit Abonnements und Accounts Geld. Makler:innen haben damit Kosten und sind zudem stark in das Ökosystem der Plattform eingebunden. Gleichzeitig bündelt ImmoScout24 auch viele möglicherweise für sie relevante Serviceleistungen und Daten.
Das alles führt zu einem sogenannten Lock-in-Effekt: Beide Seiten sind auf der Plattform quasi gefangen und ImmoScout24 profitiert von dieser Situation.
Leonard: Die Wohnungskrise entsteht nicht durch die Plattform ImmoScout24. Die Plattform ist aber ein Katalysator dieser Krise.
ImmoScout24 präsentiert sich zwar als neutraler Vermittler. Tatsächlich aber bildet die Plattform den realen Wohnungsmarkt verzerrt ab. Vor allem gemeinwohlorientierte und vergleichsweise günstige Wohnangebote, etwa von Genossenschaften oder landeseigenen Wohnungsunternehmen, sind dort kaum zu finden.
Stattdessen dominieren hochpreisige Segmente wie Neubauten, möblierte Wohnungen oder Kurzzeitvermietungen das Angebot. Dadurch entsteht ein Bild der Angebotsmieten, das deutlich über den tatsächlichen Mieten der Stadt liegt.
Diese einseitige Angebotsstruktur führt dazu, dass die auf der Plattform sichtbaren – und teils auch von der Plattform vorgeschlagenen – Preise nicht den realen Wohnungsmarkt widerspiegeln, sondern Maximalpreise für Vermietende ausloten, was in der Tendenz dazu führen kann, dass Angebote immer teurer eingestellt werden.
Immobilienscout berücksichtigt Mietpreisbremse nicht
netzpolitik.org: Aber ist das die Schuld von ImmoScout24 ? Die Plattform kann die landeseigenen Wohnungsunternehmen und Genossenschaften ja nicht zwingen, bei ihnen zu inserieren.
Sandra: Die Schuldfrage ist für uns nicht relevant. Wir haben es bei dem Betreiber mit einem profitorientierten Unternehmen zu tun, dessen Geschäftsmodell offensichtlich gut funktioniert. Sonst wäre Scout24 wohl nicht in den DAX aufgestiegen.
Wir wollen darüber nachdenken, ob wir die Wohnraumverteilung überhaupt über eine profitorientierte Plattform steuern sollten, deren Funktionslogik nicht primär im Sinne der Mietenden und Suchenden operiert.
Leonard: Hinzu kommt, dass Immoscout mit seiner automatischen Berechnung auch Regularien wie die Mietpreisbremse ignoriert. Es gibt nur einen sehr unauffälligen Hinweis, dass die Plattform-Betreiber das entsprechende Gesetz in ihrer Berechnung nicht berücksichtigen.
„Für uns ist das alles ehrenamtliches Engagement“
netzpolitik.org: Die Daten für eure Analyse habt ihr euch über einen Drittanbieter besorgt. Wie seid ihr vorgegangen?
Leonard: Wir haben dafür Rapid API genutzt. Das ist ein Marktplatz für Schnittstellen und Webscraper. Damit haben wir uns die Daten von allen Angeboten für Wohnungen zur Miete besorgt, die in Berlin an einem einzigen Tag im November auf der Plattform angeboten wurden. Das war die Grundlage des Datensatzes und bildet ab, was eine Person sieht, die zu einem bestimmten Zeitpunkt eine Wohnung auf Immoscout sucht.
Anschließend haben wir den Datensatz noch mithilfe eines Sprachmodells klassifiziert. Auf diese Weise wollten wir herausfinden, ob die angebotenen Wohnungen beispielsweise möbliert sind. Denn dann ist die Berechnung der zulässigen Miete komplizierter.
netzpolitik.org: Werdet Ihr den Datensatz noch veröffentlichen?
Leonard: Wir haben das bislang nicht geplant, aber auch nicht ausgeschlossen. Man müsste das erst mal in eine Form bringen, die man veröffentlichen darf und mit der andere auch eigene Berechnungen anstellen können.
Unsere Gruppe ist derzeit zu viert. Für uns ist das alles ehrenamtliches Engagement und viel Aufwand. Ich würde mich sehr freuen, wenn eine wissenschaftliche Institution mit mehr Ressourcen eine noch detaillierte Analyse von ImmoScout machen würde, inklusive der Veröffentlichung der Rohdaten.
„Wir reden potenziell über haufenweise Straftaten.“
netzpolitik.org: Was sind denn die wichtigsten Ergebnisse Eurer Datenanalyse?
Sandra: Die Mietpreisbremse wird auf ImmoScout24 – vermutlich – systematisch ignoriert. Bei den Datensätzen, für die wir das mit einer gewissen Zuverlässigkeit ermitteln konnten, verstoßen 57 Prozent der Angebote möglicherweise gegen die Mietpreisbremse, weil sie mehr als 10 Prozent über der ortsüblichen Vergleichsmiete liegen. Und 41 Prozent könnten sogar über der Grenze des Mietwucherparagrafen liegen, weil die Miete dort mehr als 50 Prozent der ortsüblichen Vergleichsmiete beträgt. Wir formulieren das im Konjunktiv, weil unsere Datenerhebung eben auch gewissen Einschränkungen unterliegt.
Leonard: Wie wir in unserem Vortrag auf dem 39. Chaos Communication Congress erklärt haben, haben wir mit Blick auf die Mietpreisbremse sehr konservativ gerechnet.
„Mietwucher“ ist ein Begriff aus dem Wirtschaftskriminalrecht. Dieser Paragraph ist allerdings rechtlich schwer anzuwenden. Prinzipiell ist eine Miete, die 20 bis 50 Prozent über der ortsüblichen Vergleichsmiete liegt, eine Ordnungswidrigkeit.
Eine Miete, die über 50 Prozent darüber liegt, kann sogar eine Straftat darstellen. Und wir haben in unserem Sample viele Inserate, die über 100 Prozent über der ortsüblichen Vergleichsmiete liegen. Wir reden also potenziell über haufenweise Straftaten.
netzpolitik.org: Habt Ihr überlegt, diese Angebote anzuzeigen oder die Leute, die diese Angebote einstellen, zumindest anzuschreiben?
Sandra: Wir haben nicht die Absicht, einzelne Anbieter ausfindig zu machen. Sondern wir wollen zeigen, welche Logik hier greift. Wie deutlich die Ergebnisse ausfielen, hat uns dann selbst überrascht. Zwischenzeitlich haben wir uns gefragt, ob unsere Daten fehlerhaft sind. Aber im Dezember erschien dann noch eine Studie des Mieterbundes, die zu ähnlichen Ergebnissen kam und damit nahelegt, dass wir es hier mit einem strukturellen Problem zu tun haben.
Gemeinwohl statt Profit
netzpolitik.org: Ihr wollt ImmoScout24 vergesellschaften. Was heißt das?
Sandra: Wir wollen die profitorientierte Struktur, nach der aktuell Wohnraum verteilt wird, durch eine gemeinwohlorientierte Logik ersetzen und aufzeigen, dass auch Plattformen nach den Ansprüchen der Daseinsvorsorge gestaltet werden können.
In der konkreten Ausgestaltung stehen wir noch am Anfang. Künftig könnte es eine Plattform geben, auf der alle Inserate zu finden sind, und die Mietenden relevante Informationen gibt, zum Beispiel zu Mietsteigerungen in der Vergangenheit und so beidseitige Transparenz schafft. Diese Plattform “matcht” dann auch algorithmisch, aber eben vorrangig nach den Bedürfnissen der Mietenden und Suchenden. Außerdem könnte auch die Einhaltung der Mietpreisbremse sichergestellt oder zumindest angezeigt werden.
Wir können mit unserer Idee gut an Artikel 15 des Grundgesetzes anknüpfen, weil man unser Anliegen auch als Vergesellschaftung von Infrastruktur begreifen kann.
Leonard: Wir wollen dafür die bestehende Plattform vergesellschaften, sie also in Gemeineigentum überführen, damit Wohnungssuchende dann mitentscheiden können, wie diese Plattform funktionieren soll.
Bei der Vergesellschaftung geht es also nicht um die Entscheidung „Markt oder Staat“, sondern darum, mit der Gemeinwirtschaft eine dritte Alternative zu finden. Wir orientieren uns dabei an der Kampagne „Deutsche Wohnen und Co Enteignen“. Die Aktivist:innen dort schlagen als Organisationsform etwa eine Anstalt öffentlichen Rechts vor.
„Unsere Kampagne steht erst am Anfang“
netzpolitik.org: Kann man sich das vorstellen wie beim öffentlich-rechtlichen Rundfunk? Dort gibt es ja auch Rundfunkräte aus verschiedenen gesellschaftlichen Gruppen, die durch Gremien wie den Rundfunkrat die Oberaufsicht über die Sender haben…
Leonard: Der öffentlich-rechtliche Rundfunk hat aus meiner Sicht nicht die besten Mitbestimmungsmechanismen. Aber die Grundidee ist schon richtig. Ein besseres Konzept wären aber zum Beispiel Plattformräte.
Wie die Mitbestimmung im Fall von ImmoScout24 genau ausgestaltet werden sollte, wissen wir aktuell noch nicht im Detail. Unsere Kampagne steht erst am Anfang. Aktuell arbeiten neben Sandra und mir noch Aline Blankertz und Malte Engeler an dem Projekt. Wir laden alle Leute herzlich dazu ein, bei unserer Gruppe mitzumachen und diese Idee weiterzuentwickeln. Interessierte können uns einfach eine E-Mail an vergesellschaften@redscout24.de schreiben.
Sandra: Es geht darum, mit den richtigen Leuten zusammenzuarbeiten. Zu diesem Thema gibt es auch schon etablierte Akteur:innen mit viel Wissen und effizienten Strukturen, wie etwa die Mieterschutzbünde. Mit ihnen wollen wir gemeinsam eine Lösung erarbeiten.
Für eine gerechtere Verteilung von Wohnraum
netzpolitik.org: Angenommen, das funktioniert: Wie löst das Vergesellschaften einer Plattform dann die deutliche Machtasymmetrie, die in der Wohnungskrise existiert?
Sandra: Konkret könnte das bedeuten, dass Anbietende völlig überteuerte Inserate gar nicht erst einstellen können. Auch sollen gesetzliche Vorgaben wie jene der Mietpreisbremse direkt in der Plattform integriert werden.
Zu einer unserer Ideen gehört, dass die Plattform den Vermietenden eine Auswahl an Bewerber:innen schickt, aber nicht sortiert nach deren Gehalt oder Eingangszeitpunkt der Anfrage, sondern nach ihrer Bedürftigkeit.
Aktuell wirkt ImmoScout24 eher wie ein Katalysator für die Wohnungskrise. Wir wollen eine Plattform, die das Gegenteil bewirkt und diese Entwicklung eben nicht verstärkt, sondern abschwächt.
Am Ende ist das Problem der Wohnungskrise natürlich weitaus größer als eine digitale Plattform. Und es bedarf weiterer komplementärer Maßnahmen wie einem bundesweiten Mietendeckel.
Wir glauben aber, dass wir mit einer alternativen Plattform und mit einer anderen Mitbestimmungsstruktur dafür sorgen können, dass es eine gerechtere Verteilung von Wohnraum gibt, gerade in Regionen mit angespannten Wohnungsmärkten. Und davon gibt es derzeit sehr viele.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Das Bundesinnenministerium will weniger Bürokratie für sich und seine Behörden. Das BKA soll künftig Überwachungsanträge delegieren können und seltener Betroffene benachrichtigen müssen. Der entsprechende Gesetzentwurf ist nun im Bundestag und enthält viele weitere Maßnahmen.

Das Bundesinnenministerium (BMI) ist für Asylpolitik genauso zuständig wie für Sport, öffentliche Sicherheit und Wahlrecht. Und so ist auch das Gesetz, das dem Namen nach Bürokratie in der Zuständigkeit des BMI abbauen soll, ein wildes Sammelsurium an Änderungen und Streichungen in anderen Gesetzen: von Bundesmeldegesetz bis De-Mail-Gesetz. An vielen Stellen zeigt sich: Unter Bürokratieabbau versteht die Regierung offenbar auch eine Herabsenkung grundrechtlicher Standards. Eine Parallele zu ähnlichen Debatten auf EU-Ebene, etwa zum Lieferkettengesetz. Dort stimmte das EU-Parlament im Dezember zu, Sorgfaltspflichten von Unternehmen zum Beispiel zu menschenrechtlichen Standards abzuschwächen.
Im vergangenen Oktober präsentierte das Innenministerium den Entwurf für seine Anti-Bürokratie-Offensive, mittlerweile konnten auch Interessensvertretungen ihre Stellungnahmen abgeben und das Gesetz ist im Bundestag angekommen.
BKA-Gesetz: Verantwortungsdelegation und Auskunftseinschränkungen
Viele Änderungen betreffen das BKA-Gesetz, das die Arbeit des Bundeskriminalamts regelt. Der Gesetzesvorschlag will hier „Anordnungs- und Genehmigungsanforderungen, Prüf-, Auskunfts-, Berichts- und Benachrichtigungspflichten“ reduzieren, denn: „Polizeibeamtinnen und Polizeibeamte müssen sich auf die polizeiliche Ermittlungsarbeit fokussieren können und von Verwaltungsaufgaben entlastet werden.“
Konkret heißt das beispielsweise: Es soll für das BKA leichter werden, Maßnahmen wie Telekommunikationsüberwachung, Observationen oder Staatstrojanereinsatz bei einem Gericht zu beantragen. Bisher durfte das – abhängig von der konkreten Maßnahme – in der Regel die Amtsleitung, also der BKA-Präsident oder seine Stellvertretung, oder eine entsprechende Abteilungsleitung. Künftig sollen diese das in vielen Fällen an andere Mitarbeitende delegieren dürfen, solange diese Jurist:innen sind, die eine Befähigung zum Richteramt haben.
Das Deutsche Institut für Menschenrechte sieht darin ein großes Problem. In einer Stellungnahme schreibt die Organisation, es würden durch die Delegation ein „wichtiges behördeninternes Korrektiv entfallen und die Hürden für den Einsatz grundrechtsintensiver Überwachungsmaßnahmen deutlich sinken“. Ist die Beantragung auf viele, unabhängig voneinander arbeitende Personen aufgeteilt, schwäche das Verfahrenssicherungen, „die gewährleisten sollen, dass eine unkoordinierte Addition von Einzelmaßnahmen zu einer verfassungswidrigen Rundumüberwachung von Einzelpersonen führt“.
Die Regierung will nicht nur Antragsprozesse vereinfachen, sondern auch die Benachrichtung für Betroffene von einer Bestandsdatenauskunft einschränken. Wenn das BKA durch die Bestandsdatenauskunft bei einem Telekommunikationsanbieter etwa den Wohnsitz einer Person herausbekommt und dann die Information an eine örtlich zuständige Polizei oder eine andere Behörde weitergibt, soll das BKA die betroffene Person nicht mehr informieren müssen. Das soll Sache der anderen Behörde sein.
Laut der Bundesrechtsanwaltskammer kann das „im schlimmsten Fall dazu führen, dass die betroffene Person die Beauskunftung nicht erhält, weil die andere Polizeibehörde nicht tätig wird“. Die Vereinigung von Anwält:innen fordert, dass weiterhin das BKA informieren soll, wenn es das kann. Eine betroffene Person „soll keine Zuständigkeitsproblematiken zwischen den Behörden erdulden müssen, um ihr Recht auf Auskunft zu erhalten“.
De-Mail: endgültig abschaffen
Auf Zuspruch in den Stellungnahmen von Verbänden stößt es, dass das Innenministerium das Gesetz zu De-Mail bis Ende des Jahres außer Kraft setzen will. Das gescheiterte Projekt, das ursprünglich eine elektronische Alternative zur Briefpost in der Verwaltung sein sollte, ist faktisch längst irrelevant. Die letzten Anbieter für Privatpersonen haben ihre entsprechenden Leistungen bereits eingestellt oder ein Ende angekündigt. Nun soll auch das zugehörige De-Mail-Gesetz wegfallen, und zwar zum 31. Dezember 2026.
Die Bundesarbeitsgemeinschaft der kommunalen IT-Dienstleister Vitako weist indes darauf hin, dass sich Verweise auf ebenjenes Gesetz auch in anderen Gesetzen wie der Abgabenordnung oder dem Sozialgesetzbuch finden und diese ebenfalls getilgt werden müssten.
Außerdem soll nach dem Gesetzentwurf die Bundesregierung nicht mehr wie bisher alle zwei Jahre dem Bundestag berichten müssen, ob die als „sichere Herkunftsstaaten“ bezeichneten Länder weiterhin als solche gelten können. Das könne, so das Innenministerium, „ohne nachteilige Folgen“ gestrichen werden. Denn die Bundesregierung müsse sich auch ohne eine konkrete Berichtspflicht ständig versichern, wie die Lage in den betreffenden Staaten sei. Wer aus einem als sicher betrachteten Herkunftsland stammt und in Deutschland Asyl beantragt, muss damit rechnen, dass der Antrag tendenziell abgelehnt wird. Es wird angenommen, dass in „sicheren Herkunftsstaaten“ in der Regel keine Verfolgungsgefahr besteht.
Das Deutsche Institut für Menschenrechte lehnt das Ende der Berichtspflicht vehement ab. Derartige Berichte seien kein Beiwerk, sondern „dienen der Transparenz von Regierungsentscheidungen gegenüber dem Parlament und der Öffentlichkeit“.
Passend zum Eingang des Gesetzentwurfs in den Bundestag berichtete die Bundesregierung im Parlament am Donnerstag zu diesen und weiteren Projekten im sogenannten Bürokratieabbau anhand einer 16-seitigen Liste von beschlossenen und geplanten Maßnahmen. Diese lässt weder Strahlenschutz noch Tierwohlkennzeichnung oder KI-Einsatz in Visumsverfahren aus.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Der vietnamesische Regimekritiker und Berliner Journalist Trung Khoa Lê musste wegen kritischer Reels in sozialen Medien vor das Berliner Landgericht. Geklagt hat der Chef des größten vietnamesischen Privatkonzerns Vingroup, der weltweit gegen Journalist*innen und Blogger*innen vorgeht. In Berlin verbuchte er nun einen Teilsieg.

Im Rechtsstreit zwischen zwei äußerst ungleichen Parteien hat ein Berliner Gericht entschieden: Sowohl Vietnams reichster Mann, Phạm Nhật Vượng, als auch der Berliner Journalist Trung Khoa Lê behalten in Teilen recht. Vier Aussagen des Journalisten über Vingroup und seinen Chef Vượng wertete das Gericht als zulässig, drei andere habe er zu unterlassen. Bei Zuwiderhandlung drohen Lê 250.000 Euro Ordnungsgeld oder sechs Monate Haft.
Lê ist Chefredakteur des reichweitenstarken Nachrichtenportals thoibao.de, auf dem er kritisch über politische Entwicklungen im Einparteienstaat Vietnam berichtet. Mit seinen Artikeln und Videos auf Vietnamesisch richtet er sich vor allem an Menschen innerhalb des bevölkerungsreichen Landes, in dem die starke staatliche Zensur keinen unabhängigen Journalismus zulässt.
Seine regimekritische Haltung bringt dem Journalisten seit Jahren Probleme ein: Das Portal als auch Thoibaos Inhalte auf Facebook werden in Vietnam gesperrt, in Berlin hat er bereits Morddrohungen erhalten und muss sich mit Cyberattacken herumschlagen. Inzwischen steht er unter dem Personenschutz des Landeskriminalamtes. Nun hat Vượng den Exiljournalisten aus der Ferne vor die Pressekammer des Berliner Landgerichts gebracht.
Vingroup geht weltweit gegen kritische Berichterstattung vor
Vượng und Vingroup haben mit Hilfe einer Kölner Anwaltskanzlei gemeinsam gegen sieben Reels geklagt, die der Journalist zwischen März 2023 und August 2025 auf Facebook und YouTube veröffentlichte. Lês Äußerungen schädigten das Image von VinGroup und Vượng, so der Vorwurf.
Vingroup ist Vietnams größter privater Konzern, der in den Bereichen Immobilien, Tourismus, Handel, Industrie, Medizin und Transport tätig ist. Vingroups Tochterfirma VinFast vertreibt E-Autos in Deutschland. Gemeinsam mit einer anderen Investmentfirma hat Deutsche Bank im Juli 2025 VinFast einen 510 Millionen US-Dollar Kredit gewährt.
Es ist nicht das erste Gerichtsverfahren zwischen dem Journalisten und dem Milliardär Vượng in Berlin. In einem ähnlich gelagerten Verfahren, das Vượng und VinFast Deutschland angestrengt hatten, entschied das Landgericht im vergangenen November größtenteils zugunsten des Journalisten. Vượng und seine Rechtsvertretung haben dagegen bereits Berufung eingelegt.
Das aggressive Vorgehen des Konzerns gegen unliebsame Kritiker*innen hat Methode. Lê ist nur einer von 68 auf vietnamesisch publizierenden Journalist*innen und Blogger*innen weltweit, gegen die Vượng und Vingroup mit Abmahnungen vorgehen. Darunter sind auch zwei weitere Personen in Deutschland.
Drakonische Strafen auch in Vietnam
Zeitgleich zu den in Deutschland laufenden Gerichtsverfahren wird Lê in Vietnam strafrechtlich verfolgt. Am 31. Dezember 2025 wurde er in Abwesenheit zu 17 Jahren Haft verurteilt. Der Vorwurf: staatsfeindliche Propaganda. Der Artikel 117 des vietnamesischen Strafgesetzbuches stellt „die Herstellung, Speicherung, Verbreitung oder Weitergabe von Informationen, Dokumenten oder Gegenständen, die sich gegen die Sozialistische Republik Vietnam richten“ unter Strafe. Mit diesem berüchtigten Artikel hat das kommunistische Regime bereits in der Vergangenheit Journalist*innen, Aktivist*innen sowie Nutzende von Sozialen Medien verfolgt, die von der offiziellen Linie abweichen.
Auch Lês tatsächliche und angebliche Mitarbeitende wurden laut staatlichen Medien zu mehrjährigen Haftstrafen verurteilt, darunter der freie Mitarbeiter Đỗ Văn Ngà zu sieben Jahren Haft. Aktuell verfolgen vietnamesische Behörden sogar Leser*innen von Thoibaos Inhalten. Laut vietnamesischen Exilmedien müssen Menschen, die Thoibaos Inhalte in Sozialen Netzwerken teilen, mit Anzeigen oder Geldstrafen rechnen. Die kommunistische Staatsführung gehe im Vorfeld des anstehenden Parteitages vermehrt gegen Online-Dissident*innen vor.
Urteil bisher ohne Begründung
Eine der angefochtenen Aussagen, bei der die Klägerseite recht behalten durfte, betrifft die Finanzen von Vingroup. Laut Lê beliefen sich Vingroups Schulden im zweiten Quartal 2025 auf etwa 31 Milliarden US-Dollar. Vượng und Vingroup streiten zwar nicht ab, dass diese Zahl tatsächlich aus dem unternehmenseigenen Finanzbericht stammt, werfen Lê jedoch vor, sie aus dem Kontext gerissen zu haben. Die wahren Schulden betrugen lediglich nur einen Teil dieser Summe und beliefen sich auf etwa 8,7 Milliarden Dollar, so Vượngs Anwältin.
In einem anderen Video behauptete Lê, Vingroups Leitung habe allen Mitarbeitenden und ihren Ehepartner*innen angeordnet, sie dürften keine Verbrennerautos mehr nutzen. Mit dieser Anweisung ging laut dem Journalisten auch eine Androhung von Strafe bei Verstoß einher. Die Klägerseite wies das mit dem Argument zurück, die Mitarbeiterin, die diese Mail verschickt habe, habe keine Führungsverantwortung inne gehabt und sei dazu nicht autorisiert gewesen. Das Gericht verbot Lê schließlich, das zu behaupten.
Auch die nicht belegte Aussage, die Kommunistische Partei habe Vượng und seiner Familie die Ausreise aus Vietnam verboten, hat Lê zu unterlassen. Das Gerücht kursiert seit Jahren in den sozialen Netzwerken. Die genaue richterliche Begründung für die Entscheidung steht noch aus.
In den anderen Fällen hat das Gericht die Klage abgewiesen. Sie wurden als zulässige Meinungsäußerungen gewertet. Dazu zählt etwa, dass Vingroup Mühe habe, die täglich anfallenden Zinsen zurückzuzahlen, dass VinFasts Autos vor dem Export in die USA nicht sorgfältig geprüft worden seien und dass Vingroup aus China importierte Ware als in Vietnam produzierte Ware deklariere.
Einen beträchtlichen Teil der Gerichtskosten in Höhe von rund 3.500 Euro Kosten muss der Journalist tragen. Lês Rechtsanwalt kündigte an, gegen das Urteil voraussichtlich in Berufung zu gehen. Die Gerichtskosten belasten den Journalisten jedoch stark, das sei auch gezielt die Strategie des Klägers. Er hat einen Online-Spendentopf eingerichtet.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
