netzpolitik.org

Selbst die penible deutsche Medienaufsicht hatte nichts zu beanstanden bei Porn Better, einer Website für feministische Porno-Rezensionen. Doch auf Instagram ist Porn Better gesperrt. Fachleute sehen die Pressefreiheit in Gefahr.

Porn Better, ein deutsches Portal für Porno-Rezensionen, ist auf Instagram gesperrt. Eine genaue Begründung dafür will die Meta-Tochter nicht vorlegen. Nicht nur die Betreiberinnen von Porn Better sehen in der intransparenten Sperre eine Gefahr für die Pressefreiheit. Alarmiert äußern sich auch Reporter ohne Grenzen und die Gesellschaft für Freiheitsrechte.
Auf Porn Better rezensieren Freundinnen aus Leipzig besondere und feministische Pornoseiten. Die Rezensionen handeln etwa von Produktionsbedingungen, Diversität und Transparenz. Vom Land Sachsen gab es dafür im Jahr 2023 eine Förderung. Sogar die in Sachen Pornos eher penible Medienaufsicht hatte beim Jugendmedienschutz von Porn Better nichts zu beanstanden. Mehr dazu haben wir Anfang April berichtet.
Bei Instagram allerdings hat Porn Better offenbar einen Alarm ausgelöst. Der US-Konzern ließ den Account bereits vergangenen Sommer sperren. In der breiteren Öffentlichkeit wurde das bislang jedoch nicht diskutiert.
Instagram hat den Betreiberinnen zufolge keine genaue Begründung vorgelegt, welcher Post gegen welche Regel verstoßen haben soll. Die Rede ist allgemein von einem „Verstoß gegen Gemeinschaftsrichtlinien zu sexuell motivierter Kontaktaufnahme durch Erwachsene“, wie aus dem Nachrichtenwechsel mit der Plattform hervorgeht. Die erwähnten Richtlinien umfassen eine Vielzahl möglicher Verstöße und lassen sich hier nachlesen.
Bitte um Erklärung perlt einfach ab
Bereits 2023 war der Instagram-Account von Porn Better aus diesem Grund gesperrt worden, jedoch nur für kurze Zeit. Instagram schaltete den Account wieder frei, nachdem die Betreiber*innen erklärt hatten, dass sie sexuelle Bildungsarbeit leisten würden. „Wir möchten uns für dieses Missverständnis entschuldigen“, hieß es damals von Instagram in einer generischen Nachricht.
Hilfesuchend wandten sich die Betreiber*innen also auch bei der erneuten Sperre an Instagram. Sie schilderten, dass sie die Sperrung nicht verstehen. Erneut erklärten sie, dass sie sexuelle Bildungsarbeit leisten würden. Sie seien dafür sogar staatlich gefördert worden. Im Fall eines konkreten, regelwidrigen Posts würden sie gerne verstehen, inwiefern sie gegen Richtlinien verstoßen hätten.
Geholfen hatte die Anfrage dieses Mal allerdings nicht. Der Account blieb offline. In einer generischen Antwort der Plattform gab es keine Erklärung über den genauen Grund.
„Haben uns schon freiwillig selbst zensiert“
Esti ist eine der Gründerinnen von Porn Better. Im Gespräch mit netzpolitik.org erinnert sich die studierte Kulturwissenschaftlerin an den Sommer 2024, als der Instagram-Account verloren ging. Die Sperre habe bei ihr Hilfslosigkeit ausgelöst und ein Gefühl der Willkür. „Wir haben Zeit und Arbeit reingesteckt“, sagt sie. Der Account habe mehrere Tausend Follower*innen gehabt. Einen Ausweich-Account hatten die Betreiberinnen zwar zunächst angelegt, aber nicht weitergeführt.
Gegenwind waren Esti und ihre Mitstreiterinnen bereits gewohnt. Im Jahr 2023 hatte die AfD-Fraktion im sächsischen Landtag gegen die staatliche Förderung des Projekts gewettert. Die Instagram-Sperren hätten sich in diese Anfeindungen eingereiht, berichtet Esti.
Immer wieder gibt es Fälle von Overblocking sexueller Inhalte auf Instagram. Darauf hatten sich Esti und ihre Mitstreiterinnen vorbereitet. „Wir haben primär informative Posts erstellt, unter anderem auch, weil wir eine Sperrung des Accounts oder das Flaggen einzelner Beiträge umgehen wollten“, sagt sie. „Wie andere Akteur*innen aus der Szene haben wir uns schon freiwillig selbst zensiert und mehrfach gegengecheckt, ob wir den Post so machen können.“
netzpolitik.org hat sich per Presseanfrage an Meta gewandt und wollte unter anderem wissen: Wie genau hat der Account von Porn Better gegen Plattform-Richtlinien verstoßen, sodass eine dauerhafte Deaktivierung gerechtfertigt ist? Inwiefern ist die Deaktivierung des Accounts nach Auffassung von Meta mit Presse- und Informationsfreiheit vereinbar?
Eine inhaltliche Antwort gab es nicht. Zunächst reagierte eine Pressesprecherin ausweichend. Erst nach einem längeren Telefonat lieferte sie eine Reihe von schriftlichen Reaktionen. Daraus geht etwa hervor, dass Meta den Fall sorgfältig untersucht habe und die Pressefreiheit respektiere. Zitiert werden wollte die Pressestelle mit diesen Aussagen allerdings nicht. Auf nochmalige Rückfrage, was denn dagegen spreche, hieß es: Es handele sich nicht um offizielle Stellungnahmen von Meta.
Offiziell will sich Meta in diesem Fall also nicht einmal zur Frage äußern, ob der Konzern die Pressefreiheit respektiere.
Reporter ohne Grenzen: „betrifft Freiheit der Berichterstattung“
Auf Anfrage von netzpolitik.org kritisiert die internationale Organisation für Pressefreiheit, Reporter ohne Grenzen, die Intransparenz der Plattform. Eine Sprecherin schreibt:
Wenn ein feuilletonistisches Angebot wie ‚Porn Better‘, das sich an geltende Jugendschutzstandards hält, von einer Plattform wie Instagram ohne nachvollziehbare Begründung dauerhaft gesperrt wird, betrifft das auch die Freiheit der Berichterstattung. Digitale Plattformen haben enorme Macht über Sichtbarkeit und Reichweite medialer Inhalte – umso wichtiger ist es, dass Sperrentscheidungen transparent, überprüfbar und verhältnismäßig erfolgen.
Die Sprecherin verweist auf das Gesetz über digitale Dienste (DSA), wonach Plattformen begründen müssen, warum sie Inhalte entfernt haben. „Der Fall zeigt, wie intransparent Plattformen nach wie vor entscheiden“, bemängelt die NGO.
GFF: Nutzer*innen über Gründe informieren
Auch von der Gesellschaft für Freiheitsrechte gibt es Kritik. Der gemeinnützige Verein schützt Grundrechte durch strategische Gerichtsverfahren. Relevante Grundrechte im Fall von Porn Better seien sexuelle Selbstbestimmung sowie Meinungs- und Pressefreiheit, wie GFF-Rechtsanwalt Jürgen Bering erklärt. Weiter schreibt er:
Der Fall zeigt mal wieder auf, wie wichtig es ist, dass Nutzer*innen über die genauen Gründe einer Sperrung informiert werden. Nur so können sie sich dagegen zur Wehr setzen. Für Meta hingegen ist es natürlich wesentlich einfacher, keine Erklärungen zu liefern. Sonst hätte sich das Unternehmen bei der Sperre nämlich mit den Fragen nach sexueller Selbstbestimmung und wie es mit feministischen Inhalten umgeht, auseinandersetzen müssen.
Porno-Rezensentin Esti zieht für sich ein düsteres Fazit. „Im Grunde ist sexuelle Bildung auf Instagram nicht möglich und anscheinend auch nicht erwünscht“, sagt sie. „Viele Menschen, die sexuelle Bildung betreiben, geben sich Mühe, sich an die Regeln zu halten, checken doppelt und dreifach, bevor sie etwas posten, und werden dann trotzdem aus nicht nachvollziehbaren Gründen gesperrt.“ Ansprechpartner*innen im Konzern gebe es dafür nicht. „Wir hätten uns gewünscht, dass ein Mensch uns Rede und Antwort steht, was genau nun eigentlich das Problem war.“
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Eine Marketing-Agentur versucht beharrlich, netzpolitik.org zum Werbepartner für die Spionage-App mSpy zu machen. Dabei berichten wir immer wieder kritisch über das Tool.

Mit der Spionage-App mSpy können Privatpersonen fremde Telefone heimlich überwachen. Das gehört verboten, befanden einige Politiker*innen. Ihre Zitate dazu finden sich in einem Text auf netzpolitik.org. Diesen Text hat wohl auch die Marketing-Agentur von mSpy wahrgenommen. Denn knapp einen Monat nach der Veröffentlichung bekommen wir Post von einer Instanz, die mit „Andy“ unterschreibt und angeblich für BizzOffers arbeitet, eine Agentur, die mSpy-Werbung vermittelt.
In der ersten Mail schreibt „Andy“: „Ihr Artikel hat mich wirklich beeindruckt. Beeindruckende Qualität“. In der zweiten Mail heißt es: „Ihr Artikel ist wirklich beeindruckend – ein wertvoller Einblick!“ Und in der dritten: „Ihr Artikel ist mir aufgefallen – durchdacht und gut strukturiert!“ Mit der vierten Mail gibt „Andy“ scheinbar auf: „Ich wollte mich nur ein letztes Mal melden – es scheint, dass dies nicht der richtige Zeitpunkt ist.“
„Andy“ möchte eine Partnerschaft aufbauen, „von der wir beide profitieren.“ Dafür stelle BizzOffers auch „gerne Promo-Codes oder speziellen Support zur Verfügung“. „Wenn es nicht ganz passt, würde ich mich freuen, wenn Sie sich Gedanken darüber machen, wie man es relevanter machen könnte“, schreibt „Andy“.
Automatisiertes E-Mail-Bombardement
Das E-Mail-Bombardement gibt einen interessanten Einblick in die Marketingpraxis von mSpy. Denn offensichtlich haben wir es mit einem automatisierten Mailing zu tun. Hätte ein Mensch gelesen, was wir über mSpy schreiben, wäre klar geworden: Wir werden sicher nicht zu Werbepartnern einer App, die wir in mittlerweile sechs Texten hart kritisieren. Die App wird beispielsweise häufig zur illegalen Überwachung von Partner*innen eingesetzt – und der Kundendienst hilft dabei.
Es ist anzunehmen, dass BizzOffers automatisiert Beiträge sucht, in denen mSpy erwähnt wird und dann ebenso automatisiert eine Serie von E-Mails an die angegebene Kontaktadresse abfeuert. Das legen auch die Zeitpunkte nahe, zu denen wir die Nachrichten erhalten haben. Die zweite folgte auf die Minute genau zwei Tage nach der ersten, die dritte vier Tage darauf, die vierte wieder zwei Tage später.
Auch wenn wir sicher nicht für mSpy werben werden, für die Marketingpraktiken zu der App interessieren wir uns sehr wohl. Deshalb haben wir „Andy“ auf die letzte Mail geantwortet. „Vielen Dank für das Angebot. Wie könnte denn eine Partnerschaft konkret aussehen?“ Drei Tage später die Antwort: „Die Zusammenarbeit erfolgt grundsätzlich auf Affiliate-Basis. Sie können beispielsweise einen Artikel mit einem Link veröffentlichen und für jeden Verkauf unseres Produkts über diesen Link zahlen wir Ihnen eine Provision. Die Provision kann entweder ein Prozentsatz des Verkaufs oder ein festerer Betrag sein.“
Das Geschäft mit Affiliate-Links
Wie das aussehen kann, was „Andy“ von uns will, haben wir am Beispiel der Leipziger Zeitung untersucht. Auf deren Website findet sich ein angeblich objektiver Produkttest, der mSpy in allen Kategorien mit fünf von fünf Sternen bewertet. Oben drüber steht Anzeige. Auf mSpy wird mit sogenannten Affiliate-Links verwiesen. Klickt jemand darauf und bestellt ein mSpy-Abo, erhält die Leipziger Zeitung eine Provision. Wie viel üblicherweise beim Affiliate-Geschäft abfällt, schreibt BizzOffers: Demnach bekommen die „Partner*innen“ in diesem Werbeprogramm eine Umsatzbeteiligung von 40 Prozent oder 20 Dollar pro Verkauf.
Wir reagieren auf „Andys“ Mail mit einem Fragenkatalog. Die Antwort kommt noch am gleichen Tag. „Andy“ bietet uns sogar 50 Dollar Provision pro Verkauf, wenn wir mSpy bewerben. Außerdem sei es auch möglich, Partnerschaften mit Eyezy, Parentaler, Scannero, Detectico, Spynger, Phonsee und Moniterro einzugehen – alles Produkte, die sich fürs heimliche Überwachen eignen. Eyezy, Scannero, Detectico und Spynger werden anscheinend auch vom gleichen Kundendienst wie mSpy betreut, das zeigen geleakte Kommunikationsvorgänge.
Auszahlen würde uns „Andy“ angeblich via PayPal, Payoneer oder Überweisung, dafür müssten wir aber mindestens 100 Euro pro Woche oder 500 Euro pro Monat mit den Affiliate-Links verdienen. Mit Rabattcoupons könnten wir unseren Lesern mSpy auch billiger anbieten und so unseren Umsatz erhöhen. BizzOffers sei auch bereit, Banner vorzubereiten oder sogar Texte zu erstellen, in denen wir die Werbelinks veröffentlichen können. „Nur in diesem Fall kann es einige Zeit dauern, da unsere Content-Abteilung sehr beschäftigt ist“, schreibt „Andy“.
„Die Verantwortung liegt ausschließlich bei den Benutzern“
Auf die Frage, ob wir Ärger riskieren würden, weil mSpy ja schließlich nicht selten zur heimlichen Überwachung von Partner*innen, also illegal, genutzt wird, werden wir beruhigt: „Nein, eine gesetzliche Haftung kann nicht bestehen, da unsere Produkte absolut legal sind. Wenn Benutzer sie für illegale oder unethische Zwecke verwenden, liegt die Verantwortung hierfür ausschließlich bei den Benutzern.“
Die E-Mail-Adresse, von der „Andy“ uns schreibt, verweist nicht auf die offizielle BizzOffers-Website, sondern auf partner-bizz.com. Es ist somit theoretisch möglich, dass „Andy“ überhaupt nicht für BizzOffers arbeitet. Allerdings wird in den Schreiben ja genau das Anliegen von BizzOffers vertreten – Werbepartner für mSpy zu gewinnen.
Auf eine Nachfrage über den Telegram-Kanal von BizzOffers, @bizzaff, bestätigt das Unternehmen, Nachrichten über @partner-bizz.com-Adressen zu versenden. „Andy“ schreibt dazu: „BizzPartners ist unsere E-Mail-Domäne. Wir mussten es verwenden, weil Google das Wort ‚Angebote‘ in BizzOffers möglicherweise als Spam oder etwas Ähnliches wahrnimmt.“
BizzOffers blockt, aber „Andy“ antwortet
Dazu passt, dass die E-Mails von partner-bizz.com laut E-Mail-Header von Google gehostet werden, anders als die von BizzOffers, die auf das deutsche Unternehmen Contabo GmbH deuten. So werden die partner-bizz.com-Mails vermutlich seltener Opfer des Google-Spamfilters.
Eine offizielle Presseanfrage an BizzOffers blieb unbeantwortet. Auch Google und Contabo haben nicht auf Fragen von netzpolitik.org reagiert.
Laut „Andy“ vertreibt BizzOffers die Werbelinks für die Spionage-Apps exklusiv. Bei der Recherche ist jedoch eine Reihe weiterer Seiten aufgetaucht. Sie alle sehen der BizzOffers-Seite sehr ähnlich und vermarkten augenscheinlich ebenfalls Spyware-Links. „Andy“ schreibt dazu: „Ehrlich gesagt sehe ich diese Sites, die Sie gesendet haben, zum ersten Mal. Ich habe meine Kollegen gefragt, aber sie hatten sie auch noch nicht gesehen. Ich rate Ihnen davon ab, sich bei ihnen anzumelden.“
Unternehmen nicht auffindbar
Die Website von BizzOffers wird betrieben von einer Firma namens IPL GROUP PTY LTD. Angeblicher Firmensitz: Ein Haus am Rand einer Stadt nördlich von Sydney. „Andy“ behauptet aber, in Kyjiw in der Ukraine zu arbeiten. Die IPL GROUP PTY LTD. wird in Apples App-Store als Anbieter der App „mSpy: Find my Friends Phone“ genannt.
Nach unseren Recherchen ist es äußerst undurchsichtig, welches Unternehmen wirklich hinter mSpy steht. Womöglich wird auch mit der IPL GROUP PTY nur eine falsche Fährte gelegt, denn geleakte Daten aus dem mSpy-Kundendienst legen nahe, dass mSpy zu Brainstack gehören könnte, einem ukrainischen Unternehmen.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Die serbische Zivilgesellschaft hat vor dem Europäischen Gerichtshof für Menschenrechte einen Erfolg errungen. Dem Gericht zufolge soll Serbien in Zukunft den Einsatz von Schallwaffen auf Demonstrationen verhindern. Eine solche Waffe wurde mutmaßlich im März eingesetzt.

Der Europäische Gerichtshof für Menschenrechte (EGMR) hat am 29. April 2025 dem Antrag auf eine einsteilige Anordnung gegen den mutmaßlichen Einsatz von Schallwaffen stattgegeben. Fast 50 vom Einsatz betroffene Bürger:innen aus Serbien hatten sich an das Gericht gewandt, nachdem bei der Großdemonstration am 15. März eine unbekannte Waffe gegen die Protestierenden eingesetzt wurde.
Die Beschwerdeführenden hatten laut der Pressemitteilung des Gerichts beantragt, dass der Gerichtshof eine vorläufige Maßnahme erlässt. Demnach sollen die serbischen Behörden erstens den Einsatz von Schallwaffen unter solchen Umständen verhindern. Zweitens verlangten die Beschwerdeführenden, dass niemand strafrechtlich verfolgt werden soll, der sich an der öffentlichen Debatte über den Einsatz einer Schallwaffe am 15. März 2025 beteiligt hat. Und drittens soll der serbische Staat eine wirksame Untersuchung der Vorwürfe durchführen, so die Beschwerde.
3.032 Zeugenaussagen zur Schallwaffe von Belgrad ausgewertet
Zumindest in ersterem Punkt konnten sich die Beschwerdeführenden vollumfänglich durchsetzen: Der Gerichtshof weist mit seiner Entscheidung die serbische Regierung darauf hin, dass sie jeglichen Einsatz von Schallgeräten zur Kontrolle von Menschenmengen sowohl von staatlichen wie nicht-staatlichen Akteuren in Zukunft verhindern solle. Das Gericht stellte zudem fest, dass der Einsatz von solchen Waffen zur Kontrolle von Menschenmengen nach serbischem Recht illegal ist.
Die beiden anderen Anträge der Beschwerde lehnte das Gericht ab. Es macht in der Entscheidung zudem klar, dass es sich um keine Stellungnahme handle, ob solche Waffen am 15. März 2025 eingesetzt worden seien. Die Beschwerdeführenden haben nun einen Monat Zeit, um eine Klage gemäß Artikel 34 (Recht auf Individualbeschwerde) der Konvention einzureichen.
Die serbische Zivilgesellschaft hatte Anfang April eine Auswertung von mehr als 3.000 Aussagen von Zeug:innen des Schallwaffen-Vorfalls in Belgrad vorgelegt. Der genaue Hergang des Vorfalls bei einer friedlichen Großdemonstration der Demokratiebewegung am 15. März ist weiterhin unklar. Die serbische Regierung bestreitet den Einsatz von Schallwaffen oder einer Vortex-Kanone vehement. Präsident Aleksandar Vučić hat gar sein politisches Schicksal mit der Frage verbunden.
Ein von außen kommender Reiz
Klar ist bislang nur: Gegen 19:11 Uhr liefen am 15. März Menschen auf ungewöhnliche Art und Weise auf einer Länge mehrerer Hundert Meter und entlang einer geraden Linie panisch auseinander. Zahlreiche Hinweise von unterschiedlichen Recherchen deuten inzwischen auf eine Koordination verschiedener Störaktionen und Provokationen zu diesem Zeitpunkt hin, bei denen beispielsweise auch Feuerwerkskörper und andere Gegenstände in die Demonstration geworfen wurden.
Teil dieser koordinierten Aktion dürfte aber auch der Einsatz einer Schallwaffe oder einer Vortex-Kanone gewesen sein, denn die Reaktion der Menschenmenge ist nach allen bisherigen Recherchen mit den anderen Störaktionen alleine nicht zu erklären. Der britische Sozialpsychologie-Professor Clifford Stott ist Experte für Massenpsychologie und Polizeieinsätze. Er geht gegenüber dem serbischen Factchecking-Medium „Istinomer“ davon aus, dass die Bewegung der Menschen „stark auf einen von außen kommenden Reiz und nicht auf interne psychologische Prozesse“ hindeute.
Neben zivilgesellschaftlichen Gruppen und Initiativen aus Serbien sowie einer internationalen Recherchegruppe arbeiten auch serbische Medien wie das Nachrichtenmagazin „Vreme“ an einer Rekonstruktion der Ereignisse (€). Die internationale Recherchegruppe, zu der auch netzpolitik.org gehört, hat einen vorläufigen Zwischenbericht (PDF) mit möglichen Erklärungen veröffentlicht.
Interaktive Karte
Wir haben im Nachgang der Ereignisse zusammen mit Hackern, Aktivisten, Soundtechnikern und Journalisten aus Deutschland und Serbien eine Recherchegruppe gebildet, die sich International Research Group nennt und sich an der Aufklärung des Vorfalls beteiligt.
Diese Gruppe hat eine interaktive Karte der Ereignisse erstellt, die fortlaufend erweitert wird. Die Karte trägt verfügbares Material zusammen und soll helfen, die Vorgänge am 15. März in Belgrad zu rekonstruieren. Die Karte ist Work-in-Progress, sie enthält auch nicht-verifiziertes Material. Sie ist deswegen mit Vorsicht zu genießen und wird nicht alleine von netzpolitik.org befüllt.
Rot = Ereignisse. Blau = Kameraaufnahmen des Vorfalls. Gelb = Verdächtiges / Auffälliges / Hinweise. Grün = Zusätzliches Material
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Im Außendienst organisieren Firmen ihre Beschäftigten mit Apps. Die Software soll Abläufe optimieren, Touren verkürzen und die Produktivität steigern – auf Kosten von Privatsphäre und Betriebsklima. Eine Studie hat die Apps nun untersucht.

Bei Mitarbeiter*innen im Außendienst wird heute oftmals Software eingesetzt, um deren Arbeit zu steuern. Durch das sogenannte „algorithmische Management“ werden diese Beschäftigten gläsern, stellt eine neue Studie fest. Die eingesetzten Smartphone-Apps „optimieren“ Tagespläne, lassen kleinteilige Bewertungen der Arbeitsleistung zu oder überwachen den Standort der Beschäftigten mit durchgängiger GPS-Ortung. Die eingesetzten Programme versprechen erhöhte Produktivität, ermöglichen gleichzeitig Micromanaging – und erhöhen den Druck auf Beschäftigte.
Mit solcher Software beschäftigt sich Überwachungsforscher Wolfie Christl in der kürzlich erschienenen Studie „Algorithmisches Management via Smartphone“ (PDF), die Cracked Labs im Auftrag der Arbeiterkammer Wien durchführte. Dafür hat Christl unter anderem Betriebsrät*innen von Firmen befragt und eingesetzte Programme wie „Dynamics 365 Field Service“ von Microsoft und vergleichbare Produkte von SAP, Salesforce und Oracle analysiert.
Micromanaging und Überwachung
Angeschaut hat sich Christl unter anderem zwei österreichische Firmen, die in der mobilen Anlagenwartung tätig sind. Deren Beschäftigte bekommen laut Studie kleinteilige Arbeitsschritte in einer App zugewiesen, die den Arbeitstag bis auf die Sekunde protokolliert. Die Betriebsrät*innen der Firmen berichten Christl von regelmäßigen Gesprächen zwischen Führungskräften und Monteur*innen über die Dauer einzelner Arbeitsschritte. Damit wälzten Führungskräfte den Druck auf ihre Mitarbeiter*innen ab, den durch die Software automatisiert berechnete Kennzahlen ausüben.
Im Gegensatz dazu stehen die Aussagen eines Betriebsrats eines anderen Unternehmens, das in der Gebäudetechnik aktiv ist. Dort nehmen die Angestellten die eingesetzte App „weitgehend positiv“ wahr. Die Monteur*innen erhalten nur grobe zeitliche Vorgaben für Aufträge, die nicht digital dokumentiert werden. Durch die Optimierung der Arbeitszeiten komme es jedoch zu weniger gemeinsamen Tagen im Büro, wodurch das Zusammengehörigkeitsgefühl und die Arbeit des Betriebsrats leide. Gegenüber Christl wünscht sich der Betriebsrat deshalb wieder regelmäßige Termine, „zu denen die Beschäftigten im Außendienst im Rahmen ihrer bezahlten Arbeitszeit im Büro zusammentreffen“.
Auch in der mobilen Pflege kommt laut der Studie „algorithmisches Management“ zum Einsatz. Die Pfleger*innen unterliegen strengen Zeitvorgaben, woran die eingesetzte Software zum Teil sogar mit einem Warnton erinnert. Sie berichten von einen Rechtfertigungsdruck, sollten sie vorgegebene Zeiten überschreiten. Die Software plane zudem unrealistische Touren, sei unflexibel, erhöhe das Überwachungsgefühl, heißt es weiter. Christl mahnt in der Studie, dass „ausgerechnet im öffentlichen Einflussbereich eine rigidere Form der digitalen Kontrolle mit engen Zeitvorgaben praktiziert wird als anderswo“.
Digitale Starrheit
Die Befragten nehmen die Apps laut der Studie oft als starr und unflexibel wahr. Christl kritisiert hier die technische Umsetzung: „Eine kleinteilige digitale Strukturierung, Taktung, Steuerung und Kontrolle von Arbeitstätigkeiten schränkt Handlungs- und Ermessensspielräume ein.“ Dies führe „im schlimmsten Fall zu einer algorithmischen Willkürherrschaft, in der Beschäftigte bei zu engen Zeitvorgaben die starren Anforderungen eines wirklichkeitsfremden und dysfunktionalen Systems erfüllen müssen.“
Die Betriebe erinnert Christl in der Studie daran, dass Kennzahlen nie neutral oder objektiv seien. Wenn sich Führungskräfte zu sehr an den Zahlen orientieren, könne dies schlechte Auswirkungen auf zum Beispiel die Qualität der Arbeit haben. Auch auf permanente Neuoptimierung soll man verzichten, damit sich der Arbeitstag für Beschäftigte nicht willkürlich verändert. Eine Überwachung führe zudem zu Misstrauen und Generalverdacht im Betrieb.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Ein US-Gesetz gegen sexualisierte Deepfakes ist beinahe endgültig unter Dach und Fach. Kritiker:innen fürchten um die Meinungsfreiheit im Internet.

Mit dem Take It Down Act erhalten die USA ein Gesetz, das sich gegen die nicht-einvernehmliche Verbreitung sexualisierter Bilder im Netz richtet. Am Montag hat das Repräsentantenhaus den Entwurf mit nur zwei Gegenstimmen angenommen, der Senat hat ihn bereits im Februar einstimmig beschlossen. Die noch fehlende Unterschrift des Präsidenten Donald Trump gilt als sicher, seine Zustimmung hatte er mehrfach signalisiert.
Neben „authentischen“ Aufnahmen erfasst das Gesetz auch Computer-generierte Bilder, die etwa mit Hilfe sogenannter Künstlicher Intelligenz erstellt wurden. Auch die Drohung, solche Deepfakes ins Netz zu stellen, steht künftig unter Strafe. Online-Dienste müssen die Bilder binnen zwei Tagen entfernen, wenn sie davon Kenntnis erlangen. Sonst können sie von der Handelsbehörde Federal Trade Commission (FTC) wegen unfairer Geschäftspraktiken zur Verantwortung gezogen werden.
Bildbasierte Gewalt nimmt zu
In den vergangenen Jahren wurde bildbasierte, sexualisierte Gewalt zunehmend zum Problem, betroffen sind vor allem Frauen. Mit weithin verfügbaren Tools lassen sich mit wenigen Klicks beliebige Gesichter auf beliebige Körper in beliebigen Videoclips einfügen.
Indes muss es sich gar nicht um manipulierte Videos oder Bilder handeln, um den Betroffenen das Leben zur Hölle zu machen: Ohne Einverständnis veröffentlichte Sexvideos aus Beziehungen sind schon lange keine Einzelfälle mehr, manchen Studien zufolge soll inzwischen jede fünfte Frau im Alter zwischen 18 und 45 Jahren einschlägige Erfahrungen gemacht haben.
Entsprechend genießt der Take It Down Act für US-Verhältnisse bemerkenswert breite Unterstützung. Eingebracht hatten ihn im Vorjahr der ultrakonservative Senator Ted Cruz aus Texas gemeinsam mit seiner liberalen Kollegin Amy Klobuchar aus Minnesota. Abseits des Kongresses hatte unter anderem die Präsidentengattin Melania Trump dafür geworben und nicht zuletzt ihr Ehemann: Der hatte im März bei einer Rede vor Abgeordneten in Aussicht gestellt, von dem Gesetz profitieren zu wollen: „Niemand wird online schlechter behandelt als ich. Niemand“, sagte Trump.
Schwammige Formulierungen
Genau das bereitet Kritiker:innen Sorgen: Zum einen sei im Gesetz nicht ausreichend definiert, was unter „intimen oder sexualisierten Inhalten“ zu verstehen sei, kritisiert die Digital-NGO Electronic Frontier Foundation (EFF). Dies sei geradezu eine Einladung zum Missbrauch. Zudem entstehe für die Online-Anbieter der Anreiz, im Zweifel lieber zu viel als zu wenig zu löschen – sogenanntes Overblocking, potenziell verschärft durch automatisierte Uploadfilter, so die Grundrechteorganisation.
Ähnlich argumentiert auch das Center for Democracy & Technology (CDT) und fürchtet zudem um Ende-zu-Ende-Verschlüsselung. Zwar sei etwa E-Mail von dem Gesetz nicht erfasst, dafür aber Messenger oder Cloud-Dienste. Das könnte die Anbieter auf Kollisionskurs mit den gesetzlichen Vorgaben bringen: Auf der einen Seite müssten sie dafür sorgen, dass einschlägige Inhalte von ihren Diensten verschwinden, auf der anderen Seite könnten sie in die Inhalte technisch bedingt gar nicht hineinschauen. Auch könnte die politische Einflussnahme auf die FTC-Aufsicht zum Problem werden, warnt die NGO Public Knowledge.
Zugleich hat das Gesetz, neben fast allen Abgeordneten, auch einige prominente Fürsprecher:innen aus der Zivilgesellschaft: „Ich bin froh, dass wir endlich etwas erreichen konnten und hoffe, dass dies erst der Anfang ist“, sagte etwa der Jurist Tim Wu, der unter anderem das Konzept der Netzneutralität prägte. Auch die linke Kartellrechtsexpertin Zephyr Teachout begrüßte das Gesetz und zeigte sich zuversichtlich, dass es rechtlichen Auseinandersetzungen standhalten werde. Mit an Bord sind zudem praktisch alle betroffenen Anbieter, darunter Meta, Google und X, sowie zahlreiche Opferorganisationen oder das Electronic Privacy Information Center (EPIC).
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Ungarn hat den Weg freigemacht für biometrische Gesichtserkennung gegen Teilnehmer:innen von Pride-Demos. Die EU-Kommission prüft derzeit, ob der Mitgliedstaat damit Gesetze verletzt. Parlamentarier:innen pochen auf Antworten.

Seit Ungarn Mitte März Pride-Demonstrationen verboten und den Einsatz von Gesichtserkennung gegen Demonstrierende erlaubt hat, wächst der Druck auf die EU-Kommission. Denn Ministerpräsident Viktor Orbán stellt damit auch die wegweisenden neuen Regeln der KI-Verordnung (AI Act) auf die Probe. Beobachter:innen hatten schon während der Verhandlungen über die Verordnung vor gefährlichen Schlupflöchern beim Einsatz von Gesichtserkennung gewarnt.
Nun erhöhen EU-Abgeordnete weiter den Druck. Mehr als 60 Parlamentarier:innen fordern die Kommission auf, zu erklären, wie sie mit den möglichen Verstößen des zunehmend autoritären EU-Mitglieds Ungarn umgehen will, darunter etwa die deutsche Svenja Hahn (FDP/Renew) und Brando Benifei (S&D). Der italienische Sozialdemokrat war einer der Chefverhandler des EU-Parlaments für die KI-Verordnung.
Pride als Zielscheibe
Ungarn hatte Mitte März Versammlungen verboten, auf denen geschlechtliche Vielfalt und Queerness gezeigt werden. Wer sie organisiert oder auch nur daran teilnimmt, begeht seitdem eine Ordnungswidrigkeit. Um Demonstrant:innen zu identifizieren, soll die Polizei sogar Gesichtserkennung einsetzen.
Orbáns Regierung rechtfertigt das Gesetz mit dem Schutz von Kindern vor angeblicher Beeinflussung. Es erweitert das umstrittene „Kinderschutzgesetz“, das bereits Bücher und Infomaterial aus Schulen und Buchhandlungen verbannen soll. Menschenrechtsorganisationen benennen das als Angriff auf die Rechte von queeren und trans* Menschen – ein Vorgehen, das in der EU unzulässig ist.
Die Abgeordneten wollen nun wissen, ob Ungarn mit dem Pride-Gesetz gegen das neue Verbot von Echtzeit-Gesichtserkennung verstößt, wie es die KI-Verordnung beschreibt. Die Regelung greift seit Februar diesen Jahres. Geschieht die Gesichtserkennung nachträglich, kann das laut KI-Verordnung erlaubt sein, allerdings nur bei potentiellen Straftaten. Der Einsatz wäre dann als „hoch-riskant“ eingestuft. In diesem Fall müsste Ungarn jedoch vorab prüfen, wie sich die Gesichtserkennung auf Grundrechte auswirkt.
Bei Ordnungswidrigkeiten könnte die KI-Verordnung wiederum keine Rechtsgrundlage für Gesichtserkennung liefern, wie jüngst auch Ella Jakubowska von EDRi gegenüber netzpolitik.org betonte. EDRi ist der Dachverband von Organisationen für digitale Freiheitsrechte
Greift die Kommission ein?
Die Abgeordneten wollen in ihrem Brief wissen, was passieren würde, „wenn die für die Aufsicht zuständigen nationalen Behörden nicht in der Lage oder nicht willens sind“, unabhängig zu handeln. Würde die Kommission in so einem Fall Maßnahmen ergreifen, um die Rechte ungarischer Bürger:innen zu schützen?
Laut KI-Verordnung sind nationale Behörden dafür zuständig, zu überprüfen, ob die Regeln eingehalten werden. Sie können bei Verstößen Strafen in Millionenhöhe verhängen. Doch in vielen Ländern sind die Strukturen noch im Aufbau. Orbáns Regierung hat im Februar zwar einen KI-Beauftragten ernannt; er wird für den Aufbau der Aufsichtsbehörde in Ungarn zuständig sein. Kritiker:innen bezweifeln jedoch, dass eine von Orbán kontrollierte Behörde dessen Macht eingrenzen wird.
Menschenrechte und Datenschutz in Gefahr
Die Abgeordnete Svenja Hahn hatte die Ausnahmen für nachträgliche biometrische Identifizierung bereits bei der Verabschiedung des KI-Regelwerks als „Bedrohung für Bürgerrechte“ bezeichnet. Die Hürden seien niedrig. Eine erste Identifizierung müsse nicht autorisiert werden, und es gebe keine Beschränkungen bei der Schwere der Straftaten. Trotz dieser großen Schlupflöcher zeichnet sich ab, dass Ungarn die Spielräume der KI-Verordnung überschritten hat.
Ein weiteres Problem: Die Verbote aus der KI-Verordnung greifen zwar bereits. Andere Teile treten aber erst 2026 in Kraft, so auch die Auflagen für als hoch-riskant eingestufte Systeme. Bis dahin gilt eine andere EU-Richtlinie, die den Einsatz sensibler biometrischer Daten auf zwingend notwendige Fälle beschränkt. Auch in diesem Fall sind Ordnungswidrigkeiten nicht abgedeckt.
Ella Jakubowska von EDRi weist außerdem darauf hin, dass Ungarn auch die EU-Menschenrechts- und Datenschutzgesetze beachten müsse. Auch unabhängig von der KI-Verordnung greift Gesichtserkennung zur Identifizierung von Pride-Teilnehmer:innen beispielsweise tief in das das Recht auf Datenschutz oder Nichtdiskriminerung ein.
Die EU-Kommission hat nun sechs Wochen Zeit, die Fragen der Abgeordneten zu beantworten.
Addressee: the European Commission
Subject: Protection of Hungarian citizens‘ fundamental rights in the context of biometric identification and surveillance at public gatherings
Recent reports suggest that a new Hungarian law may allow the use of facial recognition technology to identify individuals participating in public demonstrations banned by the government [1].
Can the Commission assess whether such use complies with the AI Act’s prohibition on real-time biometric identification [2], applying all legal safeguards and criteria —and confirm that post-remote identification cannot be used to bypass Article 5 hat has already entered into force? [3]
Does the use of remote biometric identification in this situation bring additional risks to the fundamental rights and freedoms in the Charter, such as freedom of assembly and association, as enshrined in Article 12 of the Charter?
If the national authorities responsible for oversight are unable or unwilling to act “independently, impartially and without bias”, as required by the AI Act, will the Commission commit to taking action—including infringement proceedings if needed—to ensure that Hungarian citizens are effectively protected under the AI Act and the Charter of Fundamental Rights?[4]
[1] https://apnews.com/article/hungary-pride-ban-orban-lgbtq-rights-e7a0318b09b902abfc306e3e975b52df
[2] Article 5(1)(c) and 5(2) AI Act
[3] Article 26(10) AI Act
[4] As required by Article 70 AI Act
Signatories:
- Kim van Sparrentak (Greens/EFA)
- Brando Benefei (S&D)
- Svenja Hahn (Renew)
- Birgit Sippel (S&D)
- Leila Chaibi (The Left)
- Maria Walsh (EPP)
- Marketa Gregorova (Greens/EFA)
- Pernando Barrena Arza (the Left)
- Tineke Strik (Greens/EFA)
- Sophie Wilmes (Renew)
- Sebastian Everding (the Left)
- Jan-Christoph Oetjen (Renew)
- Klara Dobrev (S&D)
- Kai Tegethoff (Greens/EFA)
- Fabienne Keller (Renew)
- Alessandro Zan (S&D)
- Nela Riehl (Greens/EFA)
- Saskia Bricmont (Greens/EFA)
- Raquel Garcia (Renew)
- Damian Boeselager (Greens/EFA)
- Evin Incir (S&D)
- Anna Strolenberg (Greens/EFA)
- Olivier Chastel (Renew)
- Reinier van Lanschot (Greens/EFA)
- Dainius Zalimas (Renew)
- Thomas Waitz (Greens/EFA)
- Daniel Freund (Greens/EFA)
- Kira Peter-Hansen (Greens/EFA)
- Marc Angel (S&D)
- Rasmus Nordqvist (Greens/EFA)
- Villy Søvndal (Greens/EFA)
- Hanna Gedin (The Left)
- Rasmus Andresen (Greens/EFA_
- Özlem Demirel (The Left)
- Jaume Asens Llodra (Greens/EFA)
- Catarina Vieira (Greens/EFA)
- Alexandra Geese (Greens/EFA)
- Maria Ohisalo (Greens/EFA)
- Rudi Kennes (The Left)
- Lena Schilling (Greens/EFA)
- Mounir Satouri (Greens/EFA)
- Benoit Cassart (Renew)
- Melissa Camara (Greens/EFA)
- Alice Kuhnke (Greens/EFA)
- Christina Guarda (geen slots) (Greens/EFA)
- Elio Di Rupo (S&D)
- Sara Matthieu (Greens/EFA)
- Joanna Scheuring-Wielgus (S&D)
- Gordan Bosanac (Greens/EFA)
- Petras Auštrevičius (Renew)
- Katrin Langensiepen (Greens/EFA)
- Anja Hazekamp (The Left)
- David Cormand (Greens/EFA)
- Irena Joveva (Renew)
- Per Clausen (The Left)
- Murielle Laurent (S&D)
- Benedetta Scuderi (Greens/EFA)
- Lucia Yar (Renew)
- Marco Tarquinio (S&D)
- Majdouline Sbaï (Greens/EFA)
- Diana Riba I giner (Greens/EFA)
- Elisabeth Grossmann (S&D)
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Europa hat schon ein KI-Gesetz. Manche Teile davon sind aber vage, ein „Praxisleitfaden“ soll deshalb Details nachliefern. Dabei haben Unternehmen viel zu sagen – und statt vor echten Problemen könnte die Handreichung eher vor hypothetischen Schreckensszenarien schützen. Zivilgesellschaft und Abgeordnete im Parlament sind besorgt.

In Brüssel entsteht gerade ein Text, der genaue Regeln für große KI-Modelle wie GPT-4 festlegen soll. Da wundert man sich ein wenig: Moment, hat die EU nicht schon ein KI-Gesetz? Und ja, richtig, das ist die KI-Verordnung, die nach langem Hin und Her seit vergangenem Sommer gilt.
Zu KI-Modellen wie GPT-4 enthält dieses Gesetz jedoch nur vage Regeln. Unternehmen müssen etwa angeben, mit welchen Daten sie ihre Modelle trainiert haben oder „bewerten“, welche systemischen Risiken ihre Modelle hervorrufen könnten. Wie genau das aussehen soll?
Eine gute Frage, auf die momentan zwei verschiedene Antworten entstehen. Einerseits arbeiten gerade die europäischen Standardisierungsorganisationen CEN und CENELEC an einer technischen Norm. Das ist allerdings ein sehr aufwendiger Prozess, der sich wahrscheinlich noch eine ganze Weile hinziehen wird.
Andererseits soll deshalb in einigen Bereichen ein Praxisleitfaden als Übergangslösung herhalten. Den wiederum erarbeiten derzeit hunderte Fachleute unter der Schirmherrschaft des Europäischen Amtes für künstliche Intelligenz, einem neu eingerichteten EU-Kompetenzzentrum für KI.
Sonderstellung für große Unternehmen
Eine Sache ist aber klar: An beiden Verhandlungstischen sitzen eine Menge Vertreter:innen der großen Tech-Konzerne. Das beobachtet das Corporate Europe Observatory seit einiger Zeit kritisch. Die Lobbyist:innen hätten bei den Normen etwa ein Interesse daran, dass die EU eher schwache internationale Normen übernimmt, statt sich selbst neue auszudenken, so die Befürchtung.
Auch beim Praxisleitfaden gibt es für die Industrie einiges zu gewinnen. Die Regeln des Leitfadens sind zwar nur freiwillig. Wenn sich ein Unternehmen nicht an sie hält, muss die EU-Kommission jedoch bewerten, ob es die Regeln der KI-Verordnung angemessen durchsetzt – und wird sich dabei wahrscheinlich am Praxisleitfaden orientieren.
Die Arbeit am Leitfaden läuft seit Ende September. Die Kritik setzte schon davor ein: Vertreter:innen der Zivilgesellschaft fürchteten zunächst, dass die Kommission die KI-Unternehmen ihre Regeln einfach selbst schreiben lassen würde. Die überarbeitete daraufhin den Prozess. Der ist sehr komplex geraten, mit Plenarsitzungen, Arbeitsgruppen und kurzen Antwortfristen.
Am Anfang wollten sich mehr als 1.000 Personen beteiligen. Das führte in der Praxis dazu, dass Redezeiten oft sehr kurz waren oder man einfach nur per Emoji im Chat mitdiskutieren konnte, wie das Corporate Europe Observatory und LobbyControl in einem heute erschienen Bericht schildern. Der beschreibt, wie die Vertreter:innen von Big Tech-Unternehmen bevorzugten Zugang zum Prozess bekommen haben.
Unternehmen müssen Risiken mindern
Das bisherige Ergebnis dieses Prozesses ist ein inzwischen dritter Entwurf für den Leitfaden. Und an diesem gibt es, trotz der monatelangen Diskussionen, von vielen Seiten eine Menge Kritik.
Zentral ist dabei die Frage, auf welche Risiken die Anbieter von großen KI-Modellen achten sollen. Laut der KI-Verordnung müssen die Unternehmen die Risiken erfassen, die ihre Modelle verursachen könnten und diese ans KI-Amt der EU-Kommission melden. Außerdem sollen sie diese Risiken mit Maßnahmen mindern, die „in einem angemessenen Verhältnis“ zu den Risiken stehen.
Der Entwurf für den Leitfaden führt nun zwei Listen von möglichen Risiken ein. In der ersten Liste stehen Cyberangriffe, die Gefahr von Chemie- oder Atomangriffen, Manipulation durch ein KI-Modell oder gleich ein ganzer Kontrollverlust.
Zur Erinnerung: Es geht hier um KI-Modelle wie GPT-4 oder Deepseeks R1. Der Weg vom Chatbot zur Atomwaffe ist momentan noch etwas unklar. Trotzdem warnen einige prominente KI-Expert:innen seit Jahren vor solchen Gefahren.
Aber welche Risiken?
Das Problem ist aber auch eher die zweite Liste. In der stehen Risiken für die öffentliche Gesundheit, die Gesellschaft an sich oder für Grundrechte, etwa Diskriminierung, Meinungsfreiheit oder Datenschutz. Laut dem Entwurf sollen Unternehmen ihre Modelle immer auf die erste Liste prüfen müssen, aber auf die zweite nur, „wenn angemessen.“
Damit wäre es Unternehmen überlassen, ob sie diese Risiken prüfen und ihre Modelle dagegen schützen. Diskriminiert meine KI? Bedroht sie die Meinungsfreiheit oder verletzt sie den Datenschutz? Das zu überprüfen, wäre optional.
„Das beinhaltet auch die Präsenz von systematischer Diskriminierung oder Fake News, für die Systeme wie ChatGPT weit bekannt sind“, betont Blue Tiyavorabun. Tiyavorabun hat die Verhandlungen für EDRi, den EU-Dachverband der digitalen Zivilgesellschaft, mitverfolgt und wurde dabei immer mehr enttäuscht: „Aus einer Menschenrechtsperspektive wurde der Praxisleitfaden in der Entstehung immer weiter abgeschwächt“.
Weicht ab von der KI-Verordnung
Das hat bei einigen Europaabgeordneten, die die KI-Verordnung mit verhandelt haben, für Entgeisterung gesorgt. Sie haben deshalb der EU-Digitalkommissarin Henna Virkkunen im März einen Brief geschrieben, in dem sie ihre Bedenken schildern. „Es ist gefährlich, undemokratisch und schafft juristische Unsicherheit, einen Gesetzestext, auf den die Mitgesetzgeber sich geeinigt haben, jetzt durch einen Praxisleitfaden komplett neu zu interpretieren und einzuschränken“, warnen sie dort.
Dem hat sich auch eine Reihe an Organisationen aus der Zivilgesellschaft angeschlossen. Auch sie hätten die „schwersten Bedenken“ gegen jede Version des Leitfadens, für den Menschenrechte optional wären. Die Kommission soll deshalb im endgültigen Text die neue Unterscheidung zurücknehmen. Ansonsten könne der Leitfaden den Schutz von Menschenrechten zu einer reinen Geschäftsentscheidung werden lassen.
Am Montag redete Brando Benifei sich noch einmal den Ärger von der Seele. Der italienische Sozialdemokrat war einer der Chefverhandler des EU-Parlaments für die KI-Verordnung – hat also genau die Regeln mitgeschrieben, die er jetzt durch den Praxisleitfaden in Gefahr sieht. In einer Sitzung des Binnenmarktausschusses sagte er, große Bedenken gegenüber dem Schwenk zu weniger Verpflichtungen zu haben. Was als ausgewogener Prozess angefangen habe, drohe nun, in Richtung Industrie abzudriften.
Benifei hatte auch schon den Brief der Abgeordneten mitunterzeichnet. Am Montag kritisierte er neben den Regeln zu Grundrechten auch noch die Teile des Leitfadens, die sich mit Transparenz und mit dem Urheberrecht beschäftigen sollen. „Transparenz sollte nicht als Bürde gesehen werden“, mahnte er. Außerdem forderte er, dass Europas Kreativschaffende stärker vor möglichen Urheberrechtsverletzungen geschützt werden sollten.
Bald, aber wie bald?
Laut der KI-Verordnung sollte der fertige Text für den Leitfaden eigentlich bis Freitag vorgelegt werden. Das scheint inzwischen eher unwahrscheinlich. Der Text könnte sich um einige Wochen verschieben, vielleicht aber auch noch weiter.
EU-Kommission und die EU-Mitgliedstaaten wollen diesen Entwurf dann noch bewerten – wobei die Kommission wohl kaum einen Entwurf als misslungen einstufen wird, dessen Entstehung sie monatelang eng begleitet hat. Anschließend kann die Kommission den Leitfaden annehmen. Ob der Schutz von Grundrechten darin optional oder verpflichtend sind, wird sich noch zeigen.
Eine weitere offene Frage ist, welche der KI-Unternehmen das freiwillige Regelwerk dann auch tatsächlich unterzeichnen. Google und Meta haben den Leitfaden schon öffentlich kritisiert – weil er zu viele neue Regeln einführen würde.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Er war schon mal Minister – mit desaströser Bilanz. Jetzt soll er sich um die deutsche Innenpolitik kümmern. Was ist von Alexander Dobrindt zu erwarten?

Der CSU-Politiker Alexander Dobrindt soll neuer Bundesinnenminister werden. Ein neues Feld für den Vorsitzenden der CSU-Landesgruppe im Bundestag. Das Ministeramt hingegen kennt er bereits: Von 2013 bis 2017 war er Verkehrs- und damit auch der erste deutsche Digitale-Infrastruktur-Minister.
Die Rückblicke auf seine ministerielle Leistung waren seinerzeit jedoch eher wenig lobpreisend: Mit „Dobrindts größte Desaster“ überschrieb das Manager-Magazin eine Fotostrecke, „Vier Jahre Geisterfahrt“ lautete das Resümee des Tagesspiegels. Gemeinsam mit seinem Nachfolger Andreas Scheuer hinterließ er ein Pkw-Maut-Desaster, das letztlich in einem Untersuchungsausschuss mündete.
Der Bundesrechnungshof attestierte, dass Dobrindts damaliges Ministerium beim Aufbau der Abteilung „Digitale Gesellschaft“ schwere Fehler begangen habe. Es seien „wesentliche Grundsätze eines geordneten Verwaltungshandelns nicht beachtet“ worden und es habe an einer „strukturierten Vorgehensweise“ gemangelt.
„Konservative Revolution“ und „Migrationswende“
Ob Dobrindt sich in den acht Jahren seit seinem letzten Ministeramt notwendige Kompetenzen angeeignet hat, lässt sich derzeit nicht beurteilen. Inhaltlich liegt er jedoch ganz auf dem Law-and-Order-Kurs der Koalitionäre, der im Koalitionsvertrag deutlich geworden ist. Beim Thema Asyl etwa kündigte Dobrindt an, er wolle die „Migration vom Kopf auf die Füße stellen“. Ganz passend zu seinen Äußerungen von 2018, als er eine „konservative Revolution“ ausrief und von „linken Mainstreameliten“ und „Volkserziehern“ fabulierte.
Wenn es um Überwachungsbefugnisse geht, änderte sich Dobrindts Haltung in der Vergangenheit schon mal. 2012 forderte er die FDP auf, der Vorratsdatenspeicherung zuzustimmen. Wenig später wollte er sie unter dem Eindruck des von Edward Snowden ausgelösten NSA-Skandals nochmal neu bewerten. Dieser kurze Anflug des Zweifelns dürfte sich mittlerweile aber längst wieder verabschiedet haben.
Dobrindt soll Hauptautor eines CSU-Papiers aus dem Jahr 2020 sein, das einen „Sieben-Punkte-Plan gegen islamistischen Terror“ formuliert. Darunter: verschärfte Grenzkontrollen, eine europäische Anti-Terror-Datei, ein europaweites Überwachungssystem für Gefährder und mehr Staatstrojaner-Befugnisse.
Verbal brachial
In Sachen Kampf gegen den Rechtsextremismus zeigte sich Dobrindt bislang eher zahnlos: Ein Verbot der rechtsradikalen Partei AfD lehnte er zuletzt ab, beim Einreißen der Brandmauer durch Friedrich Merz im Januar sagte er: „Das Problem ist nicht die Zustimmung der AfD. Das Problem ist Ihre Verweigerung, die von SPD und Grünen, zu unseren Anträgen.“ Er teilte gegen die Grünen aus, die er als „Brandbeschleuniger für die AfD“ bezeichnete und ihnen so die Schuld für den Aufstieg und Erfolg der Partei gab.
Verbal brachial geht er auch gegen ihm links erscheinende Gruppen vor. Im Bezug auf die Klimaaktivist:innen von der Letzten Generation warnte er gar vor der „Entstehung einer Klima-RAF“, die verhindert werden müsse und forderte härtere Strafen etwa für Straßenblockaden.
Zeit Online schrieb jüngst über Dobrindt, er habe eine Wandlung durchgemacht – vorher der „alte, populistisch grantelnde Dobrindt“, nun ein „Grünen-Flüsterer“ und „Kanzlermacher“. Wieviel Wandlung da ist und ob er das Innenministerium mit weniger Schäden führt als zuvor das Verkehrsressort? Wir werden es sehen.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Internet-Zugangs-Anbieter überwachen, welche Kunden sich mit bestimmten IP-Adressen verbinden. Wir veröffentlichen Ermittlungs-Dokumente, die dieses „IP-Catching“ belegen. Juristen kritisieren, dass es keine Rechtsgrundlage dafür gibt. Das Bundeskriminalamt will die Maßnahme verschweigen.

Mal angenommen: Die Post überwacht alle Sendungen und sucht alle Briefe an netzpolitik.org. Sie guckt ohnehin sämtliche Umschläge ihrer Kunden an. Aber wenn ein Brief an uns geht, öffnet sie ihn und kopiert den Inhalt. Die Metadaten gibt sie der Polizei: Absender und Anschrift, Briefkasten oder Filiale, Datum und Uhrzeit.
Dieser Vergleich hinkt natürlich. Aber er beschreibt in etwa, was Internet-Zugangs-Anbieter für Ermittler tun. Die Methode nennt sich „IP-Catching“ und ist weitgehend unbekannt. Im September berichtete der Norddeutsche Rundfunk zuerst darüber. Wir haben interne Ermittlungsakten erhalten, die das IP-Catching ausführlich belegen. Wir veröffentlichen die Dokumente.
Bandenmäßige Kinderpornografie
Vor vier Jahren haben Ermittler die kinderpornografische Plattform „Boystown“ abgeschaltet. Die Zeit berichtete über Hintergründe. Das Landgericht Frankfurt am Main hat vier Hintermänner zu mehrjährigen Haftstrafen verurteilt, darunter einen Administrator mit dem Benutzernamen „Phantom“. Wir veröffentlichen das anonymisierte Urteil. Seit Januar ist es rechtskräftig.
Boystown wurde über Tor als Onion-Dienst betrieben. Tor ist ein Netzwerk aus Computern von Freiwilligen, das es ermöglicht, Überwachung und Zensur zu umgehen. Auch Facebook und die Deutsche Welle nutzen Tor und bieten ihre Webseiten als Onion-Dienst an. Die Betreiber von Boystown versuchten, mit der Nutzung von Tor eine Strafverfolgung zu erschweren.
Boystown ging im Juni 2019 online. Da ermitteln bereits Behörden in mehreren Ländern gegen den Administrator mit dem Benutzernamen „Phantom“. Wenige Monate später beginnt auch die Staatsanwaltschaft in Frankfurt zu ermitteln. Das Bundeskriminalamt schleust einen verdeckten Ermittler ein. So erfahren die Strafverfolger, dass „Phantom“ den Messenger Ricochet nutzt. Ricochet läuft über Tor und Onion-Dienste.
Verdeckte Ermittlungen
Am 14. Dezember 2020 erfährt das BKA durch verdeckte Ermittlungen, „dass der Nutzer ‚Phantom‘ aktuell einen deutschen Server der Firma Hetzner als Eintrittsknoten in das Tor-Netzwerk nutzt“. Der Eintritts-Knoten ist der erste Server einer Tor-Verbindung.
Noch am selben Tag beginnen die Ermittler, den Server zu überwachen. Das Amtsgericht Frankfurt verpflichtet den Hosting-Anbieter Hetzner, die Verkehrsdaten des Servers aufzuzeichnen. Die Polizei will erfahren, „mit welchen anderen IP-Adressen eine Kommunikation stattfindet“, also: wer sich noch mit diesem Tor-Server verbindet.
Nur drei Tage vorher übermittelt die niederländische Polizei drei IP-Adressen, die „Phantom“ „zugeordnet werden konnten“. Die Adressen gehören Telefónica Deutschland und sind nur drei Tage alt. Telefónica speichert für sieben Tage, wer welche IP-Adresse nutzt. Doch Telefónica kann die Adressen keinem Kunden zuordnen. Im Mobilfunk geben viele Anbieter mehreren Kunden die selbe IPv4-Adresse.
Verbindungen zu Zielsystem
Das BKA wendet sich erneut an Telefónica und telefoniert mit dem Konzern-Beauftragten für staatliche Überwachungsmaßnahmen. Sie diskutieren die Möglichkeit, „Verbindungen in Echtzeit zu einem bestimmten Zielsystem zu protokollieren“. Telefónica soll die Internet-Verbindungen aller Kunden überwachen und aufzeichnen, wer sich mit dem Tor-Server bei Hetzner verbindet.
Dazu muss Telefónica „systembedingt Inhaltsdaten der einzelnen Verbindungen [aufzeichnen]“, so das BKA. Laut Gesetz dürfen Inhaltsdaten aber in diesem Fall nicht erhoben werden. Sie sollen „nur kurzzeitig gespeichert und unmittelbar wieder gelöscht“ werden. Am Ende übermittelt Telefónica dem BKA „lediglich die Bestandsdaten des ermittelten Endkunden“. So soll „Phantom“ enttarnt werden.
Um diese Maßnahme einzurichten, will Telefónica einen „richterlichen Beschluss zur zukünftigen Aufzeichnung von Verkehrsdaten“. Am 16. Dezember schreibt das BKA einen Vermerk an die Staatsanwaltschaft. Die Polizei regt an, Telefónica „zur Erhebung sämtlicher Verkehrsdaten betreffend Verbindungen zu der IP-Adresse“ bei Hetzner zu verpflichten.
IP-Catching in Echtzeit
Die Staatsanwaltschaft schickt noch am selben Tag einen Antrag an das Amtsgericht. Telefónica soll drei Monate lang „die Daten der Kunden, die auf den benannten Server zugreifen, in Echtzeit [erheben]“.
Dazu muss Telefónica zwar „kurzfristig alle Daten (Verkehrs- und Inhaltsdaten)“ speichern, so die Staatsanwaltschaft. Aber die Inhaltsdaten werden „sofort wieder ungeprüft gelöscht“. Übrig bleiben „ausschließlich die Verkehrsdaten der relevanten Verbindungen“. Telefónica soll die Verkehrsdaten „intern abgleichen“ und dem BKA „lediglich die Bestandsdaten des Kunden“ mitteilen, den sie sucht.
Die Staatsanwaltschaft bezeichnet diese Maßnahme als „IP-Catching“. Sie verweist auf einen Gesetzeskommentar, der IP-Catching 2016 erstmals erwähnte. Die Staatsanwaltschaft zitiert den entsprechenden Abschnitt fast vollständig. Wir veröffentlichen den Original-Kommentar.
Verkehrsdaten-Erhebung
Demnach ist IP-Catching eine Form der Erhebung von Verkehrsdaten. IP-Catching erlaubt „eine Echtzeiterhebung künftig anfallender Verkehrsdaten in Form von IP-Adressen“. Das Ziel ist, „eine bisher nicht näher bestimmte Person aus dem Kreis der Nutzer eines bestimmten Dienstes […] erst zu selektieren“.
Als Beispiel-Dienste nennt der Kommentar „Zugriff auf bestimmte Webseiten, Nutzung eines Anonymisierungsdienstes, Teilnahme an Foren, Zugriff auf Kontaktformulare“. Die Anbieter solcher Dienste sollen „beim Aufruf dieses von der gesuchten Person jeweils genutzten Dienstes die verwendeten IP-Adressen der Nutzer [erheben]“.
Der Kommentar vergleicht IP-Catching mit „dem Einsatz eines IMSI-Catchers oder einer Funkzellenabfrage“. Bei all diesen Maßnahmen kann „eine Vielzahl von auch unbeteiligten Personen betroffen sein“. Diese „unvermeidbare Drittbetroffenheit“ macht die Maßnahme aber nicht unzulässig. Sie muss nur verhältnismäßig bleiben.
Daten aller Telefónica-Kunden
Das Amtsgericht Frankfurt gibt dem Antrag der Staatsanwaltschaft statt. Am 17. Dezember erlässt das Gericht einen Beschluss. Es verpflichtet Telefónica zur „Erhebung sämtlicher Verkehrsdaten (in Echtzeit) betreffend Verbindungen zu der IP-Adresse“ beim Hetzner-Server und zur „Zuordnung der erhobenen Verkehrsdaten zum Endkunden“.
Die Überwachungs-Maßnahme wird auf drei Monate befristet. Das Gericht erkennt an, „dass die Maßnahme die Erhebung von Daten aller Telefónica-Kunden mit Zugriff auf den Server erforderlich macht“. Zu diesem Zeitpunkt hat Telefónica Deutschland 44 Millionen Mobilfunkanschlüsse. Jeder, der sich mit dem Tor-Server bei Hetzner verbindet, wird aufgezeichnet.
Das Gericht erwähnt, dass „dabei auch Datensätze (Verkehrs- und Inhaltsdaten) erhoben werden“. Die werden aber „nach der Erhebung oder dem Abgleich unmittelbar wieder ausgeschieden“. Laut Gericht ist die Maßnahme damit nur eine Verkehrsdaten-Erhebung. Das Gericht erwähnt den Begriff „IP-Catching“ nicht. Aber es verweist auf den entsprechenden Gesetzeskommentar.
Das „Phantom“ enttarnt
Die Maßnahme hat Erfolg. Vier Tage später schreibt das BKA einen weiteren Vermerk mit den Ergebnissen. Durch die Überwachung des Tor-Servers bei Hetzner erfährt das BKA drei IP-Adressen und Port-Nummern von „Phantom“.
Telefónica gleicht diese Daten mit den selbst erhobenen Verkehrsdaten ab. Nur ein Anschluss hat die IP-Adressen und Port-Nummern verwendet und sich mit dem Hetzner-Server verbunden. Telefónica nennt dem BKA die entsprechende Rufnummer. „Folglich wird die Ricochet-Kennung von Phantom aktuell über den hier festgestellten Mobilfunkanschluss genutzt.“
Von da an folgt klassische Ermittlungsarbeit. Das BKA erfährt die Bestandsdaten der Anschluss-Inhaberin. Die Ermittler überwachen die Telekommunikation. Das BKA identifiziert Andreas G. als „Phantom“. Er nutzte den Internet-Anschluss seiner Mutter. Im April nehmen Polizisten ihn fest. Das Gericht verurteilt ihn zu zehneinhalb Jahren Haft mit anschließender Sicherungsverwahrung.
In diesem Fall hat das IP-Catching zum Erfolg beigetragen. Ob die Ermittlungen auch ohne diese Maßnahme erfolgreich gewesen wären, wissen wir nicht.
Gesetzlich nicht definiert
Trotzdem gibt es Kritik am IP-Catching. Es ist grundrechtlich sensibel und rechtlich problematisch sowie öffentlich unbekannt und wurde bisher geheimgehalten.
In einem Rechtsstaat gilt Gewaltenteilung. Gesetze werden von Parlamenten beschlossen – der Legislative. Weder Bundestag noch Bundesrat kennen das IP-Catching. Die Generalstaatsanwaltschaft Frankfurt am Main, die die Maßnahme im Phantom-Fall beantragt hat, sagt: „Die Ermittlungsmaßnahme ‚IP-Catching‘ ist gesetzlich nicht definiert“.
Die erste Erwähnung von IP-Catching, die wir finden konnten, ist der Beck’sche Gesetzes-Kommentar von 2016. Bis heute wird dieser Kommentar als juristische Grundlage genutzt. Der Jura-Professor Wolfgang Bär hat ihn verfasst. Bis 2015 war er Referatsleiter zur Bekämpfung von Internetkriminalität im Bayerischen Justizministerium – der Exekutive. Seit Juli 2015 ist er Richter am Bundesgerichtshof – der Judikative.
Wir haben Wolfgang Bär gefragt, wie das IP-Catching entstanden ist. Hat er die Maßnahme im Justizministerium entworfen? Oder haben Ermittler das IP-Catching damals bereits verwendet und er hat beispielsweise als Richter davon erfahren? Bär beantwortet diese Fragen nicht. Er teilt uns mit: „Zu den von Ihnen aufgeworfenen Fragen kann ich leider keine Angaben machen.“
Viele unverdächtige Personen
Andere Juristen widersprechen der Rechtsauffassung von Bär. Der Jura-Professor Christian Rückert hat einen Abschnitt zum IP-Catching im Münchener Gesetzes-Kommentar veröffentlicht. Rückert äußert „ernstliche Zweifel“, ob das IP-Catching „auf die bestehenden Rechtsgrundlagen […] gestützt werden kann“.
Die „große Streubreite der Maßnahme“ ist „materiell-rechtlich problematisch“. Beim IP-Catching werden „alle IP-Adressen der Nutzer/innen erhoben, die mit einem bestimmten Server kommunizieren bzw. eine bestimmte Internetdienstleistung in Anspruch nehmen“. Damit werden auch „Verkehrs- oder Nutzungsdaten einer Vielzahl von nichtverdächtigen Personen miterhoben“.
Eine Verkehrsdaten-Erhebung darf sich jedoch „nur gegen den Beschuldigten, Nachrichtenmittler und solche Personen richten, von denen anzunehmen ist, dass der Beschuldigte ihr IT-System benutzt“. Rückert kritisiert: „Keinesfalls darf das IP-Catching als ‚IP-Rasterfahndung‘ eingesetzt werden, um erst einen Kreis von Verdächtigen zu gewinnen.“
Gesetzgeber muss entscheiden
Rückert verweist im Münchener Kommentar auch auf das juristische Prinzip der Wesentlichkeitslehre. Laut Bundesverfassungsgericht hat der Bundestag die Pflicht „in grundlegenden Bereichen, insbesondere im Bereich der Grundrechtsausübung, alle wesentlichen Entscheidungen selbst zu treffen, also diese nicht den anderen Staatsgewalten zu überlassen“.
Das IP-Catching hat eine „sehr große Streubreite“ und damit eine „große Eingriffsintensität“. Deshalb braucht es „hinreichende Eingriffsschwellen und Schutzmechanismen“. Juristen vergleichen IP-Catching unter anderem mit der Funkzellenabfrage. Doch die ist im Gesetz geregelt. Der Gesetzgeber muss daher auch „über die Zulässigkeit des IP-Catchings gesondert entscheiden“.
Rückert hat „ernstliche Zweifel“, ob das IP-Catching „überhaupt auf die bestehenden Rechtsgrundlagen […] gestützt werden kann“. Für Jura-Professoren in Gesetzes-Kommentaren sind solche Worte äußerst kritisch.
Rechtsgrundlage reicht nicht
Die Neue Richter*innenvereinigung wird auf Anfrage noch deutlicher. Sven Kersten ist Sprecher des Bundesvorstandes dieser Berufsvereinigung von Richter:innen und Staatsanwält:innen und selbst Richter am Landgericht Berlin.
Kersten sagt: „Die aktuelle Gesetzeslage genügt für den Einsatz der Maßnahme nicht. Es existieren lediglich Regelungen, die vergleichbare Maßnahmen, aber nicht das IP-Catching erfassen.“ Ohne ein spezifisches Gesetz darf das IP-Catching nicht eingesetzt werden. „Aufgrund des erheblichen Eingriffs in Grundrechte bedarf es für den Einsatz des IP-Catchings zwingend einer gesetzlichen Grundlage.“
Kersten kritisiert auch die Geheimhaltung und Intransparenz. „Die Öffentlichkeit sollte davon wissen und darüber diskutieren, um ein Bewusstsein für die Problematik des Einsatzes zu entwickeln und um eine Lösung einfordern zu können.“
Bestehendes Recht überdehnt
Die Gesellschaft für Freiheitsrechte sieht das auch so. Laut Rechtsanwalt Benjamin Lück reicht der aktuelle Paragraf zur Erhebung von Verkehrsdaten „nicht als Rechtsgrundlage“ für das IP-Catching.
Im Phantom-Fall hat Telefónica nicht nur Verkehrsdaten erhoben, sondern auch Kommunikations-Inhalte. Wenn Ermittler eine „Zieladresse in Echtzeit überwachen lassen“, fallen nicht nur reine Verkehrsdaten an. Das ist vielmehr „eine Überwachung der grundrechtlich besonders geschützten Inhalte der Kommunikation“. Das unterscheidet das IP-Catching auch von einer Funkzellenabfrage.
Lück fordert den Gesetzgeber auf, „weit reichende Grundrechtseingriffe selbst zu regeln“. Die Ermittler sollten selbst auf eine gesetzliche Regelung hinwirken, „statt durch kreative Auslegung das bestehende Recht zu überdehnen“. Lück sieht ein Gesetzgebungsverfahren auch als Chance, „diese Ermittlungsmaßnahme in der Öffentlichkeit kritisch zu diskutieren“.
Öffentlich weitgehend unbekannt
Eine öffentliche Debatte scheint dringend notwendig. Im Rahmen dieser Recherche haben wir mit einer ganzen Reihe an Experten gesprochen: Anwälte und Richter, Abgeordnete und Lobbyisten, Kommunikationsanbieter und Techniker. Die allermeisten hatten noch nie von „IP-Catching“ gehört. Die Überwachungs-Maßnahme ist weitgehend unbekannt.
Die Bundesnetzagentur ist dafür verantwortlich, dass Kommunikations-Anbieter normale Überwachungsmaßnahmen durchführen können. Als Beispiele für „Regelfälle“ nennt sie uns „eine Überwachung oder eine Beauskunftung von Verkehrsdaten bestimmter Anschlüsse“. Von „konkreten Maßnahmen“ zum IP-Catching hat die Bundesnetzagentur „keine Kenntnis“.
Das Unternehmen DIaLOGIKa entwickelt Software für Überwachungsmaßnahmen, sowohl für Kommunikations-Anbieter als auch für Sicherheitsbehörden. Diese Produkte unterstützen IP-Catching nicht. Vor unserer Anfrage kannte DIaLOGIKa die Maßnahme nicht. Geschäftsführer Julian Backes bezweifelt, ob IP-Catching eine reine Verkehrsdaten-Maßnahme ist. Möglicherweise ist es vielmehr „eine Form der Telekommunikationsüberwachung“.
Keine Antwort, kein Kommentar
Transparenz fehlt auch in einem weiteren Bereich: Wie oft das IP-Catching eingesetzt wird. Wir haben die drei großen deutschen Mobilfunknetz-Betreiber gefragt, wie oft sie die Maßnahme in den letzten fünf Jahren durchgeführt haben. Die Deutsche Telekom hat seitdem „keine IP-Catching Maßnahmen durchgeführt“. Dem ehemaligen Staatskonzern sind auch „keine gerichtlichen Anordnungen zum IP-Catching bekannt“. Vodafone sagt nur: „Kein Kommentar.“
Telefónica Deutschland will unsere konkrete Frage nicht beantworten. Der Konzern mit der Kernmarke O2 bestätigt nur allgemein, dass er mit Strafverfolgungsbehörden kooperiert. „Für den geschilderten Vorgang des so genannten IP-Catchings (Verkehrsdatenbeauskunftung) ist ein richterlicher Beschluss notwendig, um die für die Ermittlungsbehörden relevanten Verkehrsdaten weiter geben zu können. Zur Umsetzung dieses richterlichen Beschlusses sind wir verpflichtet.“ Telefónica will sich „darüber hinaus nicht weiter zu diesem Thema äußern“.
Die Generalstaatsanwaltschaft Frankfurt hat IP-Catching im Phantom-Fall beantragt. Wie oft sie das noch getan hat, kann sie nicht sagen. Es gibt „keine gesetzliche Vorgabe“ zur statistischen Erfassung. Oberstaatsanwalt Benjamin Krause hat „die derzeit im Dienst befindlichen Staatsanwält:innen“ gefragt, ob sie sich an einen solchen Fall erinnern können. „Dies war nicht der Fall.“
Sicherheit Deutschlands gefährdet
Von einer Presseanfrage an Polizei und Geheimdienste haben wir keine sinnvollen Antworten erwartet. Also haben wir die Bundestagsabgeordnete Clara Bünger gebeten, eine parlamentarische Frage an die Bundesregierung zu stellen. Die Antwort ist jedoch wenig informativ.
Der Generalbundesanwalt erfasst diese Informationen nicht statistisch. Zwar könnte man alle Ermittlungsverfahren händisch auswerten. Das würde aber die „Ermittlungsarbeit zum Erliegen bringen“. Deshalb ist „eine Beantwortung mit zumutbarem Aufwand nicht möglich“.
Die Bundespolizei „hat in den letzten fünf Jahren keine IP-Catching-Maßnahme durchgeführt“. Nach Informationen von netzpolitik.org gilt das auch für den Zoll. Offiziell ist die Antwort aber als Verschlusssache „nur für den Dienstgebrauch“ eingestuft. Ein Bekanntwerden könnte „die Funktionsfähigkeit der Zollverwaltung beeinträchtigen“ und „mithin die Sicherheit der Bundesrepublik Deutschland gefährden“.
Regierung verweigert Auskunft
Bundesnachrichtendienst, Verfassungsschutz und Militärischer Abschirmdienst haben ihre Antwort ebenfalls eingestuft. Wenn bekannt wird, wie oft die Geheimdienste IP-Catching nutzen, hätte das „erhebliche Nachteile“ für ihre „Auftragserfüllung“. Deshalb sind die Antworten Verschlusssache „Geheim“.
Das Bundeskriminalamt hat das IP-Catching im Phantom-Fall eingesetzt. „Weitergehende Auskünfte“ verweigert das BKA dem Bundestag vollständig. Im Gegensatz zum Zoll und den Geheimdiensten verweigert die Polizeibehörde sogar eine eingestufte Antwort. Demnach kann „auch ein geringfügiges Risiko des Bekanntwerdens unter keinen Umständen hingenommen werden“.
Clara Bünger, Innenexpertin der Linksfraktion im Bundestag, kritisiert diese Geheimhaltung. „Es ist bedenklich, dass die Bundesregierung Auskunft über ein Vorgehen verweigert, dessen rechtliche Grundlage fraglich ist und dessen potenzieller Eingriff in Grundrechte noch nicht einmal abschätzbar erscheint.“
Update (11:35): Die Deutsche Telekom hat eine Antwort nachgereicht, wir haben den entsprechenden Satz angepasst.
Update (30.04.): Das BKA hat uns gebeten, die BKA-Mitarbeitenden nicht namentlich zu nennen. Wir haben die Namen entfernt bzw. geschwärzt.
Hier die Dokumente in Volltext (sensible personenbezogene Daten haben wir geschwärzt):
- 2016-02-01: Beck’scher Online-Kommentar – IP-Catching
- 2020-12-16: Bundeskriminalamt – Vermerk
- 2020-12-16: Generalstaatsanwaltschaft – Verfügung
- 2020-12-17: Amtsgericht – Beschluss
- 2020-12-21: Bundeskriminalamt – Vermerk
- 2023: Münchener Kommentar – IP-Catching
- 2025-04-16: Bundesregierung – Antwort
- Datum: 1. Februar 2016
- Kommentar: Beck’scher Online-Kommentar
- Edition: 24
- Gesetz: Strafprozeßordnung
- Buch: Allgemeine Vorschriften
- Abschnitt: Ermittlungsmaßnahmen
- Paragraf: § 100g Erhebung von Verkehrsdaten
- Randnummer: 23
- Von: Prof. Dr. Wolfgang Bär
IP-Catching
Während es beim IP-Tracking nur darum geht, eine bekannte Person an Hand der von ihr verwendeten IP-Adresse zu identifizieren, ist es beim sog. IP-Catching Ziel des Eingriffs, eine bisher nicht näher bestimmte Person aus dem Kreis der Nutzer eines bestimmten Dienstes (z.B. Zugriff auf bestimmte Webseite, Nutzung eines Anonymisierungsdienstes, Teilnahme an Foren, Zugriff auf Kontaktformulare) erst zu selektieren. Dies kann dadurch erfolgen, dass i.R.d. Maßnahme über den betreffenden Diensteanbieter alle beim Aufruf dieses jeweiligen, von der gesuchten Person genutzten Dienstes die verwendeten IP-Adressen erhoben werden. Der Eingriff entspricht damit quasi einer Funkzellenabfrage, die sich aber statt auf Mobilfunkdaten hier auf die verwendeten IP-Adressen bezieht. Es erfolgt damit eine Echtzeiterhebung künftig anfallender Verkehrsdaten in Form von IP-Adressen. Dies kann auf der Grundlage des § 100g Abs. 1 S. 1 und S. 3 vorgenommen werden. Der Eingriff führt dabei – ebenso wie bei einer Funkzellenabfrage – aber dazu, dass eine Vielzahl von auch unbeteiligten Personen betroffen sein kann. Dadurch ergibt sich ein wesentlicher Unterschied zum IP-Tracking mit einer konkreten Zielperson. Die Erhebung der IP-Adressen erfolgt auch hier mit dem Ziel, über diese gewonnenen Informationen später i.R.d. sog. Personenauskunft eine Zuordnung zu einer Person auf der Grundlage des § 100j Abs. 2 i.V.m. Abs. 1 S. 1 vornehmen zu können.
- Datum: 16.12.2020
- Ort: Wiesbaden
- Von: Bundeskriminalamt, SO44
- An: Generalstaatsanwaltschaft Frankfurt am Main, ZIT
- Aktenzeichen: 60 UJs 50480/19 ZIT
- Betreff: Ermittlungsverfahren […] gegen den Nutzer des Nicknamen „Phantom“ wegen Verdachts der bandenmäßigen Verbreitung kinderpornografischer Schriften sowie des schweren sexuellen Missbrauchs von Kindern, gem. §§176a, 184b StGB
- Hier: Anregung zur Erhebung von Verkehrsdaten gem. § 100g StPO
Vermerk
1. Im Rahmen des internationalen polizeilichen Dienstverkehrs wurden am 11.12.2020 seitens der niederländischen Behörden die folgenden IP-Adressen mitgeteilt, die dem hier verfahrensgegenständlichen Nutzer des Nicknamen „Phantom“ zugeordnet werden konnten:
- 89.204.153.2██ port 519██; 8 Dezember 2020; 18:52 bis 20:24 UTC+1
- 89.204.154.██ port 339██; 8 Dezember 2020; 21:05 bis 22:00 UTC+1
- 89.204.153.██ port 330██; 9 Dezember 2020; 09:58 bis 10:54 UTC+1
Die IP-Adressen können dem Provider Telefónica Germany GmbH & Co. OHG zugeordnet werden. Mit Schreiben vom 11.12.2020 wurde seitens der Telefónica mitgeteilt, dass zu den genannten IP-Adressen keine Bestandsdaten beauskunftet werden können.
Grundsätzlich sind diese IP-Adressen dem Mobilfunknetz der Telefónica zuzuordnen. Es besteht somit die Annahme, dass „Phantom“ aktuell eine mobile Datenverbindung nutzt um Aktivitäten im Tor-Netzwerk zu entfalten.
2. Mit Beschluss des AG Frankfurt vom 14.12.2020 wurde die Erhebung und Herausgabe von zukünftig anfallenden Verkehrsdaten bzgl. der IP-Adresse 136.243.39.185 (Verpflichteter: Hetzner Online GmbH) angeordnet. Ziel dieser Maßnahme ist festzustellen, mit welchen anderen IP-Adressen eine Kommunikation stattfindet, die auf das Betreiben der von dem Nutzer des Nicknamen „Phantom“ genutzten Ricochet-Kennung „zk7egmb6dlqqmd██“ hinweisen.
Entsprechend der Ausführungen unter Nr. 1 ist zu erwarten, dass im Ergebnis weitere IP-Adressen des Providers Telefónica Germany GmbH & Co. OHG festgestellt werden.
3. Nach Rücksprache mit der Telefónica, Herrn M█████ K█████ (Coordinator Lawful Interception), würde dort die Möglichkeit bestehen Verbindungen in Echtzeit zu einem bestimmten Zielsystem zu protokollieren und ggf. einem konkreten Endkunden zuordnen zu können. Dies bedürfe eines entsprechenden richterlichen Beschlusses zur zukünftigen Aufzeichnung von Verkehrsdaten.
Durch Herrn K█████ wurde weiter mitgeteilt, dass zur Aufzeichnung der Verkehrsdaten bei der Telefónica systembedingt Inhaltsdaten der einzelnen Verbindungen aufgezeichnet würden. Diese würden an sich für den Analyseprozess der Verkehrsdaten nicht benötigt und entsprechend im Rahmen des technischen Verfahrens nur kurzzeitig gespeichert und unmittelbar wieder gelöscht.
Im Ergebnis der Auswertung würden dem Bundeskriminalamt lediglich die Bestandsdaten des ermittelten Endkunden übermittelt. Die bei der Telefónica im Rahmen des Prozesses aufgezeichneten Daten werden nicht übermittelt und lediglich im Rahmen der technischen Analyse verarbeitet.
Anregung
Aus den vorgenannten Gründen wird angeregt, beim zuständigen Amtsgericht einen Beschluss gemäß § 100g Abs. 1 StPO zur Verpflichtung des Unternehmens
Telefónica Germany GmbH & Co. OHG, Georg-Bräuchle-Ring 50, 80992 München
zur Erhebung sämtlicher Verkehrsdaten betreffend Verbindungen zu der
IP-Adresse 136.243.39.185
zu beantragen.
Dabei sollen die Verkehrsdaten in Echtzeit aufgezeichnet und eine Zuordnung der erhobenen Verkehrsdaten zum Endkunden hergestellt werden, wobei die kurzzeitige Speicherung von Inhaltsdaten für diesen Zweck notwendig wäre. Im Ergebnis sollen dem Bundeskriminalamt entsprechende Bestandsdaten des Kunden, der zu definierten Zeitpunkten Verbindungen zu der genannten IP-Adresse herstellte, übermittelt werden.
Die Tat wiegt auch im vorliegenden Fall schwer, weil auf der o. g. Plattform, auch durch „Phantom“ selbst, fortgesetzt kinderpornografische Schriften hochgeladen bzw. durch Verlinkung verbreitet werden.
Die Maßnahme ist unentbehrlich, weil die Erforschung des Sachverhaltes und die Ermittlung des Aufenthaltsortes des „Phantom“ auf andere Weise wesentlich erschwert oder aussichtslos wäre.
- Datum: 16.12.2020
- Ort: Frankfurt am Main
- Von: Generalstaatsanwaltschaft Frankfurt am Main
- Staatsanwältin: Dr. Julia Bussweiler
- Aktenzeichen: 60 UJs 50480/19 ZIT
Verfügung
1. Nach Aktenrückkehr:
- Beschluss (1 x mit Gründe, 1 x abgek. Gründe) an so44@bka.bund.de mailen.
- eDuplo ergänzen
- Original-Beschluss (abgekürzte Gründe) an Telefónica per Post senden
- Wv sodann (Statistik)
2. Vermerk:
Durch Mitteilung der niederländischen Behörden wurde bekannt, dass „Phantom“ eine Telefónica-Mobilfunkverbindung zum Zugriff auf den relevanten Server nutzt. Dabei konnten reale IP-Adresse erhoben werden, die – mangels Echtzeiterhebung beim Provider Telefónica – derzeit aber keinem Endkunden zugeordnet werden konnten.
Um bei zukünftigen Zugriffen von „Phantom“ eine solche Zuordnung zu ermöglichen, soll daher nunmehr die Anordnung einer Echtzeiterhebung dieser Verkehrsdaten gegenüber dem Provider Telefónica erwirkt werden, mittels derer dann eine Zuordnung zum Endkunden erfolgen kann.
Bei dieser Maßnahme handelt es sich um ein sog. „IP-Catching“, dessen Durchführung sich nach § 100g StPO richtet:
Bär in Beck-OK, § 100g, Rn. 23 führt dazu aus:
„[…] Beim sog. IP-Catching [ist] Ziel des Eingriffs, eine bisher nicht näher bestimmte Person aus dem Kreis der Nutzer eines bestimmten Dienstes (zB Zugriff auf bestimmte Webseite, Nutzung eines Anonymisierungsdienstes, Teilnahme an Foren, Zugriff auf Kontaktformulare) erst zu selektieren. Dies kann dadurch erfolgen, dass i.R.d. Maßnahme über den betreffenden Diensteanbieter alle beim Aufruf dieses von der gesuchten Person jeweils genutzten Dienstes die verwendeten IP-Adressen der Nutzer erhoben werden. Der Eingriff entspricht damit quasi dem Einsatz eines IMSI-Catchers oder einer Funkzellenabfrage, die sich aber statt auf Mobilfunkdaten hier auf die verwendeten IP-Adressen der Nutzer dieses Dienstes bezieht. Es erfolgt damit eine Echtzeiterhebung künftig anfallender Verkehrsdaten in Form von IP-Adressen. Dies kann auf der Grundlage des § 100g Abs. 1 S. 1 und S. 4 (S. 3 aF) zulässigerweise vorgenommen werden. Der Eingriff führt dabei – ebenso wie bei einer Funkzellenabfrage oder einem IMSI-Catcher-Einsatz – aber dazu, dass eine Vielzahl von auch unbeteiligten Personen betroffen sein kann. Dadurch ergibt sich ein wesentlicher Unterschied zum IP-Tracking mit einer konkreten Zielperson. Ebenso wie nach § 100h Abs. 3 oder § 100i Abs. 2 S. 1 führt die unvermeidbare Drittbetroffenheit aber nicht zur Unzulässigkeit der Maßnahme, sondern erfordert nur eine besondere Berücksichtigung des Grundsatzes der Verhältnismäßigkeit bei der Anordnung. Die Erhebung der IP-Adressen erfolgt auch hier mit dem Ziel, über diese gewonnenen Informationen später i.R.d. sog. Personenauskunft eine Zuordnung zu einer Person auf der Grundlage des § 100j Abs. 2 i.V.m. Abs. 1 S. 1 vornehmen zu können […].“
Konkret wird diese Maßnahme in zwei Schritten umgesetzt:
Schritt 1:
Durch den verpflichteten Provider werden die Daten der Telefónica-Kunden, die auf den benannten Server zugreifen, in Echtzeit erhoben. Aufgrund der zuletzt erfolgten Mitteilung von Telefónica ist diese Maßnahmen der Verkehrsdatenerhebung in Echtzeit aufgrund der dort vorhandenen technischen Gegebenheiten nur in Form einer ganzheitlichen Datenerhebung möglich, d.h. dass zunächst kurzfristig alle Daten (Verkehrs- und Inhaltsdaten) erhoben, die Inhaltsdaten allerdings sofort wieder ungeprüft gelöscht werden. Es verbleiben ausschließlich die Verkehrsdaten der relevanten Verbindungen.
Schritt 2:
Anhand der festgestellten Verkehrsdaten erfolgt nach Benennung der relevanten Zeitpunkte durch das BKA – die anhand der Monitorings des Online-Verhaltens des Beschuldigten bekannt geworden sind – eine Abfrage an Telefónica, welcher Kunde zu diesem Zeitpunkt auf den relevanten Server zugegriffen hat. Nach internem Abgleich der erhobenen Verkehrs- mit den vorhandenen Bestandsdaten werden dem BKA lediglich die Bestandsdaten des Kunden, der zu den benannten Zeitpunkten auf den Server zugegriffen hat, mitgeteilt. Die Auskunft, die letztendlich durch Telefónica erteilt wird, entspricht daher vom Umfang her einer qualifizierten Bestandsdatenauskunft.
Zwar muss zur Umsetzung dieser qualifizierten Bestandsdatenauskunft auf die erhobenen „höherwertigen“ Daten zurückgegriffen werden. Diese Vorgehensweise ist allerdings nicht unüblich und im Rahmen des § 100j Abs. 2 StPO gesetzlich sogar ausdrücklich vorgesehen. Dabei wird nach dem gesetzgeberischen Leitbild zur Erteilung der qualifizierten Bestandsdatenauskunft auf die gespeicherten Verkehrsdaten nach § 113 TKG zurückgegriffen, ohne dass dafür eine Anordnung nach § 100g StPO erforderlich ist.
Im Unterschied dazu, ist vorliegend eine Anordnung nach § 100g StPO deshalb erforderlich, da die zuzuordnenden Daten nicht aufgrund einer gesetzlichen Regelung vorgehalten werden, sondern erst erhoben werden müssen. Parallel zu der obig beschriebenen Situation ist nach h.E. aber keine Anordnung nach § 100a StPO erforderlich. Auch diese Daten verlassen – ebenso wie die Vorratsdaten nach § 113 TKG – die Sphäre des Diensteanbieters nicht. Darüber hinaus werden diese sogar im Anschluss an ihre rein technisch bedingte Erhebung sofort und ungesehen durch den Provider gelöscht.
3. U. m. A. (1 Bd. Hauptakte)
dem Amtsgericht – Ermittlungsrichter – Frankfurt
mit dem Antrag übersandt, einen Beschluss nach § 100g StPO entsprechend des anliegenden Entwurfs für die Dauer von drei Monaten zu erlassen.
Es wird gebeten, eine Beschlussausfertigung für den Provider mit abgekürzten Gründen beizufügen.
Hinsichtlich der hiesigen rechtlichen Bewertung wird auf den Vermerk Ziff. 1 verwiesen. Für eine Rücksprache dazu stehe ich unter der Rufnummer 0611/3265-87██ jederzeit zur Verfügung.
Da der relevante Server als Eintrittsknotenpunkt einem regelmäßigen Wechsel unterliegt, ist eine zügige Umsetzung der Maßnahme geboten.
Es wird zudem höflich um telefonische Benachrichtigung der ZIT unter der folgenden Rufnummer 0611/3265-87██ zwecks Abholung der Akte gebeten.
- Datum: 17.12.2020
- Ort: Frankfurt am Main
- Von: Amtsgericht Frankfurt am Main
- Ermittlungsrichterin: Johanna Rustler
- Geschäftsnummer: 9500 UJs 416932/19 – 931 Gs
- Aktenzeichen: 60 UJs 50480/19 ZIT
Beschluss
In dem Ermittlungsverfahren
gegen: Unbekannt
wegen: Verdachts einer Straftat nach § 184b StGB u. a.
wird auf Antrag der Generalstaatsanwaltschaft Frankfurt am Main
gemäß §§ 100g Abs. 1 S. 1 Nr. 1 und 2, 100e Abs. 1 S. 1, 101a Abs. 1 S. 1 StPO die Erhebung sämtlicher Verkehrsdaten (in Echtzeit) betreffend Verbindungen zu der IP-Adresse
IP-Adresse: 136.243.39.185
Verpflichteter: Telefónica Germany GmbH & Co. OHG, Georg-Brauchle-Ring 50, 80992 München
und die Zuordnung der erhobenen Verkehrsdaten zum Endkunden angeordnet.
Die Anordnung wird bis zum 16.03.2021 befristet.
Gründe (abgekürzt)
Es liegt der Verdacht schwerer Straftaten nach § 100a Abs. 2 Nr. 1 lit. g StPO vor, die aufgrund des Umfangs der Tathandlungen auch im Einzelfall schwer wiegen und die alle ausschließlich unter Verwendung von Telekommunikationsmitteln begangen wurden (§ 100g Abs. 1 S. 1 Nr. 1 und 2 StPO).
Durch die bisherigen Ermittlungserkenntnisse besteht der Verdacht, dass der Nutzer „Phantom“ eine Mobilfunkverbindung des Provider Telefónica nutzt, um auf den benannten Server zuzugreifen und sich darüber mit dem Tor-Netzwerk zu verbinden. Durch die niederländischen Strafverfolgungsbehörden konnten mehrere Zugriffe unter Nutzung von Telefónica-IP-Adressen festgestellt (08.12.2020 und 09.12.2020), die durch den Provider jedoch mangels Erhebung und Zuordnung der Daten in Echtzeit, bislang keinem Endkunden zugeordnet werden konnten.
Im Fall einer solchen Echtzeiterhebung sämtlicher Verbindungen, die auf den Server mit der relevanten IP-Adresse zugreifen und der Zuordnung zu den jeweiligen Endkunden, besteht die Möglichkeit durch einen Abgleich mit den im Rahmen der Ermittlungen bekannt gewordenen Online-Zeiten des Nutzers „Phantom“ die Identität des noch unbekannten Beschuldigten zu ermitteln.
Dass die Maßnahme die Erhebung von Daten aller Telefónica-Kunden mit Zugriff auf den Server erforderlich macht und dabei auch Datensätze (Verkehrs- und Inhaltsdaten) erhoben werden, die nach der Erhebung oder dem Abgleich unmittelbar wieder ausgeschieden werden, macht die Maßnahme dennoch nicht unverhältnismäßig. Auch bei den „normalen“ telefonischen Zielsuchlauf-Maßnahmen, beim Einsatz eines IMSI-Catchers und bei Telekommunikationsüberwachungsmaßnahmen besteht regelmäßig eine unvermeidbare Drittbetroffenheit, die lediglich einer genauen Verhältnismäßigkeitsabwägung bedarf (vgl. Beck-OK-Bär, § 100g, Rn. 23) und die im Einzelfall eine Pflicht zur unverzüglichen Löschung bestimmter, nicht von vornherein ausscheidbarere Daten auslöst. Mit diesen Konstellationen ist der Ausgangspunkt hier vergleichbar. Insofern ist auch die kurzfristige Erhebung dieser Daten zur Ermöglichung der Auskunft über den zuzuordnenden Kundenanschluss zulässig.
Mit Blick auf die Schwere der Tatvorwürfe, den Umfang der durch „Phantom“ ausgeübten kriminellen Aktivitäten und der Tatsache, dass auf die kinderpornographischen Plattformen täglich weltweit eine unbeschränkte Anzahl von Personen Zugriff ausüben kann, ist die angeordnete Überwachungsmaßnahme nicht unverhältnismäßig.
Darüber hinaus stehen andere Maßnahmen zur Aufklärung und Erforschung des Sachverhalts nicht zur Verfügung. Insbesondere ist mangels Datenspeicherung durch den Provider eine „unmittelbare“ Abfrage nicht möglich. Sie ist notwendig für eine weitergehende Identifizierung des Beschuldigten und die Feststellung der verwendeten technischen und logistischen Infrastruktur.
Andere Aufklärungsmöglichkeiten im Hinblick auf die relevanten kinderpornographischen Plattformen stehen zudem aufgrund des ausschließlichen Zugriffs über das Tor-Netzwerk, dem eine systemimmanente Verschlüsselung zugrunde liegt, nicht zur Verfügung, da die Benutzer aufgrund dieser Anonymisierungsmechanismen effektiv vor herkömmlichen Ermittlungsmaßnahmen hinsichtlich der durch sie genutzten Internetverbindung geschützt sind.
- Datum: 21.12.2020
- Ort: Wiesbaden
- Von: Bundeskriminalamt, SO44
- An: Generalstaatsanwaltschaft Frankfurt am Main, ZIT
- Aktenzeichen: 60 UJs 50480/19 ZIT
- Betreff: Ermittlungsverfahren […] gegen den Nutzer des Nicknamen „Phantom“ wegen Verdachts der bandenmäßigen Verbreitung kinderpornografischer Schriften sowie des schweren sexuellen Missbrauchs von Kindern, gem. §§176a, 184b StGB
- Hier:
- Identifizierung eines durch „Phantom“ genutzten Mobilfunkanschlusses
- Anregung eines Beschlusses gem. §§ 100a, e, i, StPO
Vermerk
1. Aktueller Sachstand
Mit Beschlüssen des AG Frankfurt a. M. vom 14.12.2020 sowie 17.12.2020 wurden gem. § 100g StPO Verkehrsdaten, auch in Echtzeit, bei den Providern Hetzner GmbH sowie Telefónica Germany GmbH erhoben.
Hintergrund war, dass im Rahmen der Ermittlungen zunächst festgestellt werden konnte, dass die seitens „Phantom“ genutzte Ricochet-Messenger-Kennung „zk7egmb6dlqqmd██“ einen Hetzner-Server (IP-Adresse 136.243.39.185) als Eintrittsknoten in das Tor-Netzwerk nutzt. Ferner wurde festgestellt, dass „Phantom“ aktuell einen Telefónica-Mobilfunkanschluss nutzt, um eine Internetverbindung in das Tor-Netzwerk herzustellen.
Im Zuge der Maßnahmen bezüglich der Verkehrsdatenerhebung beim Provider Hetzner wurde durch die Fachdienststelle im BKA, OE24, festgestellt, dass die seitens „Phantom“ genutzte Ricochet-Kennung in den nachfolgenden Zeiträumen
- 17.12.2020 zwischen 19:10 und 19:30 Uhr (jeweils MEZ)
- 17.12.2020 zwischen 21:52 und 22:09 Uhr
- 18.12.2020 zwischen 9:26 und 9:46 Uhr
jeweils die (Klar-)IP-Adressen
- 89.204.153.██ Port 440██
- 89.204.153.██ Port 451██
- 89.204.155.██ Port 443██
verwendete.
Diese konnten dem Kontingent des Providers Telefónica Germany zugeordnet werden. Die genannten IP-Adressen und Zeiträume wurden zum Abgleich mit den bei der Telefónica erhobenen Verkehrsdaten an diese übersandt.
Gemäß Auskunft des Telefónica-Mitarbeiters Herrn M█████ K█████ (Coordinator Lawful Interception), bestand zu o. g. Zeitpunkten unter den festgestellten Telefónica-IP-Adressen ausschließlich über die Rufnummer
0176209849██
eine mobile Daten-Verbindung zu dem seitens „Phantom“ genutzten Hetzner-Eintrittsknoten mit der IP-Adresse 136.243.39.185.
Folglich wird die Ricochet-Kennung von Phantom aktuell über den hier festgestellten Mobilfunkanschluss genutzt.
2. Ermittlungen zum festgestellten Telefónica-Anschluss
Gemäß § 112 und § 113 TKG wurden die Bestandsdaten zu der seitens „Phantom“ genutzten Mobilfunkrufnummer erhoben.
Der Anschluss 0176-209849██ ist demnach seit dem 31.05.2016 auf eine Frau
T███████ G█████
geb.: ██.██.19██
whft.: ███████████ ██, 33142 Büren
registriert.
Zu dem Anschluss existieren derzeit zwei aktive SIM-Karten.
Gemäß einer Überprüfung der Meldedaten ist o. g. Person tatsächlich existent und an besagter Anschrift aktuell gemeldet.
Im Zuge der Beauskunftung der Telefónica-Rufnummer teilte Herr K█████ am 18.12.2020 KHK K█████, SO44, zudem fernmündlich mit, dass entsprechend der bei der Telefónica aufgezeichneten Verkehrsdaten während der tatrelevanten Zeiträume der Mobilfunk-Anschluss aus einer Funkzelle im Bereich der Stadt Büren genutzt wurde. Aus den von Telefónica mitgeteilten Verkehrsdaten ist auch ersichtlich, dass die gegenständliche Rufnummer aktuell über ein Mobiltelefon Apple iPhone 11 Pro Max genutzt wird. Diesem ist die IMEI-Kennung
35391610830495██
zuzuordnen.
3. Anregungen
3.1.
Aufgrund der vorangestellten Erkenntnisse wird angeregt, seitens der Generalstaatsanwaltschaft Frankfurt a. M. ZIT, beim zuständigen Gericht einen Beschluss gem. §§ 100a, e StPO zu erwirken, um den seitens „Phantom“ genutzten und auf T███████ G█████ eingetragenen Telefonanschluss zu überwachen.
Der Beschluss sollte die Aufzeichnung des Audio- und Datenverkehrs des nachfolgend genannten Anschlusses für die Dauer von drei Monaten umfassen:
Rufnummer: 0176-209849██, 02951-94810██ (Homezone-Rufnummer)
Provider/Verpflichteter: Telefónica Germany GmbH, Telefónica Germany GmbH & Co. OHG Special Services, Georg-Brauchle-Ring 50, 80992 München
Anschlussinhaberin: T███████ G█████, geb.: ██.██.19██, whft.: ███████████ ██, 33142 Büren
Ziel der Maßnahme wäre die Identifizierung des Nutzers des Anschlusses und somit die zweifelsfreie Zuordnung einer Identität zu „Phantom“. Da nicht auszuschließen ist, dass „Phantom“ den o. a. Mobilfunkanschluss kurzfristig nicht mehr verwenden könnte, bedarf es einer zeitnahen Identifizierung des tatsächlichen Nutzers des Anschlusses. Durch die hier angeregte Telekommunikationsüberwachungsmaßnahme kann dies gewährleistet werden.
3.2.
Weiter wird angeregt, seitens der Generalstaatsanwaltschaft Frankfurt a. M. ZIT, beim zuständigen Gericht einen Beschluss gem. §§ 100a, e StPO zu erwirken, um das seitens „Phantom“ genutzte Mobiltelefon Apple iPhone 11 Pro Max dahingehend zu überwachen, ob weitere SIM-Karten/ Anschlüsse für tatrelevante Handlungen über dieses genutzt werden. Der Beschluss sollte die Aufzeichnung des Audio- und Datenverkehrs der nachfolgend genannten IMEI-Nummer für die Dauer von drei Monaten umfassen:
IMEI: 35391610830495██
Nutzer: Unbekannt („Phantom“)
Provider/Verpflichteter:
- Telefónica Germany GmbH & Co. OHG Special Services, Georg-Brauchle-Ring 50, 80992 München
- Vodafone GmbH, RULO / Unternehmenssicherheit-Behördenauskünfte, Ferdinand-Braun-Platz 1, 40549 Düsseldorf
- Deutsche Telekom AG, ReSA Berlin, Holzhauser Str. 4-8, 13509 Berlin
3.3.
Ferner wird angeregt, seitens der Generalstaatsanwaltschaft Frankfurt a. M. ZIT, beim zuständigen Gericht einen Beschluss gem. §100i Abs. 1 Nr. 2 StPO gegen den im Vermerk unter Nr. 3.1. aufgeführten Mobilfunkanschluss der G█████ zu erwirken.
Zweck dieser Maßnahme wäre im Einzelfall die konkrete Lokalisierung des aktuellen Standorts des Nutzers des Mobilfunkanschlusses, um hierdurch ggfs. auch eine zweifelsfreie Zuordnung einer Identität zu „Phantom“ zu ermöglichen.
Dieser sollte auch die beiden dem Anschluss zugeordneten IMSI (SIM-Karten-)-Nr.
2620720108787██, 2620739423986██
enthalten.
Ohne die angedachten Maßnahmen wäre eine weitere Aufklärung des Sachverhalts nicht möglich bzw. wesentlich erschwert.
Es wird gebeten die Beschlüsse vorab per Fax an das
Bundeskriminalamt Wiesbaden, SO44, Z. Hd. KHK M█████ o.V.i.A., Fax: 0611-55 467██
und jeweils eine Ausfertigung im Original an den Verpflichteten zu übersenden.
- Datum: 2023
- Kommentar: Münchener Kommentar
- Gesetz: Strafprozeßordnung
- Auflage: 2
- Paragraf: § 100g Erhebung von Verkehrsdaten
- Von: Prof. Dr. Christian Rückert
- Randnummern: 127-130
IP-Catching
Unter dem Begriff des IP-Catching wird eine Ermittlungsmaßnahme verstanden, bei der die Ermittlungsbehörden die IP-Adressen der Nutzer einer bestimmten Internetdienstleistung erheben bzw. protokollieren. Über eine anschließende Bestandsdatenabfrage können dann die Standorte und ggf. sogar die Identitäten der Nutzer ermittelt werden. Die Ermittlungsbehörden erheben bei dieser Maßnahme sog. Log-Dateien, in denen Informationen über die Zugriffe auf den Internetdienst, u.a. die IP-Adressen, von der Datenverarbeitungsanlage des Dienstes gespeichert werden. Bei dem Internetdienst kann es sich um eine Webseite (sog. Webpage-Überwachung), einen E-Mail-Dienstleister, einen Anonymisierungsdienst (z.B. VPN-Anbieter), Internet-Foren oder jede andere Internetdienstleistung handeln. Da die Maßnahme gleichzeitig die Verkehrsdaten/Nutzungsdaten vieler verschiedener Internetnutzer erhebt, ähnelt sie einer Funkzellenabfrage oder dem Einsatz eines IMSI-Catchers. [Fn. 202: Zum Ganzen Bär in BeckOK StPO § 100g Rn. 26; Bär in KMR-StPO § 100g Rn. 66.] Die Abfrage kann dabei sowohl in Echtzeit für künftig anfallende IP-Adressen („Live-Ausleitung“ durch den Dienstleister) als auch durch Auswertung einer Log-Datei für die Vergangenheit (Übermittlung der Datei durch den Dienstleister) erfolgen. Als in die Zukunft gerichtete Maßnahme gegen einen einzelnen Nutzer ist die Maßnahme auch als sog. Login-Falle verstellbar, bei der nur die IP-Adresse das einzelnen Nutzers erhoben wird. [Fn. 203: Hierzu ausführlich: Brodowski StV 2022, 413.]
Die Rechtsgrundlage für das IP-Catching wird von Bär und Bruns für alle Fälle in § 100g gesehen. [Fn. 204: Bär in BeckOK StPO § 100g Rn. 26; Bär NZWiSt 2017, 81 (84); Bruns in KK-StPO § 100g Rn. 20.] Beim sog. IP-Catching handelt es sich richtigerweise jedoch in vielen Fällen nicht um eine Verkehrsdatenerhebung nach § 100g, sondern (zumindest soweit, wie im Regelfall, die IP-Adressen bei einem Telemediendienstleister erhoben werden) um eine Nutzungsdatenerhebung nach § 100k. [Fn. 205: Ebenso von der Grün Verdeckte Ermittlungen S. 76 f; Brodowski StV 2022, 413 (414 ff.).] § 100g ist vom Gesetzgeber als umfassende Befugnis zur Erhebung von Verkehrsdaten ausgestaltet worden. Lediglich die Erhebung von Verkehrsdaten nach Abschluss des Kommunikationsvorgangs und nicht beim Telekommunikationsdienstleister soll hiervon nicht erfasst sein (§ 100g Abs. 5). Ein solcher Fall liegt hier jedoch nicht immer vor. Bis zur Einführung der Nutzungsdatenerhebung bei Telemediendienstleistern in § 100k (hierzu → § 100k Rn. 2) war problematisch, dass die Erhebung von Verkehrsdaten nach § 100g Abs. 1, Abs. 2 auf solche Verkehrsdaten beschränkt war, die nach §§ 96 Abs. 1, 113b TKG a.F. (ab 1. Dezember 2021: §§ 9, 12 TTDSG, § 176 TKG) oder § 2a BDBOSG erhoben wurden und daher nicht auf die Erhebung von Daten angewendet werden konnte, welche nicht nach diesen Vorschriften erhoben wurden und damit keine Verkehrsdaten i.S.v. § 100g Abs. 1 waren. Die meisten Anbieter von Internetdienstleistungen, bei denen ein IP-Catching in Frage kommt (z.B. Webseiten, Handelsplattformen, Internetforen, Soziale Medien), sind allerdings keine Telekommunikationsanbieter i.S.v. § 3 Nr. 61 TKG (bis 1. Dezember 2021: § 3 Nr. 24 TKG) und speicherten daher die Verkehrsdaten nicht nach §§ 96 Abs. 1, 113b TKG a.F. (seit 1. Dezember 2021: §§ 9, 12 TTDSG, § 176 TKG). Es handelt sich vielmehr um Telemedienanbieter i.S.v. § 1 Abs. 1 TMG iVm § 2 Abs. 2 Nr. 1 TTDSG. Dementsprechend speichern diese Provider die IP-Adressen der Nutzer nach Art. 6 Abs. 1 S. 1 DSGVO (früher § 15 TMG, zur Verdrängung von § 15 TMG in der Fassung bis 1. Dezember 2021 durch Art. 6 DSGVO und Streichung der Vorschrift durch das TTDSG seit 1. Dezember 2021, → § 100k Rn. 19 ff.). Die IP-Adressen sind daher in diesen Fällen sog. Nutzungsdaten, deren Erhebung nunmehr nach § 100k erlaubt ist. Ein Rückgriff auf § 100g Abs. 1 ist nur möglich, wenn das IP-Catching bei einem Telekommunikationsdienst i.S.v. § 3 Nr. 24 TKG (bis 1. Dezember 2021) bzw. § 3 Nr. 61 TKG n.F. (ab 1. Dezember 2021) durchgeführt wird. Daher stellt sich bei sog. OTT-Dienstleistern ein Abgrenzungsproblem hinsichtlich der Wahl der Rechtsgrundlage. Je nachdem, ob diese Telekommunikationsdienst oder Telemediendienst sind, ist § 100g oder § 100k einschlägig. Dementsprechend hat das Inkrafttreten des Telekommunikationsmodernisierungsgesetzes und des TTDSG zum 1. Dezember 2021 hier Auswirkungen auf die Wahl der Rechtsgrundlage.
1. Rechtslage bis zum Inkrafttreten von Telekommunikationsmodernisierungsgesetz und TTDSG (vor 1. Dezember 2021)
Problematisch war – bis zum Inkrafttreten des TTDSG – allerdings, dass die Neuregelung in § 100k Abs. 1 bis zum Inkrafttreten des TTDSG am 1. Dezember 2021 ausdrücklich nur die Erhebung von nach § 15 TMG (in der Fassung bis 1. Dezember 2021) gespeicherten Daten erlaubte. Wie ausgeführt, werden die IP-Adressen durch Telemediendienstanbieter jedoch auf Grundlage von Art. 6 Abs. 1 S. 1 DSGVO gespeichert, soweit es sich nicht ausnahmsweise (bei einigen OTT-Dienstleistern) nach der Rspr. des EuGH um Telekommunikationsanbieter i.S.v. § 3 Nr. 24 TKG a.F. handelt (hierzu → § 100a Rn. 229 und → Rn. 21). Der Verweis in § 100k Abs. 1 führte daher nach hier vertretener Auffassung bis zum Inkrafttreten des TTDSG ins Leere bzw. verstieße eine Lesart, welche den Verweis auf § 15 TMG (in der Fassung bis 1. Dezember 2021) als Verweis auf Art. 6 DSGVO verstehen wollte, gegen den Grundsatz der Normenklarheit und Bestimmtheit und wäre verfassungswidrig (→ § 100k Rn. 24).
2. Rechtslage nach Inkrafttreten von Telekommunikationsmodernisierungsgesetz und TTDSG (ab 1. Dezember 2021)
Durch das Inkrafttreten des TTDSG, die Streichung von § 15 TMG und die neue Definition in § 2 Abs. 2 Nr. 3 TTDSG, auf welche § 100k Abs. 1 nun verweist, wird dieses Problem allerdings durch das TTDSG gelöst. Keine große Auswirkung hat dagegen die Einbeziehung von sog. interpersonellen Telekommunikationsdiensten gem. § 3 Nr. 24 TKG n.F. in den Begriff des Telekommunikationsdienstes nach § 3 Nr. 61 TKG n.F. in der geltenden Fassung nach dem Telekommunikationsmodernisierungsgesetz auf das IP-Catching. Denn die meisten Anbieter, bei denen ein IP-Catching in Betracht kommt (Webseiten, Handelsplattformen, Host-Provider) sind auch nach Inkrafttreten des Telekommunikationsmodernisierungsgesetzes keine Telekommunikationsdienste. Allerdings kommt § 100g Abs. 1 dann als Rechtsgrundlage in Betracht, wenn das IP-Catching bei einem OTT-Dienstleister, der „interpersoneller Telekommunikationsdienst“ i.S.v. § 3 Nr. 61 iVm Nr. 24 TKG n.F. ist, durchgeführt werden soll (z.B. bei einem Webmail-Provider oder den Nutzern eines Voice-over-IP-Dienstes).
3. Gemeinsames Problem: Große Streubreite der Maßnahme
Materiell-rechtlich problematisch erscheint außerdem die große Streubreite der Maßnahme, da – ähnlich wie bei einer Funkzellenabfrage nach § 100g Abs. 3 – Verkehrs- oder Nutzungsdaten einer Vielzahl von nichtverdächtigen Personen miterhoben werden, die lediglich durch ein sachliches Kriterium (hier: Nutzung des jeweiligen Internetdienstes) verbunden sind (soweit es nicht um eine nur gegen einen einzelnen Nutzer gerichtete, sog. Login-Falle geht.). Dennoch ist – wenn überhaupt – nicht § 100g Abs. 3, sondern § 100k bzw. § 100g Abs. 1 einschlägig. [Fn. 206: So auch Bär in BeckOK StPO § 100g Rn. 26.] Abs. 3 ist eine nicht ausdehnbare Spezialvorschrift für die Funkzellenabfrage, die dementsprechend auch nicht analog auf Erhebungen von Verkehrs- oder Nutzungsdaten außerhalb einer Funkzelle angewendet werden kann. Die große Streubreite ist an zwei Stellen zu berücksichtigen: Im Rahmen der Verhältnismäßigkeit („angemessenes Verhältnis zur Bedeutung der Sache“) ist zu überprüfen, ob die Schwere der Straftat und der Grad des Tatverdachts die Erhebung von Verkehrs- oder Nutzungsdaten einer großen Vielzahl von Personen angemessen erscheinen lässt. [Fn. 207: Ebenso Bär in BeckOK StPO § 100g Rn. 26; Bruns in KK-StPO § 100g Rn. 20.] Man wird dies – in Anlehnung an die Regelung in § 100g Abs. 3 – grds. nur bei Straftaten nach § 100g Abs. 1 S. 1 Nr. 1 bzw. § 100k Abs. 1 S. 1 Nr. 1 annehmen dürfen. Keinesfalls möglich ist damit eine Anwendung des (nahezu voraussetzungslosen) § 100k Abs. 3. Weiterhin muss die Streubreite bei der Maßnahmerichtung berücksichtigt werden. Nach § 101a Abs. 1 bzw. Abs. 1a iVm § 100a Abs. 3 darf sich die Maßnahme nur gegen den Beschuldigten, Nachrichtenmittler und solche Personen richten, von denen anzunehmen ist, dass der Beschuldigte ihr IT-System benutzt. Dementsprechend ist vor jeder Durchführung einer solchen Maßnahme streng zu prüfen, ob zu erwarten ist, dass sich unter den erhobenen IP-Adressen auch solche der genannten Personengruppen befinden (dass also eine dieser Personen den Internetdienst nutzt). Keinesfalls darf das IP-Catching als „IP-Rasterfahndung“ eingesetzt werden, um erst einen Kreis von Verdächtigen zu gewinnen.
Die sehr große Streubreite und die damit einhergehende große Eingriffsintensität führen auch zu der Frage, ob nicht nach der Wesentlichkeitslehre des BVerfG [Fn. 208: BVerfG 8.8.1978 – 2 BvL 8/77, BVerfGE 49, 89 (126 f.); BVerfG 16.6.1981 – 1 BvL 89/78, BVerfG 57, 295 (327); BVerfG 27.11.1990 – 1 BvR 402/87, BVerfGE 83, 130 (142); BVerfG 6.7.1999 – 2 BvF 3/90, BVerfGE 101, 1 (34) jeweils mwN aus der vorgehenden verfassungsgerichtlichen Rspr.; Grzesick in Maunz/Dürig GG Art. 20 VI Rn. 105; zur Wesentlichkeitslehre im Strafverfahrensrecht: Hauck, Heimliche Strafverfolgung und Schutz der Privatheit, S. 141.] der Gesetzgeber über die Zulässigkeit des IP-Catchings gesondert entscheiden muss. Hierfür spricht, dass das IP-Catching hinsichtlich seiner Eingriffsintensität und der Besonderheit der großen Streubreite mit der Funkzellenabfrage nach § 100g Abs. 3 vergleichbar ist. Ähnlich wie dort die Verkehrsdaten von allen in einer (oder mehreren) Funkzellen eingeloggten Mobiltelefonen erhoben werden, werden beim IP-Catching alle IP-Adressen der Nutzer/innen erhoben, die mit einem bestimmten Server kommunizieren bzw. eine bestimmte Internetdienstleistung in Anspruch nehmen. Die sich daher stellenden Fragen hinsichtlich des Ausgleichs der großen Eingriffsintensität dieser Maßnahme durch hinreichende Eingriffsschwellen und Schutzmechanismen im Rahmen der Verhältnismäßigkeit muss der Gesetzgeber beantworten – wie er dies auch für die Funkzellenabfrage in § 100g Abs. 3 getan hat. Es bestehen daher ernstliche Zweifel daran, ob das IP-Catching – unabhängig von der Abgrenzung zwischen Verkehrs- und Nutzungsdatenerhebung sowie Fragen der Verhältnismäßigkeit bei der Einzelfallanwendung – überhaupt auf die bestehenden Rechtsgrundlagen der §§ 100g, 100k gestützt werden kann.
4. Zusammenfassung
Zusammengefasst kann die Maßnahme des IP-Catchings also nur bei denjenigen Dienstanbietern, die Telekommunikationsanbieter i.S.v. § 3 Nr. 61, 24 TKG (bis 1. Dezember 2021: § 3 Nr. 24 TKG) sind, auf § 100g Abs. 1 S. 1 gestützt werden. In der Praxis handelt es sich jedoch bei denjenigen Diensten, bei welchen ein IP-Catching gewinnbringend erscheint, in vielen Fällen um Telemediendienste. Bei den Anbietern, die als Telemediendienst i.S.v. § 1 Abs. 1 TMG iVm § 2 Abs. 2 Nr. 1 TTDSG einzuordnen sind, war ein IP-Catching bis zum Inkrafttreten von TTDSG und Telekommunikationsmodernisierungsgesetz nur möglich, wenn man – anders als hier vertreten – § 100k Abs. 1 trotz des ausdrücklichen Verweises auf § 15 TMG (in der Fassung bis 1. Dezember 2021) auch als Rechtsgrundlage für die Erhebung von nach Art. 6 Abs. 1 S. 1 DSGVO gespeicherten Nutzungsdaten versteht. Nach Inkrafttreten des TTDSG und des Telekommunikationsmodernisierungesetzes am 1. Dezember 2021 kann die Erhebung von IP-Adressen bei Telemediendiensten nun auch nach hier vertretener Auffassung auf § 100k Abs. 1 iVm § 2 Abs. 2 Nr. 3 TTDSG und § 24 TTDSG gestützt werden. Nicht möglich ist es, die weniger strenge Eingriffsnorm des § 100k Abs. 3 anzuwenden, da diese ausweislich ihres eindeutigen Wortlauts („des Nutzers“) auf die Abfrage von IP-Adressen von einzelnen Nutzern bei Telemediendiensten beschränkt ist. Nach Inkrafttreten des TTDSG und des Telekommunikationsmodernisierungsgesetzes sind außerdem viele der sog. OTT-Dienstleister als „interpersonelle Telekommunikationsdienste“ (§ 3 Nr. 24 TKG n.F.) Telekommunikationsdienste i.S.v. § 3 Nr. 61 TKG n.F. Für diese Dienstleister kann das IP-Catching jetzt auf § 100g Abs. 1 S. 1 Nr. 1 gestützt werden. Insgesamt erscheint es jedoch zweifelhaft, ob die § 100g, 100h vor dem Hintergrund der Wesentlichkeitslehre überhaupt taugliche Rechtsgrundlagen für das sog. IP-Catching sind.
- Datum: 16. April 2025
- Von: Johann Saathoff, BMI
- An: Clara Bünger, MdB
- Betreff: Schriftliche Frage
- Arbeits-Nummer: 4/65
- Drucksache: 21/42
Schriftliche Frage der Abgeordneten Clara Bünger vom 9. April 2025
Frage:
Wie oft haben Bundesbehörden in den letzten fünf Jahren „IP-Catching“-Maßnahmen beantragt bzw. genehmigt bekommen, und wie viele wurden tatsächlich durchgeführt (vgl. tagesschau.de), bitte nach Status und Jahr auflisten)?
Antwort:
Zwar ist der parlamentarische Informationsanspruch grundsätzlich auf die Beantwortung gestellter Fragen in der Öffentlichkeit angelegt. Soweit parlamentarische Anfragen Umstände betreffen, die aus Gründen des Staatswohls geheimhaltungsbedürftig sind, hat die Bundesregierung zu prüfen, ob und auf welche Weise die Geheimhaltungsbedürftigkeit mit dem parlamentarischen Informationsanspruch in Einklang gebracht werden kann. Die Bundesregierung ist nach sorgfältiger Prüfung zu der Auffassung gelangt, dass aufgrund der Schutzbedürftigkeit der erfragten Informationen eine Beantwortung der Frage in offener Form teilweise nicht erfolgen kann.
Die Schriftliche Frage begehrt hinsichtlich der Zollverwaltung Auskunft zu Sachverhalten, die aufgrund der Folgen, die bei ihrer Veröffentlichung zu erwarten sind, als „geheimhaltungsbedürftige Tatsachen“; im Sinne des Sicherheitsüberprüfungsgesetzes (SÜG) in Verbindung mit der Verschlusssachenanweisung (VSA) als „VS-NUR FÜR DEN DIENSTGEBRAUCH“ (VS-NfD) einzustufen sind. Die Kenntnisnahme von Einzelheiten zu technischen Fähigkeiten der Zollverwaltung könnte sich nach der Veröffentlichung der Antworten der Bundesregierung nachteilig für die Interessen der Bundesrepublik Deutschland auswirken. Aus dem Bekanntwerden könnten sowohl staatliche als auch nichtstaatliche Akteure Rückschlüsse auf „Modi Operandi“ und die Fähigkeiten der Zollverwaltung ziehen. Im Ergebnis würde dadurch die Funktionsfähigkeit der Zollverwaltung beeinträchtigt und ermittlungstaktische Verfahrensweisen und mithin die Sicherheit der Bundesrepublik Deutschland gefährdet.
Daher ist die Antwort insoweit VS-NfD eingestuft und wird als nicht zur Veröffentlichung in einer Bundestagsdrucksache bestimmten Anlage übermittelt.
Hinsichtlich des Bundesnachrichtendienstes (BND), des Bundesamtes für Verfassungsschutz (BfV) und des Bundesamtes für den Militärischen Abschirmdienst (BAMAD) ist die Bundesregierung nach sorgfältiger Abwägung der widerstreitenden Interessen zu der Auffassung gelangt, dass eine Beantwortung der Frage ebenfalls nicht in offener Form erfolgen kann.
Die erbetenen Auskünfte sind geheimhaltungsbedürftig, weil sie Informationen enthalten, die im Zusammenhang mit der Arbeitsweise und Methodik der Nachrichtendienste des Bundes und insbesondere deren Aufklärungsaktivitäten und Analysemethoden stehen. Der Schutz vor allem der technischen Aufklärungsfähigkeiten der Nachrichtendienste des Bundes sowie der Fernmeldeaufklärung des BND stellt für deren Aufgabenerfüllung einen überragend wichtigen Grundsatz dar. Er dient der Aufrechterhaltung der Effektivität nachrichtendienstlicher Informationsbeschaffung durch den Einsatz spezifischer Fähigkeiten und damit dem Staatswohl. Eine Veröffentlichung von Einzelheiten betreffend solche Fähigkeiten würde in zunehmendem Maße zur Ineffektivität der eingesetzten Mittel führen, da Personen im Zielspektrum der Maßnahmen sich auf die Vorgehensweisen und Fähigkeiten der Sicherheitsbehörden einstellen und entsprechend auf andere Kommunikationswege ausweichen könnten. Dies hätte – mit Blick auf das Kommunikationsverhalten der im Fokus stehenden Akteure – eine wesentliche Schwächung der den Nachrichtendiensten des Bundes zur Verfügung stehenden Möglichkeiten zur Informationsgewinnung zur Folge. Dies würde für die Auftragserfüllung von BND, BfV und BAMAD erhebliche Nachteile zur Folge haben. Insofern könnte die Offenlegung entsprechender Informationen die Sicherheit der Bundesrepublik Deutschland gefährden oder ihren Interessen schweren Schaden zufügen.
Deshalb sind die entsprechenden Informationen als Verschlusssache gemäß § 2 Absatz 2 Nummer 2 der VSA „GEHEIM“ eingestuft und werden zur Einsichtnahme in der Geheimschutzstelle des Deutschen Bundestages hinterlegt.
Die Bundespolizei hat in den letzten fünf Jahren keine „IP-Catching“-Maßnahme durchgeführt.
Zu dem in der zitierten Pressemeldung genannten Sachverhalt wird mitgeteilt, dass das BKA im Rahmen von strafrechtlichen Ermittlungen und auf Basis eines richterlichen Beschlusses tätig gewesen ist.
Weitergehende Auskünfte zum BKA sind geheimhaltungsbedürftig und berühren in besonders hohem Maße das Staatswohl, weil sie Informationen enthalten, die im Zusammenhang mit der Arbeitsweise und Methodik des BKA stehen. Nach sorgfältiger Abwägung ist die Bundesregierung zu dem Schluss gekommen, dass auch das geringfügige Risiko ihrer Offenlegung nicht getragen werden kann.
Eine VS-Einstufung und Hinterlegung der in diesen Fragen angefragten Informationen in der Geheimschutzstelle des Deutschen Bundestages würde ihrer erheblichen Brisanz im Hinblick auf die Bedeutung der genannten Fähigkeiten für die Aufgabenerfüllung des BKA nicht ausreichend Rechnung tragen, weil insoweit auch ein geringfügiges Risiko des Bekanntwerdens unter keinen Umständen hingenommen werden kann (vgl. BVerfGE 124, 78 [139]).
Beim Generalbundesanwalt beim Bundesgerichtshof (GBA) werden die fragegegenständlichen Informationen statistisch nicht erfasst, so dass eine Beantwortung mit zumutbarem Aufwand nicht möglich ist. Zur Beantwortung wäre die händische Sichtung und einzelfallbezogene Auswertung aller in den letzten fünf Jahren geführten Ermittlungsverfahren des GBA erforderlich, was die Ressourcen in der betroffenen Abteilung für einen nicht absehbaren Zeitraum vollständig beanspruchen und deren Ermittlungsarbeit zum Erliegen bringen würde.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Lange Zeit konnten Tech-Unternehmen wie Google oder Facebook schalten und walten, wie sie wollten. Doch ihre Monopole kommen zunehmend in Bedrängnis – selbst in den USA, wo derzeit die traditionell wirtschaftsfreundlichen Republikaner an der Macht sind. Was steckt dahinter?

Es sind schwierige Wochen für Alphabet. Erst im Vorjahr hatte ein US-Bundesgericht in Washington, D.C., nach einem langen Verfahren festgestellt, dass der Konzern seine unrechtmäßig erlangte Marktmacht missbraucht. Vor wenigen Tagen folgte der nächste Paukenschlag: Eine Bundesrichterin in Virginia kam zu dem Schluss, dass Google, die bekannteste Tochter des Tech-Konzerns, ein illegales Monopol bei bestimmten Online-Werbetechnologien errichtet hat.
Was vor wenigen Jahren noch kaum denkbar war, scheint in den USA immer näher zu rücken: Als Antwort auf die Dominanz großer Tech-Konzerne steht zunehmend ihre Aufspaltung zur Debatte. Alphabet könnte dabei nur der Anfang sein.
Ob es soweit kommt, dürfte schon bald entschieden sein. Vor allem das Verfahren zum Missbrauch von Marktmacht, das aus dem Jahr 2020 stammt, neigt sich langsam dem Ende zu. Am vergangenen Montag begann eine für drei Wochen angesetzte Verhandlung in der US-Hauptstadt. Sie wird darüber befinden, ob Google beispielsweise seinen Chrome-Browser abspalten und aus dem Unternehmen lösen muss, wie es das US-Justizministerium verlangt.
Entflechtung als Ultima Ratio
Bald 30 Jahre ist es her, seit Google als einst kleines Start-up die Online-Suche revolutioniert hat. Dabei ist es nicht geblieben. Über die Jahre hat sich das Unternehmen in weiten Teilen des Internets breitgemacht und mit Hilfe von Firmenübernahmen das Geschäft mit Online-Werbeanzeigen unter seine Kontrolle gebracht – die mit Abstand wichtigste Cash-Cow des Unternehmens. Allein im letzten Quartal 2024 hat Alphabet insgesamt 96,5 Milliarden US-Dollar umgesetzt, rund 72 Milliarden davon stammten aus dem Werbegeschäft. Insgesamt fuhr der Konzern in dem Jahr einen gigantischen Gewinn von 100 Milliarden US-Dollar ein.
„Google hat eine umfassende, gestaffelte Monopolstellung und eine lange Geschichte des Machtmissbrauchs“, sagt Ulrich Müller von Rebalance Now. Die Nichtregierungsorganisation will die wachsende Monopolisierung der Wirtschaft zurückdrängen. Gerade Google sei ein Kandidat dafür, „entflechtet“ zu werden, wie eine Aufspaltung im Fachjargon heißt. Gepaart mit sogenannten Netzwerkeffekten, die bestehende Abhängigkeiten verstärken, habe die wettbewerbswidrige Unternehmensstrategie des kalifornischen Konzerns seine Monopolstellung gesichert, führte Müller im vergangenen Herbst in einem Gastbeitrag für netzpolitik.org aus.
Vor allem im Werbe-Bereich hielt Google bislang alle Fäden in der Hand, nun könnten sie nach und nach durchtrennt werden. Das Gericht in Washington hatte entschieden, dass Google ein Monopol in den Märkten für allgemeine Online-Suche sowie für allgemeine Text-Werbung neben Suchergebnissen habe. Diese Dominanz habe Google zudem mit unlauteren Mitteln gefestigt, indem es milliardenschwere Verträge mit Browser-Herstellern wie Apple und Mozilla, Smartphone-Herstellern wie Samsung und Motorola und großen US-Netzbetreibern abgeschlossen hat.
Für Google zahlt sich das aus: Einmal als Standard-Suchmaschine in praktisch allen führenden Browsern eingerichtet, rüttelt kaum jemand an der Einstellung und bleibt im Google-Ökosystem. Oder nutzt ohnehin Chrome, den Google-eigenen Browser, der im Laufe des vergangenen Jahrzehnts fast überall auf der Welt seine Konkurrenz hinter sich gelassen hat.
Online-Werbung fest im Griff
Ein anderes Standbein greift nun das jüngste Urteil aus Virginia an. Demnach besitze Google ein Monopol auf den Märkten für die Technologie, mit denen es täglich Abermilliarden an Werbeanzeigen vermittelt und ausliefert. Dahinter steckt eine gut geölte Maschine, die bei fast jedem Aufruf einer Website versucht, in Sekundenschnelle die richtige Werbeanzeige für das jeweilige Profil der Nutzer:in zu finden. Auch hier spiele Google unsauber, so das Gericht: Bei den Tools, mit denen beispielsweise Nachrichtenseiten freie Anzeigeplätze bereitstellen und umgekehrt Inserenten Werbeeinblendungen platzieren, habe Google seine Marktmacht missbraucht.
Verschont geblieben sind in diesem Verfahren lediglich die Übernahmen der AdTech-Unternehmen DoubleClick im Jahr 2007 und von Admeld vier Jahre später. Aus Sicht der Richterin hätten diese Zukäufe Google zwar dabei geholfen, eine Monopolstellung in zwei benachbarten Ad-Tech-Märkten zu erlangen. Isoliert betrachtet ließe sich jedoch nicht nachweisen, „dass Google diese Monopolstellung durch Verdrängungspraktiken erlangt oder aufrechterhalten hat“, heißt es im Urteil.
Ein Produkt des Neoliberalismus
Dass Google diese Übernahmen überhaupt durchführen konnte, ist dem neoliberalen Laissez-faire-Ansatz zu verdanken, der sich seit den 1970er-Jahren zunächst in den USA breitmachen konnte. Demnach sind Zusammenschlüsse selbst überragend großer Unternehmen unproblematisch, solange dies Verbraucher:innen nicht schädigt. Sogar grundsätzlich starke Gesetze und Richtlinien seien ab Mitte der 1980er-Jahre von Aufsichtsbehörden „größtenteils ignoriert“ worden, „weil sie davon ausgingen, dass staatliche Eingriffe die Dinge eher verschlimmern als verbessern würden“, so die ehemalige Chef-Juristin der Handelsbehörde FTC, Debra Valentine.
Entsprechend hat sich seitdem das Internet und seine Ökonomie entwickelt: Es ist von Zentralisierung und Monopolbildung bestimmt, von Kommerzialisierung und privatisierter Rechtsdurchsetzung, von durchleuchteten Verbraucher:innen, die mehr Produkt sind als Nutzer:innen auf Augenhöhe. Nicht von ungefähr lässt sich das derzeit dominierende Geschäftsmodell im Internet, von der Wirtschaftswissenschaftlerin Shoshana Zuboff „Überwachungskapitalismus“ getauft, auch ganz anders deuten: Genau die Werbemärkte, auf denen Google seine Dominanz ausspielt, seien „die Märkte, die ein offenes und freies Internet möglich machen“, argumentiert das US-Justizministerium.
Handlungsspielraum von Big Tech wird kleiner
Alphabet ist beileibe nicht der einzige Tech-Konzern, der zunehmend seine Grenzen aufgezeigt bekommt. US-Kartellverfahren laufen derzeit unter anderem gegen den iPhone-Hersteller Apple oder gegen den Online-Riesen Amazon. Beide sollen mit illegal aufgestellten Hürden den Wettbewerb behindert und somit den Markt geschädigt haben. Die juristischen Angriffe kommen hierbei von mehreren Seiten: Während in ersteren Fällen das Justizministerium Anklage erhoben hat, ist im Verfahren gegen Amazon die FTC federführend.
Angestrengt hatte die Regulierungsbehörde, gemeinsam mit fast allen Bundesstaaten, ein weiteres aufsehenerregendes Verfahren. Seit Mitte April muss sich der Werbekonzern Meta einem Prozess in Washington stellen. Demnach soll das Unternehmen vor rund einem Jahrzehnt die damals aufstrebenden Konkurrenten Instagram und WhatsApp aufgekauft haben – um laut FTC das eigene Platzhirschprodukt Facebook abzuschirmen. Trotz der berappten Milliardensummen habe man sich so vergleichsweise günstig die Vorherrschaft auf Zukunftsmärkten gesichert.
Bis zum letzten Moment war gar nicht klar, ob dieses Verfahren überhaupt durchgefochten wird. Zum einen hatte Meta eine Karte gezogen, die in der Vergangenheit meist funktioniert hat: Gegen Zahlung eines mehr oder weniger hohen Betrags, die Börsenlieblinge wie Meta oder Alphabet aus der Portokasse bezahlen, ließen sich solche Streitigkeiten außergerichtlich und ohne Schuldeingeständnis lösen. Medienberichten zufolge hatte Meta bis zu einer Milliarde US-Dollar angeboten, um einer Verhandlung zu entgehen.
Kniefall vor Trump
Zum anderen hatte wohl nicht nur Meta-Chef Mark Zuckerberg darauf vertraut, sich mit der Regierung von Donald Trump schon irgendwie einigen zu können. Wie viele andere Tech-Bosse, darunter Apple-Chef Tim Cook oder Google-Chef Sundar Pichai, hatte sich Zuckerberg bei den neuen Machthabern angedient: Moderationspraktiken wurden im Sinne der Republikaner umgebaut, mit Joel Kaplan ein in konservativen Kreisen bestens vernetzter Republikaner zum Politik-Chef bestellt und selbst unternehmensinterne Diversitätsinitiativen kurzerhand abgeschafft.
Dass der für Korruption sonst so anfällige Trump, von Zuckerberg wiederholt persönlich umgarnt, bislang nicht darauf eingestiegen ist, dürfte vor allem auf seine bis heute nicht verwundene Wahlniederlage im Jahr 2020 zurückzuführen sein. Ominöse Mächte hätten sich, so die Erzählung unter Trump-Getreuen, hinter den Kulissen zusammengerauft, um konservative Stimmen zum Verstummen zu bringen und den Demokraten zum Wahlsieg zu verhelfen.
Zu diesen Mächten sollen auch Big-Tech-Unternehmen zählen, so die MAGA-Fans. Deshalb werden sie derzeit auch von der neu besetzten FTC unter die Lupe genommen: Gleich nach seinem Amtsantritt hatte Behörden-Chef Andrew Ferguson, Nachfolger der progressiven Lina Khan, eine Untersuchung eingeleitet. Sie soll zutage fördern, „wie diese Firmen möglicherweise gegen das Gesetz verstoßen haben, indem sie Amerikaner zum Schweigen brachten und einschüchterten, weil sie ihre Meinung äußerten“, so Ferguson. Auch die nach dem Sturm des Kapitols zeitweise verhängten Accountsperren gegen Trump könnten auf geheime Absprachen innerhalb der Tech-Branche zurückzuführen sein, so Ferguson.
„Wir leben jetzt in anderen Zeiten“
Üblicherweise liegt der Fokus in Kartellrechtsverfahren auf wirtschaftlichen Aspekten. Offenkundig spielen die bei den aktuellen FTC-Untersuchungen eine nur untergeordnete Rolle. In dem Meta-Verfahren gehe es darum, die „Macht von Meta zu konfrontieren und sicherzustellen, dass die Situation, die wir im Jahr 2020 hatten, nie wieder auftreten kann“, ließ Ferguson unlängst durchblicken.
Ähnlich gelagert sind die Argumente des Vize-Präsidenten JD Vance, der seine politische Karriere nicht zuletzt dem libertären Monopol-Fan Peter Thiel zu verdanken hat. Vance scheint vor allem die vermeintliche Linkslastigkeit der Unternehmen zu stören: „Die monopolistische Kontrolle über Informationen in unserer Gesellschaft liegt bei einem explizit progressiven Tech-Unternehmen“, wetterte der sonst so wirtschaftsfreundliche Vance im Vorjahr gegen Google.
Liegen Monopole und Kontrolle jedoch in der Hand politischer Verbündeter, allen voran in jener des Trump-Vertrauten Elon Musk, scheinen die Bedenken nicht sonderlich stark ausgeprägt zu sein. So kündigte Anfang April die Sozialversicherungsbehörde an, lokale Büros zu schließen. Wie die meisten Bundesbehörden ist sie von einem beispiellosen Kahlschlag betroffen und wird deshalb auch keine Mitteilungen mehr auf ihrer Website veröffentlichen. Künftig soll die Öffentlichkeit stattdessen offenbar exklusiv über das soziale Netzwerk X von Musk informiert werden.
„Ich weiß, das klingt für Sie wahrscheinlich sehr fremd – mir ging es genauso – und nicht nach dem, was wir gewohnt sind, aber wir leben jetzt in anderen Zeiten“, sagte eine Sprecherin der Behörde.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Ein neuer Gesetzentwurf aus Schweden sorgt für Aufregung: Wer im Netz anderen beim Masturbieren zuschaut, könnte bald strafrechtlich belangt werden. Anbieter:innen auf Plattformen wie OnlyFans bangen nun um ihre Existenz.

In Schweden soll es strafbar werden, für sexuelle Dienstleistungen zu zahlen, die „über Distanz, ohne Kontakt ausgeübt werden“. Ein bestehendes Gesetz soll so erweitert werden, dass auch Zahlungen auf Online-Plattformen wie OnlyFans erfasst werden. Die Regierung von Ulf Kristersson hat dazu einen Entwurf ins Parlament eingebracht.
Bereits jetzt ist es in Schweden verboten, für sexuelle Dienstleistungen zu zahlen. Strafbar machen sich die Kund:innen, während Anbieter:innen straffrei bleiben. Dieser Ansatz, bekannt als „Nordisches Modell“, galt bisher allerdings nur für den physischen Kontakt. Das soll sich nun ändern.
Laut Entwurf, der ab Juli in Kraft treten soll, soll künftig bestraft werden, wer eine Person dazu „verleitet, eine sexuelle Handlung gegen Entgelt vorzunehmen oder zu dulden, um daran teilzunehmen oder sie vorgeführt zu bekommen“. Künftig wäre damit auch strafbar, Erotikmodels auf Plattformen wie OnlyFans für sexuelle Handlungen vor der Kamera zu bezahlen.
„Verletzlich wie bei sexuellen Handlungen mit Körperkontakt“
Schwedens Umgang mit Sexarbeit basiert auf der Vorstellung, dass sie eine Form der männlichen Gewalt ist, vor der vor allem Frauen geschützt werden müssten. Dieses Schutzinteresse, so heißt es im Entwurf, beziehe sich auch auf Online-Handlungen: Eine Person, die über eine Webcam interagiert, könne sich „mindestens genauso verletzlich fühlen wie bei sexuellen Handlungen mit Körperkontakt“.
Auch die Polizei sehe Plattformen wie OnlyFans als Orte, von denen Kinder und Jugendliche in die Prostitution gezogen würden, heißt es in der Gesetzesbegründung.
Vorschlag bedroht Sexarbeiter:innen
Diejenigen, die das Gesetz schützen soll, kritisieren den Vorstoß. „Ich kann nicht in Schweden bleiben, wenn das eingeführt wird“, sagt die Porno-Influencerin Cina i Varberg dem Sender SVT. Die OnlyFans-Anbieterin Cara berichtet, sie und andere Creatorinnen fürchteten nun, dass OnlyFans sie rechtlich ausschließen könnte – da Plattformen sich auch strafbar machen, wenn sie die sexuellen Dienstleistungen weiter zulassen.
Auch die European Sex Workers Rights Alliance (ESWA) fordert das Parlament auf, den Entwurf abzulehnen. Der Vorschlag sei rückschrittlich und eine Bedrohung für die Privatsphäre, Sicherheit und Existenzgrundlage von Sexarbeiter:innen, schreibt der Dachverband. Die Kriminalisierung führe zu mehr Überwachung und dränge Betroffene weiter an den Rand.
Menschenrechtsorganisationen wie Amnesty International kritisieren das Nordische Modell. Sie argumentieren, dass die Kriminalisierung der Kund:innen faktisch den Rechten von Sexarbeiter:innen schadet. Sie müssten in der Folge höhere Risiken eingehen, um Kund:innen vor der Polizei zu schützen, etwa zu diesen nach Hause gehen. Eine Ausweitung des Verbots auf Online-Dienstleistungen würde diesen Effekt noch verstärken, fürchtet ESWA.
Pornos kaufen bleibt erlaubt
Der Verband kritisiert zudem die vagen Formulierungen. Wie sollen etwa Begriffe wie „verleiten“ ausgelegt werden. Tatsächlich bemüht sich der Entwurf an mehreren Stellen um Abgrenzung, bleibt dabei aber schwammig. So soll etwa ein einfacher Striptease oder schlichte Nacktheit vor der Kamera noch keine Darstellung eines „sexuellen Akts“ sein. Wenn jemand vor der Kamera masturbiert, macht sich die Person, die dafür bezahlt, hingegen strafbar.
Für die künftige Strafverfolgung heißt das womöglich: Gerichte werden auslegen müssen, ob eine Performerin, die sich gegen Geld auszieht, sich lediglich aufreizend entkleidet oder ob sie dabei schon erogene Körperzonen berührt hat.
Auch den Kauf von Pornografie als Ganzes will die schwedische Regierung nicht unter Strafe stellen. Für eine Strafbarkeit soll demnach entscheidend sein, ob jemand die andere Person dazu veranlasst hat, eine sexuelle Handlung gegen Entgelt vorzunehmen oder ob die das ohnehin getan hätte. „Der Kauf eines zuvor aufgezeichneten Films, die Bezahlung für das Abonnieren eines Kontos, auf dem regelmäßig pornografisches Material gepostet wird, oder der sonstige Zugriff auf Pornografie ohne Einflussnahme auf deren Inhalt würde daher nicht unter die strafrechtliche Verantwortlichkeit fallen“.
OnlyFans will Justizminister treffen
Schweden war 1999 das erste Land weltweit, das ein Verbot für den Kauf von sexuellen Dienstleistungen einführte. Später haben auch Norwegen, Island, Kanada oder Frankreich das Nordische Modell in unterschiedlichen Varianten übernommen.
OnlyFans hat unterdessen um ein Treffen mit Justizminister Gunnar Strömmer gebeten, um Einfluss auf das Gesetz zu nehmen, berichtet die schwedische Zeitung Svenska Dagbladet. „In Schweden zahlt OnlyFans jedes Jahr zwölf Millionen Dollar an Steuern, während die Plattform einzelnen Kreativen – darunter viele Frauen, LGBTQ+-Personen und marginalisierte Unternehmer:innen – die Möglichkeit bietet, sich unabhängig zu finanzieren“, sagt dort eine Sprecherin des Unternehmens.
Korrektur 30.4.: Wir haben die Schreibweise der Zeitung Svenska Dagbladet korrigiert.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Friedrich Merz setzt beim neuen Digitalministerium mit Karsten Wildberger auf einen Mann aus der Wirtschaft. Ihn erwarten große Widerstände und komplexe Aufgaben bei der Digitalisierung. Es wird sich zeigen, ob der politische Neuling nicht nur die Wirtschaft, sondern auch die Zivilgesellschaft im Blick hat.

CDU und CSU haben am Montag verkündet, wer die Bundesministerien unter der wahrscheinlichen künftigen Kanzlerschaft von Friedrich Merz leiten soll. Viele der Namen waren bereits seit Wochen im Gespräch: So wird Dorothee Bär (CSU) wie erwartet die neue Forschungs- und Raumfahrtministerin, das Innenministerium geht an ihren Parteikollegen Alexander Dobrindt. Der Name des designierten CDU-Digitalministers jedoch stand auf keiner der Listen, die in den letzten Tagen in der Medienlandschaft kursierten: Karsten Wildberger soll den Posten bekommen.
Wildberger ist promovierter Physiker, nach seiner Hochschulzeit arbeitete er bis 2003 zunächst in der Unternehmensberatung bei der Boston Consulting Group und wechselte dann zu T-Mobile, wo er in Großbritannien und Deutschland tätig war. Ab 2006 war er bei Vodafone Rumänien in verschiedenen Vorstandspositionen, kehrte dann für zwei Jahre zur Unternehmensberatung zurück, um ab 2013 in die Geschäftsführung des australischen Telekommunikationsunternehmens Telstra zu wechseln. Ab 2016 war er fünf Jahre lang Vorstandsmitglied beim Energieversorger E.on SE, bis er 2021 seine bisherigen Posten übernahm: Seitdem ist er Vorstandsvorsitzender der Ceconomy AG und Geschäftsführungsvorsitzender der Media-Saturn-Holding GmbH.
Wildberger war in der Vergangenheit kein Politiker, hat sich aber schon seit 2017 im Wirtschaftsrat der CDU engagiert. Der Verein ist kein offizielles Parteigremium, sondern vielmehr ein Lobbyverband von CDU-nahen Unternehmer:innen. Auch Wildberger ist bislang im Lobbyregister des Bundestags als Interessensvertreter eingetragen, 2021 wurde er zum Vizepräsidenten des Vereins. Von dort dürfte er auch Friedrich Merz kennen, den er in dieser Position ablöste.
Sonntagsöffnung und Elektroabwrackprämie
Seine bisher prominentesten politischen Forderungen bezogen sich bisher darauf, etwa die Sonntagsöffnung von Läden zu erlauben oder eine Abwrackprämie für Elektroaltgeräte einzuführen.
Der 56-Jährige wird seine Aufgaben bei der Ceconomy AG zum 5. Mai aufgeben. In einer Pressemitteilung (PDF) teilt er mit : „Digitalisierung und Technologie waren prägende Themen meiner beruflichen Laufbahn, und das neue Ministerium wird eine entscheidende Rolle bei der Modernisierung unseres Landes spielen.“
Im Januar äußerte sich Wildberger auf einer Wirtschaftsrat-Veranstaltung über seine Erwartungen an die kommende Bundesregierung und wünschte sich unter anderen Mut zur Innovation und eine klare Führung, wobei er Meta-Chef Mark Zuckerberg und seine Virtual-Reality-Investitionen als Beispiel nannte. Im Gegensatz zu Zuckerberg, der mit dem VR-Geschäft bisher jährlich Milliardenverluste macht und wohl weiter auf den Durchbruch hofft, soll Wildberger nun die deutsche Verwaltung schnell auf Vordermann bringen.
Doch statt einen Konzern umzubauen, muss er nun ein neues Ministerium aufbauen. Mit Mottos seiner bisherigen Märkte wie „Geiz ist geil“ lassen sich die notwendigen Investitionen in die digitale Infrastruktur ganz sicherlich nicht überschreiben. Auch das Zuständigkeitswirrwarr von Kommune bis Bund mit zahlreichen Räten und Gremien dazwischen dürfte den Unternehmensgewöhnten vor neue Probleme stellen.
Vom Unternehmen zum Politikbetrieb
Ein weiterer Kampf, der sich andeutet, betrifft die Frage: Wofür soll das Digitalministerium überhaupt zuständig sein? In seiner neuen Rolle dürfte Wildberger früh auf Widerstände stoßen, denn im neuen Haus sollen Bereiche gebündelt werden, die bisher in der Hoheit anderer Häuser lagen. Die Verwaltungsdigitalisierung war etwa bisher im Innenministerium angesiedelt, die Startup-Förderung im Wirtschaftsministerium. Ob es dabei zu Konflikten und Verzögerungen kommt und ob sich seine Management-Fähigkeiten aus der Privatwirtschaft ohne weiteres auf einen Staatsapparat übertragen lassen werden, wird sich zeigen müssen.
Kristina Sinemus, die ebenfalls als Quereinsteigerin in die Politik wechselte und in Hessen das Digitalministerium aufbaute, sagte in einem Interview aus dem Jahr 2022 zu den Kulturunterschieden zwischen Politik und Wirtschaft: „Ich habe lernen müssen, dass Verwaltungshandeln umfassend abgesichert sein muss und mit einem Wirtschaftsunternehmen grundsätzlich nicht vergleichbar ist.“ Sinemus war in mehreren Medienberichten als wahrscheinliche Kandidatin für das Bundesministerium genannt worden, gerade aufgrund ihrer Erfahrung im Aufbau eines gänzlich neuen Ressorts. Doch offenbar setzte sich der Wunsch durch, jemanden „von außen“ auf den anspruchsvollen Posten zu rufen.
Zur Seite steht dem designierten Digitalminister dabei einer mit zwar weniger Lebensjahren, aber dennoch mehr realpolitischer Erfahrung: Philipp Amthor. Der CDU-Mann aus Mecklenburg-Vorpommern ist häufiger beim Wirtschaftsrat zu Gast und soll neben Thomas Jarzombek einer der Parlamentarischen Staatssekretäre im neuen Ministerium werden. 2020 geriet er in einen Lobbyskandal, der sich um sein Verhältnis zum Unternehmen Augustus Intelligence drehte, später kamen Betrugsvorwürfe dazu, die der Insolvenzverwalter des inzwischen Pleite gegangenen Startups erhob. Kürzlich bezeichnete Amthor seine Tätigkeit für Augustus Intelligence als seinen „größten politischen Fehler“. In den Koalitionsverhandlungen hatte eine Arbeitsgruppe unter seiner Führung die Abschaffung des Informationsfreiheitsgesetzes in seiner bisherigen Form gefordert.
Ob die Wirtschaftsfreunde, die nun das Staatswesen modernisieren sollen, auch die gesellschaftlichen Fragen der Digitalisierung und nicht nur Effizienzsteigerung und Wirtschaftsförderung im Blick haben? Ihr Profil lässt davon wenig ahnen. Doch gerade Fragen der Teilhabe und sozialer Gerechtigkeit sind bei der Digitalisierung der Verwaltung ebenso unerlässlich wie die Einbindung der Zivilgesellschaft.
Hinweis: Wir haben den Vornamen des designierten Innenministers Dobrindt korrigiert.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Laut mehreren zivilgesellschaftlichen Organisationen verlangsamt die Deutsche Telekom das Internet künstlich und verlangt für die volle Geschwindigkeit Geld von Unternehmen. Sie haben deswegen eine Beschwerde bei der Bundesnetzagentur eingereicht. Die Telekom wehrt sich.

Die Gesellschaft für Freiheitsrechte (GFF), Epicenter.works, der Verbraucherzentrale Bundesverband (vzbv) und Stanford-Professorin Barbara van Schewick haben bei der Bundesnetzagentur eine Beschwerde gegen die Deutsche Telekom eingereicht. Ziel der Beschwerde ist es, Verletzungen des europäischen Netzneutralitätsgesetzes durch den in Deutschland führenden Netzbetreiber zu beenden und die Internetqualität für Millionen von Telekom-Kund:innen zu verbessern, heißt es in einer Pressemitteilung der Beschwerdeführer.
Das Bündnis wirft der Telekom vor, künstliche Engpässe an den Zugängen zu ihrem Netz zu schaffen. Diese Engpässe beim Peering würden von der Telekom gezielt genutzt, um von Online-Diensten zu verlangen, dass sie für den ungehinderten Zugang zu den Telekom-Kund:innen bezahlen. Laut dem Bündnis sei die Telekom der einzige Anbieter in Deutschland, der diese Engpässe derart ausnutzt. Andere Internetanbieter in Deutschland würden ihre Zugänge zum Netz ausbauen, wenn dort Engpässe auftreten. Geld fließe dabei nicht.
Um die Probleme mit Telekom-Leitungen zu belegen, hat das Bündnis hunderte Beschwerden von Telekom-Kund:innen dokumentiert. So würden bestimmte Webseiten und Dienste nur langsam oder gar nicht laden, berufliche Cloud-Dienste funktionierten nur eingeschränkt, eLearning-Videos und Spiele würden ruckeln und Video-Calls immer wieder abbrechen. Auf Netzbremse.de hat das Bündnis eine Kampagnenseite samt Erklärvideo vorgelegt und bittet um Unterstützung und weitere Beweise und Hinweise zur Geschäftspraxis des Telekommunikationskonzerns.
Doppeltes Abkassieren
Die Beschwerdeführer befürchten eine Zwei-Klassen-Gesellschaft im Internet: „Finanzstarke Dienste, die die Telekom bezahlen, werden schnell in das Telekom-Netz geleitet und funktionieren einwandfrei. Kleinere Anbieter und Startups, die sich diese Zahlungen nicht leisten können oder wollen, werden ausgebremst. Ihre Dienste laden langsam oder gar nicht – sie bleiben im Datenstau am Netzeingang der Telekom stecken“, heißt es in der Pressemitteilung.
Thomas Lohninger von der österreichischen Digitalorganisation epicenter.works sagt: „Die Telekom ist der einzige Internetanbieter Deutschlands, der für Profitmaximierung die Zusammenschaltung des eigenen Netzes mit dem restlichen Internet künstlich verknappt und verteuert.“ Die von der Telekom ausgerufenen Preise für Zusammenschaltung würden dabei x-fach über dem Marktpreis liegen, denn der Standard sei sich gratis zusammen zu schalten. „Die Leidtragenden sind dabei vor allem die Kund:innen der Telekom und die Online-Dienste.“ Er fordert, dass die Bundesnetzagentur hier durchgreifen müsse.
Bei der Telekom sieht man das anders. „Die erhobenen Vorwürfe sind falsch und zeugen von rechtlichem und technischem Unverständnis“, sagte eine Konzern-Sprecherin gegenüber dem Tagesspiegel. Die Telekom behauptet, dass sie das Gebot der Netzneutralität nicht verletze. Sie geht davon aus, dass das auch die Bundesnetzagentur feststellen würde. Einer Überprüfung sehe man daher gelassen entgegen.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Mit dem Tod von Papst Franziskus verliert die katholische Kirche eine Stimme, die sich nicht scheute, politisch zu sein. Bundestagspräsidentin Julia Klöckner sieht so etwas offenbar kritisch. Doch solange es Kirchen gibt, dürfen sie nicht neutral sein.

Papst Franziskus ist tot – und mit ihm verstummt eine laute Stimme. Nicht nur auf dem Petersplatz, sondern auch in Timelines und Tagesthemen. Ob der Papst ein „moderner“ Kirchenführer war, darüber kann man streiten. Darüber, dass er ein politischer war, nicht. Seine Äußerungen zu globalen Konflikten, Flüchtlingspolitik oder Klimakrise waren oft klar und unbequem. Nicht nur für Machthaber in aller Welt, sondern auch für Teile der eigenen Kirche. Und das war gut so.
Im Vorfeld von Franziskus‘ Tod echauffierte sich Julia Klöckner, Bundestagspräsidentin und bekennende Christdemokratin, am Ostersonntag darüber, die Kirche solle nicht „beliebig“ werden – nicht allzu politisch. Was das heißen soll, bleibt vage. Ein bisschen Beten für den Weltfrieden, aber bitte keine Einmischung, wenn es konkret wird? Kein Kommentar zu möglichen Waffenstillständen in Gaza oder der Ukraine und wirtschaftlicher Ungleichheit, so wie es Papst Franziskus zu Lebzeiten tat?
Segnen, aber nicht stören
Man könnte Klöckners Aussage als ungeschickte Formulierung abtun – wenn sie nicht so symptomatisch wäre. Für einen Wunsch nach einer „neutralen“ Zivilgesellschaft, den die Union im Februar dieses Jahres allzu ungeschickt blicken ließ. Und möglicherweise auch nach einer Kirche, die segnet, aber nicht stört. Eine Art seelsorgerisches Background-Rauschen, das niemandem weh tut. Doch Kirche, wenn sie denn eine Rolle spielen will, muss mehr sein als das.
Ich hätte nicht geglaubt, einmal in die Verlegenheit zu geraten, ausgerechnet die katholische Kirche zu verteidigen. Doch wenn selbst die selbsternannten Christdemokraten nicht mehr bereit sind, sich zu Werten wie – um es mit den Worten des Obersten Hirten zu sagen – „Gerechtigkeit, Brüderlichkeit und Solidarität“ zu bekennen, dann müssen wohl die – um es mit Friedrich Merz‘ Worten zu sagen – „linken Spinner“ ran.
Man könnte fast meinen, die CDU habe ihre Marienstatue aus dem Hausaltar ins politische Archiv verbannt – und denke nun, die Kirche müsse es ihr nachtun. Persönlich finde ich nicht, dass es religiöse Institutionen überhaupt geben müsste – aber es gibt sie nun mal. Und damit trifft sie eine Verpflichtung: nicht still zu sein.
Papst Franziskus wusste das – und er handelte danach. Nicht immer konsequent, oft auch ambivalent, vor allem beim Umgang mit innerkirchlichen Machtstrukturen, Missbrauchsskandalen und queeren Menschen. Aber er war jemand, der Positionen bezog. Im Rahmen seiner Möglichkeiten als Oberhaupt einer der konservativsten Institutionen überhaupt, muss man ihn wohl als progressiv bezeichnen. Er forderte einen „radikalen Wandel“ in der Weltwirtschaft, nannte die Ausbeutung der Erde „eine Sünde“ und sprach wiederholt über Migration nicht als Problem, sondern als humanitäre Verpflichtung.
Der Social Media-Papst
Was ihn von vielen seiner Vorgänger unterschied, war dabei nicht nur der Inhalt, sondern auch der Kanal. Franziskus war der erste Papst, der verstanden hat, dass Öffentlichkeitsarbeit heute nicht nur über Enzykliken oder Messfeiern funktioniert. Er war präsent – auf Twitter, Instagram, in kurzen Videobotschaften. @Pontifex hat – Twitter und Instagram zusammengezählt – rund 30 Millionen Follower. Seine Tweets waren nicht immer nur fromme Sprüche und Aufrufe zum Gebet, sondern oft klare Appelle an Machthaber.
Man kann das belächeln – oder es als das erkennen, was es ist: ein Versuch, die oft erdrückende Distanz zwischen Amt und Alltag zu verringern. Kirche als moralische Instanz, die sich nicht hinter hohen Mauern oder altertümlichen Ritualen versteckt, sondern sich in die Gegenwart einmischt. Und das obwohl sie ersteres bedauerlicherweise noch immer oft genug zu tun pflegt. Eine Art PR-Katechismus, ja – aber eben auch ein Signal: Wir sind nicht nur für Sonntage da.
Wer schweigt, macht sich überflüssig
Und auch die beiden großen deutschen Kirchen zeigen: Wer politisch bleibt, bleibt relevant. Die evangelische Kirche etwa positioniert sich regelmäßig gegen rechtsradikale Strömungen, mischt sich ein in die Asyldebatte oder plädiert für Seenotrettung. Die katholische Kirche – trotz innerer Zerrissenheit – äußert sich in Deutschland ebenfalls immer wieder zur sozialen Ungleichheit, zur Klimakrise oder zu globaler Verantwortung. Manchmal zögerlich, oft untereinander uneinig, aber immerhin: mit Haltung.
Es ist bemerkenswert, dass gerade in einer Zeit, in der die Kirche zurecht mit massivem Vertrauensverlust zu kämpfen hat – Missbrauch, Intransparenz, Reformverweigerung – ihre politische Stimme eine der wenigen ist, die noch ernst genommen wird. Vielleicht auch, weil es heute gar nicht mehr anders geht: Wer schweigt, wird nicht gehört. Und wer sich nicht positioniert, macht sich überflüssig.
„Kirche kann nicht unpolitisch sein“
Dass Klöckner nun eine Entpolitisierung nahelegt, wirkt wie ein Rückfall in Zeiten, in denen Geistliche sich zu Steigbügelhaltern weltlicher Regime machten und christliche Werte zugunsten von Einfluss und Geld tief in den Gruften ihrer Basiliken verscharrten. „Eine Kirche kann nicht unpolitisch sein, sie wird immer auch mit ihrer Botschaft ein Ärgernis sein und das ist auch gut so“, kommentierte Armin Laschet zuletzt treffend.
Die Union scheint mit Klöckners Aussage den Grundstein gelegt zu haben, unliebsame Botschaften von Religionsgemeinschaften in Zukunft schlicht als unpassend abzustempeln. Wo soll das hinführen, wenn Kirchen heute schon dafür verunglimpft werden, wenn sie humanitäre Stellung in der Flüchtlingsdebatte beziehen? Wird in dieser Logik dann morgen der Zentralrat der Juden „zu tagespolitisch“ sein, wenn er zunehmenden Antisemitismus anprangert? Dass derartige Stimmungsmache letztlich wieder einmal nur rechtsradikalen Kräften nutzen wird, ist so sicher wie das Amen in der Kirche.
Franziskus war nicht perfekt – kein Heiliger in PR-Fragen, kein radikaler Reformer hinter den Kulissen. Aber er war einer, der die politische Dimension des Glaubens nicht fürchtete. Der Twitter als Verkündungsort nutzte. Und der damit gezeigt hat: Wenn die Kirche nicht mehr relevant sein will, muss sie einfach nur still sein. Die Frage ist nur: Wer will das wirklich?
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Die 17. Kalenderwoche geht zu Ende. Wir haben 5 neue Texte mit insgesamt 56.974 Zeichen veröffentlicht. Willkommen zum netzpolitischen Wochenrückblick.

Liebe Leser:innen,
manche Wochen fühlen sich langsamer an als andere. Vielleicht ging es euch ähnlich: Hinter und vor uns liegen lange Wochenenden; viele da draußen sind noch in den Osterferien; auf überdurchschnittlich viele E-Mails kommt als Antwort nur eine Abwesenheitsnachricht.
Der neue Bundestag ist mit dem Einrichten der Büros beschäftigt und sortiert sich noch, die Pressemitteilungen aus den Bundesministerien beschränken sich zunehmend auf Grußtermine. Wenn ich mir das Wortspiel erlauben darf: Wir befinden uns in den Iden des Merz – irgendwo in der Mitte zwischen vorgestelltem Koalitionsvertrag und Kanzlerwahl. Wir wissen, dass die nächsten Monate und Jahre für Grund- und Freiheitsrechte nicht leicht werden, aber wir wissen nicht, was genau als nächstes und erstes passieren wird.
Wie lange dauert es, bis die schwarz-rote Koalition ihren Anlauf zur Wiedereinführung der Vorratsdatenspeicherung unternimmt? Wann gehen die Koalitionär:innen die Novelle der Geheimdienstgesetze an? Welche Priorität hat die Reform der Datenschutzaufsicht?
All das sind Fragen, die mir derzeit im Kopf herumgehen. Und auch, wenn ich nicht sagen kann, dass ich mich auf die Antworten freue: Sie wären mir lieber als das Aushalten der Ungewissheit.
Bleibt gespannt!
anna
Biometrie weltweit: Hier werden Protestierende mit Gesichtserkennung verfolgt
Viele Länder nutzen Gesichtserkennung, um Proteste und Demonstrationen zu überwachen und zu unterdrücken. Ein Überblick über Biometrie-Hotspots zeigt, wie ernstzunehmend die Auswirkungen auf die Demokratie sind. Von Martin Schwarzbeck –
Artikel lesen
Global Majority House: How activists want to bring Global Majority perspectives into EU tech policy
A coalition of global NGOs wants to engage in discussions about EU tech regulation. We spoke with Pakistani activist Nighat Dad about the initiative and the challenges of platform regulation. She says that now more than ever, the EU must take greater global responsibility for digital rights. Von Ingo Dachwitz –
Artikel lesen
Global Majority House: Wie Digital-Aktivist:innen bei der EU für globale Perspektiven werben wollen
Ein Zusammenschluss globaler Digital-NGOs will Einfluss auf die Tech-Regulierung der EU nehmen. Wir haben mit der pakistanischen Aktivistin Nighat Dad über das Vorhaben und die Herausforderungen der Plattformregulierung gesprochen. Aus ihrer Sicht muss die EU gerade jetzt mehr globale Verantwortung für digitale Grundrechte übernehmen. Von Ingo Dachwitz –
Artikel lesen
Digital Markets Act: Millionenschwere Wettbewerbsstrafen für Apple und Meta
Apple und Meta müssen wegen Verstößen gegen den Digital Markets Act in die Tasche greifen. Die Unternehmen hätten beide gegen Vorgaben des EU-Gesetzes verstoßen, gab die EU-Kommission heute bekannt. Von Christoph Bock –
Artikel lesen
Erweiterter Chat-Datenschutz: Neue WhatsApp-Funktion liefert Scheinsicherheit
WhatsApp führt eine neue Einstellung ein, die den Schutz der Privatsphäre in ausgewählten Chats verstärken soll. Die versprochene Sicherheit ist trügerisch, soll jedoch immerhin die neue Meta-KI abklemmen. Von Martin Schwarzbeck –
Artikel lesen
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
WhatsApp führt eine neue Einstellung ein, die den Schutz der Privatsphäre in ausgewählten Chats verstärken soll. Die versprochene Sicherheit ist trügerisch, soll jedoch immerhin die neue Meta-KI abklemmen.

WhatsApp rollt eine neue Funktion aus, mit der Nutzer*innen die Privatsphäre in ausgewählten Chats verbessern können, wie die Meta-Tochter in einem Blogbeitrag ankündigt hat. Das Feature nennt sich Erweiterter Chat-Datenschutz (auf Englisch: Advanced Chat Privacy) und lässt sich sowohl in Zweier- als auch in Gruppenchats optional einschalten. Es soll verhindern, dass Chat-Inhalte WhatsApp verlassen. Die ausgewählten Chats können nicht exportiert werden und Medieninhalte werden nicht automatisch heruntergeladen.
WhatsApp schreibt, das Feature sei vor allem für Gruppen nützlich, in denen man nicht mit jeder Person eng bekannt ist, aber sensible Inhalte teilt, wie zum Beispiel Gesundheitsinformationen. Schon dieses Beispiel macht anschaulich, wie trügerisch die Sicherheit des neuen Features ist. Denn Chatteilnehmer*innen können weiterhin Screenshots der Inhalte aufnehmen, speichern oder weitergeben. Wer mit nicht vertrauenswürdigen Personen chattet, sollte nichts Vertrauliches preisgeben – mit oder ohne Advanced Chat Privacy.
Einmal mehr zeigt die neue Funktion den halbherzigen Ansatz von WhatsApp in Sachen Datenschutz und Privatsphäre. Der Messenger ermöglicht zwar Ende-zu-Ende-verschlüsselte Kommunikation, aber speichert aussagekräftige Metadaten. Solche Daten gibt WhatsApp auch auf Anfrage an Strafverfolgungsbehörden heraus, etwa „Namen, Nutzungsdauer des Dienstes, den ‚Zuletzt online‘-Zeitstempel, IP-Adresse, Gerätetyp und E-Mail-Adresse“ sowie „Profilbilder, Gruppeninformationen und Kontaktliste“. Selbst die Kontaktdaten von Personen, die kein WhatsApp haben, können bei WhatsApp landen, sobald jemand anderes WhatsApp das eigene Telefonbuch freigibt.
Mit der neuen Funktion lässt sich die Meta-KI aussperren
Erst kürzlich hat WhatsApp bei vielen europäischen Nutzer*innen den Zugriff zur Meta-KI hinzugefügt. Das heißt, beim Einsatz des Sprachmodells wandern Chat-Inhalte an Meta. Zumindest in diesem Punkt ist die neue Privatsphäre-Einstellung nützlich. Denn auf Chats, bei denen Nutzer*innen den Erweiterter Chat-Datenschutz aktivieren, soll die Meta-KI keinen Zugriff haben.
Zum Einschalten der Funktion sollen Nutzer*innen auf den Namen des Chats tippen und dann auf „Erweiterter Chat-Datenschutz „. Sie soll in den nächsten Monaten nach und nach an alle Nutzer*innen ausgespielt werden.
Ein alternativer Messenger mit deutlich mehr Privatsphäre als WhatsApp ist etwa das von Expert*innen empfohlene Signal. Als privatsphärefreundlich gilt auch Threema, das allerdings einmalig ein paar Euro kostet.
Wer lieber auf eine dezentrale Lösung setzen möchte, ist eventuell bei XMPP oder Matrix gut aufgehoben. Besonders privatsphärebewusste Nutzer*innen können mithilfe von Briar sogar mit Kontakten in der Nähe chatten, ohne dass eine Verbindung mit einem Mobilfunkmast nötig ist. Wie emotional die Debatte um den richtigen Messenger geführt wird, hat kürzlich der IT-Sicherheitsforscher Mike Kuketz aufgeschrieben. Bei ihm gibt es auch einen sehr detaillierten Messengervergleich.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Apple und Meta müssen wegen Verstößen gegen den Digital Markets Act in die Tasche greifen. Die Unternehmen hätten beide gegen Vorgaben des EU-Gesetzes verstoßen, gab die EU-Kommission heute bekannt.

Apple und Meta müssen jeweils Geldbußen in dreistelliger Millionenhöhe bezahlen. Beide US-Unternehmen hätten gegen Auflagen des Digital Markets Act (DMA) verstoßen, gab heute die EU-Kommission in Brüssel bekannt. Es handelt sich um die ersten von der EU verhängten Strafen unter dem DMA, seit das Gesetz vor rund einem Jahr vollständig in Kraft getreten ist.
Von Apple fordert die Kommission 500 Millionen Euro. Nach Auffassung der Kommission verhindert Apple den Wettbewerb rund um Apps für seine Betriebssysteme, da der eigene App Store gegenüber anderen Vertriebskanälen bevorzugt wird. Besonders relevant ist dies im mobilen Bereich, wo der eigene App Store bislang die einzige Möglichkeit war, Software von Dritt-Anbietern zu installieren.
Meta hingegen muss 200 Millionen Euro an Wettbewerbsstrafe zahlen. In dem Verfahren ging es um das umstrittene „Pay or okay“-Modell des Unternehmens, das Nutzer:innen vor keine echte Wahl stellt: So verlangt Meta auf Instagram und Facebook Geld von Nutzer:innen, damit Meta die persönlichen Nutzerdaten nicht kombiniert und zur Personalisierung von Werbung verwendet. Auch das verletze laut Kommission die DMA-Regeln, die sich insbesondere gegen Tech-Unternehmen von überragender Bedeutung für den Wettbewerb richten, sogenannte „Gatekeeper“.
Abgeschotteter App Store
Zwar haben beide Unternehmen schon im Vorjahr auf den DMA reagiert und ihr Verhalten angepasst, aber offenkundig nicht ausreichend genug. Seit einer Änderung erlaubt Apple seinen Nutzer:innen, Apps aus anderen Quellen als dem Apple App Store zu installieren. Dies sei aber auf eine Art passiert, die Konsument:innen und Entwickler:innen von den alternativen Stores weghalten soll, so die EU-Kommission: Bis heute können Dritt-Entwickler:innen ihre Nutzer:innen „nicht in vollem Umfang“ über Angebote außerhalb des Apple-Systems informieren. Dies müsse Apple binnen 60 Tagen ändern, sonst drohen weitere Stafen.
Unabhängig davon läuft eine andere Untersuchung gegen Apple weiter. So müssen Entwickler:innen eine sogenannte „Apple’s Core Technology Fee“ bezahlen, auch wenn ihre App außerhalb des Apple App Stores erscheint. Zudem mache Apple es laut EU-Kommission „unnötig schwierig und verwirrend für Endnutzer:innen“, Apps aus alternativen Stores zu installieren. Einer vorläufigen Einschätzung der Kommission nach verstößt Apple damit ebenfalls gegen den DMA.
Ein weiteres Verfahren gegen Apple stellte die EU-Kommission ein. Apple verwehrte Nutzer:innen lange die Möglichkeit, Standard-Apps wie zum Beispiel den Browser zu ändern. Die Kommission ist der Meinung, dass Apple genug nachgebessert hat. Inzwischen kann man etwa den Firefox-Browser anstelle des Safari-Browsers auswählen und einige weitere Basis-Anwendungen umstellen – selbst wenn dies weiterhin nicht ganz reibungslos verläuft.
EU findet „Pay-or-Okay“ not okay
Die gegen Meta verhängte Geldbuße betrifft nur den Zeitraum zwischen März und November 2024. In diesem Zeitraum verknüpfte Meta die Daten zwischen Facebook und Instagram, außer Nutzer zahlten für eine werbefreie Version der Plattformen. Die Kommission hält eine kostenlose Option für erforderlich, die weniger Daten freigibt.
Im November 2024 führte Meta ein neues Modell der Datennutzung ein, das nach Auffassung der Kommission „angeblich“ weniger persönliche Daten nutze. Dieses neue Modell ist nicht von der heutigen Entscheidung betroffen, wird allerdings von der Kommission derzeit untersucht.
Agustín Reyna, Generaldirektor der europäischen Verbraucherorganisation BEUC, begrüßt die Entscheidung der Kommission grundsätzlich. Gleichzeitig kritisiert er Apple und Meta für die „verzögerte Einhaltung“ des DMA. Big Tech habe die „Regeln zu ihrem Vorteil verdreht“. Er fordert die Kommission dazu auf, den Digital Markets Act durchzusetzen, damit Konsumenten eine bessere Auswahl bekommen und fairere Marktbedingungen im digitalen Raum gelten.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Ein Zusammenschluss globaler Digital-NGOs will Einfluss auf die Tech-Regulierung der EU nehmen. Wir haben mit der pakistanischen Aktivistin Nighat Dad über das Vorhaben und die Herausforderungen der Plattformregulierung gesprochen. Aus ihrer Sicht muss die EU gerade jetzt mehr globale Verantwortung für digitale Grundrechte übernehmen.

Gemeinsam mit anderen Aktivist:innen aus aller Welt will Nighat Dad in Brüssel ein „Global Majority House“ errichten, also ein „Haus der Globalen Mehrheit“. Der Begriff ist eine Sammelbezeichnung für Menschen mit afrikanischem, asiatischem, indigenem, lateinamerikanischem oder ethnisch gemischtem Hintergrund, die etwa 85 Prozent der Weltbevölkerung ausmachen. Laut Oxford Dictionary umfasst er alle Menschen, die nicht als weiß gelesen werden.
Wir haben mit Nighat Dad über das Global Majority House, die Fallstricke der Internetregulierung und verengte Sichtweisen der Europäischen Union gesprochen. Nighat ist Juristin und Aktivistin aus Pakistan. Mit ihrer Nichtregierungsorganisation Digital Rights Foundation kämpft sie gegen geschlechtsbasierte Diskriminierung und für ein besseres Internet für alle. Sie ist Mitglied des Oversight Board von Meta, einem externen Gremium, das über Streitfälle in der Moderationspolitik des Konzerns entscheidet. 2015 wurde Nighat Dad vom Time Magazine als „Next Generation Leader“ gekürt.
Zensur unter dem Deckmantel der Internetregulierung

netzpolitik.org: Bevor wir über das Global Majority House sprechen, kannst du uns ein wenig über eure Arbeit mit der Digital Rights Foundation erzählen?
Nighat Dad: Wir sind eine digitale Menschenrechtsorganisation und arbeiten seit fast 15 Jahren gegen Online-Belästigung, die sich gegen Frauen und geschlechtliche Minderheiten richtet. Wir haben zum Beispiel eine Hotline eingerichtet, um Betroffene zu unterstützen. In den vergangenen Jahren hat sich unsere Arbeit über Pakistan hinaus ausgeweitet. Wir engagieren uns inzwischen in ganz Südasien und beteiligen uns an den globalen politischen Diskussionen um Technologie, Plattformen und Menschenrechte. Das hat sich organisch entwickelt und uns dazu gebracht, einen breiteren Ansatz zur Bekämpfung von Online-Gefahren zu verfolgen.
netzpolitik.org: Wie hat sich euer Schwerpunkt verschoben?
Nighat Dad: Wir haben erlebt, dass Regierungen in unserer Region Vorschriften unter dem Vorwand erlassen haben, dass sie gegen Online-Gefahren wie Desinformation, Terrorismus und Cyberkriminalität helfen sollen. Bei genauerer Betrachtung merkt man, dass diese Gesetze oft dazu benutzt werden, Widerspruch zu unterdrücken und die freie Meinungsäußerung im Internet einzuschränken.
Deshalb untersuchen wir nun beides: Erstens, wie Plattformen weltweit gegen Online-Gefahren vorgehen. Das ist besonders wichtig, weil diese meist von Menschen außerhalb unseres Kontextes betrieben werden, Zweitens prüfen wir die von unseren Regierungen erlassenen Vorschriften kritisch. Dazu gehört auch der Blick auf die oft undurchsichtige Zusammenarbeit zwischen Regierungen und Plattformen, von der die Öffentlichkeit nur selten erfährt.
Plattformen müssen sich auf unterschiedliche Kontexte einlassen
netzpolitik.org: Bei diesen Themen drängt sich eine globale Perspektive geradezu auf, oder?
Nighat Dad: Wir mussten feststellen, dass diese mächtigen Akteur:innen uns manchmal erhören und manchmal nicht. Andere Player wie die EU können sich bei diesen Fragen weltweit Gehör verschaffen. Wir leben hier in einer Region, in der sich sogenannte Demokratien oder Semi-Demokratien zunehmend in autokratische Regime verwandeln und man fragt sich: Welche Rolle können wir hier eigentlich spielen? Also schaut man in Regionen, die noch demokratische Werte hochhalten – um Hoffnung zu schöpfen, aber auch, um Lehren zu ziehen, die sich auf unseren Kontext übertragen lassen. Wir wollen herausfinden, wie wir Einfluss auf das digitale Ökosystem nehmen können, insbesondere mit Hinblick auf die Rechenschaftspflichten von Plattformen und Regierungen.
netzpolitik.org: Demokratische Plattformregulierung findet ja immer auf einem schmalen Grat statt: Auf der einen Seite gibt es die Notwendigkeit, zur Schadensbegrenzung einzugreifen. Auf der anderen Seite besteht die Gefahr von autokratischer Vereinnahmung und Overblocking. Wie finden wir das richtige Gleichgewicht?
Nighat Dad: Ich habe lange den Standpunkt vertreten, dass Regierungen und Staaten private Akteure zur Rechenschaft ziehen müssen. Und ich vertrete diese Ansicht immer noch, weil sie nun mal die einzigen sind, die die Macht dazu haben. Aber gleichzeitig müssen wir uns fragen: Wer überwacht die Wächter? Auch die Staaten selbst müssen zur Rechenschaft gezogen werden.
Ich glaube, dass dieses Gleichgewicht nur durch die Einbeziehung verschiedener Akteure erreicht werden kann. Die Rolle von zivilgesellschaftlichen Organisationen, Forscher:innen und Aktivist:innen sehe ich darin, diese ausgleichende Kraft zu sein. Wir sind an einem Punkt angelangt, an dem eine Regulierung unumgänglich ist, denn die Menschen auf der ganzen Welt haben die unkontrollierte Macht der Plattformen satt. Aber es ist wichtig, dass diese Regulierungen gut sind. In diesem Punkt liege ich oft über Kreuz mit Leuten aus der EU oder anderen Teilen der Welt, die einen starken Rechtsstaat haben.
netzpolitik.org: Warum das?
Nighat Dad: Menschen aus Regionen, in denen die Menschenrechte geachtet werden und in denen Regierungen zur Rechenschaft gezogen werden können, haben oft eine andere Sicht auf Regulierung als wir. Das mag in ihren Jurisdiktionen funktionieren, aber in unseren nutzen Regierungen dieselbe Sprache, um Andersdenkende zum Schweigen zu bringen. Ich glaube, das richtige Gleichgewicht kommt durch die Achtung unterschiedlicher Jurisdiktionen und kontextueller Gegebenheiten. Plattformen können bei Meinungsfreiheit und Online-Gefahren keinen One-Size-Fits-All-Ansatz mehr fahren.
Außerdem ist das Argument immer schwerer zu halten, dass US-Plattformen eine Politik der Meinungsfreiheit verfolgen, die auf dem Ersten Verfassungszusatz beruht. Wir haben erlebt, wie Soziale Medien schädliche Narrative verstärken können und wie Eigentümerschaft und Governance-Entscheidungen bei Plattformen durch persönliche oder politische Interessen geprägt sein können. Wenn eine Plattform wirklich global sein will, muss sie ein breiteres Spektrum an Werten und Rechtstraditionen widerspiegeln, nicht nur die eines Landes. Andernfalls besteht die Gefahr, dass sie nur einem begrenzten Publikum dient und nicht den vielfältigen globalen Communitys, die sie zu vertreten vorgibt.
Zu wenig Bewusstsein für globale Auswirkungen von EU-Regulierung
netzpolitik.org: Lass uns über eure Pläne für das Global Majority House sprechen. Bei oberflächlicher Betrachtung könnte man sagen, dass Pakistan weit weg von Europa ist. Wie wirken sich EU-Regelungen wie der Digital Services Act (DSA), mit dem die EU große Plattformen wie Instagram und TikTok reguliert, auf Menschen in Ländern der Globalen Mehrheit aus?
Nighat Dad: Die EU muss verstehen, dass ihre Vorschriften globale Auswirkungen haben. Nehmen wir zum Beispiel die Datenschutzgrundverordnung. Sie ist zum globalen Goldstandard für den Datenschutz geworden und hat auch den Datenschutzrahmen in unserer Region erheblich beeinflusst.
Ähnlich verhält es sich mit dem Digital Services Act. Er könnte dazu führen, dass Plattformen bestimmte Anforderungen weltweit umsetzen, nur weil sie in der EU dazu verpflichtet sind. Das ist etwas, was wir begrüßen würden, insbesondere wenn es um die Transparenz-Auflagen für Plattformen geht. Wir hoffen auch, dass wir mit dem Global Majority House Solidarität finden und Koalitionen schmieden werden, die uns dabei helfen, solche Standards bei mächtigen Akteuren auf der ganzen Welt durchzusetzen.
netzpolitik.org: Manche nennen das den „Brüssel-Effekt“. Hast du das Gefühl, dass sich die politischen Entscheidungsträger:innen der EU über die Verantwortung bewusst sind, die mit der Macht einhergeht, globale Standards zu setzen?
Nighat Dad: Ich glaube nicht. Und das sage ich in aller Höflichkeit …
netzpolitik.org: … das wäre gar nicht nötig.
Nighat Dad: Aber ich meine es ernst. Ich habe großen Respekt vor dem, was die EU tut. Aber manchmal wird implizit angenommen, dass die EU bei der technischen Regulierung vorangeht und der Rest der Welt dann einfach ihre Standards übernehmen kann. In unseren Regionen sind viele mit europäischen Werten aufgewachsen und werden weiterhin von ihnen beeinflusst. Die EU trägt auch deshalb eine Verantwortung, die globalen Auswirkungen ihres Handelns zu berücksichtigen.
Es ist wichtig zu erkennen, dass die EU-Standards zwar stark, aber nicht perfekt sind. Es gibt immer Raum für Wachstum und Lernen von anderen. Viele von uns, die an der Einrichtung des Global Majority House beteiligt sind, bringen zum Beispiel umfangreiche Kenntnisse im Bereich systemischer Risiken und dem Umgang mit Krisen mit. Ich bin fest davon überzeugt, dass das Global Majority House ein Gewinn sowohl für uns als auch für die EU ist, um sich auszutauschen und zusammenzuarbeiten.
“Eine Möglichkeit, direkt mit uns zu sprechen und nicht über Dritte“
netzpolitik.org: Erzähl uns etwas über die anderen Organisationen, die hinter der Initiative stehen.
Nighat Dad: Wir haben 7amleh, das Arab Center for Social Media Advancement, das sich für die digitalen Rechte der palästinensischen und arabischen Zivilgesellschaft einsetzt. Es gibt das Myanmar Internet Project, ein Kollektiv von Forscher:innen, Praktiker:innen und Anwält:innen. What to Fix ist eine gemeinnützige Organisation, die sich für die Integrität des Internets einsetzt. Die London Story Foundation ist eine zivilgesellschaftliche Organisation von Mitgliedern der indischen Diaspora, die sich für Gerechtigkeit, Frieden und kollektives Handeln gegen Menschenrechtsverletzungen einsetzt. Und wir haben die Bürgervereinigung „Zašto ne“, das bedeutet „Warum nicht“, die sich für eine sichere und stabile Gesellschaft in Bosnien und Herzegowina und in der gesamten Balkanregion einsetzt.
Wir haben also ganz unterschiedliche Organisationen hinter diesem Projekt. Das Global Majority House soll uns helfen, Vorschriften und politische Maßnahmen aus unserer eigenen Perspektive zu betrachten und nach Wegen zu suchen, für inklusive Ansätze aus der Perspektive der Globalen Mehrheit zu werben. Gleichzeitig bietet es politischen Entscheidungsträger:innen die Möglichkeit, direkt mit uns zu sprechen und nicht über Dritte, die in unserem Namen sprechen.
netzpolitik.org: Soll das Haus eigentlich ein physischer Raum werden, ein Haus aus Stein und Glas?
Nighat Dad: Das ist die Idee. Viele von uns, die zur globalen Mehrheit gehören, bringen oft ihre Perspektiven in die verschiedensten Diskussionen ein, zum Beispiel bei Anhörungen. Aber wir sind dort nur Gäste: Wir werden vielleicht gehört, aber nicht wirklich einbezogen. Meist ist es so, dass wir unseren Beitrag machen und dann beiseitetreten müssen, sodass wir nicht wissen, ob und wie er aufgenommen wird. Wir wollen mit dem Global Majority House einen Raum zurückerobern, in dem wir ohnehin bereits sind. Wir müssen gar nicht alle auf einmal da sein, sondern bestehen als Gemeinschaft, die Sinn stiftet. Je mehr Organisationen und Einzelpersonen der Globalen Mehrheit nach Brüssel kommen, desto mehr wird dieser Raum ein Gefühl der Zugehörigkeit und Unterstützung bieten. Es soll ein Ort sein, an dem sie wissen, dass sie nicht nur willkommen sind, sondern dass es auch ihnen gehört.
Europa muss jetzt voranschreiten
netzpolitik.org: Du hast Partnerschaften und Solidarität erwähnt. Seid ihr in Kontakt mit anderen Organisationen der digitalen Zivilgesellschaft aus Europa, wie zum Beispiel EDRi oder Access Now?
Nighat Dad: Auf jeden Fall. Wir haben viele von ihnen zu einem Roundtable-Gespräch eingeladen, den wir im Dezember organisiert haben, und es war ein sehr fruchtbarer Austausch. Um das klar zu sagen: Wir kommen nicht nach Brüssel, um die Arbeit bestehender zivilgesellschaftlicher Gruppen nachzuahmen, die sich mit dem Digital Services Act befassen. Es geht uns dabei auch nicht nur um den DSA. Als Global Majority House versuchen wir, unseren Platz im breiteren Ökosystem der Regulierung in Europa zu finden, und wir werden uns dort engagieren, wo wir unsere Perspektiven und Beiträge für relevant halten. Wir glauben, dass wir die Arbeit bestehender Organisationen ergänzen können, indem wir unsere Erfahrungen aus der Praxis, regionales Fachwissen und die Sichtweise der Globalen Mehrheit einbringen.
netzpolitik.org: Was sind die nächsten Schritte für das Global Majority House und wie können Menschen in der EU euer Anliegen unterstützen?
Nighat Dad: Als Global Majority House schauen wir gerade ganz genau auf die Entwicklungen rund um die Durchsetzung des Digital Services Act, die sich verändernde geopolitische Dynamik und die Reaktionen der Plattformen. Das ist gerade ein entscheidender Moment, der gemeinsames Handeln erfordert. Als nächstes wollen wir unseren Austausch mit politischen Entscheidungsträger:innen vertiefen, die überregionale Zusammenarbeit stärken und die Erfahrungen und das Fachwissen unserer Gemeinschaften in die Diskussionen zur globalen digitalen Governance einbringen.
Für unsere europäischen Verbündeten ist es ein entscheidender Zeitpunkt. Der Kampf für eine Regulierung, die inklusiv ist und die Rechte aller Menschen achtet, wird immer komplexer und dringlicher. Wir erleben gerade drastische Fördermittelkürzungen, jetzt müssen die Europäer:innen mit Mut und Überzeugung voranschreiten, um sich für digitale Rechte einzusetzen, insbesondere durch die Unterstützung von Global-Majority-Gruppen. Unsere Arbeit ist nicht nur für unsere Regionen wichtig, sondern für den gemeinsamen Erfolg von uns allen.
Wir sind der festen Überzeugung, dass wir nur dann sinnvoll vorankommen können, wenn wir zusammenarbeiten. Wir alle können gegenseitig von unseren Stärken und Erfahrungen profitieren, gerade von solchen, die aus der Zusammenarbeit Communities entstehen, die an vorderster Front handeln. Die europäische Zivilgesellschaft, politische Entscheidungsträger:innen und Institutionen können uns unterstützen, indem sie uns direkt zuhören und inklusive Räume schaffen, in denen wir gemeinsam gestalten können. Und wir müssen anerkennen, dass kein einzelner Akteur alle Antworten hat. Wir können nur dann erfolgreich sein, wenn wir nicht mehr nur in Silos arbeiten, sondern Solidarität aufbauen, die auf gegenseitigem Respekt, gemeinsamem Lernen und echter Zusammenarbeit beruht.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
A coalition of global NGOs wants to engage in discussions about EU tech regulation. We spoke with Pakistani activist Nighat Dad about the initiative and the challenges of platform regulation. She says that now more than ever, the EU must take greater global responsibility for digital rights.

Together with other activists from around the world, Nighat Dad wants to establish a “Global Majority House” in Brussels to make underepesented voices heard in EU tech regulation. Global Majority is a collective term for people of African, Asian, Indigenous, Latin American or mixed backgrounds, who make up about 85 percent of the world’s population. According to the Oxford Dictionary, it includes all people who do not consider themselves or are not considered to be white.
We spoke to Nighat Dad about the Global Majority House, drawbacks of internet regulation and the sometimes narrow views of the European Union. Nighat is a lawyer and activist from Pakistan. With her non-governmental organization, the Digital Rights Foundation, she fights against gender-based discrimination and for a better internet for everyone. She is a member of the Oversight Board of Meta, an external body that decides on disputes regarding the company’s moderation policy. In 2015, Nighat Dad was named a “Next Generation Leader” by Time Magazine.
Censorship under the guise of internet regulation

netzpolitik.org: Before we speak about the Global Majority House, could you to tell us a bit about your work with the Digital Rights Foundation?
Nighat Dad: We are a digital rights organization and have been working on online harassment targeting women and other gender minorities for nearly 15 years. For example, we launched a helpline to support individuals facing online abuse. Over the past few years, our work has expanded beyond Pakistan. We are now engaging across South Asia and globally, participating in international policy discussions around technology, platforms, and human rights. This shift has evolved organically, leading us to adopt a broader approach to addressing online harms.
netzpolitik.org: How did your focus shift?
Nighat Dad: We’ve seen governments in our region introduce regulations under the guise of addressing online harms such as disinformation, terrorism, and cybercrime. But when we looked more closely, it became clear that these laws were often being used to suppress dissent and curtail free expression online. This realization pushed us to monitor two things: first, how platforms are addressing online harms globally – especially since many of them are run from and by people outside our context; and second, to critically examine the regulations our governments are putting in place, including the often opaque collaborations between governments and platforms that the public rarely hears about.
Platforms need to adapt their policies to different contexts
netzpolitik.org: Working on these issues, I guess you almost have to automatically take a global view?
Nighat Dad: Sometimes these powerful actors listened to us, and sometimes they didn’t. At the same time, we observed who was being heard on these issues globally like the EU. You see, we’re in a region where so-called democracies or semi-democracies are increasingly turning into autocratic regimes. And it makes you wonder: what role can we play here? So, you start looking towards regions that still uphold democratic values for hope, and also to bring back learnings that can be adapted to our context. To explore how we can influence the broader digital ecosystem, particularly around platform accountability and holding governments to account.
netzpolitik.org: Democratic platform regulation is happening on a very thin line between the need to address harms on one side and the danger of autocratic coercion and over-blocking on the other. How do we find the right balance?
Nighat Dad: I’ve long believed that governments and states should hold private actors accountable, and I still hold that view, because they are the only ones with the power to do so. But at the same time, we have to ask: who is watching the watchers? States themselves must also be held accountable, and I believe achieving that balance requires the involvement of diverse actors. As civil society organizations, academics, and activists, I see our role as being that balancing force. We’ve reached a point where regulation is inevitable – people around the world are exhausted by the unchecked power of platforms. But it’s crucial that these regulations are good ones. That’s where I often find myself at odds with folks coming from the EU or other parts of the world with stronger rule of law.
netzpolitik.org: How so?
Nighat Dad: People who come from regions where human rights are respected and where governments can be held accountable often have a different perspective on regulation than we do. Regulations may work in those jurisdictions, but in ours, governments use the same language to silence dissent. I believe the right balance lies in respecting jurisdictions and contextual realities. Platforms cannot apply a one-size-fits-all approach to free speech and online harm.
Additionally, the argument that platforms are based in the U.S. and therefore follow policies rooted in the First Amendment is increasingly difficult to justify. We’ve witnessed how social media can amplify harmful narratives, and how ownership and policy decisions can be shaped by personal or political interests. If a platform wants to be truly global, it must reflect a broader set of values and legal traditions – not just those of one country. Otherwise, it risks being seen as serving only a limited audience rather than the diverse global communities it claims to represent.
The EU has too little awareness of the Brussels effect
netzpolitik.org: Let’s take closer look at your plans for the Global Majority House. At first glance, one might say that Pakistan is far away from Europe. How does EU regulation like the Digital Services Act affect people in Global Majority countries?
Nighat Dad: The EU needs to recognise that its regulations have global ripple effects. Take the GDPR, for instance. It has become the global gold standard for data protection and has significantly influenced data protection frameworks in our region. Similarly, with the Digital Services Act (DSA), we may see platforms implementing certain requirements globally, simply because they are obliged to do so in the EU. That’s something we would actually welcome – particularly when it comes to transparency. We also hope to build solidarity and coalitions that can help us push for these standards with powerful actors around the world.
netzpolitik.org: Some call this the “Brussels effect”. Do you have the feeling that EU policymakers are aware of the responsibility that comes with the power to set global standards?
Nighat Dad: I don’t think that they are. And I say that in all politeness …
netzpolitik.org: … there is no need for that …
Nighat Dad: But I do mean it. I deeply respect what the EU is doing. But there is sometimes an implicit assumption that the EU leads on technical regulation and that the rest of the world should simply adopt its standards. Many of us have grown up with European values in our regions and continue to be influenced by them, so the EU carries a responsibility to consider the broader global impact of its actions. It’s important to recognise that EU standards, while strong, are not perfect. There is always room for growth and learning from others. For instance, many of us involved in setting up the Global Majority House bring extensive knowledge around systemic risk assessments and crisis protocols. I truly believe the Global Majority House represents a valuable opportunity for us – and also for the EU – to engage in meaningful exchange and collaboration.
“An opportunity to hear directly from us rather than through third parties“
netzpolitik.org: Tell us a bit about the other organisations behind the initiative.
Nighat Dad: We have 7amleh, the Arab Center for Social Media Advancement, advocating for the digital rights of Palestinian and Arab civil society. There’s the Myanmar Internet Project, a collective of researchers, practitioners, and advocates. What to Fix is a non-profit promoting internet integrity. The London Story Foundation is a civil society organization of Indian diaspora members advocating for justice, peace, and collective action against human rights violations. And we have the Citizens’ Association „Zašto ne (Why Not)“, which works to create a safe and healthy society in Bosnia and Herzegovina and the broader Balkans region.
So, we have a diverse range of organizations behind this project. The whole purpose of establishing the Global Majority House is to unpack regulations and policies from our own perspectives, and to identify where we can push for a more inclusive, Global Majority lens. At the same time, it’s an opportunity for policymakers to hear directly from us rather than through third parties who speak on our behalf.
Europe needs to step up for global digital rights now
netzpolitik.org: Is the house going be a physical space, like an actual house?
Nighat Dad: That’s the idea. Many of us from the Global Majority are tired of constantly sharing our perspectives in various spaces, only to feel like guests: heard, but not truly included. In the end, we often give our input and then have to step aside, unsure of how it will be received or acted upon. The idea behind the Global Majority House is to reclaim space where we already are, not necessarily all of us at once, but collectively and meaningfully. With more Global Majority organizations and individuals coming to Brussels, this space will offer a sense of belonging and support, a place where they know they are not just welcome, but that it is their space too.
netzpolitik.org: You mentioned partnerships and solidarity. Are you also in touch with other digital civil society organizations from Europe, like EDRi or Access Now?
Nighat Dad: Absolutely. We invited many of them to a roundtable we organized in December and had a really meaningful conversation. I want to be very clear: we are not coming to Brussels to duplicate the work of existing civil society groups in Europe working on the DSA or any other regulation, for that matter. It’s not just about the DSA. As the Global Majority House, we’re trying to find our place within the broader regulatory ecosystem in Europe, and we’ll engage where we see our perspectives and contributions as relevant. We believe we can complement the work of existing organisations by bringing in lived experiences, regional expertise, and a Global Majority lens that adds depth and nuance to the conversations already taking place.
netzpolitik.org: What are the next steps for the Global Majority House, and how can Europeans support your cause?
Nighat Dad: As the Global Majority House, we are closely watching developments around the enforcement of the Digital Services Act, shifting geopolitical dynamics, and the evolving responses of platforms. These are critical moments that demand collective action. Our next steps include deepening engagement with policymakers, strengthening cross-regional collaborations, and continuing to centre the lived experiences and expertise of our communities in global digital governance discussions.
For our European allies, this is a pivotal time. The battle for rights-respecting, inclusive regulation is becoming more complex and more urgent. Amidst increasing aid cuts, we believe Europeans must step forward with courage and conviction to champion digital rights work – especially by supporting Global Majority groups. This work is not just important for our regions. It is essential for everyone’s collective success.
We truly believe that meaningful progress can only happen if we work together, drawing on each other’s strengths and grounded experiences, particularly those shaped by direct engagement with communities on the frontlines. European civil society, policymakers, and institutions can support us by creating inclusive spaces for co-creation, listening directly to our voices, and recognising that no single actor holds all the answers. We can only succeed if we move beyond working in silos and build solidarity rooted in mutual respect, shared learning, and genuine collaboration.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Viele Länder nutzen Gesichtserkennung, um Proteste und Demonstrationen zu überwachen und zu unterdrücken. Ein Überblick über Biometrie-Hotspots zeigt, wie ernstzunehmend die Auswirkungen auf die Demokratie sind.

Indien nutzt Drohnen, um Teilnehmer*innen von Bauernprotesten zu identifizieren – und ihnen anschließend die Pässe zu entziehen. Im Iran bekommen Frauen, die von Kameras ohne Kopftuch gefilmt werden, automatisch eine SMS, die ihnen erklärt, dass sie jetzt ein Problem haben. Und in den USA jagt eine private Gruppierung mit Gesichtserkennung propalästinensische Demonstrierende, um sie ausweisen zu lassen.
Das ist nur eine kleine Auswahl der vielen Länder, in denen Gesichtserkennung gegen Protestierende eingesetzt wird. In mindestens 78 Ländern nutzen Behörden die Technologie, so eine Studie. Da die Erhebung von 2022 stammt, sind inzwischen vermutlich noch mehr Staaten beteiligt. Ob sie mit der Technologie auch Demonstrierende identifizieren, ist nicht immer eindeutig zu klären.
„Es ist ein massives Problem und es nimmt massiv zu“, sagt Christoffer Horlitz, Experte für Menschenrechte im digitalen Zeitalter bei Amnesty International Deutschland. Und er sieht keinen Grund zur Annahme, dass dieser Trend abnimmt.
Einst schützte die Masse Teilnehmer*innen von Straßenprotesten. Nun, wo einzelne Teilnehmende aus der Ferne einfach identifiziert und dann später zu Hause abgeholt werden können, gibt es diesen Schutz nicht mehr. Wer an einer Demo teilnimmt, muss damit rechnen, auf einer Feindesliste der Regierung oder des politischen Gegners zu landen. Allein, weil man sein Gesicht, dieses unverwechselbare Kennzeichen, stets mit auf die Demo trägt.
„Die Angst, verfolgt zu werden, wächst. Und die dystopischen Szenarien dazu müssen wir uns gar nicht ausdenken, die sehen wir ja zum Beispiel in Russland“, sagt Horlitz. Dort würden kaum noch Proteste stattfinden, weil die potenziellen Teilnehmer*innen Angst vor Konsequenzen hätten.
Horlitz sagt, es sei wichtig, dass Menschen anonym politische Proteste besuchen können. „Die Versammlungsfreiheit ist ein Grundrecht und das ist sonst in Gefahr.“ Amnesty International positioniert sich dementsprechend zum Beispiel auch gegen das in Deutschland geltende Vermummungsverbot auf Versammlungen. Weil die Versammlungsfreiheit, auch durch die neuen Technologien, gerade besonders gefährdet sei, hat Amnesty International die Kampagne “Protect the Protest” initiiert.
Aus einer ganzen Reihe von Ländern gibt es Berichte über den Einsatz von automatisierter Gesichtserkennung gegen Protestierende. Die Beispiele zeigen, wie gefährlich diese Nutzung für die demokratischen Grundrechte ist.
Deutschland

Auch in Deutschland wird automatisierte Gesichtserkennung zur Identifizierung von Demonstrierenden genutzt. Besteht die Gefahr, dass Straftaten begangen werden, darf die Polizei auf Demonstrationen filmen. Werden tatsächlich Straftaten aufgezeichnet, ist es legal, die Bilder durch das Gesichtserkennungssystem (GES) des Bundeskriminalamtes laufen zu lassen. Bei den Protesten gegen das Treffen der G-20-Staatschefs in Hamburg wurden so drei Tatverdächtige identifiziert.
Das GES vergleicht die Bilder der zu identifizierenden Personen mit einer Datenbank aus rund 7,6 Millionen Porträtfotos, die vor allem im Rahmen von erkennungsdienstlichen Behandlungen oder Asylverfahren erstellt wurden. Dazu kommt eine amtsinterne Datei mit deliktspezifischen Fotos. Nach dem erweiterten Prüm-Beschluss dürften auch andere europäische Datenbanken genutzt werden. Spuckt das GES einen Treffer aus, muss der von einem Menschen verifiziert werden. Rund 141.000 Recherchen wurden 2024 im GES durchgeführt, etwa 20 Prozent mehr als im Vorjahr.
Geht es nach der künftigen Bundesregierung, wird die zum Abgleich genutzte Bilddatenbank deutlich größer werden. Laut dem Koalitionsvertrag soll nämlich auch ein Abgleich mit öffentlich einsehbaren Bildern aus dem Internet möglich sein. „Das würde natürlich auch bedeuten, dass damit Bilder aufgestöbert werden können, die Menschen auf einer Demonstration zeigen“, sagt Christoffer Horlitz von Amnesty International.
Österreich
Laut Standard kam 2020 in Österreich automatisierte Gesichtserkennung zum Einsatz, um antifaschistische Aktivist*innen zu identifizieren. Genutzt wurde Technik von Cognitec Systems. 450.000 Euro habe die Software gekostet. Der Einsatz sei laut Innenministerium durch das Sicherheitspolizeigesetz gedeckt.
Nach der KI-Verordnung der EU dürfen Straftäter*innen nachträglich mit automatisierter Gesichtserkennung identifiziert werden. Sogar der Einsatz von Live-Gesichtserkennung ist möglich, wenn es beispielsweise um die Suche nach einer vermissten Person geht oder die Gefahr eines Terroranschlages besteht.
Ungarn
In Ungarn ist der Einsatz von Gesichtserkennung gegen Demonstrierende gerade besonders aktuell. Das Land hat kürzlich die Teilnahme an Pride-Demonstrationen, die die Vielfalt der Geschlechter und der sexuellen Orientierungen feiern, verboten. Es wurde angekündigt, dass die Polizei auch Gesichtserkennung einsetzen wird, um die Teilnehmer*innen solcher Demonstrationen zu identifizieren und mit Geldstrafen zu belegen. Der Demobesuch gilt als Ordnungswidrigkeit, das Gesetz, das den diesbezüglichen Gesichtserkennungssoftwareeinsatz legitimiert, erlaubt also theoretisch sogar, automatisierte Gesichtserkennung gegen Falschparker einzusetzen.
Die Bilder, auf denen Menschen identifiziert werden sollen, werden dabei mit einer Datenbank abgeglichen. Diese beinhaltet biometrische Profile von Bildern aus erkennungsdienstlichen Behandlungen und aus den Akten Geflüchteter, daneben aber auch die Gesichtsdaten von Fotos aus Pässen und Führerscheinen. Letzteres ist weltweit noch relativ selten. Viele Staaten scheuen sich davor, die automatisierte Gesichtserkennung direkt an die Passdatenbank anzuschließen, weil damit jede*r Bürger*in unter Verdacht gestellt wird.
Anfangs mussten die Matches, die das ungarische Gesichtserkennungssystem auswarf, noch in jedem Fall von zwei menschlichen Expert*innen unabhängig voneinander bestätigt werden. Nach einer Änderung im vergangenen Jahr ist bei der Verfolgung minderschwerer Fälle – wie wohl dem Besuch einer Pride-Parade – keine derartige menschliche Autorisierung mehr notwendig. Das System entscheidet selbstständig, wer die Person auf dem Foto ist. So soll der Identifikations-Prozess beschleunigt werden. Aber gerade bei Massenaufläufen steigt damit die Fehlerwahrscheinlichkeit enorm, schreibt das ungarische Onlineportal 24.hu.
Serbien

In Serbien, wo kürzlich pro-demokratische Demonstrierende mit einer bislang unbekannten Waffe angegriffen wurden, ist auch die Kameraüberwachung auf den neuesten Stand. 2019 kündigte die Regierung an, tausende smarte Kameras des chinesischen Konzerns Huawei in der Innenstadt der Hauptstadt Belgrad zu installieren. 2021 wurden dann Berichte bekannt, nach denen Gesichtserkennungstechnologie gegen politische Gegner eingesetzt wurde. Viele Protestierende, vor allem Teilnehmer*innen von Straßenblockaden, hatten Strafen erhalten, obwohl sie sich nicht gegenüber Polizeikräften ausgewiesen hatten.
Ein Bericht der NGO Balkan Investigative Reporting Network zeigt, dass die serbische Polizei auch chinesische Drohnen eingekauft hat, um Demonstrationen und Grenzen zu überwachen. Die Drohnen seien mit hochwertigen Kameras ausgestattet und könnten sich sogar bestimmte Gesichter merken, um diese zu verfolgen. Laut des Berichts von 2024 sind in Serbien mittlerweile 8.000 Kameras installiert, die zur Gesichtserkennung genutzt werden können.
„Das System kann genutzt werden, um politische Gegner zu verfolgen und Regimekritiker zu jedem Zeitpunkt zu überwachen, was komplett gegen das Gesetz ist“, sagte Serbiens vormaliger Datenschutzbeauftragter Rodoljub Sabic laut CBS News. In dem Bericht von 2019 wird behauptet, dass die Polizei Protestvideos an regierungsfreundliche Medien durchsteche, die dann Bilder daraus mit den Namen der Protestierenden veröffentlichten. Der Präsident Aleksandar Vučić habe behauptet, er könne jede*n Beteiligte*n von Anti-Regierungsprotesten registrieren.
Laut der Heinrich-Böll-Stiftung ist Belgrad die erste europäische Hauptstadt, die nahezu flächendeckend von Kameras überwacht wird, die für den Einsatz mit automatisierter Gesichtserkennung geeignet sind. Sowohl in Belgrad, als auch in den Großstädten Niš und Novi Sad würde hauptsächlich Safe-Cities-Technologie von Huawei eingesetzt. Die Polizei nutze neben stationären Kameras auch Bodycams und in Fahrzeugen verbaute Videoüberwachung.
Allerdings gäbe es laut des serbischen Datenschutzbeauftragten keine Rechtsgrundlage für die Verarbeitung biometrischer Daten. Eine Datenschutz-Folgenabschätzung von 2020 habe allerdings ergeben, dass bereits damals alle Personen, die gewisse Kameras passieren, biometrisch identifiziert wurden und die Polizei die Informationen nutzte, um Persönlichkeitsprofile aufzubauen. Laut der SHARE Foundation, einer Datenschutzorganisation aus Belgrad, hat die Polizei den Plan zugegeben, die Personalausweisdatenbank zu Identifizierungszwecken zu nutzen, berichtet ZDnet.
Großbritannien
Großbritannien hat ein extrem dicht ausgebautes Netz an Überwachungskameras für den öffentlichen Raum, zudem ist das Land auch beim Einsatz von Gesichtserkennung gegen große Menschenmengen ganz vorn dabei. Das geschah beispielsweise bei der Krönung von König Charles III im Mai 2023 und ebenfalls 2023 im Rahmen eines Formel-1-Rennens. Dabei wurde versucht, Klimaaktivist*innen vom Betreten der Rennstrecke abzuhalten.
In der Videoüberwachung des öffentlichen Raums von Großbritannien läuft eine Echtzeit-Gesichtserkennung permanent mit. Seit Ende März 2025 sind Menschen, die dort demonstrieren wollen, der Technologie noch hilfloser ausgeliefert. Da trat ein Gesetz in Kraft, das die Verhüllung des Gesichts auf Versammlungen zur Straftat macht. Es drohen 1.000 Pfund Strafe und ein Monat Gefängnis.
Türkei
Auch in der Türkei, wo zur Zeit größere Proteste stattfinden, spielt die Identifizierung von Demonstrierenden mittels automatisierter Gesichtserkennung für die Sicherheitsbehörden wohl eine wichtige Rolle. „Wenn du heute in der Türkei an einer Demonstration teilnimmst, wird dein Gesicht von einer Kamera erkannt und das System gleicht es mit deinem Profil in den sozialen Netzwerken ab.“ sagte Orhan Sener, ein Experte für digitale Technologien, gegenüber der Nachrichtenagentur AFP. Dem Bericht zufolge holte die Polizei viele Demonstrant*innen zu Hause ab, nachdem sie anhand von Filmmaterial oder Fotos identifiziert worden waren.
Georgien

Offiziell sind in Georgien nur der Flughafen und die Grenzkontrollpunkte mit Gesichtserkennungssystemen ausgestattet. Genutzt wird Technik des japanischen Konzerns NEC. 2023 wurde die Technologie mit Hilfe eines EU-Programms finanziert, berichtet biometricupdate.com.
Trotz der Restriktionen seien in den letzten Jahren 4.300 smarte Kameras im öffentlichen Raum installiert worden, hauptsächlich von den chinesischen Firmen Hikvision und Dahua, schrieb biometricupdate.com im Februar 2025. Berichten zufolge habe das Innenministerium zudem Gesichtserkennungstechnologie von Papillon Systems eingesetzt. Unbekannt sei, wer die Kameras kontrolliere und welche Funktionen sie böten.
In Georgien gibt es seit einiger Zeit große prodemokratische Proteste. Die Georgian Young Lawyers’ Association berichtete der NGO Civil Georgia im März von zahlreichen Fällen, in denen Menschen, die an Straßenblockaden teilnahmen, nur auf Basis von Kamerabildern identifiziert und verurteilt wurden. Dabei gehe es auch darum, Protestierende einzuschüchtern.
In einem anderen Fall sei ein Mensch mittels Überwachungskameras quer durch die Stadt verfolgt worden. Als die Person ein Dokument las, sei so nah herangezoomt worden, dass auch die Überwachenden mitlesen konnten. Laut Civil Georgia ist die Zahl der Kameras exponentiell gewachsen, vor allem in Gegenden, in denen häufig demonstriert werde.
Russland
Christoffer Horlitz von Amnesty International sagt: „In Russland beobachten wir schon seit Jahren, dass Gesichtserkennungstechnologien auf Protesten eingesetzt werden. Und das hat gruselige Ausmaße.“ Früher konnte man nach einer Demonstration, wenn man wieder zu Hause war, davon ausgehen, dass man diesmal unbeschadet davongekommen ist. Im heutigen Russland ist es möglich, dass noch Wochen nach einer Demonstration die Sicherheitsbehörden Beteiligte zu Hause oder am Arbeitsplatz aufsuchen und festnehmen.
Als Beispiel nennt er die Proteste nach der Beerdigung des Oppositionellen Alexej Nawalny im März 2024. Die NGO OVD-Info bestätigt die Praxis und hat seit 2021 knapp 600 Fälle gesammelt, in denen Demonstrationsteilnehmer*innen mittels Gesichtserkennung ins Visier der Behörden gerieten.
In Moskau und anderen russischen Städten werden U-Bahnen mit Gesichtserkennung überwacht, man kann sogar mittels Gesichtserkennung bezahlen. Es sei schon mehr fach vorgekommen, dass Menschen, die auf einer Demonstration von Gesichtserkennungstechnologie erfasst wurden, am U-Bahneingang identifiziert und festgenommen wurden, sagt Horlitz. Das hieße, dass die russischen Sicherheitsbehörden Zugriff auf eine Vielzahl von Kameras haben.
Horlitz berichtet auch von präventiven Festnahmen, bei denen Menschen, die als Demonstrationsteilnehmer*innen identifiziert wurden, vor erneuten Protesten von der Polizei in Gewahrsam genommen werden. 141 präventive Festnahmen von Aktivist*innen allein in der U-Bahn hat OVD-Info gezählt.
2021 sind sogar drei Journalisten verhaftet wurden, nachdem sie von Gesichtserkennungssoftware bei einem Protest identifiziert wurden. Horlitz sagt: „Am Beispiel Russlands sehen wir einen deutlichen Abschreckungseffekt. Es werden mittlerweile weniger Menschen aus politischen Gründen verhaftet, weil es gerade auch einfach viel weniger Proteste gibt.“
Der Europäische Gerichtshof für Menschenrechte entschied 2023, dass die russische Praxis, Regimegegner mittels Gesichtserkennung zu verfolgen, die Meinungsfreiheit und die Privatsphäre verletzt. Auslöser war die Festnahme eines Soloprotestierenden mit kritischem Schild, der mittels Gesichtserkennung in der U-Bahn identifiziert und anschließend verhaftet wurde.
Auch in Russland setzten in der Vergangenheit bereits private Akteure Gesichtserkennung gegen Protestierende ein. Mit der App findface.ru wurden bereits 2017 Regierungsgegner mit Foto, Namen und Link zu ihren Auftritten in Sozialen Netzwerken auf einer Website geoutet. Ein Geheimdienstnahes Internetportal hatte hochauflösende Panoramabilder von Demonstrationen zur Verfügung gestellt.
Palästina
Laut Christoffer Horlitz von Amnesty International ist Videoüberwachung in den israelisch kontrollierten Gebieten von Hebron und Ost-Jerusalem allgegenwärtig. „Das heißt, wenn ich auf einem Protest bin, der unliebsam ist und dann das nächste Mal durch einen Checkpoint gehen will, werde ich nicht durchgelassen“, sagt Horlitz.
An den Checkpoints arbeitet ein Gesichtserkennungssystem namens Red Wolf, das automatisch entscheidet, wer passieren darf, wer weitere Kontrollen über sich ergehen lassen muss und wer direkt festgenommen wird. Zusätzlich gibt es die Handy-App Blue Wolf, mit der Soldaten die Gesichter von Palästinenser*innen erfassen können.
Iran

Im autoritären Iran gilt es schon als Protest, wenn eine Frau ihr Kopftuch nicht ganz wie vorgeschrieben trägt. Gegen diese Form der Rebellion fährt das Regime auch einen exzessiven Einsatz von automatisierter Gesichtserkennung auf.
Rest of World berichtet von Maryam, 30, die 2023 ohne Hidschab in einem Café saß. Nachdem die 22-jährige Mahsa Amini in Polizeigewahrsam gestorben war, weil sie das Kopftuch nicht korrekt trug, habe Maryam aus Protest gelegentlich ihren Kopf unbedeckt gelassen. Einige Monate nach dem Cafébesuch sei Maryam von einem Gericht vorgeladen worden, als Beweismittel gab es ein Foto des Cafébesuchs.
Maryam gehe davon aus, per Gesichtserkennung identifiziert worden zu sein, berichtet Rest of World. „Es gab keine andere Möglichkeit, mich zu erkennen“, wird Maryam zitiert. Das Regime habe zuvor bereits angekündigt, mit Gesichtserkennung gegen Kopftuchtragevergehen vorzugehen.
Der Sekretär der iranischen Zentrale für Tugendförderung und Lasterprävention habe erklärt, die Bilder würden mit der nationalen Datenbank für Personalausweise abgeglichen. Christoffer Horlitz von Amnesty International bestätigt, dass im Iran die Passfotos der Bürger*innen zum Abgleich mittels Gesichtserkennungstechnologie genutzt werden.
Laut Rest of World arbeiten zwei iranische Unternehmen bereits seit 2015 gemeinsam mit den Behörden an Gesichtserkennungstechnologie. Außerdem habe Iran Smartkameras von der chinesischen Firma Tiandy Technologies erworben. Angeblich wird auch mit Kameradrohnen Jagd auf Kopftuchverweigerinnen gemacht. Laut Christoffer Horlitz erhalten Frauen, die mittels Gesichtserkennungstechnologie ohne Kopftuch erwischt werden, automatisch eine SMS mit dem Hinweis, dass sie gegen die Vorschriften verstoßen hätten und einer Strafandrohung.
Auch im Iran wird Gesichtserkennung regelmäßig in öffentlichen Verkehrsmitteln genutzt. Es gibt Berichte von U-Bahn-Nutzer*innen, die Überwachungskameras passierten, woraufhin ihre Passfotos mit ihrem Namen auf einem Bildschirm erschienen. Ein Sprecher des entsprechenden Stadtrats habe anschließend erklärt, die Technologie werde ausschließlich zur Festnahme von „Regimefeinden“ eingesetzt, so Rest of World.
USA
In den USA ist automatisierte Gesichtserkennung bereits so selbstverständlich, dass sie in einigen Sportstadien zur Einlasskontrolle genutzt wird. Die Hälfte der US-Bürger*innen war bereits 2016 mit Foto in einer Gesichtserkennungs-Datenbank erfasst. Und sowohl staatliche Institutionen als auch Privatpersonen gehen mit der Technologie gegen Demonstrierende vor.
Die Strafverfolgungsbehörden setzten beispielsweise 2020 im Rahmen der Black-Lives-Matter-Proteste Gesichtserkennung ein. Mindestens ein Aktivist sollte in Folge dessen in seinem Zuhause von Staatsvertretern verhaftet werden, berichtet das gemeinnützige Online-Medium Rest of World. Christoffer Horlitz von Amnesty International sagt: „teilweise wurden die Demorouten so an den Überwachungskameras entlang gelegt, dass die gesamte Route überwacht wurde.“
Angeblich haben gleich sechs verschiedene Behörden Gesichtserkennung gegen die Black-Lives-Matter-Aktivist*innen eingesetzt, so das kanadische Medium Ricochet. Die eingesetzte KI ist Clearview AI, schreibt das politische Magazin Mother Jones. Die sei explizit dazu entwickelt worden, Menschen mit Migrationshintergrund und Menschen mit einer linken politischen Einstellung zu identifizieren und verfolgen. Allerdings hat das Unternehmen wohl auch 2021 bei der Aufklärung des Sturms auf das US-Kapitol eine größere Rolle gespielt. Auf seiner Website veröffentlichte es eine Fallstudie, die seine Rolle bei der Festnahme hunderter Randalierer hervorhob.
Zuletzt wurde zudem bekannt, dass in den USA auch Privatpersonen Gesichtserkennung gegen Demonstrierende einsetzen. Der Software-Entwickler Eliyahu Hawila hat eine Gesichtserkennungstechnologie namens Nesher AI entwickelt, die explizit dazu gedacht ist, propalästinensiche Demonstrierende zu identifizieren. Die Daten dieser Menschen werden mit der US-Regierung geteilt, in der Hoffnung, dass die Protestierenden daraufhin abgeschoben werden. Auch maskierte Menschen kann das Tool wohl erkennen.
China

Dieses Land spielt eine Vorreiterrolle beim Einsatz von automatisierter Gesichtserkennung. Die Technologie wird umfassend eingesetzt und ist hoch entwickelt. So kann sie beispielsweise automatisch Alarm schlagen, sobald Menschen zu einer ungenehmigten Versammlung zusammenkommen. Sie kann auch Uiguren von Han-Chinesen unterscheiden. Die uigurische Minderheit wird besonders stark mittels Kameraüberwachung kontrolliert.
In Chinas öffentlichem Raum sind Millionen von Überwachungskameras verteilt. Die werden auch eingesetzt, um Protestierende zu identifizieren, die dann mit einer Art Gefährderansprache von weiteren Protesten abgehalten werden sollen. Zwei Firmen, die weltweit führende KI-Kamerasysteme entwickeln, Hikvision und Huawei, stammen aus China. Hikvision ist ein Staatsunternehmen, Huawei wird vom Staat gefördert.
Die „Safe-Cities“-Technologie von Huawei wurde laut CBS News bereits 2019 nach Russland, Ukraine, Türkei, Aserbaidschan, Angola, Laos, Kasachstan, Kenia, Uganda, Frankreich, Italien und Deutschland vertrieben.
Indien
In Indien wurde 2024 Gesichtserkennung gegen Teilnehmer*innen von Bauernprotesten eingesetzt. Ein leitender Polizist sagte: „Wir haben sie mithilfe von Überwachungskameras und Drohnen identifiziert. Wir werden das Ministerium und die Botschaft bitten, ihre Visa und Pässe zu annullieren.“
Bereits 2019 wurden vor und nach Protesten, die sich gegen ein Gesetz richteten, das Muslime diskriminiert, Teilnehmer*innen von der Polizei festgesetzt. Angesichts der Menge der betroffenen Menschen und der im Einsatz befindlichen Überwachungskameras, vermuteten Aktivist*innen, dass Gesichtserkennung im Einsatz sei.
2020 gab es ebenfalls Proteste gegen das Gesetz und Unruhen im Nordosten Delhis. Laut dem dortigen Polizeipräsidenten wurden danach 775 Menschen festgenommen, von denen 231 mit Videoüberwachung identifiziert worden seien und 137 davon mit automatisierter Gesichtserkennung, so berichtet Rest of World. Laut Christoffer Horlitz von Amnesty International wurden in Indien auch Studierende, die zum ersten Mal auf einer Demo waren, dort per Gesichtserkennung identifiziert und nach der Veranstaltung an der Universität verhaftet.
Der indische IT-Forscher Srinivas Kodali sagte gegenüber Rest of World, dass Proteste in seiner Region sehr selten geworden seien, seit die Polizei Gesichtserkennung einsetzt. „Die Polizei verhaftet Menschen, bevor sie überhaupt zum Protestort kommen“. Die indische Internet Freedom Foundation überwacht den Ausbau der automatisierten Gesichtserkennung mit einem Projekt namens Panoptic.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Die 16. Kalenderwoche geht zu Ende. Wir haben 14 neue Texte mit insgesamt 90.691 Zeichen veröffentlicht. Willkommen zum netzpolitischen Wochenrückblick.

Liebe Leser:innen,
in der zurückliegenden Woche habe ich wiederholt über Verantwortung nachgedacht. Oder genauer über die Frage: Welche Konsequenzen hat politisches Handeln und wer steht am Ende dafür gerade?
Den ersten Anlass bot die Ankündigung, dass die elektronische Patientenakte für alle schon am 29. April kommen soll. Die ePA sei im internationalen Vergleich „vielleicht die sicherste“, verspricht Bundesgesundheitsminister Karl Lauterbach. Gegen alle Warnungen von Sicherheitsfachleuten soll das Beta-Produkt nun also bei den Kunden Versicherten reifen. *schulterzucken*
Zweiter Anlass: Das Bundesinnenministerium hat vor wenigen Tagen aus heiterem Himmel die Geschäftsführerin des Zentrums für Digitale Souveränität, Jutta Horstmann, geschasst. Horstmann ist ausgewiesene Open-Source-Expertin und das ZenDiS gerade sehr gefragt. Gründe für den Rausschmiss nannte das Ministerium nicht. Und es verrät auch nicht, was das für die weitere Entwicklung von Open Source und das Streben nach „digitaler Souveränität“ bedeutet. *tumbleweed*
Und nicht zuletzt: Palantir. Für die Produkte des US-Konzerns hat sich der Bundesrat zuletzt indirekt starkgemacht. Angesichts der marodierenden Trump-Regierung bekommen einige Länder nun aber offenbar kalte Füße. Sie sprechen sich für europäische Alternativen aus. Meine Kollegin Constanze hat nachgehakt, welche Anbieter dafür infrage kommen. Das Ergebnis: Die Länder kennen keine – wenn sie uns denn überhaupt antworten. *grillenzirpen*
Mich persönlich, und vielleicht bin ich da altmodisch, frustriert es, wenn politische Forderungen sich als heiße Luft entpuppen. Als Ärgernis empfinde ich es, wenn Ministerien wie die Axt im Walde agieren. Und mir stehen die Haare zu Berge, wenn mit den Gesundheitsdaten von Millionen Menschen grob fahrlässig verfahren wird. Ganz nach dem Motto: Nach mir die Datenflut.
Habt ein besinnliches Wochenende.
Daniel
Degitalisierung: Falsche Mythen
Im schwarz-roten Koalitionsvertrag finden sich grundfalsche Vorstellungen davon, welche Rolle Geld und Macht in unserer Gesellschaft spielen sollen. Denn nicht alles, was glänzt, ist auch golden. Und darunter schimmert manchmal auch eine gefährliche eiserne Rohheit. Von Bianca Kastl –
Artikel lesen
BuyFromEU: Am Problem vorbei gekauft
Im Netz organisieren sich Menschen, um auf europäische Alternativen zu US-Produkten umzusteigen. Doch die bewusste Kaufentscheidung bleibt bei der Herkunftsfrage stecken und blendet ein entscheidendes Problem aus. Von Anna Biselli –
Artikel lesen
Weizenbaum Report 2025: Das Jahr, in dem Deutschland auf die Straße ging
Knapp ein Fünftel der Menschen in Deutschland waren im vergangenen Jahr demonstrieren. Das ist der höchste bislang gemessene Wert des Weizenbaum-Reports zur politischen Partizipation. Er zeigt auch, dass sich der Umgang mit Hassrede wandelt. Und welche Gruppe immer weniger spendet. Von Christoph Bock –
Artikel lesen
Neues Ministerium: Digitalisierung ist mehr als Faxverbot
Schwarz-Rot will ein Digitalministerium errichten. Das ist weder ein Problem noch eine Lösung, aber auf vier Dinge kommt es dabei an. Ein Kommentar. Von Anna Biselli –
Artikel lesen
Bundesgesundheitsministerium: Elektronische Patientenakte kann ab 29. April bundesweit genutzt werden
In genau zwei Wochen geht die elektronische Patientenakte im Rahmen einer „Hochlaufphase“ landesweit an den Start. Den Termin hat das Bundesgesundheitsministerium heute in einem Brief der gematik mitgeteilt. Demnach sei die ePA einsatzbereit, Sicherheitsprobleme seien gelöst. Wir veröffentlichen das Schreiben im Wortlaut. Von Daniel Leisegang –
Artikel lesen
Zentrum für digitale Souveränität: Ohne Strategie ist es nur ein Feigenblatt
Völlig überraschend hat das Bundesinnenministerium die Geschäftsführerin des Zentrums für Digitale Souveränität geschasst. Dabei gilt Jutta Horstmann vielen als erfahrene wie visionäre Expertin. Für die Zukunft von Open Source in der öffentlichen Verwaltung verheißt das nichts Gutes. Von Esther Menhard –
Artikel lesen
App-basierte Lieferdienste: Wegwerfjobs für marginalisierte Menschen
Sogenannte Gig-Work hat zu Recht einen schlechten Ruf. Dennoch ist der Arbeitssektor in den vergangenen Jahren stark gewachsen. Eine repräsentative Studie hat nun herausgefunden, warum Menschen solche Jobs überhaupt annehmen – und warum sie so oft schnell wieder kündigen. Von Tomas Rudl –
Artikel lesen
Polizeidatenbanken: Keine Palantir-Konkurrenz in Sicht
Die Abhängigkeit von US-Konzernen bei Polizeidaten behagt nicht allen innenpolitisch Verantwortlichen. Wird Palantir eine Dauerlösung für deutsche Polizeien oder ist eine europäische oder deutsche Alternative in Sicht? Das haben wir die Landesinnenministerien gefragt. Von Constanze –
Artikel lesen
Für bessere Zusammenarbeit: Gelingt der EU das Nachjustieren beim Datenschutz?
Das große Datenschutz-Gesetz der EU soll praktikabler werden, besonders, wenn Fälle mehrere Staaten involvieren. Fast alle Beteiligten sind sich einig, dass das ein gutes Ziel ist. Die EU-Institutionen verhandeln gerade über einen Entwurf – aber der Aktivist Max Schrems ist vom aktuellen Stand entsetzt. Von Maximilian Henning –
Artikel lesen
Interne Dokumente: EU-Staaten treten bei Chatkontrolle auf der Stelle
Die Verhandlungen der EU-Staaten zur Chatkontrolle sind festgefahren. Wir veröffentlichen den aktuellen Vorschlag und das eingestufte Verhandlungsprotokoll. Die Position der neuen Bundesregierung könnte entscheidend sein. Der Koalitionsvertrag bietet Spielraum für eine Änderung der deutschen Position. Von Andre Meister –
Artikel lesen
US-Analysesoftware: Palantir macht Polizei und Militär politisch
Einmal mehr wird über die Einführung von Palantir-Software für die deutsche Polizei diskutiert. In den USA wird die Technik zur Deportation missliebiger Personen genutzt. Auch die Nato schließt einen Vertrag mit dem umstrittenen Unternehmen. Von Matthias Monroy –
Artikel lesen
Verwaltung in der Cloud : Bund macht sich abhängig von Amazon und Co.
Die Zukunft der öffentlichen Verwaltung ist die Cloud, wenn es nach dem Bund geht. Weil ihnen die Ressourcen fehlen, greifen Behörden aber oft auf private Anbieter zurück und machen die öffentliche Verwaltung so abhängig von Amazon und Co. Von Esther Menhard –
Artikel lesen
Digitalisierung: Wie Verwaltung und Justiz automatisiert werden könnten
Wenn es nach der schwarz-roten Koalition geht, soll sogenannte Künstliche Intelligenz die deutsche Bürokratie vereinfachen. Aber wie nutzen Justiz und Verwaltung KI bereits? Und was kann eigentlich schiefgehen? Von Christoph Bock –
Artikel lesen
Interview: „Wir brauchen eine neue Vision der Digitalisierung“
Wir brauchen mehr als digitale Souveränität, nämlich eine neue Leitidee für die digitale Transformation unserer Gesellschaft, sagt die Kommunikationswissenschaftlerin Julia Pohle. Im Gespräch mit netzpolitik.org erklärt sie, warum sich diese Idee nicht auf die technologische Unabhängigkeit von den USA beschränken darf. Von Esther Menhard –
Artikel lesen
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Wir brauchen mehr als digitale Souveränität, nämlich eine neue Leitidee für die digitale Transformation unserer Gesellschaft, sagt die Kommunikationswissenschaftlerin Julia Pohle. Im Gespräch mit netzpolitik.org erklärt sie, warum sich diese Idee nicht auf die technologische Unabhängigkeit von den USA beschränken darf.

Hinter der Debatte um digitale Souveränität steht die Frage danach, wie der digitale Raum ausgestaltet sein sollte und wie wir mit der Tech-Dominanz der USA umgehen. Immer weniger Staaten wollen deren Übermacht weiter hinnehmen.
Wir haben darüber mit Julia Pohle gesprochen. Sie fordert eine neue Leitidee der Digitalisierung, warnt aber zugleich davor, diese mit dem Konzept der digitalen Souveränität zu verbinden. Denn damit könnten wirtschaftliche und geopolitische Interessen einiger weniger an Einfluss gewinnen. Pohle ist Co-Leiterin der Forschungsgruppe „Politik der Digitalisierung“ am Wissenschaftszentrum für Sozialforschung in Berlin (WZB). Die Kommunikationswissenschaftlerin arbeitet zu den Themen Globale Internet Governance sowie Europäische Digitalpolitik vor dem Hintergrund des internationalen wirtschaftlichen und sicherheitspolitischen Wettbewerbs.

„Es gibt verschiedene Geschichten des Internets“
netzpolitik.org: Der Begriff der digitalen Souveränität ist derzeit überall zu vernehmen. Wie kam es dazu, dass wir heute alle darüber sprechen?
Julia Pohle: Das hat auch mit den Anfängen des Internets zu tun. Großen Einfluss hatte hier eine Strömung, die als Cyber- oder Internet-Exzeptionalismus bekannt ist. Sie sieht, wie der Name andeutet, das Internet als Ausnahme. Die technische Infrastruktur des Internets eröffnete demnach einen ganz neuen Raum, der sich grundlegend von anderen Kommunikationsräumen und -technologien unterscheidend.
Aus Sicht des Internet-Exzeptionalismus ist dieser Raum grenzüberschreitend, auch im territorialen Sinne. Und er ist nicht hierarchisch aufgebaut. Es gibt keine zentralen Kontrollpunkte oder Machtstellungen. Alle Menschen können hier, so der Grundgedanke, auf dem gleichen Niveau miteinander kommunizieren. Diese Idee der Offenheit und Verbundenheit haben die Urväter des Internets in seine technische Infrastruktur eingeschrieben.
Daneben gab es den Cyber-Libertarismus. Ihm zufolge gelten in diesem Raum bestimmte Freiheiten. Gut zum Ausdruck brachte das John Barry Barlows Unabhängigkeitserklärung des Cyberspace. Barlow betont, dass staatliche Macht in diesem neuen Raum keine Rolle spielen dürfe. Alle Internetnutzer verteidigen ihre individuellen und kollektiven Freiheiten nach außen gegen Staaten. Diese Ideologie hat die Internetpolitik über Jahrzehnte hinweg geprägt und ist bis heute in der US-amerikanischen Politik sehr wirkmächtig.
netzpolitik.org: Die Idee, dass das Internet ein grenzenloser Ort ist, klingt doch gut.
Julia Pohle: Ja, das tut sie. Und diese Idee, ein solches grenzüberschreitendes digitales Netzwerk aufzubauen, hatten nicht nur die US-amerikanischen Gründer:innen des Internets, sondern lag auch alternativen Projekten in anderen Ländern zugrunde. Es gibt verschiedene Geschichten des Internets, nicht alle fokussieren auf die Entstehung in den USA.
Allerdings hat sich bald gezeigt, dass Staaten sehr wohl das Internet trotz seiner dezentralen Natur unter ihre souveräne Macht bringen können. Außerdem wirkte auch die Kommerzialisierung des Internets der Offenheit und Freiheit unserer digitalen Vernetzung entgegen und begünstigte damit viele der uns heute bekannten Probleme.
Wie Staaten Einfluss aufs Internet gewannen
netzpolitik.org: Wer hat zuerst Kontrolle aufs Internet ausgeübt, Staaten oder wirtschaftliche Akteure?
Julia Pohle: Genau kann man das nicht sagen. Sobald das Internet zu einem globalen Netzwerk heranwuchs, versuchten Staaten diesen Raum zu kontrollieren und zu überwachen. Etwa im Jahr 1993 kamen außerdem die ersten kommerziellen Browser auf den Markt und es wurde möglich, wirtschaftliche Transaktionen über das Internet abzuwickeln. Private Akteure wollten frühzeitig vom Netzwerkcharakter des Internets profitieren und ihre Marktmacht ausbauen.
netzpolitik.org: Wie verschafften sich Staaten Einfluss auf das Internet?
Julia Pohle: Sie hatten Einfluss darüber, wie das Internet und seine Anwendungen aufgebaut wurden. Eine wichtige Rolle spielte Anfang der 2000er-Jahre auch der Diskurs um die Informationsgesellschaft. Damals wurde dem Staat die Rolle zugesprochen, durch Deregulierung wirtschaftliche Freiheiten im Internet zu sichern. Das war der Einfluss der neoliberalen Politik, die auch aus den USA kam und gerade im Digitalbereich wirkte. Sie hat großen Einfluss darauf gehabt, wie sich die Digitalwirtschaft entwickelte.
Außerdem haben Staaten über den Weltgipfel zur Informationsgesellschaft, den die Vereinten Nationen 2003 und 2005 organisierten, die globale Koordination der Internetentwicklung beeinflusst. Der Gipfel hat internetpolitische Themen überhaupt erst in die öffentliche Debatte und auf die Agenda von Regierungen weniger entwickelter Länder gebracht. Auch ein Teil der deutschen netzpolitischen Community wurde über diesen Weltgipfel politisiert.
Staatliche Einflussnahme erfolgte aber auch durch Interventionen auf Ebene der Infrastruktur selbst, zum Beispiel durch das Blockieren bestimmter Webseiten, das Abschalten des Internets oder den Ausschluss bestimmter Gegenden und Communitys von der Internetinfrastruktur. Diese staatlichen Interventionen gab es von Anfang an, und sie nahmen über die Zeit zu.
Das Ringen um digitale Souveränität
netzpolitik.org: Springen wir in die Gegenwart: Was hat diese Ausgangssituation mit der aktuellen Forderung nach digitaler Souveränität zu tun?
Julia Pohle: Zunächst ist die Idee, dass Staaten ihre Souveränität im digitalen Raum behaupten müssen, keineswegs neu. Sie kam bereits in der Anfangszeit des Internets auf, spätestens während des Weltgipfels. Schon damals ging es den teilnehmenden Staaten darum, sich der dominanten Position der USA und der Privatwirtschaft zu erwehren.
Die Vereinigten Staaten hatten damals gefordert, dass der Privatsektor und die technische Community die Regeln und Normen für das Internet setzt, im Sinne der Selbstregulierung. Und schon damals verlangten andere Staaten mit Verweis auf ihre Souveränität, dass sie in die Gestaltung dieser Regeln einbezogen sein sollten.
Doch die USA waren mit ihrer Ideologie eines freien und offenen Internets so einflussreich, dass sie die meisten westlichen Staaten auf ihre Seite brachten. Das Ergebnis war das Multi-Stakeholder-Prinzip, das bis heute vor allem für die Verwaltung der kritischen Infrastrukturen des Internets besteht.
Gezieltere Forderung nach digitaler Souveränität erhoben dann ab den 2010er-Jahren vor allem autoritäre Staaten: Russland, China sowie einige arabische Staaten. In China ist der Begriff „Cyber-Souveränität“ schon relativ lange in Gebrauch und ab 2010 fand er sich auch in offiziellen politischen Strategien wieder. Dahinter steht der Wunsch nach einer strikten staatlichen Kontrolle des digitalen Raums und dem Schutz vor ausländischer Einflussnahme.
Aber auch in Europa tauchte der Begriff bald auf. In Frankreich gibt es Forderungen nach technischer Souveränität bereits seit längerem. Und spätestens mit den Snowden-Enthüllungen im Jahr 2013 gewinnt der Begriff in der europäischen Politik an Bedeutung. Allerdings wird er hier natürlich anders ausgelegt als in China oder Russland.
netzpolitik.org: Inwiefern haben die Snowden-Enthüllungen zu dieser Entwicklung beigetragen?
Julia Pohle: Die Idee, dass das Internet frei ist, wurde auf einen Schlag entzaubert. Die Enthüllungen haben zum ersten Mal öffentlich vor Augen geführt, wie stark wir von digitalen Infrastrukturen und Diensten abhängig sind, die nicht unkontrollierbar sind – wie von den Cyber-Exzeptionalisten versprochen, sondern die wir in Europa nicht kontrollieren können. Das hat den Wunsch nach digitaler Souveränität verstärkt. Viele verlangten nach Grenzen im digitalen Raum, um sich sowie die eigene Unabhängigkeit und Selbstbestimmungsfähigkeit besser zu schützen.
„Es drohen mehr staatliche Macht und Überwachung“
netzpolitik.org: In der Debatte werden häufig der politische Einfluss der USA und der privatwirtschaftliche Einfluss von Big-Tech gleichgesetzt. Ist das aus Ihrer Sicht begründet?
Julia Pohle: Es sind unterschiedliche Akteure, auch wenn beide unsere digitale Kommunikation überwachen und Daten ausspähen. Gleichzeitig muss man sich klarmachen, dass US-Geheimdienste nicht nur mit anderen westlichen Geheimdiensten kooperieren, sondern auch mit kommerziellen Anbietern. Die Sicherheitsbehörde in den USA sind deshalb stark daran interessiert, die Vormachtstellung der amerikanischen Tech-Konzerne aufrechtzuerhalten. Und die amerikanische Politik hat Interesse daran, die Wirtschaftsmacht und den kulturellen Einfluss der Vereinigten Staaten weiter auszubauen.
netzpolitik.org: Wie sinnvoll ist dann der aktuelle Wunsch nach digitaler Souveränität in Europa?
Julia Pohle: Die Forderung ist nachvollziehbar. Die Frage ist nur, ob der Ruf nach Souveränität der richtige Weg ist.
Aus meiner Sicht wäre es sinnvoller, präzisere Forderungen zu stellen. Gerade auch deshalb, weil „Souveränität“ ein politisch aufgeladenes Konzept ist, das auch mehr zentrale Kontrolle und Überwachung vorsehen kann.
Tatsächlich kann hinter der Forderung nach digitaler Souveränität auch das Streben nach mehr staatlicher Macht stehen, was dem Ziel individueller Selbstbestimmung widerspricht.
„Wir brauchen eine neue Leitidee“
netzpolitik.org: Was für ein Internet sollten wir als Zivilgesellschaft heute anstreben? Wie viel staatlicher und privatwirtschaftlicher Einfluss ist gut?
Julia Pohle: Schon der Weltgipfel in den Jahren 2003 und 2005 wollte dieses Verhältnis auszutarieren. Der Multi-Stakeholder-Ansatz ist sinnvoll, er beteiligt verschiedene Akteure aus Politik, Wirtschaft, Zivilgesellschaft und Tech-Szene daran, das Internet zu gestalten. Aber der Ansatz hat seine Schwächen, da er sich von dominanten Akteuren kapern lässt. Außerdem setzen Staaten und Unternehmen einfach außerhalb der Multi-Stakeholder-Prozesse eigene Regeln.
Wir sollten uns aber nicht nur fragen, welches Internet wir haben wollen. Sondern wir brauchen auch eine gesellschaftliche Vision, die der gesamtgesellschaftlichen digitalen Transformation zugrunde liegt. Es reicht längst nicht mehr, nur über das freie und offene Internet zu sprechen. Diese Leitidee hat ausgedient.
Es muss eine neue Leitidee her. Eine solche aber mit den Prinzipien der digitalen Souveränität zu verknüpfen, wie es die Europäische Kommission derzeit versucht, halte ich für überaus problematisch. Nicht nur, weil der Begriff so viele, auch widersprüchliche Interessen vermengt. Sondern weil er darüber hinaus wirtschaftliche und geopolitische Interessen verdeckt, die mit den Interessen der Zivilgesellschaft unvereinbar sind. Und es besteht die Gefahr, dass diese Interessen unter dem Deckmantel einer wertebasierten Digitalpolitik an Einfluss gewinnen.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Wenn es nach der schwarz-roten Koalition geht, soll sogenannte Künstliche Intelligenz die deutsche Bürokratie vereinfachen. Aber wie nutzen Justiz und Verwaltung KI bereits? Und was kann eigentlich schiefgehen?

Einfacher und digitaler soll die Verwaltung werden, so steht es im Koalitionsvertragsentwurf zwischen Union und SPD. Dabei soll sogenannte Künstliche Intelligenz (KI) Deutschland zur „KI-Nation“ machen.
Doch wie können Verwaltung und Justiz KI einsetzen? Die Wissenschaftlichen Dienste des Deutschen Bundestags veröffentlichten dazu einen Kurzbericht, der auch Risiken bei KI-Nutzung aufarbeitet. Der Bericht definiert KI zwar breit, nutzt aber vorwiegend Beispiele in der Verwaltung, die nur aus dem Bereich generativer KI stammen. Die zunehmende Umdefinition der KI führt dazu, dass fast ausschließlich große Sprachmodelle beispielhaft angeführt werden.
Potentiale in der Verwaltung
Die Wissenschaftlichen Dienste beziehen sich in ihrem Kurzbericht auch auf Umfrageergebnisse. Im Auftrag von Google – selbst Anbieter im KI-Markt – führte die IW Consult eine Befragung durch, um die Möglichkeiten der KI-Nutzung in der Verwaltung zu ergründen. IW Consult ist ein arbeitgebernahes Wirtschaftsforschungsunternehmen, das von Wirtschaftsverbänden und Privatunternehmen finanziert wird.
Die Befragung bezog sich auf generative KI, also den Einsatz großer Sprachmodelle. Mehr als die Hälfte der Verwaltungsmitarbeiter*innen gab demnach an, generative KI bereits als Assistenz für Internetrecherchen, Übersetzungen und Datenanalysen zu nutzen. Der Studie nach könnte generative KI etwa 70 Prozent der Arbeitsplätze unterstützen und 12 Prozent teilweise oder vollständig automatisieren. Weiteres Potential sieht eine Fraunhofer-Studie in Verwaltungs-Chatbots, persönlichen KI-Assistenten und bei der Sachbearbeitung.
Generative KI in der Justiz
Auch in der Justiz interessiert man sich zunehmend für solche generativen KI-Systeme. Zum Beispiel forschen die Justizministerien Bayerns und Nordrhein-Westfalens gemeinsam an dem sogenannten Generativen Sprachmodell der Justiz. Es soll unter anderem Texte auf relevante Stellen durchsuchen und bei der Strukturierung von Gerichtsprozessen helfen. Die Ministerien wollen das Sprachmodell mit anonymisierten Daten aus beiden beteiligten Bundesländern füttern und nach erfolgreicher Entwicklung quelloffen zur Verfügung stellen.
In Niedersachsen wird an einem Werkzeug gearbeitet, das bei sogenannten Massenverfahren Routinearbeit übernehmen soll. Massenverfahren sind inhaltlich sehr ähnliche Prozesse wie zum Beispiel Asylverfahren oder Klagen wegen Flugverspätungen. Die generative KI soll diese Verfahren beschleunigen und den Gerichten helfen, schneller auf neue „Massenphänomene“ zu reagieren.
Die Friedrich-Alexander-Universität Erlangen-Nürnberg forscht daran, manuelle Anonymisierungsarbeiten überflüssig zu machen. Gerichte veröffentlichen teilweise ihre Urteile. Um die Privatsphäre der beteiligten Personen zu schützen, werden in den Urteilen persönliche Daten durch Kürzel ersetzt. Das neue KI-Modell der Friedrich-Alexander-Universität soll diese Arbeit automatisieren.
Risiken und Nebenwirkungen
Das am besten untersuchte Risiko generativer KI ist die hohe Fehleranfälligkeit und Unzuverlässigkeit im produktiven Einsatz. Im Bezug auf weitere Risiken der KI-Nutzung verweisen die Autor*innen auf den International AI Safety Report 2025 der Regierung des Vereinigten Königreichs. Dieser Bericht fokussiert wiederum auf generative KI. Demnach haben gefälschte Videos, Bilder und Tonaufnahmen das Potential, Personen beispielsweise durch Betrug gezielt zu schaden. Kriminelle könnten etwa die Stimme einer Person nachahmen, um Geld zu erpressen oder eine Überweisung zu verifizieren.
Generative KI-Systeme sind darauf spezialisiert, Muster in ihren Lerndaten zu erkennen und wiederzugeben. Die KI käut so diskriminierende Sprache und Verhaltensweisen einfach wieder, zum Beispiel gegenüber einem Geschlecht oder einer Kultur. Der „International AI Safety Report“ weist darauf hin, dass aktuelle generative KI-Systeme solche systematische Diskriminierung häufig reproduzieren.
Das Bundesamt für Sicherheit in der Informationstechnik weist auf inhaltliche Angriffe auf generative KI-Modelle hin. Sogenannte Poisoning Attacks der Trainingsdaten können bewusste Fehlfunktionen herbeiführen. Privacy Attacks hingegen zielen darauf ab, Rückschlüsse auf Trainingsdaten zu ziehen.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Die Zukunft der öffentlichen Verwaltung ist die Cloud, wenn es nach dem Bund geht. Weil ihnen die Ressourcen fehlen, greifen Behörden aber oft auf private Anbieter zurück und machen die öffentliche Verwaltung so abhängig von Amazon und Co.

Daten speichern, Software nutzen oder zusätzliche Kapazität bei großer Auslastung – das alles gilt als Argument für Cloud-Dienste. Wenn es nach dem Informationstechnikzentrum Bund (ITZBund) geht, wird die öffentliche Verwaltung ihre IT immer mehr in die Cloud verlagern und „alle wichtigen Verfahren ‚cloudifizieren‚“. Dabei verfolgt der öffentliche IT-Dienstleister einen „Cloud First“-Ansatz. Denn Cloud Computing sei nicht nur schnell, flexibel und wirtschaftlich, sondern auch Marktstandard.
Die Bundesverwaltung investiert hohe Summen in Cloud-Produkte, Tendenz steigend. Wie die Antwort der Bundesregierung auf eine Kleine Anfrage der Partei Die Linke zeigt, hat der Bund die Ausgaben für Cloud-Nutzung von 2021 bis 2024 verdoppelt. Waren es 2021 noch 136 Millionen Euro, lagen die Kosten für das Jahr 2024 bei 286 Millionen Euro. Für das Jahr 2025 rechnen die Behörden mit Budgets von mindestens 344 Millionen Euro.
Zur Einordnung: Das Digitalbudget des Bundes betrug für das Jahr 2024 gut 19,1 Milliarden Euro. Davon entfielen 16 Milliarden Euro auf die Digitalisierung der öffentlichen Verwaltung.
Die ehemalige digitalpolitische Sprecherin der Linken Anke Domscheit-Berg kritisiert, dass es keine Leitlinien gebe, wie Behörden Cloud-Dienste nutzen sollten. Wichtig wären klare Vorgaben für Behörden und Ämter, wie sie „hohe Sicherheitsstandards einhalten und teure und riskante Fehlentscheidungen vermeiden“ könnten.
Ausgaben wohl deutlich höher
In der Anlage (PDF) der Antwort stechen vor allem die Ausgaben des ITZ Bund und des Auswärtigen Amt heraus. Allein für den öffentlichen IT-Dienstleister lagen die Haushaltsmittel für 2024 bei 242 Millionen Euro. Wie viel genau der Bund insgesamt für Cloud-Produkte ausgibt, geht aus der Antwort der Bundesregierung allerdings nicht hervor. Und damit auch nicht, ob ITZBund und Auswärtiges Amt wirklich die Behörden mit den höchsten Cloud-Ausgaben sind.
Die Auskünfte über die Höhe der Budgets stuft die Bundesregierung bei den meisten Bundesbehörden als geheimhaltungsbedürftig ein. Sie enthielten „Informationen, die im direkten Zusammenhang mit der Arbeitsweise und Methodik der Nachrichtendienste des Bundes stehen“, so die Begründung. Damit würde die Veröffentlichung der Daten ein Sicherheitsrisiko darstellen.
Cloud ist nicht gleich Cloud
Für die Bundesverwaltung betreibt ITZBund die Bundescloud und als Erweiterung dieser die IT-Betriebsplattform Bund. Bei der Bundescloud handelt es sich um eine sogenannte Private Cloud. Sie wird vom IT-Dienstleister des Bundes betrieben und exklusiv für den Bund angeboten. Betrieben wird sie in bundeseigenen Rechenzentren.
Für die ressortübergreifende Kommunikation von Verschlusssachen (R-VSK) hat die Bundesregierung zudem eine eigene „hochsichere“ R-VSK-Cloud-Plattform für Verschlussachen bis zur Einstufung „geheim“ aufgebaut.
Daneben nutzen Bundesbehörden auch Public Clouds, bei denen sie den Betrieb von IT-Infrastruktur, Datenhaltung und die Software als Dienstleistung von externen Anbietern beziehen. Zwar sollte die Bundescloud zur zentralen Plattform für alle Online-Dienste werden, doch muss der Bund auch auf Public Clouds setzen, weil zu wenig Ressourcen zur Verfügung stünden. Somit geht ein Großteil der veröffentlichten Summen an die Public-Cloud-Anbieter Amazon, Microsoft, Google und Oracle. In insgesamt 32 verschiedenen Cloud-Diensten verarbeiten sie teils Nutzenden-Daten aus der Bundesverwaltung.
„Nur bei einem einzigen (AWS-Software VAULT Storage), genutzt von der Bundespolizei, stellt eine Ende-zu-Ende-Verschlüsselung sicher, dass eine Entschlüsselung von Meta- und Nutzerdaten ausschließlich auf den Endgeräten der Nutzenden möglich ist“, kritisiert Domscheit-Berg. Das dürfe bei „jeglichen sensiblen Daten“ nicht passieren.
Mit Open Source Abhängigkeiten verringern
Um Abhängigkeiten von den gängigen Public-Cloud-Anbietern zu verringern, könnte die öffentliche Verwaltung auf Open-Source-Clouds ausweichen. Doch die spielen in der Bundesverwaltung kaum eine Rolle. Gut zwei Prozent der Ausgaben entfallen hier auf Open Source, im Wesentlichen für Cloud-Anwendungsentwicklung. „Bei den Betriebsausgaben für Cloud beträgt der Anteil proprietärer Software 99,9 Prozent“, stellt Domscheit-Berg fest.
Dabei erklärt die Bundesregierung, dass der Einsatz von Open-Source-Software „bei Entwicklung und Betrieb der Bundescloud“ wichtig sei, da diese „eine Eigenentwicklung des Bundes und kein gekaufter Cloud-Stack“ sei. Gleichzeitig setzt sie zu großen Teilen auf VMware und Microsoft.
Doch Open Source komme nicht von allein. Die Erwartung des Bundes, dass eine „Soll“-Vorschrift im eGovernment-Gesetz für mehr Open-Source-Beschaffung sorgt, hält Domscheit-Berg für „naiv“. Soll eine gesetzliche Regelung wirksam sein, müsse sie messbare Ziele vorgeben, zum Beispiel ein Anteil von 50 Prozent Open Source bis 2029. Diese Forderung hatte die SPD in den Koalitionsverhandlungen gestellt. Im geeinten Koalitionsvertrag landete dann lediglich die Formulierung, man wolle „ambitionierte Ziele für Open Source“ definieren.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Einmal mehr wird über die Einführung von Palantir-Software für die deutsche Polizei diskutiert. In den USA wird die Technik zur Deportation missliebiger Personen genutzt. Auch die Nato schließt einen Vertrag mit dem umstrittenen Unternehmen.

In Deutschland wächst die Skepsis gegen die Einführung von Palantir-Software für die Polizei. Unter anderem wird die enge Verbindung der Firma mit dem Investor Peter Thiel, einem prominenten Unterstützer des US-Präsidenten Donald Trump, kritisiert.
Mehrere Bundesländer – darunter Hamburg, Bremen und Thüringen – fordern eine europäische Alternative zu dem umstrittenen System, das Sicherheitsbehörden automatisierten Zugriff auf vielfältige personenbezogene Daten gewährt. Doch unionsgeführte Länder wie Bayern, Hessen und Nordrhein-Westfalen nutzen die Technik bereits. Palantir vertreibt sie unter dem Namen „Gotham“, eingesetzt wird sie aber als „Verfahrensübergreifende Recherche- und Analyseplattform“, „Hessendata“ oder „Datenbankübergreifende Analyse und Recherche“.
Die noch amtierende Bundesinnenministerin Nancy Faeser (SPD) soll 2023 ein Vorhaben gestoppt haben, das dem Bundeskriminalamt, der Bundespolizei und dem Zollkriminalamt die Nutzung der Palantir-Software ermöglicht hätte. Mit dem in den Koalitionsverhandlungen vereinbarten Übergang der Ministeriumsleitung an die CSU kann das US-Unternehmen aber auf eine Einführung in ganz Deutschland hoffen.
Dann wäre es möglich, in Bund und Ländern mit Palantir Prognosen über Menschen zu erstellen, die auf nicht nachvollziehbaren Algorithmen basieren. Welche Folgen das haben kann, lässt sich in den Vereinigten Staaten und in der Nato beobachten.
US-Einsatz bei Einwanderungsbehörde
In den USA ist Palantir-Software unter der Trump-Administration zum Rückgrat einer brachial ausgeweiteten Migrationsabwehr geworden. Über die Umsetzung berichtet das Magazin „404“: Die Datenbank „Investigative Case Management“ (ICM), von Palantir für die Einwanderungsbehörde ICE entwickelt, erlaubt demnach die Suche nach Personen mit einer dreistelligen Zahl von Kategorien – von Geburtsland und Einreise- oder Aufenthaltsstatus über „Rasse“, „kriminelle Zugehörigkeit“, Haarfarbe und Tattoos bis zu Bewegungsdaten von Kennzeichenkameras.
Weil Datenbanken mit all diesen Merkmalen in den USA – anders als derzeit noch in Deutschland — zusammengeführt werden können, lassen sich mit nur wenigen Klicks gezielt Menschen herausfiltern: etwa alle Personen aus einem bestimmten Herkunftsland mit bestimmtem Einreisevisum, markanten Narben und abgelaufenem Führerschein. Kürzlich gab die US-Steuerbehörde bekannt, auch Steuerdaten mit ICE zu teilen.
Palantir für politisch motivierte Abschiebungen
Im Jahr soll Palantir 2022 einen Fünfjahresvertrag über 95,9 Millionen US-Dollar unterzeichnet haben. In mehreren Fällen hat die Software offenbar bereits zur Abschiebung von Personen ohne erkennbare Vorstrafe oder Gefährdungspotenzial geführt – darunter Studierende mit gültigem Visum, die wegen Bagatellen wie Geschwindigkeitsverstößen oder Protesten gegen Israels Krieg in Gaza ins Visier gerieten. ICE-Mitarbeiter*innen können auch sogenannte „Person Lookout Queries“ programmieren, die automatisch Alarm schlagen, sobald jemand mit dem gewünschten Raster digital aktenkundig wird.
Die ICE wird auf diese Weise immer mehr zu einer politischen Polizei im Dienste des autoritären Präsidenten und seiner Heimatschutzministerin Kirsti Noem. Nicht nur Datenschutz-Organisationen sehen in der Rasterfahndung mit Palantir-Software deshalb ein Werkzeug auf dem Weg zum Technofaschismus.
Genährt wird diese Befürchtung unter anderem durch die Deportation von mindestens 238 Menschen in ein brutal geführtes Hochsicherheitsgefängnis nach El Salvador – viele davon ohne ordentliches Verfahren, allein wegen eines Tattoos oder einer mutmaßlichen Zugehörigkeit, manche offenbar auch unschuldig. Anstatt sie zurückzuholen, hat US-Präsident Donald Trump bei einem Treffen mit dem Präsidenten von El Salvador, Nayib Bukele, über diese Menschen gespottet.
Schließlich können auch priviliegierte Reisende wegen der ICE-Prognosetechnik bei der Einreise Probleme bekommen. Weil die ICE auch Datensätze zu Personen anlegt, die keine Ermittlungsziele sind, besteht laut einer Datenschutz-Folgenabschätzung „das Risiko, dass diese Personen fälschlicherweise als Ziele charakterisiert oder missverstanden werden“.
Nato baut auf „Project Maven“
Auch in militärischen Strukturen hat Palantir längst Fuß gefasst. Am Mittwoch gab die Nato bekannt, dass ihr operatives Hauptquartier in Brüssel künftig mit dem „Maven Smart System“ (MSS) arbeiten werde – einer KI-gestützten Planungssoftware, die das US-Unternehmen entwickelt hat. Die Plattform soll es militärischen Kommandos ermöglichen, bislang getrennte Datenquellen zusammenzuführen, um schneller und präziser auf Bedrohungen reagieren zu können. Der Einsatz der Software soll innerhalb der nächsten 30 Tage beginnen.
MSS basiert auf dem umstrittenen „Project Maven“, einem 2017 begonnenen Analyseprojekt des US-Militärs zur automatisierten Auswertung von Drohnen- und Überwachungsvideos. Anfangs war auch Google ein technischer Partner, stieg aber nach Protesten in der Belegschaft aus dem Projekt aus. Heute kombiniert das System unterschiedlichste Daten – von Lageberichten über Logistikdaten bis zu sozialen Medien – und macht diese durchsuchbar.
Das US-Militär setzt das „Maven“-System längst ein, auch an Standorten in Deutschland. Dass die Nato nun ebenfalls auf eine Lösung setzt, die auf Palantir setzt, ist nicht nur wegen der – hinsichtlich der Polizei auch in Deutschland beargwöhnten – Abhängigkeit von einem amerikanischen Unternehmen mit enger Bindung an das Pentagon bedenklich. Mit Hilfe der Technik würde auch die erratische US-Dominanz im Bündnis gestärkt.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.