netzpolitik.org
Bitte aktualisieren Sie PHP auf Version 8.2.0 (zurzeit: 8.1.2-1ubuntu2.23). Info
Nach Temu ermittelt die EU-Kommission nun auch gegen einen zweiten Online-Händler aus China. Die Fast-Fashion-Plattform Shein unternimmt vermutlich zu wenig gegen die Risiken, denen sie ihre Nutzer*innen aussetzt. Zur Debatte stehen gleich mehrere Verstöße gegen den Digital Services Act.

Mit dem Digital Services Act (DSA) verpflichtet die EU sehr große Online-Plattformen, Risiken ihrer Angebote zu identifizieren und zu beheben. Weil der chinesische Fast-Fashion-Händler Shein diesen Vorgaben möglicherweise nicht ausreichend nachgekommen ist, hat die EU-Kommission nun ein Verfahren gegen das Unternehmen eröffnet. Das teilte sie am heutigen zweijährigen Geburtstag der EU-Verordnung über digitale Dienste mit.
Die Shopping-Plattform soll monatlich etwa 126 Millionen aktive Nutzer*innen in der EU haben. Seit Juni 2024 hatte die Kommission mehrfach Informationen von Shein angefragt. Die Entscheidung, eine Untersuchung einzuleiten, basiert auf diesen Auskunftsersuchen, auf einer vorläufigen Analyse der von Shein vorgelegten Risikobewertungsberichte und auf Einschätzungen dritter Parteien.
In Frankreich hatte sich im letzten Jahr bereits Widerstand gegen den Online-Händler geregt, jedoch war die französische Regierung mit dem Versuch gescheitert, die Plattform für drei Monate zu sperren.
„Illegale Produkte sind verboten“
Die Kommission attestiert dem Konzern Handlungsbedarf in drei Bereichen. An erster Stelle steht der Verkauf illegaler Waren, wegen dem der Fast-Fashion-Händler in der Vergangenheit bereits in Kritik stand. Zum Beispiel konnten genehmigungspflichtigen Waffen oder kinderähnliche Sexpuppen auf dem Marktplatz erworben werden.
Bei der Untersuchung geht es jedoch nicht darum, dass die EU gezielt den Verkauf einzelner Produktgruppen kontrollieren will. Vielmehr will sie dafür sorgen, dass die Plattform selbst ihre Systeme so gestaltet, dass Risiken minimiert werden. Konkret muss Shein also dafür sorgen, dass auf dem Marktplatz keine illegalen Waren gehandelt werden können.
„In der EU sind illegale Produkte verboten – egal, ob sie im Ladenregal oder auf einem Online-Marktplatz angeboten werden“, so EU-Kommissionsvizepräsidentin Henna Virkkunen zu dem Verfahren. „Der Digital Services Act schützt die Sicherheit und das Wohlergehen von Käufern und versorgt sie mit Informationen über die Algorithmen, mit denen sie interagieren.“
Ein zweiter Kritikpunkt betrifft mutmaßlich süchtig machendes Design des Online-Händlers. Er vergibt unter anderem Verbraucherpunkte oder Belohnungen für Engagement auf der Plattform. Das könne Suchtpotenzial entwickeln, welches sich negativ auf das Wohlbefinden der Nutzer*innen und den Verbraucherschutz im Internet auswirkt.
Außerdem kritisiert die Kommission mangelnde Transparenz des algorithmischen Empfehlungssystems von Shein. Dieses muss nach dem DSA zudem so gestaltet sein, dass sich Nutzer*innen optional für ein nicht-personalisiertes Empfehlungssystem entscheiden können.
EU ermittelt auch gegen Temu
Shein ist die zweite sehr große Plattform im Bereich Online-Handel, gegen die eine Untersuchung wegen süchtig machender Designpraktiken besteht. Bereits im Jahr 2024 hatte die EU-Kommission aus den gleichen Gründen ein Verfahren gegen Temu eröffnet.
Sollte die Kommission im Zuge der formalen Untersuchung zu einer Nichteinhaltungsentscheidung kommen, also einen tatsächlichen Verstoß gegen den DSA feststellen, kann sie zum Beispiel Bußgelder gegen das Unternehmen verhängen. Bis dahin ist es der Online-Plattform aber möglich, auf Forderungen zu reagieren und Anpassungen vorzunehmen. Wann es zu einer Entscheidung in dem Verfahren kommt, bleibt jedoch offen, denn der DSA schreibt hierfür keine Frist vor.
Der Online-Händler zeigt sich nach Angaben von Zeit.de bisher kooperationswillig: „Wir teilen das Ziel der Kommission, eine sichere und vertrauenswürdige Online-Umgebung zu gewährleisten, und werden uns weiterhin konstruktiv an diesem Verfahren beteiligen.“ Bei altersbeschränkten Produkten habe man bereits weitere Sicherheitsvorkehrungen ergriffen.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Seit zwei Jahren gelten neue Regeln für Plattformen in der EU. Die haben schon kleine Fortschritte bewirkt und machen Hoffnung. Aber um sie wirksam durchzusetzen, ist noch viel zu tun.

Der DSC-Beirat ist ein Gremium aus Zivilgesellschaft, Forschung und Wirtschaft. Er soll in Deutschland die Durchsetzung des Digital Services Act begleiten und den zuständigen Digital Services Coordinator unterstützen. Svea Windwehr ist Mitglied des Beirats und berichtet in dieser Kolumne regelmäßig aus den Sitzungen.
Seit dem 17. Februar 2024, also seit genau zwei Jahren, gilt in der EU der Digital Services Act. Das Regelwerk soll Nutzende schützen und mehr Transparenz und Fairness gegenüber Online-Plattformen und -Diensten schaffen. Gibt es etwas zu feiern?
Die Bilanz ist gemischt: Ein erstes Verfahren gegen X wurde zum Abschluss gebracht, viele andere Ermittlungen laufen noch. Die Rahmenbedingungen für Forschungsdatenzugang stehen endlich, in der Praxis gibt es aber noch massive Probleme. Zivilgesellschaft und Forschende haben unzählige Verfahren angestoßen und liefern wichtige Evidenz zu DSA-Verstößen, sind jedoch Repression und Delegitimierung ausgesetzt.
Pünktlich zum Geburtstag hat sich der neu berufene DSC-Beirat in neuer, kleinerer Konstellation zu seiner ersten gemeinsamen Sitzung getroffen und sich mit dem Stand der DSA-Durchsetzung beschäftigt. Der Beirat ist im Vergleich zu seiner letzten Besetzung geschrumpft, da die vier Vorschläge der AfD im Plenum des Deutschen Bundestages keine Mehrheit fanden. Deshalb und wegen der christ-demokratischen Definition von Zivilgesellschaft ist insbesondere von deren gesetzlich angedachter Stärke im Beirat des DSC nicht viel übrig geblieben.
Fortschritt in kleinen Schritten
Bei der Durchsetzung des DSA geht es nach wie vor oft schleppend voran. Der Koordinator für Digitale Dienste in Deutschland prüft noch, ob weitere außergerichtliche Streitbeilegungsstellen und Trusted Flagger zugelassen werden sollen. Während die Streitbeilegungsstellen etwa bei strittigen Moderationsentscheidungen zwischen Nutzer:innen und Plattformen vermitteln sollen, agieren die Trusted Flagger als vertrauenswürdige Hinweisgeber, deren Meldungen die Plattformen priorisiert bearbeiten sollen. Aktuell gibt es in Deutschland vier Organisationen, die als Trusted Flagger anerkannt sind, sowie zwei Streitbeilegungsstellen.
Von inzwischen insgesamt 30 durch den DSC eingeleiteten Verwaltungsverfahren gegen in Deutschland ansässige Plattformen wegen DSA-Verstößen scheint noch keines zum Abschluss gekommen zu sein. Und auch auf europäischer Ebene wurde seit der Verhängung eines Bußgelds gegen X im Dezember 2025 kein weiteres Verfahren zu Ende gebracht.
Immerhin kleine Fortschritte gibt es beim Datenzugang für Forschende. Nachdem detaillierte Hinweise, wie genau der Datenzugang ausgestaltet werden soll, Ende Oktober 2025 endlich in Kraft getreten sind, können Forschende Anträge auf Datenzugang bei ihren nationalen Aufsichtsbehörden stellen. Über dieses durch den DSA neu geschaffene Recht können sie zum ersten Mal qualitative und quantitative Daten von Plattformen anfragen, um systemische Risiken zu erforschen. Damit schafft der DSA längst überfällige Rahmenbedingungen, die unabhängige Forschung und ein besseres Verständnis von Online-Plattformen ermöglichen sollen – und potenziell wichtige Grundlagen für Durchsetzungsverfahren schaffen können.
Beim deutschen DSC sind seitdem immerhin neun Anträge auf Datenzugang eingegangen. Das klingt vielversprechend, allerdings wurden die meisten der neun Anträge wieder zurückgezogen, da die benötigten Daten auch über den niedrigschwelligeren Datenzugang über Schnittstellen der Plattformen angefragt werden konnten. Diese Möglichkeit, Daten über APIs anzufragen, funktioniert in der Praxis je nach Plattform durchwachsen bis schlecht – mangelnder Zugang zu Forschungsdaten ist einer der DSA-Verstöße, die zum Bußgeld gegen X beigetragen haben. Die Gesellschaft für Freiheitsrechte und Democracy Reporting International haben X kürzlich zum zweiten Mal deswegen verklagt.
Es ist also noch zu früh, um sich über große Durchbrüche beim Datenzugang zu freuen, aber immerhin können Forschende jetzt das System ausprobieren, Anträge stellen und auf Durchsetzung pochen, wenn die Plattformen sich weigern.
Ebenfalls hoffnungsvoll stimmen die kürzlich veröffentlichten vorläufigen Ergebnisse zu einem Verfahren gegen TikTok. Dort kommt die Europäische Kommission zu dem Schluss, dass die Videoplattform nicht genug getan hat, um Risiken von suchtfördernden Mechanismen insbesondere für Minderjährige zu mindern, beispielsweise endlose Feeds und hoch-personalisierte Empfehlungen. Das ist spannend, weil die Kommission davon ausgeht, dass TikTok das „grundlegende Design“ der Plattform ändern muss, um diesen Risiken beizukommen.
Sollte die Kommission bei dieser Einschätzung bleiben und nach Abschluss des Verfahrens Bußgelder gegen TikTok verhängen, hätte der Fall Auswirkungen weit über TikTok hinaus: Endlose Feeds und hoch-personalisierte Empfehlungen sind Kernelemente aller großen sozialen Netzwerke und Videosharingplattformen. Hier zeigt der DSA sein Potenzial, einerseits strukturelle Änderungen zu erstreiten, die das Businessmodell der Plattformen direkt betreffen. Das könnte zu anderen und besseren digitalen Räumen führen .
Andererseits zeigt die Argumentation, dass der DSA sinnvolle Werkzeuge bietet, um den Features und Plattform-Praktiken zu begegnen, die in der Debatte um Verbote von sozialen Medien für Kinder und Jugendliche im Fokus stehen: süchtigmachendes Design, Personalisierung basierend auf Unmengen persönlicher Daten, Produktdesign, das die Rechte und Interessen von Kindern wahrt.
Ein solches Verbot wurde Anfang Februar von Spaniens Premierminister Pedro Sanchez angekündigt, wofür er prompt von Elon Musk als Tyrann und Verräter Spaniens betitelt wurde. Daraufhin solidarisierte sich die Europäische Kommission mit Sanchez, während sie gleichzeitig festhielt, dass nur die Europäische Kommission durch den DSA weitere Verpflichtungen gegenüber sehr großen Online-Plattformen aussprechen darf. Angesichts des Eifers von Mitgliedstaaten wie Spanien, Italien, Griechenland, Frankreich und den Niederlanden bleibt abzuwarten, ob sich EU-Regierungen diesem Machtwort aus Brüssel beugen werden. Ob es also europäische Verboten von sozialen Medien geben wird, ist nach wie vor unklar.
Keine Durchsetzung ohne Repression
Solidarisch hatte sich die Europäische Kommission Ende Dezember auch gegenüber Mitgliedern eines angeblichen „globalen Zensur-industriellen Komplexes“ gezeigt, nachdem sie vom US-Außenministerium mit Visa-Sanktionen belegt worden waren, unter ihnen die beiden Geschäftsführerinnen von HateAid. HateAid ist eine der Organisationen, die als Trusted Flagger in Deutschland zugelassen sind.
Mit diesen Sanktionen markiert die Trump-Regierung Menschen als politische Feinde, die Online-Plattformen für Verstöße gegen geltendes Recht zur Verantwortung ziehen, bestraft sie und versucht, sie an ihrer Arbeit zu hindern.
Seit den Sanktionen gegen Zivilgesellschaft und Forschende vom Dezember hat ein neuer Bericht des Rechtsausschusses des US-Abgeordnetenhauses die Situation weiter verschärft. Die Beschäftigung des Ausschusses mit dem DSA ist getrieben von Jim Jordan, einem republikanischen Abgeordneten, der seit Jahren damit beschäftigt ist, die angebliche Zensur von US-Amerikaner:innen durch den DSA zu beweisen.
Auf 160 Seiten breitet der Bericht Jordans wirre Fantasie aus, dass die Europäische Kommission, unterstützt von der europäischen Zivilgesellschaft, nur ein Ziel mit dem DSA verfolge: die Unterdrückung konservativer, US-amerikanischer Stimmen. Dabei stützt sich der Bericht auf massenweise E-Mails, Screenshots und Dokumente, die Jordan durch Herausgabeverlangen von US-Plattformen bekam – wogegen sich Plattformen offensichtlich nicht oder kaum gewehrt haben.
Der Jordan-Bericht stellt jedoch nicht nur eine Reihe von Falschbehauptungen auf, sondern identifiziert und markiert auch eine ganze Reihe von Kommissionsmitarbeitenden und Vertreter:innen der Zivilgesellschaft, die an Workshops der Kommission zur DSA-Durchsetzung teilnahmen oder anderweitig an der Durchsetzung des DSA beteiligt sind. Ein gefundenes Fressen für jene Kräfte, die genau diese Arbeit verhindern wollen.
Die Repressionen gegen HateAid und Co. werden also wahrscheinlich nicht die letzten gegen Menschen und Organisationen gewesen sein, die sich um die Durchsetzung des DSA bemühen. Auf Seite der Behörden scheint man auch nach dem Shitstorm um Trusted Flagger und der Demontage des Stanford Internet Institute auf Druck rechtskonservativer Politiker kaum auf solche Szenarien vorbereitet sein – um nur zwei Beispiele zu nennen, in denen rhetorische Delegitimierungen durch rechte Akteure zu Einschüchterung, Gefahren für Einzelpersonen und dem Verlust von institutionellen Strukturen geführt haben.
Aufsichtsbehörden, Politik und die Kommission sind jetzt gefragt, nicht nur ihre Solidarität auszudrücken, sondern konkrete Maßnahmen zum Schutz von Zivilgesellschaft und Forschung zu ergreifen. Dabei darf aber nicht nur in die USA geschaut werden: Auch in Deutschland und anderen Mitgliedstaaten setzen konservative und rechte Kräfte die Zivilgesellschaft immer stärker unter Druck. Vom Anti-NGO-Kurs der Union über die Gemeinnützigkeitsdebatte und Kontoschließungen linker Organisationen bis zu physischen Angriffen gegen Aktivist:innen – wenn es er Politik ernst damit ist, zivilgesellschaftliche Arbeit zu schützen, darf sie nicht zwischen politisch genehmen und unbequemen Organisationen unterscheiden.
Ein ganzheitlicher Ansatz muss her: nachhaltige und großzügige Finanzierung, rechtliche Absicherung und vor allem eine Regierungspartei, die versteht, dass die Delegitimierung von NGOs letztlich nur einer Seite hilft – den Feinden demokratischer und offener Gesellschaften.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Das Bundesgesundheitsministerium hat in der vergangenen Woche ein Update zur Digitalisierungsstrategie des Gesundheitswesens vorgelegt. Die sogenannte Künstliche Intelligenz spielt darin eine zentrale Rolle. Umso wichtiger ist es, dass wir jetzt die richtigen Fragen stellen.

Die Versprechungen, die mit „Künstlicher Intelligenz“ („KI“) und mit Digitalisierung einhergehen, sind gewaltig. Das ist auch im „Update der Digitalisierungsstrategie für das Gesundheitswesen und die Pflege“ nicht anders, die Bundesgesundheitsministerin Nina Warken (CDU) am 11. Februar vorstellte. Ein „gesünderes und längeres Leben für alle“ soll die Digitalisierung ermöglichen, sie soll die medizinische Versorgung und Pflege „besser und effizienter“ machen, heißt es darin zum Beispiel.
Die Strategie hatte der damalige Minister Karl Lauterbach ursprünglich im Jahr 2023 vorgelegt. Der Aufbau des Europäischen Gesundheitsdatenraums (EHDS), neue Erwartungen im Bereich der „Künstlichen Intelligenz“ sowie der Plan eines neuen Systems für die Erstversorgung machten das nun vorgelegte Update notwendig.
Die wichtigsten Elemente: Die ePA soll zur zentralen Anwendung für Gesundheitsthemen ausgebaut werden, Digitalisierung der Schlüssel zu einem erfolgreichen Primärärzt*innensystem sein und „KI“ soll „sicher, flächendeckend und wirksam“ eingesetzt werden.
Digitalisierung und „KI“ werden das Gesundheitswesen fraglos verändern. Doch es ist wichtig, jetzt die richtigen Fragen zu stellen.
Wie weit hilft „KI“ dem Gesundheitswesen?
Während Digitalisierung und „KI“ durchaus das Potenzial haben, Prozesse im Gesundheitswesen zu vereinfachen und die Versorgung zu verbessern, kommt es auf eine gewissenhafte Abwägung bei der Umsetzung an.
Dabei dürfen wir vor allem nicht vernachlässigen, wie weitreichend die Auswirkungen auf Menschen in Gesundheitsberufen, auf Patient*innen und auf das Verhältnis zwischen ihnen sein können. Dazu braucht es mehr strategische Auseinandersetzung und Debatten.
Den großen Hoffnungen, mit denen der Einsatz von „KI“ derzeit verbunden ist, müssen wir realistisch begegnen. Weder wird „KI“ alle strukturellen Probleme im Gesundheitswesen wie Personalmangel oder Kostenexplosion lösen können. Noch sind die großen Versprechungen medizinischer Spitzenleistungen und Effizienzgewinne bisher eingetreten – oder auch nur auf absehbare Zeit erwartbar.
Die technische Architektur der KI-Systeme gründet auf massenhaften Daten plus Stochastik, also der mathematischen „Kunst des Vermutens“. Das begrenzt diese Systeme dauerhaft. Es gibt keine Garantie dafür, dass Aussagen der „KI“ wahr und richtig sind.
Anders als bei einem Algorithmus, der nach festen Regeln funktioniert und bei gleichen Bedingungen wiederholbare Ergebnisse liefert, ist diese Wiederholbarkeit bei „KI“ gerade nicht gewährleistet. Auch ist es nicht nachvollziehbar, was genau den jeweiligen Antworten zugrunde liegt.
Welche Zwecke soll und kann Dokumentation erfüllen?
„KI“-gestützte Dokumentation soll in wenigen Jahren bei mehr als 70 Prozent der Einrichtungen der Standard sein, heißt es in der Strategie.
Sicherlich: Dokumentation ist oft lästig, aber sie kann auch dabei helfen, ein gemeinsames Verständnis zwischen Patient*in und Ärzt*in herzustellen, Angaben zu überprüfen oder eine wichtige abschließende Reflexion über einen Fall darstellen.
Was bewirkt Automatisierung mit „KI“?
Doch selbst wenn eine Entlastung durch Automatisierung in diesem Fall naheliegt: Schafft sie am Ende tatsächlich mehr qualitativ hochwertige Zeit für die Behandlung von Patient*innen? Oder wird sie am Ende die Arbeit von Menschen in Gesundheitsberufen noch weiter verdichten?
Das ist gerade angesichts des demografischen Wandels erwartbar. Er wird in den nächsten Jahren dazu führen, dass viele ältere Patient*innen größere Behandlungsbedarfe in die Praxen und Krankenhäuser bringen, während zugleich viele Menschen in Gesundheitsberufen in Rente gehen. Weniger Ärzt*innen müssen also künftig mehr Patient*innen behandeln – wenn nicht gegengesteuert wird.
Dabei entscheidet eine gute Beziehung zwischen Ärzt*innen und Patient*innen über den Heilungsverlauf mit, auch bei körperlichen Erkrankungen. Doch dafür braucht es vor allem eines: Zeit.
So umfassend will Warken die Gesundheitsdaten aller Versicherten verknüpfen
Wie wichtig ist uns digitale Souveränität?
Bei der Automatisierung der Dokumentation strebt die Ministerin ein hohes Tempo an. Mit Blick auf die bisher auf dem Markt dominierenden Anbieter könnte das dazu führen, dass schon bald OpenAI, Google Gemini und Co. regelmäßig ebenfalls im Sprechzimmer anwesend sind. Die Abhängigkeit von den US-amerikanischen Tech-Konzernen wächst bei verstärktem Einsatz dieser Dienste also weiter an.
Große Anbieter von Praxisverwaltungssystemen werben bereits mit „KI“-Tools zur Dokumentation und Automatisierung. Schaut man genauer in deren Datenschutzbestimmungen, bestätigt sich diese Vermutung.
Doctolib setzt Anthropic und Google Gemini als „KI“ ein und hostet bei Amazon Web Services. Konkurrent Jameda begrüßt die neue Strategie als „wichtiges Signal für die Branche“ und verweist auf das eigene Dokumentationstool Noa Notes, das ebenfalls auf Amazon Web Services sowie Microsoft Azure setzt und auch OpenAI in seiner Datenschutzerklärung stehen hat.
VIA Health verspricht als „erster virtueller Assistent speziell für die Psychotherapie“ besten Datenschutz. Gleichzeitig weist das Unternehmen in seiner Datenschutzerklärung darauf hin, zur „Transkribierung der Audiospur sowie […] Erstellung der Sitzungsprotokolle“ verschiedene Drittanbieter von „Large Language Models (LLMs)“ einzusetzen.
Das alles spiegelt die gegenwärtige Realität weiter Teile unserer digitalen Infrastruktur wider. Zugleich passt es nicht zusammen mit politischen Forderungen nach mehr digitaler Souveränität, die auch von der Bundesregierung selbst regelmäßig vorgetragen werden.
Wie verändern Sprachmodelle die Beziehung zwischen Ärzt*innen und Patient*innen?
Auch zu „KI“-gestützten Systemen der medizinischen Ersteinschätzung müssen wir uns Gedanken machen. Künftig sollen Symptome in ein Computersystem eingegeben werden, danach erfolgt eine technische Einschätzung.
Dieses Verfahren soll Teil des Erstversorgungssystems werden und so den Zugang ins Gesundheitswesen (mit)regeln. Noch ist nicht klar, ob regelbasierte Algorithmen oder „KI“ die technische Grundlage dafür bilden werden.
Es kann grundsätzlich sinnvoll sein, vor dem Besuch einer Praxis die Symptome in ein technisches System einzugeben und sich gegebenenfalls aufgrund einer besseren Steuerung Wartezeit zu ersparen.
Eines genaueren Blicks bedürfen allerdings Themen, die sensibler und oft schambesetzt sind. Einfühlsam und ohne Vorurteile über Sexualität zu reden, fällt Menschen oft schwer. Viele Patient*innen sprechen das Symptom einer Geschlechtskrankheit daher erst am Ende einer Sprechstunde an. Oder eine psychische Belastungssituation wird erst im Laufe eines Gesprächs deutlich.
Öffnen wir mit digitalen Angeboten also tatsächlich neue Wege für Patient*innen? Oder verlieren wir etwas, wenn wir auf standardisierte digitale Ersteinschätzungen setzen? Und wie können geschützte Räume entstehen für sensible Themen wie Sexualität, Geschlechtskrankheiten, Substanzkonsum oder psychische Störungen, wenn das vertrauliche Gespräch mit einer behandelnden Person von einem „KI“-Tool mitgeschnitten wird?
Wie gut sind Sprachmodelle als Gesundheitsassistenzen wirklich?
„KI“ soll zur ständigen Begleiterin für Patient*innen werden und perspektivisch „individualisierte Gesundheitsempfehlungen“ geben, heißt es in der Strategie. Das Bundesgesundheitsministerium möchte so die Eigenverantwortung der Versicherten stärken.
Dabei hat gerade erst eine in der wissenschaftlichen Zeitschrift „Nature“ veröffentlichte Studie gezeigt, dass „KI“-Systeme faktisch daran scheitern, richtige Ergebnisse hervorzubringen, sobald man sich von theoretischem Lehrbuchwissen verabschiedet und reale Patient*innen auf sie loslässt.
Hinzu kommt: Bei Sprachmodellen, der Grundlage von KI-Systemen, werden die Eingaben nicht über Standardfragen geleitet. Sondern das Verfahren hängt stark von den Eingaben der User*innen ab – und damit die Ausgaben der Systeme.
Weil aber die Anzahl möglicher Nutzer*inneneingaben unbegrenzt ist, lässt sich damit auch nicht verlässlich für alle Anwendungsfälle überprüfen, wie gut ChatGPT und Co. im Einzelfall reagieren. Die Erwartung an Verlässlichkeit von Software-Programmen, die sich aus Zeiten regelbasierter Programmierung speist, ist bei auf Stochastik gründenden Ansätzen nicht haltbar – denn da sind immer Wahrscheinlichkeiten oder sogar der Zufall im Spiel.
Zwar gibt es mittlerweile Beispiele, in denen Menschen sagen: „KI“ hat mir dabei geholfen, dass es mir gesundheitlich wieder besser geht. Gerade bei seltenen Erkrankungen, denen Ärzt*innen in ihrem Berufsalltag nur überaus selten begegnen, wird den Sprachmodellen ein solches Potenzial zugesprochen.
Gleichzeitig gibt es jedoch groteske Beispiele, in denen ChatGPT bei der Bewertung von Daten eines Gesundheitstrackers die Note „ungenügend“ – also kurz vor Herzinfarkt – „erraten“ hat, während zwei Ärzte keine Anhaltspunkte für eine Erkrankung finden konnten.
Menschen handeln als Menschen und sind damit – auch in der Interaktion mit Maschinen und bei der Interpretation „maschineller“ Antworten – oft unberechenbar.
Das wiederum kann weitreichende Auswirkungen für Interaktionen zwischen Mensch und Mensch im Behandlungszimmer haben. Fragen Ärzt*innen in der Sprechstunde künftig mit ab, ob Patient*innen bereits vorab mit „KI“ recherchiert haben? Wie gehen Versicherte damit um, wenn sich Empfehlungen von „KI“-Systemen von denen realer Mediziner*innen unterscheiden? Oder wenn die von der „KI“ vorgeschlagenen Behandlungen nicht von den Kassen gedeckt werden?
Wie bleibt das Gesundheitswesen menschlich?
Wenn sie gut gemacht sind, bieten Technologien die Chance, Medizin besser zu machen. Dafür müssen wir uns allerdings die richtigen Fragen stellen – jenseits von Heilsversprechen und Technikgläubigkeit sowie im Wissen um den hochkomplexen Faktor Mensch.
Der Mensch ist dabei kein „nerviges Beiwerk“. Am Ende sollen es ja wir alle sein, die von den neuen Technologien profitieren – und nicht nur die Tech-Milliardäre, die sie mit den größten Versprechungen bewerben.
Manuel Hofmann ist Referent für Digitalisierung der Deutschen Aidshilfe. Offenlegung: Der Autor hat im vergangenen Jahr auf Einladung der Gematik am Fachforum „Technologien und Anwendungen“ für die Weiterentwicklung der Digitalisierungsstrategie „Gemeinsam Digital“ teilgenommen.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Bundesgesundheitsministerin Nina Warken hat ihre Digitalisierungsstrategie vorgelegt. Darin betont die CDU-Ministerin, die Patient:innensouveränität stärken zu wollen. Tatsächlich aber will sie eine der umfassendsten Gesundheitsdateninfrastrukturen weltweit aufbauen. Nutznießer sind Forschung und Pharma-Unternehmen. Die Rechte der Patient:innen bleiben auf der Strecke.

Rund 75 Millionen gesetzlich Versicherte, ihre Gesundheitsdaten täglich übermittelt an ein nationales Forschungsdatenzentrum, verknüpfbar mit hunderten Medizinregistern und europaweit vernetzt – das ist die Vision von Bundesgesundheitsministerin Nina Warken (CDU).
Die Ministerin präsentierte in der vergangenen Woche ihre „Digitalisierungsstrategie für das Gesundheitswesen und die Pflege“. Darin verspricht Warken eine bessere medizinische Versorgung und mehr Patientensouveränität. Tatsächlich aber zielt ihre Strategie vor allem darauf ab, eine der umfassendsten Gesundheitsdateninfrastrukturen weltweit aufzubauen.
Das knapp 30-seitige Papier legt zugleich die Grundlage für ein umfangreiches „Digitalgesetz“. Den Entwurf will das Bundesgesundheitsministerium (BMG) noch im laufenden Quartal vorlegen. Die Rechte der Patient:innen drohen darin weitgehend auf der Strecke zu bleiben.
Die geplante Dateninfrastruktur ruht auf drei Säulen: die elektronische Patientenakte, das Forschungsdatenzentrum Gesundheit und das geplante Medizinregistergesetz. Das Zusammenspiel aller drei Vorhaben ebnet auch der EU-weiten Vernetzung der Gesundheitsdaten den Weg.
Die ePA soll zur „Gesundheits(daten)plattform“ werden
Alle Versicherten, die nicht widersprochen haben, besitzen seit Januar 2025 eine elektronische Patientenakte (ePA); seit Oktober 2025 sind Behandelnde dazu verpflichtet, sie zu verwenden. Gesundheitsministerin Warken will die ePA nicht nur zum „zentralen Dreh- und Angelpunkt“ der ärztlichen Versorgung machen, sondern auch zur „Gesundheits(daten)plattform“ ausbauen.
Dafür sollen erstens mehr strukturierte Daten in die ePA fließen, die dann „möglichst in Echtzeit für entsprechende Anwendungsfälle nachnutzbar“ sind. Derzeit sind dort vor allem noch PDF-Dateien hinterlegt, die nicht einmal durchsuchbar sind, was den Umgang mit der ePA aus Sicht von Behandelnden deutlich erschwert.
Zweitens soll die ePA weitere Funktionen wie eine digitale Terminvermittlung und elektronische Überweisungen erhalten. Die Patientenakte soll so „auch interessanter werden für diejenigen, die nicht krank sind“, kündigte Warken an. Derzeit nutzen gerade einmal rund 4 Millionen Menschen ihre ePA aktiv. Bis zum Jahr 2030 soll sich ihre Zahl, so das Ziel des BMG, auf 20 Millionen erhöhen.
„Künstliche Intelligenz“ soll Symptome auswerten
Wer sich krank fühlt, soll künftig auch über die ePA-App eine digitale Ersteinschätzung einholen können. Mit Hilfe eines Fragenkatalogs sollen Versicherte dann erfahren, ob ihre Symptome den Gang zur Hausärztin oder gar zur Notfallambulanz rechtfertigen.
Diese Auswertung soll offenbar auch mit Hilfe sogenannter Künstliche Intelligenz erfolgen. Ohnehin soll KI laut Warken „in Zukunft da eingesetzt werden können, wo sie die Qualität der Behandlung erhöht, beim Dokumentationsaufwand entlastet oder bei der Kommunikation unterstützt“. Bis 2028 sollen beispielsweise mehr als 70 Prozent der Einrichtungen in der Gesundheits- und Pflegeversorgung KI-gestützte Dokumentation nutzen – ungeachtet der hohen Risiken etwa für die Patientensicherheit oder die Autonomie der Leistungserbringer.
Dafür will das BMG „unnötigen bürokratischen Aufwand“ für KI-Anbieter reduzieren. Das Ministerium strebt dafür mit Blick auf den Digitalen Omnibus der EU-Kommission „eine gezielte Anpassung der KI-Verordnung“ an. Das umstrittene Gesetzesvorhaben der Kommission zielt darauf ab, Regeln für risikoreiche KI-Systeme hinauszuzögern und den Datenschutz deutlich einzuschränken. Zivilgesellschaftliche Organisationen warnen eindringlich, dass mit dem Omnibus der „größte Rückschritt für digitale Grundrechte in der Geschichte der EU“ drohe.
Forschungsdatenzentrum soll als „Innovationsmotor“ wirken
Die in der ePA hinterlegten Daten sollen aber nicht nur der ärztlichen Versorgung dienen, sondern vor allem auch der Forschung zugutekommen. Sie sollen künftig – sofern Versicherte dem nicht aktiv widersprechen – täglich automatisch an das Forschungsdatenzentrum Gesundheit (FDZ) gehen. Während Warken die ePA als „Dreh- und Angelpunkt“ der Versorgung sieht, beschreibt sie das FDZ als „Innovationsmotor“ der Gesundheitsforschung.
Das FDZ wurde nach jahrelangen Verzögerungen im vergangenen Herbst erst handlungsfähig. Es ist beim Bundesamt für Arzneimittel und Medizinprodukte (BfArM) in Bonn angesiedelt. Forschende können sich bei dem Zentrum registrieren, um mit den dort hinterlegten Daten zu arbeiten. Auch Pharma-Unternehmen können sich bewerben. Eine Voraussetzung für eine Zusage ist, dass die Forschung einem nicht näher definierten „Gemeinwohl“ dient.
Die pseudonymisierten Gesundheitsdaten sollen das FDZ nicht verlassen. Stattdessen erhalten Forschende Zugriff auf einen Datenzuschnitt, der auf ihre Forschungsfrage abgestimmt ist. Die Analysen erfolgen in einer „sicheren Verarbeitungsumgebung“ auf einem virtuellen Desktop, das Forschende übers Internet aufrufen können.
Ob dabei tatsächlich angemessene Schutzstandards bestehen, muss indes bezweifelt werden. Denn das Forschungszentrum verfügte in den vergangenen Jahren nicht einmal über ein IT-Sicherheitskonzept, weshalb auch ein Gerichtsverfahren der Gesellschaft für Freiheitsrechte ruht.
Gemeinsam mit der netzpolitik.org-Redakteurin Constanze Kurz hatte die GFF gegen die zentrale Sammlung sensibler Gesundheitsdaten beim FDZ geklagt. Aus ihrer Sicht sind die gesetzlich vorgesehenen Schutzstandards unzureichend, um die sensiblen Gesundheitsdaten vor Missbrauch zu schützen. Sie verlangt daher für alle Versicherten ein voraussetzungsloses Widerspruchsrecht gegen die Sekundärnutzung der eigenen Gesundheitsdaten. Nachdem das FDZ seit Oktober den aktiven Betrieb aufgenommen hat, dürfte das ruhende Verfahren in Kürze fortgesetzt werden.
„Real-World-Überwachung“ ermöglichen
Dessen ungeachtet haben sich laut BfArM-Präsident Karl Broich bereits 80 Einrichtungen beim FDZ registriert. Die Antragsteller kommen zu gleichen Teilen aus Wirtschaft, Verwaltung und Forschung. Mehr als zwei Drittel von ihnen hätten bereits konkrete Forschungsanträge gestellt, bis zum Ende des Jahres will Warken diese Zahl über die Schwelle von 300 hieven. Alle positiv beschiedenen Anträge sollen künftig in einem öffentlichen Antragsregister einsehbar sein.
Zum Jahreswechsel wird das FDZ wohl auch über weit mehr Daten verfügen als derzeit. Bislang übermitteln die gesetzlichen Krankenkassen die Abrechnungsdaten all ihrer Versicherten an das Forschungszentrum. Diese geben bereits Auskunft darüber, welche Leistungen und Diagnosen die Versicherungen in Rechnung gestellt bekommen haben.
Ab dem vierten Quartal dieses Jahres sollen dann nach und nach die Behandlungsdaten aus der ePA hinzukommen. Den Anfang machen Daten aus der elektronischen Medikationsliste, anschließend folgen die Laborfunde, dann weitere Inhalte.
Der baldige Datenreichtum gibt dem FDZ aus Sicht von BfArM-Chef Broich gänzlich neue Möglichkeiten. Er geht davon aus, dass seine Behörde in zehn Jahren bundesweit „einer der großen Daten-Hubs“ ist. Mit den vorliegenden Daten könnten Forschende dann umfassende „Lifecycle-Beobachtungen“ durchführen – „eine Real-World-Überwachung also, die klassische klinische Prüfungen so nicht abdecken können“.
Auch im FDZ soll „Künstliche Intelligenz“ mitwirken. Zum einen in der Forschung selbst: „Dafür arbeiten wir an Konzepten, die Datenschutz, Sicherheit und wissenschaftliche Nutzbarkeit von Beginn an zusammendenken“, sagt Broich. Zum anderen soll das FDZ Datensätze etwa für das Training von Sprachmodellen bereitstellen, wie die Digitalisierungsstrategie des BMG ausführt und auch bereits gesetzlich festgeschrieben ist. Sowohl Training als auch Validierung und Testen von KI-Systemen sind eine zulässige Nutzungsmöglichkeiten. Das bedeutet konkret: Die sensiblen Gesundheitsdaten von Millionen Versicherten können zum Training von Sprachmodellen verwendet werden.
Wie „Künstliche Intelligenz“ unser Gesundheitswesen verändern soll – und welche Fragen das aufwirft
Warken will Medizinregister miteinander verknüpfen
Ab 2028 könnten Trainingsdaten dann auch detaillierte Daten zu Krebserkrankungen enthalten. Denn in knapp zwei Jahren sollen die FDZ-Datenbestände mit Krebsregistern sowie dem Projekt genomDE verknüpft werden, das Erbgutinformationen von Patient:innen sammelt.
Die Datenfülle beim FDZ dürfte damit noch einmal ordentlich zunehmen. Allein die Krebsregister der Länder Bayern, Nordrhein-Westfalen und Rheinland-Pfalz halten Daten von insgesamt mehr als drei Millionen Patient:innen vor. Wer nicht möchte, dass etwa die eigenen Krebsdaten mit den Genomdaten verknüpft werden, muss mindestens einem der Register komplett widersprechen.
Im Gegensatz etwa zu den Krebsregistern der Länder, die auf Basis spezieller rechtlicher Grundlagen arbeiten, bewegen sich die meisten anderen Medizinregister dem BMG zufolge derzeit „in einem heterogenen Normengeflecht von EU-, Bundes- und Landesrecht“, was „die Schaffung einer validen Datenbasis“ behindere.
Das Ministerium hat daher bereits im Oktober das „Gesetz zur Stärkung von Medizinregistern und zur Verbesserung der Medizinregisterdatennutzung“ auf den Weg gebracht. Der Referentenentwurf sieht vor, einheitliche rechtliche Vorgaben und Qualitätsstandards für Medizinregister zu schaffen.
Ein Zentrum für Medizinregister (ZMR), das ebenfalls am BfArM angesiedelt wäre, soll demnach bestehende Medizinregister nach festgelegten Vorgaben etwa hinsichtlich Datenschutz und Datenqualität bewerten. Qualifizierte Register werden dann in einem Verzeichnis aufgeführt, dürfen zu einem festgelegten Zweck kooperieren und auch anlassbezogen Daten zusammenführen. Die personenbezogenen Daten, die dort gespeichert sind, können für die Dauer von bis zu 100 Jahren in den Registern gespeichert werden.
Derzeit gibt es bundesweit rund 350 Medizinregister. Zu den größten zählen das „Deutsche Herzschrittmacher Register“, das die Daten von mehr als einer Million Patient:innen enthält, und das „TraumaRegister DGU“ mit Daten von mehr als 100.000 Patient:innen. Das Gesundheitsministerium geht davon aus, dass etwa drei Viertel der bestehenden Medizinregister Interesse daran haben könnten, in das Verzeichnis des ZMR aufgenommen zu werden.
Verbraucher- und Datenschützer:innen mahnen Schutzvorkehrungen an
Gesundheitsdaten, die dem ZMR vorliegen, sollen ebenfalls pseudonymisiert oder anonymisiert der Forschung bereitstehen. Das geplante Medizinregistergesetz sieht außerdem vor, dass die Daten qualifizierter Register ebenfalls miteinander verknüpft werden können.
Zu diesem Zweck sollen Betreiber von Medizinregistern und die meldenden Gesundheitseinrichtungen registerübergreifende Pseudonyme erstellen dürfen. Als Grundlage dafür soll der unveränderbare Teil der Krankenversichertennummer von Versicherten (KVNR) dienen.
Fachleute weisen darauf hin, dass eine Pseudonymisierung insbesondere bei Gesundheitsdaten keinen ausreichenden Schutz vor Re-Identifikation bietet. Das Risiko wächst zudem, wenn ein Datensatz mit weiteren Datensätzen zusammengeführt wird, wenn diese weitere personenbezogene Daten der gleichen Person enthält.
Das Netzwerk Datenschutzexpertise warnt zudem davor, die Krankenversichertennummer in einer Vielzahl von Registern vorzuhalten. Weil im Gesetzentwurf notwendige Schutzvorkehrungen fehlen würden, sei „das Risiko der Reidentifizierung bei derart pseudonymisierten Datensätzen massiv erhöht“.
Der Verbraucherzentrale Bundesverband kritisiert die Menge an personenbezogenen Daten, die laut Gesetzentwurf an qualifizierte Medizinregister übermittelt werden dürfen. Dazu zählen neben sozialdemographischen Informationen auch Angaben zu Lebensumständen und Gewohnheiten sowie „zu einem Migrationshintergrund oder einer ethnischen Zugehörigkeit, der Familienstand oder die Haushaltsgröße“.
Um die Patient:innendaten besser zu schützen, forderte der Verband bereits im November vergangenen Jahres, eindeutig identifizierende Daten vom Kerndatensatz eines Medizinregisters getrennt aufzubewahren.
Gesundheitsministerium schafft Schnittstellen in die EU
Das Gesundheitsministerium lässt sich davon jedoch nicht beirren und strebt weitere Datenverknüpfungen an. Laut seiner Digitalisierungsstrategie will das BMG das Forschungspseudonym auch dazu nutzen, um die Gesundheits- und Pflegedaten „mit Sozialdaten und Todesdaten zu Forschungszwecken“ sowie „mit Abrechnungs- und ePA-Daten“ zu verbinden. Ob Versicherte dieser umfangreichen Datenverknüpfung überhaupt noch effektiv und transparent widersprechen können, ist derzeit zweifelhaft. Sicher aber ist: Der Aufwand dürfte immens sein.
Die Digitalisierungsstrategie macht ebenfalls deutlich, dass das Ministerium die geplanten Maßnahmen auch in Vorbereitung auf den Europäischen Gesundheitsdatenraum (EHDS) ergreift. Der EHDS ist der erste sektorenspezifische Datenraum in der EU und soll als Blaupause für weitere sogenannte Datenräume dienen. Schon in wenigen Jahren sollen hier die Gesundheitsdaten von rund 450 Millionen EU-Bürger:innen zusammenlaufen und grenzüberschreitend ausgetauscht werden.
Konkret bedeutet das: In gut drei Jahren, ab Ende März 2029, können auch Forschende aus der EU beim FDZ Gesundheitsdaten beantragen. Und das Zentrum für Medizinregister soll dem BMG zufolge ebenfalls Teil der europäischen Gesundheitsdateninfrastruktur werden.
Der größte Brückenschlag in der Gesundheitsdateninfrastruktur steht also erst noch bevor. Und auch hier bleibt die Ministerin eine überzeugende Antwort schuldig, was die Versicherten davon haben.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Internetsperren sind ein zunehmend verbreitetes Werkzeug autoritärer Regierungen, um Informationen zu kontrollieren und abweichende Meinungen zu unterdrücken. Damit sind sie zu einer wachsenden Bedrohung für die Demokratie in Afrika geworden. Das sollte auch den Globalen Norden interessieren.

Die englischsprachige Version des Artikels ist hier zu finden: „Internet shutdowns in Africa: A human rights and democratic crisis“
Als die Menschen in Tansania im Oktober 2025 an die Wahlurnen gingen, wurde ihr Land von einem Informations-Blackout erfasst. Bereits am Vorabend der Wahlen kam es zu Einschränkungen der Internetverbindung, am Morgen des 29. Oktober meldeten dann alle Regionen einen vollständigen Ausfall der Datenverbindungen.
Oppositionsparteien gehörten zu den ersten, die Alarm schlugen. „Es war unmöglich geworden, Wahlbeobachter:innen zu koordinieren oder Unregelmäßigkeiten zu melden“, sagt Asha*, eine junge Aktivistin einer Oppositionspartei. Sie erklärt, dass die Beobachter:innen ihrer Partei aufgrund der Einschränkungen bei WhatsApp und SMS Fotos, Ergebnisse oder Beweise für Einschüchterungen nicht zeitnah weitergeben konnten.
Insgesamt waren in dem ostafrikanischen Land 37 Millionen Menschen dazu aufgerufen, ein neues Parlament und ein neues Staatsoberhaupt zu wählen. Im Vorfeld der Wahlen hatte Samia Suluhu Hassan, die amtierende Präsidentin und erste Frau in diesem Amt, ihren Griff um den Hals der Öffentlichkeit verstärkt. Kritische Journalisten und Oppositionspolitiker wurden entführt, die beiden aussichtsreichsten Oppositionsparteien von den Wahlen ausgeschlossen.
Der Shutdown schien alle Sorgen um die Integrität der demokratischen Prozesse zu bestätigen. Eine Wahlbeobachterin berichtet, dass sie während der Abschaltung miterlebt habe, wie beim Auszählen der Stimmzettel Zahlen addiert wurden. „Die Abschaltung war die endgültige Bestätigung dafür, dass wir es hier nicht mit transparenten Wahlen zu tun haben würden“, so Faustine*. „Ich gehörte zu den vielen, die während der Auszählung von der Polizei hinausgeworfen wurden.“
In den folgenden Tagen versuchten Aktivist:innen in Orten wie Mwanza und Arusha Menschen für Proteste zu mobilisieren, doch aufgrund fehlender Kommunikationsmittel war eine Massenmobilisierung nahezu unmöglich. Alle Demonstrationen, die trotz der Unterbrechung stattfanden, wurden brutal unterdrückt. Tansanias plötzliche Internetsperre veranschaulicht, wie Shutdowns zum sensibelsten Zeitpunkt demokratischer Prozesse Opposition verhindern und Regierungen nahezu vollständige Kontrolle über die Informationsverbreitung verschaffen können.
Hohe Kosten für Volkswirtschaften und Demokratien
Im Jahr 2016 verabschiedete der Menschenrechtsrat der Vereinten Nationen eine Resolution, die die Bedeutung des Internetzugangs für die Menschenrechte betont. Demnach untergraben Internet-Shutdowns die Meinungs-, Versammlungs- und Informationsrechte der Menschen.
Nur wenige Tage nach der Wahl in Tansania äußerte die Afrikanische Kommission der Menschenrechte und der Rechte der Völker sich besorgt über den digitalen Blackout. In einer Pressemitteilung erinnerte die Kommission daran, dass „Internet-Sperren zweifellos einen Verstoß gegen Artikel 9 der Afrikanischen Charta der Menschenrechte und Rechte der Völker darstellen, der Einzelpersonen das Recht auf Informationsempfang sowie das Recht auf freie Meinungsäußerung und Verbreitung von Informationen garantiert“.
Doch Tansanias Internet-Shutdown ist kein Einzelfall, sondern Teil eines größeren regionalen Musters: Immer wieder schalten afrikanische Regierungen in Zeiten politischer Instabilität die Internetversorgung ab. Auf dem gesamten Kontinent treten diese Störungen zu vorhersehbaren Zeitpunkten auf: bei Wahlen, regierungskritischen Protesten, Militärputschen, ethnischen Konflikten oder wenn journalistische Recherchen die staatliche Autorität gefährden. Regierungen rechtfertigen Sperrungen oft mit Argumenten wie Sicherheit, Stabilität und „Fake News“, doch ihr eigentliches Ziel ist es, Informationen zu kontrollieren und abweichende Meinungen zu unterdrücken.
Jährliche Berichte der von Access Now koordinierten #KeepItOn-Koalition zeigen, dass afrikanische Staaten weltweit zu den Ländern mit den meisten Shutdowns gehörten. Der neueste #KeepItOn-Report belegt, dass 2024 das Jahr mit den meisten Internet-Abschaltungen in der Region war, mit 21 dokumentierten Abschaltungen in 15 afrikanischen Ländern. Erst vor wenigen Wochen, parallel zum Kommunikations-Shutdown im Iran, mussten auch die Menschen in Uganda während der Wahlen eine Internetsperre erdulden.
In allen Fällen sind diejenigen Personen am stärksten betroffen, die im Zentrum der demokratischen Teilhabe stehen: Aktivist:innen, Journalist:innen, humanitäre Helfer:innen, Oppositionelle und junge Wähler:innen. Die Folgen gehen über Zugangsprobleme zur digitalen Welt hinaus und führen zu wirtschaftlicher Lähmung, humanitärer Isolation und zur Aushöhlung grundlegender Rechte. Die Arbeit von Journalist:innen wird unmöglich, Unternehmen, die Online-Plattformen oder mobiles Geld für ihren Betrieb nutzen, erleiden große Verluste; Krankenhäuser und humanitäre Helfer:innen verlieren in kritischen Momenten den Kontakt zur Außenwelt.
Laut dem Cost of Shutdown Tool (COST) der Organisation NetBlocks kosteten Internetabschaltungen allein die tansanische Wirtschaft im Jahr 2025 mehr als 238 Millionen US-Dollar. Insgesamt werden die Kosten von Internetabschaltungen für die Volkswirtschaften südlich der Sahara in diesem Jahr auf 1,11 Milliarden US-Dollar geschätzt. Noch schwerer wiegen jedoch die Kosten für die Demokratie.
Äthiopien: Mehr als 100 Millionen Menschen offline im Bürgerkrieg
In den vergangenen Jahren war Äthiopien mit über zehn dokumentierten Abschaltungen seit 2019 einer der größten Übeltäter für vorsätzliche Internet-Shutdowns in Afrika. Zwischen 2020 und 2022 wurden insbesondere die Regionen Tigray und Oromia in physische und digitale Isolation gestürzt. Während des Bürgerkriegs verhängte die Regierungen mehrere Abschaltungen, die nicht nur Dissidenten zum Schweigen brachten, sondern auch humanitäre Hilfe erschwerten.
Die Vereinten Nationen berichteten, dass von einem dreiwöchigen Shutdown im Juli 2020 mehr als 100 Millionen Menschen betroffen waren. Wie Berichte der #KeepItOn-Koalition hervorheben, fiel jede Abschaltung mit einer Eskalation der Gewalt zusammen. Ein Muster, das darauf hindeutet, dass das Ziel nicht „Sicherheit”, sondern strategische Unsichtbarkeit war.
Das Committee to Protect Journalists (CPJ) gehört zu den Organisationen, die die Inhaftierung von Journalisten und die gezielte Internetabschaltung verurteilten. In einem Land, in dem digitales Banking, Bildung und Katastrophenhilfe zunehmend auf Konnektivität angewiesen sind, lähmten diese Abschaltungen das Leben der Menschen.
Sudan: Shutdowns als Unterstützung für einen Militärputsch
Ein weiteres Beispiel ist der Sudan, wo Internet-Shutdowns die Geschichte der Militärherrschaft geprägt haben. Von 2019 bis 2023 hat die Regierung wiederholt den Zugang zum Internet gesperrt, um die Mobilisierung von Protesten und Reaktionen auf einen Staatsstreich einzuschränken. So zum Beispiel im Oktober 2021, als die Armee die zivile Führung festgenommen und den Internetzugang im gesamten Sudan abgeschaltet hat.
Die sudanesische Bevölkerung konnte fast einen Monat lang nicht mit Menschen innerhalb oder außerhalb des Sudan kommunizieren. Die Organisator:innen von Protesten waren auf Offline-Netzwerke und direkten Kontakt angewiesen, um Informationen in den Stadtvierteln weiterzugeben und Demonstrationen zu organisieren. Videos von militärischer Gewalt und Massenverhaftungen wurden wochenlang nicht hochgeladen, sodass die Armee ungestraft handeln konnte.
Human Rights Watch und andere Menschenrechtsorganisationen bezeichneten diese Störungen als vorsätzliche Behinderung der Justiz. Die Sperrung behinderte nicht nur den Informationsfluss, sondern unterdrückte den gesamten zivilgesellschaftlichen Handlungsspielraum. Laut Human Rights Watch hat die Präsenz von Militärkräften in Krankenhäusern den Zugang zu medizinischer Versorgung für Bedürftige beeinträchtigt oder verhindert, und „Mediziner sagten, dass der fehlende Internetzugang es ihnen noch schwerer gemacht habe, die Versorgung zu organisieren“. Auch die Arbeit von humanitären Helfer:innen wurde dadurch beeinträchtigt, dass sie keine Geldüberweisungen über Mobile-Banking-Apps empfangen konnten.
Ein Werkzeug für autoritäre Kräfte
Äthiopien und Sudan unterscheiden sich zwar politisch und kulturell, doch die zu beobachtende Vorgehensweise bei der Abschaltung von Kommunikationsdiensten ist ähnlich. Beide Regierungen nutzten Einschränkungen der Konnektivität nicht nur als vorübergehende Sicherheitsmaßnahmen, sondern auch als langfristige Strategien, um die öffentliche Debatte und die Verbreitung von Informationen zu kontrollieren.
Darüber hinaus schränken die Abschaltungen auch die Möglichkeiten von Oppositionsparteien und zivilgesellschaftlichen Gruppen ein. In vielen afrikanischen Ländern stützt sich die Opposition hauptsächlich auf Messaging-Apps, kostengünstige Livestreams und von Bürger:innenn geführte Wahlbeobachtungsnetzwerke.
Wenn diese Kanäle nicht mehr funktionieren, können Oppositionsparteien keine Wahlbeobachter:innen koordinieren, keine Beweise sammeln und keine Krisenteams entsenden. Auch zivilgesellschaftliche Kontrollinstanzen können die Wahlergebnisse nicht überprüfen, was den Regierungsparteien Spielraum für Manipulationen lässt. Darüber hinaus verlieren insbesondere Frauen und junge Aktivist:innen, die sich hauptsächlich online organisieren, ihre Mobilisierungsmacht. Organisator:innen an der Basis sind zusätzlich physischen Gefahren ausgesetzt, weil sie auf die Kommunikation von Tür zu Tür zurückgreifen müssen.
In Tansania berichteten Wahlbeobachter:innen, dass die Sperrung und die Schikanen durch die Polizei zu einer tiefen psychischen Erschöpfung geführt hätten. „Wir fühlten uns während des gesamten Prozesses machtlos“, erzählt uns Faustine*. „Es war nicht nur ein technisches Hindernis, sondern führte dazu, dass viele undemokratische Vorgänge in den Wahllokalen verschleiert wurden.“
Wie die Zivilgesellschaft Widerstand leistet
Zivilgesellschaftliche Organisationen in Afrika und anderen Teilen der Welt haben deutlich gemacht, dass Internet-Sperren ein wachsendes Menschenrechtsproblem darstellen, und organisieren Widerstand dagegen. So fechten beispielsweise die nigerianische Paradigm Initiative und die in Uganda ansässige CIPESA die Sperrung von Diensten vor Gericht an. Sie klären die Bürger über zivilen Ungehorsam, digitale Rechte und den Umgang mit Technologie auf.
Dutzende von NGOs haben die Afrikanische Erklärung der Internetrechte und -freiheiten unterzeichnet, die einen uneingeschränkten Internetzugang für die Region fordert. Leider haben die Regierungen diese Erklärung ignoriert. Neben Kontrolle ist auch die mangelnde Transparenz ein Problem. Berichte und Daten werden oft von globalen Initiativen wie der #KeepItOn-Koalition von Access Now zusammengestellt.
Der Einfluss der Zivilgesellschaft ist zwar oft indirekt, hat jedoch zunehmend rechtliche und politische Konsequenzen für Regierungen, die Abschaltungen verhängen. Laut Felicia Anthonio, #KeepItOn Global Campaign Manager bei Access Now, hat anhaltende Lobbyarbeit dazu geführt, dass Internet-Shutdowns überhaupt auf der globalen Menschenrechtsagenda stehen und dass regionale und internationale Gremien sie nun als Verletzung von Grundrechten anerkennen.
Gerichte wie der Gerichtshof der Westafrikanischen Wirtschaftsgemeinschaft ECOWAS haben gegen Abschaltungen in Ländern wie Togo, Nigeria, Senegal und Guinea entschieden und damit, so Anthonio, eine klare Botschaft gesendet, dass Internet-Shutdowns illegal sind und die Verantwortlichen zur Rechenschaft gezogen werden können.
Über Rechtsstreitigkeiten hinaus habe der Druck der Zivilgesellschaft auch dazu geführt, dass Regierungsbehörden in Ländern wie Ghana, Kenia und der Demokratischen Republik Kongo sich öffentlich dazu verpflichtet haben, das Internet während Wahlen aufrechtzuerhalten. Zudem seien Internet-Sperren in Ländern wie Sambia, Südsudan und Mauritius rückgängig gemacht oder vorzeitig beendet worden, erzählt die Aktivistin. Zwar hätten Regierungen nach wie vor die Macht, das Internet abzuschalten. Doch die Zivilgesellschaft arbeite stetig daran, Rechtsnormen, die öffentliche Meinung und Rechenschaftspflichten dahingehend zu anzupassen, damit Internet-Sperren der Vergangenheit angehören.
Was der Globale Norden tun kann
Internet-Shutdowns sind zwar ein „lokales Problem“ im Kontext autoritärer Staaten, doch eine regionale und afrikaweite Normalisierung kann auch zu einem Export autoritärer Methoden führen. Jede Internetsperre legitimiert und stärkt autoritäre Bestrebungen in Nachbarländern, sodass sie inzwischen auch in vermeintlich demokratischen Staaten zu beobachten sind.
Um Shutdowns zu unterbinden, bedarf es deshalb auch Druck von außerhalb des Kontinents. Westliche Regierungen und Technologieunternehmen verurteilen solche Störungen zwar oft, doch ihre Reaktionen bleiben meist symbolisch. Es gibt jedoch Ideen, wie Länder des Globalen Nordens einen tiefergehenden positiven Einfluss ausüben könnten.
Allen voran könnten sie den Export von Überwachungs- und Zensurwerkzeugen einstellen, die Shutdowns ermöglichen. Darüber hinaus könnten sie Gelder der Entwicklungshilfe an den Schutz digitaler Rechte knüpfen und so sicherstellen, dass Regierungen, die Unterstützung erhalten, nicht gleichzeitig Kommunikationsnetzwerke sabotieren können, ohne dass dies Konsequenzen hat. Auch die Unterstützung lokaler zivilgesellschaftlicher Gruppen ist wichtig, beispielsweise durch die Finanzierung von Schulungen zur digitalen Sicherheit oder durch Rechtsbeistand bei Gerichtsverfahren.
Wie Sophia Nabalayo, eine kenianische PR- und Kommunikationsspezialistin, gegenüber netzpolitik.org erklärt: „Afrikanische Aktivist:innen können vor Ort gegen Abschaltungen kämpfen, aber globale Akteure kontrollieren oft die Infrastruktur und die Finanzmittel, die Abschaltungen erst möglich machen. Wir brauchen Solidarität, nicht nur Erklärungen.“
* Die Namen wurden aus Sicherheitsgründen geändert und sind der Redaktion bekannt.
Über den Autor: Derrick Wachaya ist Kommunikationsexperte für Klimaschutz und freiberuflicher Journalist in Nairobi.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Internet shutdowns have become a growing threat to Africa’s democracy. They are an increasingly common part of the authoritarian toolkit used by governments to control information and suppress dissent. Here’s why you should care.

A German version of the article can be found here: „Internet-Shutdowns in Afrika: Eine Krise für Menschenrechte und Demokratie“
As Tanzanians went to the polls in October 2025, the country entered an information blackout. Connectivity began slowing on the eve of the election. By the morning of October 29, all regions reported a full data disruption.
Opposition parties were among the first to raise the alarm. ‘It became impossible to coordinate polling agents or even report irregularities,’ says Asha*, a youth organizer with an opposition party. She explains that with WhatsApp and SMS restricted, their party’s observers could not share photos, results, or evidence of intimidation in real time.
In the East African country, a total of 37 million people were called upon to vote for a new parliament and president. In the run-up to the elections, Samia Suluhu Hassan, the incumbent president and first woman to hold the office, had tightened her grip on the public sphere. Critical journalists and opposition politicians had been kidnapped. The two most promising opposition parties were excluded from the election.
The communications shutdown seemed to confirm fears about the integrity of the most important democratic processes. An election observer described witnessing the ticking of ballot papers and the adding of numbers during the shutdown. ‘The blackout was the final confirmation that this election would not be transparent, and I was among many who were kicked out by the police during counting,’ says Faustine*, an observer during the election.
Days later, protesters in Mwanza and Arusha attempted to demonstrate, but the lack of communication tools made mass mobilization nearly impossible. Any demonstrations that did emerge despite the blackout were brutally suppressed. Tanzania’s sudden disconnection, occurring during the most sensitive democratic moment, illustrates how shutdowns immobilize opposition networks while giving governments near-total narrative control.
High costs to economies and democracies
In 2016, the United Nations Human Rights Council adopted a resolution confirming the importance of internet access for human rights. Internet shutdowns, it says, undermine the expression, assembly, and informational rights of citizens.
Only days after the election in Tanzania, the African Commission on Human and Peoples‘ Rights voiced concern about the digital blackout. The commission issued a press release, reminding everyone that ‘internet shutdowns undoubtedly constitute a violation of Article 9 of the African Charter on Human and Peoples’ Rights, which guarantees individuals the right to receive information, as well as the right to express and disseminate information.’
Tanzania’s blackout, however, is not an isolated case but part of a regional pattern: governments cutting connectivity during moments of political vulnerability. Across the continent, these disruptions occur at predictable moments: elections, anti-government protests, military coups, ethnic conflict, or when investigative journalism threatens state legitimacy. Governments often justify shutdowns using the language of security, stability, and ‚fake news‘, but the purpose is to control information and suppress dissent.
Access Now’s #KeepItOn coalition reported that African states, including Tanzania, accounted for some of the highest global disruptions in recent years. Their latest report shows that 2024 saw the highest number of shutdowns ever recorded in a single year for the region, with 21 documented internet access shutdowns in 15 African countries. Just a few weeks ago, at the same time as the communications blackout in Iran, people in Uganda also had to endure another internet shutdown during elections.
In all cases, the people most affected – activists, journalists, humanitarian responders, opposition politicians, and young voters – are those at the heart of democratic participation. The outcomes extend beyond digital access challenges, including economic paralysis, humanitarian isolation, and the erosion of fundamental rights. The work of journalists becomes impossible, businesses that use online platforms or mobile money to operate lose significant revenue, and hospitals and humanitarian workers lose contact with the outside world during critical moments.
According to the organization NetBlocks Cost of Shutdown Tool (COST), internet shutdowns cost the Tanzanian economy more than US $238 million in 2025. In total, it is estimated that internet shutdowns cost sub-Saharan economies US $1.11 billion that year. But ultimately, the cost to democracy is even greater.
Ethiopia: More than 100 million people offline during civil war
In recent years, one of the worst offenders for intentional internet disruptions in Africa was Ethiopia, with over ten documented shutdowns since 2019. Between 2020 and 2022, Ethiopia’s regions of Tigray and Oromia were plunged into physical and digital isolation. Government-imposed shutdowns during the civil war not only silenced dissent but cut off humanitarian efforts.
The UN reported that over 100 million people were affected during a three-week internet shutdown in July 2020. As reports by the #KeepItOn coalition highlight, each blackout coincided with escalations in violence, a pattern that suggests the intent was not ‘security,’ but strategic invisibility.
The Committee to Protect Journalists (CPJ) was among the organizations to condemn the detention of journalists and the internet blackout. In a country where digital banking, education, and emergency response increasingly rely on connectivity, these shutdowns paralyzed people’s lives.
Sudan: Shutdowns in support of a military coup
Another example is Sudan, where internet shutdowns have marked a history of military rule. From 2019 to 2023, the government repeatedly cut access to the internet to limit the mobilization of protests and responses to coups. For instance, the army detained civilian leadership in October 2021 and cut internet access across the country.
The Sudanese people were left without any way to communicate with people inside or outside the country for almost a month. Protest organizers relied on offline networks and direct contact to pass information across neighborhoods to organize protests. Videos of military violence and mass arrests were delayed for weeks, allowing the army to act with impunity.
Human Rights Watch and other rights organizations labelled these disruptions as intentional hindrances to justice. The cutoff did more than thwart information; it stifled the civic space altogether. According to Human Rights Watch, the presence of military forces at hospitals has undermined or prevented access to medical care for those in need, and „medical professionals said the lack of internet access has only made it more difficult for them to organize ways to provide care.“ The work of emergency responders was also affected by the inability to receive money transfers via mobile banking applications.
A tool for authoritarian forces
While Ethiopia and Sudan differ politically and culturally, their shutdown patterns are similar. Both governments used connectivity restrictions not only as temporary security tools but also as long-term strategies to manage information and public situations.
Beyond the immediate disruption of communication, shutdowns also affect the options of opposition parties and civil society groups. In many African countries, opposition relies mostly on messaging apps, low-cost livestreaming, and citizen-led election monitoring networks.
When these channels go dark, opposition parties cannot coordinate polling agents, collect evidence, or deploy rapid response teams. Civil society watchdogs cannot verify electoral tallies, giving ruling parties space to manipulate results. Furthermore, especially women and youth activists, who organize primarily online, lose their mobilizing power. Grassroots organizers face physical danger, as they must revert to door-to-door communication.
In Tanzania, polling agents and observers reported that the blackout and police harassment created deep psychological fatigue. ‘We felt powerless throughout the process,’ says election observer Faustine*. ‘It wasn’t just technical, it silenced many things that happened in polling stations that are undemocratic.’
How civil society pushes back
Civil society organizations in Africa and elsewhere have made it clear that internet shutdowns are a growing human rights issue and are organizing resistance. For example, the Nigerian Paradigm Initiative as well as Uganda-based CIPESA challenge service suspensions in court. They educate citizens about civil disobedience, digital rights, and how to utilize technology.
Dozens of NGOs have signed onto the African Declaration of Internet Rights and Freedoms, which calls for unrestricted internet access across the region. Unfortunately, this declaration has been ignored by governments. Along with controls, the absence of transparency is a problem. Reports and data are often compiled by global initiatives, such as Access Now’s #KeepItOn coalition.
Civil society’s influence, while often indirect, has increasingly translated into legal and political consequences for governments that impose shutdowns. According to Felicia Anthonio, #KeepItOn Global Campaign Manager at Access Now, sustained advocacy has pushed internet shutdowns onto the global human rights agenda, with regional and international bodies now recognizing them as violations of fundamental rights.
Courts such as the ECOWAS Court have ruled against shutdowns in countries including Togo, Nigeria, Senegal and Guinea, sending what Anthonio describes as a clear message that shutdowns are illegal and those responsible can be held accountable.
Beyond litigation, civil society pressure has also led to public commitments by authorities to keep the internet on during elections in countries like Ghana, Kenya and the Democratic Republic of the Congo, as well as reversals or early terminations of shutdowns in places such as Zambia, South Sudan and Mauritius. While governments still hold the power to disconnect, civil society continues to shape legal norms, public opinion and accountability mechanisms aimed at ending shutdowns altogether.
What the Global North can do
Shutdowns are a ‘local issue’ in the context of authoritarian states; however, the regional and continent-wide normalization of shutdowns can lead to an export of authoritarian behaviors. Each shutdown legitimizes and emboldens further authoritarianism in neighboring countries, so that they are increasingly seen in networks of purportedly democratic states.
Stopping shutdowns requires pressure beyond the continent. Western governments and tech companies often condemn disruptions, but their responses often remain symbolic. There are ways, however, in which countries in the Global North could have a more profound positive influence.
First and foremost, they could stop exporting surveillance and censorship tools that allow shutdowns to be implemented. Furthermore, they could tie development funding to digital rights protections, ensuring governments that receive aid cannot also sabotage communication networks without consequences. Support for local civil society groups is also important, for example through funding digital security training or legal assistance for court challenges.
As Sophia Nabalayo, a Kenyan PR & Communications Specialist, tells netzpolitik.org: ‘African activists can fight shutdowns on the ground, but global actors often control the infrastructure and financing that make shutdowns possible. We need solidarity, not just statements.’
* Names have been changed for safety reasons and are known to the editorial team.
About the author: Derrick Wachaya is a climate communicator and freelance journalist based in Nairobi.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
In Los Angeles stehen Meta und Google vor Gericht, in der EU muss TikTok nachschärfen. In beiden Fällen geht es um ihr süchtig machendes Design. Das verweist auf einen besseren Weg im Kinder- und Jugendschutz: Ursachenbekämpfung statt Verbote. Ein Kommentar.

„Ich male mir die Welt, so wie sie mir gefällt.“ – Das gelingt den Plattformbetreibern hinter Instagram, Youtube, Snapchat oder TikTok bisher ganz gut. Das in Los Angeles eröffnete Verfahren könnte an diesem Prinzip jedoch rütteln und zeigen, dass es etwas anderes als ein Verbot für Jugendliche braucht, um die negativen Effekte sozialer Medien zu reduzieren.
Die 20-jährige Hauptklägerin will Meta und Google für ihr süchtig machendes Design zur Verantwortung ziehen. Vor Gericht gibt sie an, seit über zehn Jahren von sozialen Medien abhängig zu sein – einem Effekt, dem sich die Unternehmen laut interner Dokumente bewusst waren. Und wenn man ehrlich ist: Es ist ein Effekt, den die kommerziellen Plattformen wollen, damit sich die Aufenthaltszeit auf Plattformen verlängert, sie mehr Werbung an die Nutzer*innen abspielen und so mehr Gewinne einfahren können.
Wenn in den USA eine Person vor Gericht geht, deren Generation bisher am frühesten in der digitalen Welt aufgewachsen ist, führt das unweigerlich zu der Frage, wie für diese und nachfolgende Generationen eine bessere und andere Version von sozialen Medien aussehen könnte. Denn ob mit dem Verfahren letztlich ein Präzedenzfall geschaffen werden kann oder nicht – der Prozess stärkt eine andere Stoßrichtung als das derzeit heiß diskutierte Social-Media-Verbot.
Ein Verbot ist die falsche Antwort
Von einem Verbot sozialer Medien für junge Menschen werden viele negative Effekte erwartet: Für Minderheiten oder vulnerable Gruppen fällt ein Kanal zur Vernetzung und Gemeinschaftsbildung weg, ebenso ein Kanal zur Information, Menschen ohne Papiere könnten ganz ausgeschlossen sein und auf Kinder und Jugendliche entfallen die Folgen je nach Familiensituation und Wohnort ungleich.
Diese Nebeneffekte müssten weniger ins Gewicht fallen, wenn unterm Strich auf den Plattformen und ohne Verbot das ursprüngliche Ziel erreicht werden würde: Schutz von Kindern und Jugendlichen vor digitalem Missbrauch, vor Mobbing sowie übermäßigem Konsum und Sucht.
Ein Blick nach Australien zeigt, dass Verbote einerseits löchrig bleiben und andererseits große Risiken für Privatsphäre und Datenschutz bergen. Wie die australische Regierung erwartet hatte, finden Jugendliche einfach Schlupflöcher, das Verbot zu umgehen. Sie ändern ihren Standort über VPN-Verbindungen, legen sich neue Accounts an, wechseln auf nicht betroffene Apps oder nutzen Accounts von älteren Personen. Mit KI-generierten Bildern, Ausweisen von Älteren oder durch einfaches Stirnrunzeln bestehen sie Altersabfragen, die jetzt zur Architektur von Plattformen dazugehören.
Sollte die australische Regierung an diesen Stellen nachschärfen, bleiben Alterskontrollen aus datenschutzrechtlicher Perspektive trotzdem bedenklich. Ein vorab durchgeführtes Gutachten verzeichnet massive Bedenken, wie erhobene Daten gesammelt und an Behörden weitergegeben werden könnten. Das ist der eine Fall. Der andere Fall ist auch datenschutzrechtlich problematisch, wenn personenbezogene Daten aus Alterskontrollen an Drittanbieter weitergegeben werden, wie der Fall von Discord deutlicht.
Plattformen in die Pflicht nehmen statt Probleme in die Zukunft verlagern
Der Medienrechtler Stephan Dreyer erwartet, dass ein EU-Verbot den Jugendschutz auf sozialen Plattformen verschlechtern würde, wie er gegenüber netzpolitik.org darlegte.
Dazu kommt: Soziale Medien sind allgegenwärtiger Teil des Lebens auf der ganzen Welt. Haben Jugendliche die magische Grenze von 16 Jahren überschritten, sind sie zusammen mit den Älteren weiterhin endlosen Feeds, manipulativem Design, personalisierten Empfehlungssystemen und Dopamin-Kicks ausgesetzt. Statt „Cybergrooming“ heißt die Gefahr dann „digitale Gewalt“, wie der Grok-Skandal gerade deutlich vor Augen geführt hat.
Und warum eigentlich nur Jugendliche? Sind nicht auch gestandene Mittvierziger dem suchtmachenden Design der Plattformen verfallen und geraten nicht auch Boomerinnen in den Strudel, der sie in den verschwörungsideologischen Kaninchenbau zieht? Werden nicht uns allen polarisierende Inhalte von intransparenten Algorithmen gezeigt, damit wir möglichst lange mit den Plattformen interagieren und sie uns mit personalisierter Werbung zuballern können.
Bessere Plattformen für alle
Ein Verbot für Jugendliche macht die Plattformen nicht besser. Anstatt Plattformen zur Umsetzung von Alterskontrollen zu zwingen und junge Menschen auszuschließen, müssen die Plattformen zu einer anderen Architektur verpflichtet werden. Fairness by Design und by Default nennt sich der Ansatz, der digitale Plattformen dazu verpflichtet, ihre Webseiten und Apps nutzerfreundlich und manipulationsfrei zu gestalten. Die EU ist gegenüber TikTok einen Schritt gegangen, aber die Liste an manipulativen Techniken ist lang.
Ein Verbot ist letztlich eine platte und hilflose Maßnahme. Es erinnert an überforderte Eltern, die den Kindern das Handy wegnehmen, weil sie nicht weiterwissen. Dabei könnten auch die Verbotsbefürworter*innen beim Ansatz Fairness by Design auf ihre Kosten kommen. Er wäre einer von mehreren Ansätzen, die Plattformen nachhaltig zu verändern. Und es gibt Gesetzgebungen wie das Digitale-Dienste-Gesetz oder wie das geplante Gesetz für digitale Fairness, mit denen man Plattformen verändern kann.
Die Politik muss sich nur trauen – und nicht weiter vor der Lobby der Tech-Riesen einknicken.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Die 7. Kalenderwoche geht zu Ende. Wir haben 17 neue Texte mit insgesamt 157.854 Zeichen veröffentlicht. Willkommen zum netzpolitischen Wochenrückblick.

Liebe Leser*innen,
Aiko, die eigentlich anders heißt, wurde von ihrem Ex-Freund gestalkt. Über ein Browser-Interface konnte er sehen, wo sie ist, was sie liest, eintippt und fotografiert. Er hat ihr Handy zur multimedialen Wanze gemacht.
Immer wieder lauert er ihr auf, hält sie fest, redet auf sie ein. Sie traut sich nicht mehr aus dem Haus. Die einst lebensfrohe junge Frau wird depressiv, durchlebt Panikattacken und Albträume.
Es gibt zahlreiche Apps, die es erlauben, die Kontrolle über fremde Telefone zu übernehmen. Die App, die Aikos Ex-Freund nutzte, kennen meine Kollegin Chris und ich schon seit einer Weile. Vor zwei Jahren haben wir uns durch Nachrichten gegraben, die Menschen aus der ganzen Welt mit dem Kundendienst der App austauschten. Sie waren in einem Datenleck öffentlich geworden und sind nun für alle nachzulesen im Internet.
In dem Leak finden sich auch Daten von Aikos Ex-Freund.
Wie brutal der Eingriff in die Privatsphäre ist, den solche Apps ermöglichen, ist mir aber erst richtig klar geworden, als ich Aiko gegenübersaß und sie uns ihre beklemmende Geschichte erzählte.
Fast unmöglich, sich der Überwachung zu entziehen
Es ist etwas anderes, sich mit der technischen Seite von Stalking zu beschäftigen als einer Person zuzuhören, die es erlebt hat. Stalking kann einen Menschen zermürben. Kommt so eine App ins Spiel, wird es für Betroffene fast unmöglich, sich der Kontrolle und Überwachung zu entziehen.
Aiko ist nur eine von vielen. Jede 100. Frau hat in den vergangenen fünf Jahren Stalking mit digitalen Tools erlebt, so eine Studie des Bundeskriminalamtes. Aiko gibt diesen vielen Frauen ein Gesicht.
Sie wollte ihre Geschichte auch deshalb erzählen, damit andere gewarnt sind. Damit andere der Software und einem Täter oder einer Täterin nicht so hilflos ausgeliefert sind wie sie. Denn eigentlich ist es ziemlich einfach, frei zugängliche Spionage-Apps zu erkennen und ihre Tätigkeit zu stoppen. Dazu muss man aber wissen, dass es sie gibt. Aikos Geschichte hilft hoffentlich dabei, dieses Wissen zu verbreiten.
Gerne weitersagen.
Martin
Degitalisierung: Großes Kino
Unsere Kolumnistin schaut sich nach Oscar-Vergleichen auf LinkedIn an, was Digitalisierung und Blockbuster-Filme gemeinsam haben – oder eben auch nicht. Denn den digitalen Verwaltungsleistungen haben die populären Filme einiges voraus. Vorhang auf! Von Bianca Kastl –
Artikel lesen
Verhaltensscanner in Mannheim: Keine Straftaten, aber Kamera-Überwachung
An Orten mit viel Kriminalität darf die Mannheimer Polizei Überwachungskameras installieren. Aber in einem Areal gab es seit Anbeginn der Videoüberwachung offenbar keine Delikte. Infolge unserer Recherchen hat sich nun die baden-württembergische Datenschutzbehörde eingeschaltet. Von Martin Schwarzbeck –
Artikel lesen
Gesetzentwurf: Vorratsdatenspeicherung deutlich länger als drei Monate
Die geplante Vorratsdatenspeicherung von IP-Adressen steht in der Kritik. Die großen Internetanbieter weisen darauf hin, dass die Pläne der Justizministerin zu vielen Monaten Speicherzwang führen würden und daher rechtswidrig sind. Doch schon die eigentlich geplanten drei Monate Speicherpflicht sind mit nichts begründet. Von Constanze –
Artikel lesen
Big-Tech-Lobbying: Erst machen, dann lieber nicht reguliert werden
Automatisch abgespielte Inhalte, personalisierte Werbung, Gamification – solche Elemente sollen Internet-Nutzer*innen heimlich beeinflussen. Dagegen soll der Digital Fairness Act helfen. Doch gegen die Pläne der EU-Kommission lobbyieren Big-Tech-Firmen wie Meta und Google, zeigt eine Untersuchung von Corporate Europe Observatory. Von Laura Jaruszewski –
Artikel lesen
Werbung auf Instagram: „Das Wort Demokratie kann problematisch sein“
Vor kurzem hat Meta auf seinen Plattformen politische Werbung verboten. Der US-Konzern will damit einer neuen Verordnung der EU trotzen. Die Maßnahme trifft nicht nur zivilgesellschaftliche Organisationen mit voller Härte, sondern kann auch Unternehmen oder Museen die Arbeit erschweren. Von Ingo Dachwitz –
Artikel lesen
Selbstbestimmungsgesetz in Baden-Württemberg: „Die automatische Datenweitergabe ist ein Skandal“
Eigentlich sollte das Selbstbestimmungsgesetz Menschen zur geschlechtlichen Selbstbestimmung verhelfen. Doch in Baden-Württemberg sollen ihre Daten nun an die Polizei übermittelt werden. Die Begründung dafür ist nicht neu. Von Timur Vorkul –
Artikel lesen
Umfrage: Hälfte der Deutschen will Verbot der Plattform X bei weiteren Rechtsverstößen
Viele Menschen sind mit ihrer Geduld mit Elon Musk und seiner Plattform X am Ende. Die Plattform hatte im Zusammenspiel mit dem Chatbot Grok zuletzt millionenfach sexualisierte Deepfakes verbreitet und ist seit der Übernahme durch den Milliardär politisch auf rechtsaußen gepolt. Von Markus Reuter –
Artikel lesen
Trotz Sicherheitsbedenken: Düsseldorfer Stadtrat will anonyme digitale Abstimmungen
Ein Online-Tool soll künftig die Arbeit des Düsseldorfer Stadtrates unterstützen. Auch anonyme Abstimmungen sind damit möglich. Für die Glaubwürdigkeit parlamentarischer Prozesse ist die Idee ein Problem. Von Martin Schwarzbeck –
Artikel lesen
Australisches Modell: „Ein Social-Media-Verbot macht den Jugendschutz schlechter“
Seit Australien Minderjährige aus sozialen Medien aussperrt, vergeht hier keine Woche ohne Forderungen nach ähnlichen Verboten. Im Interview warnt Medienrechtler Stephan Dreyer: Die politische Debatte habe sich von Forschung und Rechtslage entkoppelt. Von Sebastian Meineck –
Artikel lesen
BAMF: Über 25 Millionen Euro für eine Asyl-Blockchain
Fast die Hälfte der Asylverfahren werden mittlerweile mit Hilfe einer Blockchain verwaltet, zumindest von Registrierung bis Anhörung. Immer mehr Bundesländer nutzen das Assistenzsystem des Bundesamts für Migration und Flüchtlinge, die Behörde wird zunehmend zum Software-Anbieter. Von Anna Biselli –
Artikel lesen
Neue Melde-App: Was im EU-Aktionsplan gegen Cybermobbing fehlt
Die EU-Kommission hat einen Aktionsplan gegen Cybermobbing unter Minderjährigen vorgelegt. Dazu gehört eine neue Melde-App, die viele Nachrichtenmedien aufgreifen. Bei näherer Betrachtung kratzt der Aktionsplan jedoch nur an der Oberfläche. Eine Analyse. Von Sebastian Meineck –
Artikel lesen
Automatisierte Datenanalyse: Innenausschuss in Sachsen-Anhalt winkt massiv kritisiertes Palantir-Gesetz unverändert durch
Das geplante Polizeigesetz in Sachsen-Anhalt wurde heute vom Innenausschuss beschlossen. Es soll Analysen riesiger Datenmengen bei der Polizei erlauben. Sachverständige hatten den Entwurf wegen der Missachtung von Vorgaben aus Karlsruhe heftig kritisiert. Ob für die Datenanalyse eine Palantir-Software genutzt werden soll, steht noch nicht fest. Von Constanze –
Artikel lesen
David gegen Goliath: Überwachungskonzern Palantir verklagt die „Republik“
Der Großkonzern Palantir geht presserechtlich gegen das Schweizer Magazin „Republik“ vor. Das hatte in Recherchen nachgezeichnet, warum die Systeme des Unternehmens problematisch für Staaten und deren Souveränität sind. Das Magazin will sich von der Klage nicht einschüchtern lassen. Von Markus Reuter –
Artikel lesen
Datenpanne bei Schöffenwahl in Berlin: Exponiert im Ehrenamt
Daten zu mehr als 700 Personen standen im Netz, weil das Bezirksamt Berlin-Mitte aus Versehen die Vorschlagslisten für die Schöff:innen-Wahl 2024 veröffentlichte. Schöff:innen wurden in der Vergangenheit schon wegen ihres Amts bedroht, sie müssen sich auf den Schutz ihrer Informationen verlassen können. Von Anna Biselli –
Artikel lesen
Stalking mit digitalen Tools: Versprechen reichen nicht
Mit Spionage-Apps können Menschen tief in das digitale und analoge Leben anderer eindringen. Aber es gibt Möglichkeiten, den Überwachungstools beizukommen. Dafür muss die Bundesregierung endlich handeln. Ein Kommentar. Von Martin Schwarzbeck, Chris Köver –
Artikel lesen
Digitales Stalking: „Er wusste immer genau, wo ich war“
Aikos Ex-Partner verwanzt ihr Handy. Er kann sehen, was sie liest, was sie tippt, wo sie ist. Er lauert ihr immer wieder auf und verfolgt sie bis nach China. Dieser Fall zeigt, wie invasiv und bedrohlich frei verfügbare Spionage-Apps sind. Von Chris Köver, Martin Schwarzbeck –
Artikel lesen
Migrationskontrolle: Ein KI-Chatbot von Frontex soll zu Selbst-Abschiebung beraten
Die europäische Grenzschutzagentur Frontex entwickelt derzeit eine App mit integriertem Chatbot. Der soll Geflüchtete dabei beraten, wie sie „freiwillig“ in ihr Herkunftsland zurückkehren können. Der Einsatz stelle nach dem AI Act kein hohes Risiko dar, findet die Behörde. Von Laura Jaruszewski –
Artikel lesen
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Die europäische Grenzschutzagentur Frontex entwickelt derzeit eine App mit integriertem Chatbot. Der soll Geflüchtete dabei beraten, wie sie „freiwillig“ in ihr Herkunftsland zurückkehren können. Der Einsatz stelle nach dem AI Act kein hohes Risiko dar, findet die Behörde.

Wenn Geflüchtete „freiwillig“ oder unfreiwillig Europa verlassen, soll sie künftig ein KI-basierter Chatbot dabei beraten. Die Grenzschutzagentur Frontex entwickelt eine App, in der Menschen mehr über finanzielle Anreize einer sogenannten freiwilligen Ausreise erfahren oder wohin sie sich für weitere Beratung wenden können.
Die Anwendung ist Teil des europäischen Reintegration Programme von Frontex, das unter anderem Ausreisen finanziert. Reisen Geflüchtete nicht freiwillig aus, begleitet Frontex etwa auch Abschiebeflüge. Seit einigen Jahren setzt die Behörde verstärkt darauf, Menschen zur „freiwilligen“ Rückkehr zu bewegen. Laut einer Präsentation von Frontex aus dem Januar 2026 habe die Unterstützung von „Rückkehr-Spezialisten“ in 42 Prozent der Fälle, bei denen sie eingesetzt wurden, in einer Entscheidung zur freiwilligen Rückkehr geendet.
Da eine solche freiwillige Rückkehr, wie die EU diese Prozesse nennt, für Menschen mit fehlenden Alternativen nicht freiwillig sein kann, nutzen manche stattdessen Begriffe wie Selbst-Abschiebung.
Abschiebungen im Gewand automatisierter Beratungen
Der KI-Chatbot soll nun ähnliches bewirken. Das Ziel sei, dass sich mehr Menschen für eine Rückkehr in ihr Heimatland entscheiden, so der stellvertretende Exekutivdirektor Lars Gerdes laut AlgorithmWatch.
Wenn Frontex jedoch eine KI-basierte Technologie einsetzen will, ist relevant, ob sie nach dem AI Act als Hochrisiko-Anwendung gilt. Die Verordnung sieht vor, dass viele KI-Systeme im Bereich Migration als Hochrisiko-Systeme einzustufen sind, etwa wenn sie bei der Prüfung von Asyleinträgen genutzt werden. Für Frontex hat das zur Behörde gehörende Fundamental Rights Office (FRO) eine entsprechende Einstufung geprüft.
Die unzureichenden Stellen der KI-Verordnung
Obwohl der Chatbot zur Rechtsberatung eingesetzt werden könnte, kam die Behörde zu dem Schluss, dass kein hohes Risiko bestehe. Somit ergebe sich kein weiterer Bedarf, mögliche Auswirkungen auf Grundrechte zu überprüfen. In einer späteren Einschätzung empfahl FRO allerdings als erste von 27 weiteren Empfehlungen, die These theoretisch zu untermauern, dass mehr Informationen die Quote freiwilliger Rückkehrer*innen erhöhen würden. Im Zuge des 2024 verabschiedeten AI Acts hatten sowohl AlgorithmWatch als auch netzpolitik.org auf Leerstellen verwiesen, die der AI Act bei der Regulierung von eingesetzten Technologien im Bereich Migration hat.
Informationen über die App erhielt die Nichtregierungsorganisation AlgorithmWatch aus internen Dokumenten, die sie mit Informationsfreiheitsanfragen erhielt. Auf welche Daten der Chatbot zugreifen können soll, ist laut AlgorithmWatch noch unklar. Ebenfalls unklar bleibt, ob er wie geplant in Sprachen wie Arabisch, Urdu oder Paschtu genutzt werden könne. Bisher hatte Frontex nur Material in englischer Sprache zum Training verwendet, das Material dafür hat Frontex‘ Return Knowledge Office Daten zum Training zusammengestellt.
Die neue App gilt bei Frontex als „schnell umsetzbares, kostengünstiges Projekt mit nur geringem Ressourcenaufwand“, wie aus internen E-Mails laut AlgorithmWatch hervorgeht. Und Frontex hofft offenbar darauf, weitere, „leistungsfähigere und integrierte IT-Systeme“ entwickeln zu können, sobald gesetzliche Hürden dazu gefallen sind.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Aikos Ex-Partner verwanzt ihr Handy. Er kann sehen, was sie liest, was sie tippt, wo sie ist. Er lauert ihr immer wieder auf und verfolgt sie bis nach China. Dieser Fall zeigt, wie invasiv und bedrohlich frei verfügbare Spionage-Apps sind.

Seit ihrer Trennung ist Aiko eine vorsichtige Frau geworden. Bevor sie ihren Wohnblock verlässt, wartet sie still im Eingangsbereich. Dort gibt es mehrere Türen mit Glaseinsätzen. Sie versucht zu erkennen, ob draußen jemand ist. Es könnte ja sein, dass Tom ihr wieder auflauert. Er hat schon oft auf sie gewartet oder sie auf der Straße abgefangen. Er hat sich ihr von hinten genähert und sie festgehalten. Sie sagt, Tom wollte immer wieder reden, reden, reden, über ihre Beziehung, obwohl Aiko diese schon vor Jahren beendet hat.
Um Tom zu entkommen, hat Aiko ihn wiederholt angezeigt, ein Annäherungsverbot erwirkt, eine Auskunftssperre bei den Meldebehörden hinterlegen lassen, sie ist in eine neue Stadt gezogen. Doch Tom taucht immer wieder auf. Auch an diesem Tag im Sommer 2025 steht er vor der Tür. Aiko kann das Haus nicht verlassen, ohne sich mit ihm auseinanderzusetzen. Sie ruft die Polizei – wie schon so oft.
Diese Geschichte ist eine von Gewalt. Es geht um Macht und Kontrolle und um eine Spionage-App, die jede*r mit wenigen Klicks im Netz ordern kann und mit der Menschen illegal ihre (Ex-)Partner*innen ausspähen. Jede 100. Frau wurde in den vergangenen fünf Jahren mit digitalen Mitteln gestalkt, so das Bundeskriminalamt. Aiko ist eine der Betroffenen. Mit ihrer Geschichte wird in Deutschland erstmals ein Fall öffentlich, in dem nachgewiesenermaßen eine Spionage-App als Mittel der Partnerschaftsgewalt eingesetzt wurde. Nach der Trennung installierte Tom diese auf Aikos Telefon.
Über ein Browser-Interface konnte Tom sehen, wo Aiko gerade unterwegs war, und lesen, was sie tippte. Er konnte ihre Passwörter abgreifen, ihre Chatnachrichten und E-Mails, die Anrufliste, die Kontakte, den Kalender, die Bilder und Videos, den Browser-Verlauf. Er drang tief in ihr digitales und analoges Leben ein.
Ein paar Minuten allein mit Aikos Handy
Um sie zu schützen, haben sie und Tom hier andere Namen. netzpolitik.org hat mit Aiko gesprochen und Menschen aus ihrem Umfeld befragt. Zahlreiche Dokumente und geleakte Daten aus dem Kundendienst der Spionage-App mSpy bestätigen ihre Schilderungen. Eine forensische Analyse von Aikos Telefon, die ein IT-Sicherheitsexperte für netzpolitik.org durchgeführt hat, belegt zudem, dass das Gerät mit mSpy infiziert ist.
Um mSpy zu installieren, muss man das Zieltelefon für ein paar Minuten in der Hand halten. Tom hatte, so Aiko, viele Gelegenheiten, bei denen er allein mit ihrem Telefon war.
netzpolitik.org hat Tom mit den in diesem Text geschilderten Geschehnissen und Aikos Vorwürfen konfrontiert. Einen großen Teil davon hat er bereits in Gerichtsverfahren eingeräumt. Gegenüber netzpolitik.org erklärt er nur, dass ihm zu vielen der geschilderten Punkte Belege vorlägen, die eine „deutlich andere Sicht auf die Geschehnisse zulassen“. Im Einzelnen will er sich nicht äußern und verweist auf zwei noch laufende Berufungsverfahren.
„Ich dachte, er ist ein aufrichtig guter Mensch“
Die Geschichte von Tom und Aiko beginnt Anfang 2021. Sie treffen sich auf der Dating-Plattform Bumble. Tom ist Nachwuchsregisseur, in Interviews wirkt er eloquent, zu öffentlichen Anlässen trägt er einen schmal geschnittenen Anzug. Seine Agentur schreibt über ihn, dass er mit seiner Arbeit Menschen sichtbar machen wolle, die sonst nicht gesehen würden. Auch Aiko arbeitet in einem kreativen Beruf. In ihrer Freizeit geht sie gerne ins Kino oder reist mit Freundinnen zu Kunstausstellungen.
Laut Aiko verband sie und Tom das Interesse für Kunst, Filme und Design. „Ich dachte, dass er die gleichen humanistischen Werte hat wie ich, dass er ein Idealist ist, ein aufrichtig guter Mensch“, sagt Aiko heute. Sie spricht leise, sucht nach den richtigen Worten. Immer wieder hebt sie fragend den Blick, als müsse sie die Erlaubnis zum Sprechen erst einholen.
Von August 2021 bis Mai 2022 sind Tom und Aiko ein Paar. Dann habe sie entdeckt, dass Tom mit vielen anderen Frauen Kontakt hat, sagt Aiko. Sie habe Sexvideos auf einem Datenträger gefunden. Eines, das sie mit ihm gemacht habe, sieben weitere von ihm und anderen Frauen. Sie sagt, sie habe Schluss gemacht, Tom auf mehreren Messengern blockiert. Doch er habe immer wieder im Treppenhaus gestanden. Mehrere Male habe sie zugelassen, dass er in ihre Wohnung kommt. „Ich wollte extrem von ihm weg. Aber ich bin nicht weggekommen“, sagt Aiko.
Wegen dem, was dann folgt, zeigt Aiko Tom an. Die Staatsanwaltschaft fasst Aikos Schilderungen so zusammen: „Der Beschuldigte soll seine Lebensgefährtin mehrfach auf ein Bett gedrückt, ihr mit der erhobenen Faust gedroht und mit der Faust ein Loch in eine Tür geschlagen haben.“ Zu einer anderen Gelegenheit habe er Aiko, „die zwischenzeitlich ins Badezimmer gegangen war, um von dort die Polizei zu verständigen, ihr Mobiltelefon abgenommen. Als sie in der Folge anfing zu schreien und aus dem Fenster um Hilfe zu rufen, soll der Beschuldigte ihr die Hand auf den Mund gedrückt und sie vom Fenster weggezogen haben.“
Die Staatsanwaltschaft hat keine Anklage erhoben. Sie sah kein öffentliches Interesse an der Strafverfolgung.
Nachrichten an den mSpy-Kundendienst
Am 10. Januar 2023 schickt jemand von dem E-Mail-Account, den Toms Filmhochschule für ihn damals bereitstellt, eine Nachricht an den Kundendienst der Spionage-App mSpy. Dieser Mensch schreibt, er habe ein Problem: Er sehe zwar wie gewünscht den Standort des Zieltelefons, aber es übermittele nicht mehr, was darauf getippt wird.
Auf der Suche nach einer Lösung bombardiert er den Kundendienst mit dutzenden Nachrichten. Dieser rät dazu, eine Nachricht mit dem Inhalt „1000000“ an das Zieltelefon zu senden, um die App neu zu starten. Der Kunde präsentiert einen Entwurf.
aiko rede bitte mit mir anstatt mich zu blocken zum 1000000 mal. bitte aiko. das zerstört mich so sehr.
Später nennt er das Modell des Telefons, das er überwachen will. Es ist das Modell, das Aiko nutzt. MSpy hat auf Nachfragen zum Fall nicht reagiert.
Die Nachrichten sind öffentlich, nachzulesen in einem Datensatz, mit dem Millionen von Chats im Netz landeten, die Nutzer*innen mit dem Kundendienst der Spionage-App geführt haben. Die Plattform Distributed Denial of Secrets hat den Datensatz im Juni 2024 veröffentlicht. Die Hackerin maia arson crimew gibt an, dass ihr das Paket von einer anonymen Quelle zugespielt wurde.
Von Anfang 2023 bis zum Juni 2024 kontaktiert demnach jemand von Toms E-Mail-Account aus den Support mit einer gut dreistelligen Zahl von Nachrichten. Dieser Mensch hat anscheinend mehrfach physischen Zugriff auf das Zieltelefon und installiert mSpy nach Ausfällen wiederholt neu. Er will mSpy mehrere Male kündigen, weil Funktionen ausfallen, und bucht den Service dann doch wieder.
Jahre später wird Tom wegen Nachstellung mit Hilfe einer Software vor Gericht stehen. Dabei gibt er zu, dass er die App am 28. April 2024 installiert hat und damit bis zum 24. November Zugriff auf Aikos Handydaten hatte. Laut den Nachrichten könnte er Aiko aber wesentlich länger mit der App überwacht haben, bereits ab Anfang 2023.
Für Stalking mit Spionage-Apps gibt es bis zu fünf Jahre Haft
Als mSpy vor mehr als 15 Jahren auf den Markt kam, wurde die App noch offen als Instrument für Partnerschaftsgewalt vermarktet. Später stellte das Unternehmen seine Marketing-Botschaften um.
mSpy ist laut eigenen Angaben inzwischen eine App für Eltern, die damit die Geräte ihrer Kinder überwachen – das kann in Deutschland unter Umständen legal sein, auch ohne Zustimmung. Wer hingegen andere Erwachsene heimlich überwacht, handelt eindeutig strafbar: Ausspähen von Daten, womöglich Nachstellung, Verletzung der Vertraulichkeit des Wortes oder des höchstpersönlichen Lebensbereichs durch Bildaufnahmen. Dafür können mehrere Jahre Haft drohen.
Wer ein Spionage-Tool einsetzt, begeht zudem einen besonders schweren Fall von Nachstellung, strafbewehrt mit mindestens drei Monaten und bis zu fünf Jahre Haft. Verschärfend wirkt ebenfalls, wenn die Nachstellung über einen Zeitraum von mehr als sechs Monaten abläuft oder das Opfer gesundheitlich beeinträchtigt wird. Beides trifft im Fall von Aiko zu.
Der Mensch, der von Toms Account dem mSpy-Kundendienst schreibt, gibt an, mit der App seinen Sohn überwachen zu wollen. Tom hat keine Kinder. Frühere Recherchen zeigten: Andere Anwender*innen von mSpy gaben offen zu, dass sie Partner- oder Ex-Partner*innen ausspionieren wollten. Der Kundendienst half ihnen trotzdem weiter.
Keine Kraft mehr, sich zu wehren
Auch 2023, da sind Aiko und Tom bald ein Jahr getrennt, taucht Tom laut Aiko immer wieder vor ihrer Wohnung auf und begegnet ihr auch anderswo. „Wenn ich raus bin, hat er mich abgefangen“, sagt Aiko. Sie fährt zu einer Hochzeit, er sitzt im gleichen Zug. Sie will ins Kino, er steht davor. Das geht aus einer eidesstattlichen Versicherung von Aiko hervor, auf deren Basis ein Gericht später ein Kontaktverbot für Tom verhängt.
Aiko zieht sich in dieser Zeit von Familie und Freund*innen zurück. Sie reagiert monatelang nicht auf Nachrichten und Anrufe, berichten ihre Freund*innen. „Ich hatte Angst vor dem Handy“, sagt Aiko. Eine enge Freundin fährt aus Sorge zu Aikos Wohnung.
Die Freundin ist Ärztin in einer psychiatrischen Fachklinik. In einer Stellungnahme schreibt sie, Aiko habe ihr geöffnet und gesagt, Tom sei da und würde gegen ihren Willen bei ihr wohnen, sie habe keine Kraft mehr, sich zu wehren. Aiko bestätigt die Darstellung gegenüber netzpolitik.org.
Aiko und die Freundin sollen Tom gebeten haben, zu gehen. Dieser soll erwidert haben, Aiko wolle doch gar nicht, dass er gehe, er liebe sie, außerdem müsse er noch Wäsche waschen. Die Freundin soll ihn schließlich dazu gebracht haben, die Waschmaschine auszuräumen und die Wohnung zu verlassen.
Insgesamt elf Mal sucht Aiko eine Opfer- und Traumaambulanz auf, während Tom sie stalkt. Diagnose: posttraumatische Belastungsstörung, depressive Episode, panikartige Angstzustände, emotionale Labilität, Einschlafstörungen und wiederkehrende Albträume, Schamgefühle, reduziertes Selbstwertgefühl, sozialer Rückzug, Auflösungswünsche.
„Ein spontaner Rückgang ihrer hohen Symptombelastung ist unter der gegenwärtigen Hochstresssituation nicht zu erwarten“, so die Hilfseinrichtung. Aiko meldet sich immer wieder auf der Arbeit krank.
Er verfolgt sie bis nach China
Ende 2023: Aiko bucht einen Flug nach Shanghai, in die größte Stadt Chinas. Sie sagt, sie habe möglichst weit weg gewollt. Als sie ins Flugzeug steigen will, steht Tom mit ihr in der Boarding-Schlange.
„Ich dachte, das kann doch nicht sein“, sagt Aiko. Sie zweifelt an ihrer Wahrnehmung, kann sich nicht erklären, wie Tom sie gefunden hat. „Dass es so etwas wie mSpy gibt, wusste ich nicht“, sagt Aiko. Sie fügt sich. „Ich dachte, am besten lasse ich es über mich ergehen. Alles ist besser als wieder Polizei und eskalieren und ich verpasse meinen Flug.“
Aiko fasst die Reise so zusammen: Nach der Landung soll Tom mit ihr ins Hotel-Shuttle gestiegen sein, sich ein Zimmer in ihrer Unterkunft genommen haben. Um ihm zu entkommen, sei sie mit dem Taxi zurück zum Flughafen gefahren. Auch dort sei er aufgetaucht. Sie sei noch zwei Mal in neue Hotels geflüchtet, er habe sie jedes Mal gefunden. Er soll geweint haben und gesagt, er habe alle Hotels nach ihr abgesucht.
Irgendwann platzt Aiko der Kragen. „Ich habe gesagt, dass er sich verpissen soll. Ihn gefragt, ob er nicht checkt, dass ich hier bin, weil ich vor ihm fliehen will.“ Tom habe China nach rund 14 Tagen verlassen, Aiko bleibt eine weitere Woche.
Aiko sagt, dass Tom kurz nach Weihnachten bei ihren Eltern vor der Tür stand. „Ich habe hier auf dich gewartet“, soll er gesagt haben. Als sie zurück zu ihrem Wohnort fährt, soll er wieder im gleichen Zug mit ihr gesessen haben.
Die Überwachungs-Industrie
Fachleute aus Beratungsstellen, Forschung und Politik bezeichnen die Überwachung mit Spionage-Apps als digitale Gewalt, weil sie mit elektronischen Mitteln tief in die Selbstbestimmung eingreift. Programme wie mSpy nennen sie Stalkerware: Software für Stalking.
mSpy ist dabei nur eines der Produkte auf diesem Markt. IT-Sicherheitsforscher*innen sprechen von einer ganzen Industrie. Neben Spionage-Apps zählen auch GPS-Tracker oder Ortungs-Tags zu den Werkzeugen, auf die Täter*innen zugreifen.
Besonders häufig kommen Spionage-Apps in Partnerschaften und Familien zum Einsatz. Denn um sie zu installieren, brauchen die Täter*innen in der Regel einige Minuten ungestörten physischen Zugang zum Zieltelefon und den Entsperrcode des Geräts. Je näher sie einer Person stehen, desto eher haben sie beides.
Hinter mSpy steckt ein schwer zugängliches Firmengeflecht, beworben wird die Spionage-App über ein Netz von Unternehmen, die daran mitverdienen. Der Abo-Preis hängt von Buchungsdauer, Rabatten und gewünschtem Funktionsumfang ab und kann schnell 100 Euro pro Jahr übersteigen.
„Ich dachte, ich komme da nie wieder raus“
Immer wieder ruft Aiko in den Jahren, in denen Tom sie verfolgt, die Polizei zu Hilfe, zeigt Tom an. Anfang 2024 wird ein Verfahren wegen Nachstellung eingestellt. Es sei nicht „mit hinreichender Wahrscheinlichkeit nachzuweisen“, dass Aiko den Kontakt nicht gewollt habe, schreibt die Staatsanwaltschaft. Tom soll der Polizei gesagt haben, sie seien noch zusammen und Bilder gezeigt haben, auf denen er mit Aiko zu sehen war. Aiko sagt: „Ich dachte, ich komme da nie wieder raus.“
Im März 2024 schreibt jemand von Toms E-Mail-Adresse aus mehrfach an den mSpy-Kundendienst, weil bestimmte Funktionen der App ausfallen. Als der Kontakt zu Aikos Telefon für eine Weile scheinbar ganz verloren geht, fragt die Person: „can someone please help“, zig Nachrichten später: „I have to know what’s going on“.
Am 28. April um 11:08 Uhr wird die Spionage-App auf Aikos Telefon neu installiert. Wenige Minuten zuvor fragt jemand von Toms E-Mail-Adresse aus den Kundendienst, wie man mSpy installiert und bekommt eine Anleitung zugesendet. Die Nachrichten an den Kundendienst werden laut Chatprotokoll aus der Stadt verschickt, in der Aiko wohnt.
Am Tag davor klingelt Tom bei Aiko. Sie sagt, er habe geweint und gesagt, er habe keinen Schlafplatz und kein Geld und wolle nur eine Nacht bleiben. Aiko lässt ihn entgegen ihrer Vorsätze wieder in die Wohnung. Heute vermutet sie, dass er ihr Entsperrmuster kannte und mSpy installierte, während sie gerade nicht im Raum war.
Was an diesem Tag mit Aikos Telefon geschah, hinterließ Spuren auf dem Gerät. Aus einer forensischen Analyse, die netzpolitik.org bei einem unabhängigen IT-Sicherheits-Experten in Auftrag gab, geht hervor, wie sich das Geschehen vermutlich zugetragen hat: Tom installiert die App und deaktiviert dafür Sicherheitsfunktionen auf dem Handy, tippt einen Registrierungscode ein und schickt dann mit Aikos Handy eine WhatsApp-Nachricht an seine eigene Nummer:
Test Oh Keykoffer funktioniert bitte funktionieren.
K und L, sowie F und G liegen auf der Tastatur nebeneinander, vermutlich wollte Tom in Eile „Keylogger“ tippen. Ein Keylogger erfasst alle Anschläge auf der Tastatur und damit auch Passwörter, Nachrichten und Suchbegriffe, mSpy bietet diese Funktion.
Ein deutlicher Anstieg der Fälle
Wie viele Menschen andere mit Spionage-Apps ausspionieren, weiß niemand. Das Bundeskriminalamt erfasst entsprechende Anzeigen nicht gesondert. Sie fallen in die Rubrik digitale Gewalt, zusammen mit Videoaufnahmen in Umkleiden und sexualisierten Deepfakes beispielsweise. 2023 wurden laut Bundeskriminalamt 17.193 Fälle von digitaler Gewalt gegen Mädchen und Frauen von der Polizei bearbeitet.
Vor wenigen Tagen veröffentlichte das BKA eine Dunkelfeldstudie, für die Menschen zu ihren Gewalterfahrungen befragt wurden. Etwa jede 45. der befragten Frauen gab an, innerhalb der vergangenen fünf Jahre von einem Partner oder Ex-Partner gestalkt worden zu sein. Eine von hundert sagte, dass dies auch mit digitalen Mitteln geschah. Weniger als jede zehnte Frau zeigte die Taten an.
Von einem deutlichen Anstieg der Fälle von digitalem Stalking berichten Fachberatungsstellen für digitale Gewalt und der Bundesverband Frauenberatungsstellen und Frauennotrufe. Cordelia Moore, die lange in einer Frauenberatungsstelle zu digitaler Gewalt gearbeitet hat und heute Organisationen zum Thema berät, sagt: „In Stalkingfällen ist Cyberstalking inzwischen keine Ausnahme, sondern der Standard.“
Die Bundesregierung will den Anbietern von Spionage-Apps vorschreiben, regelmäßig das Einverständnis der Geräte-Besitzer*innen einzuholen, so steht es im Koalitionsvertrag. Eine heimliche Überwachung wie im Fall von Aikos Telefon wäre damit nicht mehr möglich – zumindest wenn sich die App-Anbieter daran halten.
Das Justizministerium des Bundes schreibt auf Anfrage, die Umsetzung werde gerade geprüft, man stehe dazu mit dem Innen- und dem Digitalministerium in Kontakt. Allerdings sitzen die Anbieter der App nicht in Deutschland, womöglich nicht einmal in der EU. Es ist unklar, welche Auswirkungen ein deutscher Alleingang hätte.
„Von Panikattacken gequält“
33 Fälle von verbotener Nachstellung gibt Aiko von Mai bis Dezember 2024 bei der Polizei zu Protokoll. Tom steht immer wieder vor ihrem Haus, fängt sie vor dem Kino und am Bahnhof ab, sitzt im gleichen Zug mit ihr, hält sie fest und will mit ihr sprechen. Er ruft mit unterdrückter Nummer immer wieder an, schickt ihr WhatsApp-Nachrichten.
Wieder bricht Aiko den Kontakt zu Freund*innen ab. Die Freundin, die im vergangenen Jahr Tom aus Aikos Wohnung verjagte, gibt sie nicht auf und fährt wieder zu ihr. In ihrer Stellungnahme heißt es:
Ich fand sie in ihrer Wohnung auf dem Sofa liegend vor, die Wohnung war vollständig abgedunkelt, (Aiko) war in einem verwahrlosten Zustand, von Panikattacken gequält und konnte zunächst kaum berichten, was sich in der letzten Zeit zugetragen hatte. Sie hatte mehrere Tage nichts gegessen, aus Angst, die Wohnung zu verlassen.
Mehr als ein Jahr später wird Tom für diese Taten von der Staatsanwaltschaft wegen Nachstellung angeklagt. Er wird ein umfassendes Geständnis ablegen, eine Richterin wird ihn zu mehr als einem Jahr Gefängnis ohne Bewährung verurteilen. Dieses Urteil ist noch nicht rechtskräftig.
„Stalking ist eine Machtdemonstration“
Michaela Burkard vom Bundesverband Frauenberatungsstellen und Frauennotrufe sagt: „Stalking ist eine Machtdemonstration, die der betroffenen Person signalisiert, dass sie sich nicht entziehen kann.“ Mit Hilfe von digitalen Werkzeugen, die den Standort übermitteln, sei eine derartige Machtdemonstration noch einfacher geworden.
„Kontrolle und Stalking treten vor allem dann auf, wenn der gewaltausübende, meist männliche Part einen Machtverlust verhindern will“, sagt Burkard. Eingebettet sei das Stalking in eine patriarchale Gesellschaft, in der Macht in heterosexuellen Beziehungen oft ungleich verteilt ist.
Typisch an dem Fall von Aiko, sagt Burkard, sei das Ineinandergreifen von analogem und digitalem Stalking. „Digitale geschlechtsspezifische Gewalt ist eine Fortsetzung bereits bestehender Gewaltverhältnisse, sie taucht selten isoliert auf“, sagt sie.
Am 10. Juni 2024 erlässt das Amtsgericht ihres Wohnortes auf Aikos Betreiben eine einstweilige Anordnung gegen Tom. Sechs Monate lang muss er mindestens 50 Meter Abstand von ihrer Wohnung halten, darf auch ihren Arbeitsplatz und die Wohnung der Eltern nicht aufsuchen oder anderweitig, beispielsweise per Anruf, Sprach- oder Textnachricht, Kontakt mit ihr aufnehmen. Bei Zufallstreffen hat er sich sofort zu entfernen. Die Anordnung wird später immer weiter verlängert werden. Die Dokumente dazu liegen netzpolitik.org vor.
Obwohl es Tom nun verboten ist, sich Aiko zu nähern, fängt er sie über den darauf folgenden Sommer vier Mal in Seitenstraßen ihrer Wohnung ab. Er rennt auf sie zu und hält sie fest. Er schreibt unzählige Nachrichten und versucht dutzende Male, sie anzurufen.
Das Amtsgericht ihres Wohnortes verurteilt Tom Ende September zu 800 Euro Ordnungsgeld. Er hört dennoch nicht auf. Im Oktober fordert das Gericht weitere 400 Euro. Wieder lässt er sich nicht davon beeindrucken. Tom wird vorläufig festgenommen. Als er wieder frei ist, schreibt er Aiko: „gib mir nur ein Zeichen, sonst muss ich wiederkommen“.
Alles netzpolitisch Relevante
Drei Mal pro Woche als Newsletter in deiner Inbox.
Die Spionage-App wird enttarnt
Dass die Spionage-App auf Aikos Smartphone entdeckt wird, ist nicht den Ermittlungen der Polizei zu verdanken. Von den Beamt*innen, mit denen Aiko sprach, sei keine*r auf die Idee gekommen, dass Tom Aikos Smartphone verwanzt haben könnte, dass Toms ständige Präsenz dort ihren Ursprung hat, sagt Aiko.
Am Ende ist es nicht die Polizei, sondern ein Freund, der ihr Klarheit bringt. „Als Aiko mir von dem Stalking erzählte, hatte ich schon eine Ahnung, wie das kommen könnte, dass Tom immer weiß, wo sie ist“, sagt Benjamin. Er ist Dozent für Informatik und weiß, dass es frei erhältliche Spionage-Software gibt.
Im November 2024 besucht er Aiko und untersucht ihr Telefon. Da ist mSpy noch aktiv. Nach wenigen Minuten findet er in der App-Übersicht ein Programm mit weitreichenden Berechtigungen. Es taucht auf dem Home-Bildschirm nicht auf und verbirgt sich hinter dem unscheinbaren Namen „Update service“. Aiko sagt, ihr sei diese App nicht bekannt gewesen. Die forensische Analyse, die der unabhängige IT-Sicherheitsexperte für netzpolitik.org durchführte, bestätigt, dass es sich dabei um mSpy handelt.
So hat die App sie ausspioniert
Im Download-Ordner von Aikos Handy liegt eine Installationsdatei für die Spionage-App. Sie wurde eine Minute vor der Installation der App „Update service“ heruntergeladen. Außerdem findet sich auf dem Telefon eine Datenbank, in die mSpy Informationen kopierte: Standortdaten, Browserverlauf, Kalender, Anruflisten, Fotos und Videos, SMS und E-Mails, Chats auf verschiedenen Plattformen sowie Mitschnitte der Tastatureingaben. Auch die Testnachricht, die während der Installation an Toms Nummer verschickt wurde, findet sich in den Daten. mSpy sendet derartige Informationen in eine Cloud, wo Kund*innen sie einsehen können – übersichtlich aufbereitet über ein Browser-Tool.
Die App habe fast alle Berechtigungen gehabt, sagt Benjamin, also nicht nur auf alle Telefoninhalte zugreifen können, sondern auch Dateien und Apps aus der Ferne löschen und installieren dürfen. Er kann dies mit Screenshots belegen. Sie zeigen auch, dass die App in den 24 Stunden vor dem Novemberabend, an dem Benjamin die App entdeckt, auf verschiedene Daten zugegriffen hatte, etwa auf den Standort, Anrufliste, Fotos und Videos, Kalender, Kontakte oder SMS.
Um den Datenabfluss zu unterbrechen, habe er die Berechtigungen noch in derselben Nacht aufgehoben, sagt Benjamin. Über viele Monate hatte Tom Zugang zu den Informationen, die mSpy über dieses Gerät erfasste, konnte sehen, wo Aiko sich befand. Jetzt ist es vorbei. Einen Monat später kauft Aiko sich ein neues Telefon.
Der Moment der Erkenntnis
Zu erfahren, dass Tom sie ausgespäht hatte, war „super erschütternd“, sagt Aiko. „Er wusste meine intimsten Gedanken, er wusste immer genau, wo ich war. Und er hat die ganze Zeit meine Realität manipuliert. Ich habe ja geglaubt, dass er überall auf mich wartet.“
Noch aus einem anderen Grund war die Erkenntnis für sie ein Schock. Kurz zuvor hatte Aiko beschlossen, die Stadt zu verlassen und nach Berlin zu ziehen, um Tom zu entkommen. Sie sagt, sie wollte ohne Angst auf die Straße gehen, normal leben. „Als ich verstanden habe, dass er all meine Kommunikation abgegriffen hat, ist mir auch klar geworden, dass er vermutlich weiß, wo ich hinziehe“, sagt sie.
In den Daten, die mSpy mitschnitt, findet sich eine E-Mail mit der Einladung zur Wohnungsbesichtigung. Dort liegen auch die Koordinaten ihrer neuen Wohnung, abgegriffen, als Aiko die Wohnung besichtigte.
Nachdem Benjamin die App gefunden hat, gehen er und Aiko noch in der gleichen Nacht zur Polizei. Die beiden sagen, auf der Wache habe Benjamin versucht, den Beamten die Spionage-App zu erklären, zunächst ohne Erfolg. Erst als Aiko ein Foto herumgezeigt habe, das ihr Vermieter von Tom gemacht hatte, habe ein Polizist gesagt: „Das sieht nach nem Hacker aus.“ Auf dem Foto steht Tom mit aufgeklapptem Laptop unter Aikos Fenster.
Michaela Burkard vom Bundesverband Frauenberatungsstellen und Frauennotrufe sagt: „Wichtig ist, dass alle Instanzen, die mit einer gewaltbetroffenen Person zu tun haben, Fachwissen und die nötige Sensibilität für digitale Gewalt haben.“ So sollte etwa die Polizei im Rahmen einer Risikoeinschätzung bei Partnerschaftsgewalt immer auch digitale Gewalt abfragen.
Die Polizei findet ihn in einem Gebüsch
Februar 2025. Vier Jahre ist es her, dass sich Aiko und Tom auf Bumble getroffen haben. Das Amtsgericht verhängt weitere 3.000 Euro Ordnungsgeld gegen Tom. Die vorhergehenden 1.200 Euro hat er noch nicht gezahlt. Vor Gericht gibt er später an, weitgehend mittellos zu sein.
Ende Februar zieht Aiko nach Berlin. Ungefähr zur gleichen Zeit zieht auch Tom dorthin. Er hat nun keinen Fernzugriff mehr auf ihr Telefon, trotzdem lauert er ihr immer wieder vor ihrem Wohnblock auf, in dessen Umgebung, an der S-Bahn. Einmal finden Polizist*innen, die zu ihrer Sicherheit vor Aikos Haus patrouillieren, Tom in einem Gebüsch. Die Szene beschreibt das Amtsgericht Tiergarten in einem Urteil, das später gegen Tom fällt.
Das Amtsgericht in Berlin-Tiergarten erwirkt einen Haftbefehl gegen Tom. Von Mai bis Juni sitzt er 27 Nächte in Untersuchungshaft. Er wird nur unter der Auflage entlassen, Berlin zu verlassen und sich Aiko nicht mehr zu nähern. Und doch steht er kurz darauf wieder vor ihrer Haustür. Es ist die eingangs geschilderte Szene. Aiko ruft die Polizei und Tom landet noch einmal für fast zwei Monate in Untersuchungshaft.
Am 24. September 2025 verurteilt das Amtsgericht Tiergarten Tom wegen Nachstellung zu sechs Monaten Haft auf Bewährung. Er gesteht die Vorwürfe, will das Urteil aber nicht akzeptieren und geht in Berufung. Das Verfahren läuft.
Das Ende?
Ende Januar 2026 steht Tom noch einmal vor Gericht, diesmal in der Stadt, in der er und Aiko zuvor gewohnt haben. Es geht um die Geschehnisse, die vor ihrem Umzug stattfanden. Und anders als in Berlin geht es diesmal auch um mSpy: In ihrer Anklageschrift wegen Nachstellung erwähnt die Staatsanwaltschaft auch eine Software, die Tom auf Aikos Handy installiert habe, um ihren Standort zu verfolgen und „gezielte Zusammenkünfte herbeizuführen“.
Während ihrer Aussage kommen Aiko immer wieder die Tränen. Sie spricht dennoch weiter.
Tom gesteht alle Vorwürfe. Er bekommt ein Jahr und vier Monate Haft, keine Bewährung. In ihrem Urteil spricht die Richterin von einer „sehr hohen kriminellen Energie“. Sie erwähnt die Spionage-Software, die Nachrichten an den Kundendienst. „Die Skrupellosigkeit, die Sie da an den Tag gelegt haben, das ist besonders und zeigt eine besondere Rücksichtslosigkeit.“
Das Urteil ist noch nicht rechtskräftig. Tom sagte bei einem Telefonat mit netzpolitik.org, dass er Berufung einlegen will. Aiko sagt, für sie sei es wichtig gewesen, dass ihre Realität anerkannt wurde. Befreit fühle sie sich aber nicht, sondern vor allem: erschöpft.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Mit Spionage-Apps können Menschen tief in das digitale und analoge Leben anderer eindringen. Aber es gibt Möglichkeiten, den Überwachungstools beizukommen. Dafür muss die Bundesregierung endlich handeln. Ein Kommentar.

Stell dir vor, du wirst von deinem Ex-Partner verfolgt. Er lauert dir immer wieder auf, fängt dich vor dem Kino ab oder setzt sich im Zug neben dich, um dir Gespräche aufzuzwingen. Über ein Browser-Interface sieht er, wo du bist, und erfährt intimste Details aus deinem Leben.
Für viele Frauen ist das Realität. Jede 100. Frau in Deutschland ist in den vergangenen fünf Jahren mit digitalen Tools gestalkt worden, das zeigt eine aktuelle Studie des Bundeskriminalamtes.
Spionage-Apps, AirTags, GPS-Tracker und andere technische Hilfsmittel gehören heute zum Standardrepertoire von Stalkern. Dabei sind die Spionage-Apps besonders heimtückisch. Mit ihnen braucht man keine Ortungsgeräte und keine Wanzen, um eine Person zu überwachen. Sie machen das Mobiltelefon zu einem multimedialen Kontrollinstrument. Zu einem, das die Betroffenen ganz freiwillig mit sich tragen.
Betroffene, die zur Polizei gehen, bekommen dort oft nur Unverständnis entgegengebracht. Das Wissen darum, dass derartige Spionage-Programme leicht zugänglich sind, ist noch viel zu wenig verbreitet. Expert*innen fordern Schulungen für Ermittler*innen, sowie Protokolle, die sie darauf verpflichten, bei der Erfassung häuslicher Gewalt immer auch eine mögliche digitale Ebene mitzudenken. Eigentlich müsste jede Stelle, die mit gewaltbetroffenen Personen in Kontakt kommt, eine Vorstellung davon haben, was digitale Gewalt bedeutet und was zum Schutz der Betroffenen zu tun ist.
Und wieso sind Programme, die es ermöglichen, andere heimlich über ihr eigenes Telefon auszuspionieren, in Deutschland überhaupt legal erhältlich? Die Nutzung von Spionage-Apps ist mit sechs Monaten bis fünf Jahren Haft hinreichend strafbewehrt. Aber um sie wirklich eindämmen zu können, muss die Bundesregierung auch die Hersteller*innen der Tools ins Visier nehmen. Spielzeug beispielsweise, das heimlich Audio- oder Videoaufnahmen machen kann, ist illegal. Das gleiche sollte für Apps gelten, die ein Smartphone zu einer solchen Abhöranlage machen.
Gesetzeslücken schließen, Unterstützung ausbauen
Die schwarz-rote Regierungskoalition hat in ihrem Koalitionsvertrag versprochen, diese Gesetzeslücke zu schließen. Die Überwachungs-Tools sollen demnach regelmäßig das Einverständnis der Besitzer*innen der betroffenen Telefone abfragen müssen. So könnten Eltern, wenn es denn unbedingt sein muss, ihre Kinder weiter überwachen. Es wäre aber sehr viel schwerer, eine Partnerin oder Ex-Partnerin heimlich und illegal auszuspionieren. Bisher sind es nur Versprechen und Pläne, passiert ist noch nichts.
Mindestens ebenso wichtig wie die Regulierung und Strafverfolgung wäre aber noch eine dritte Ebene im Kampf gegen digitale Gewalt, eine, die noch früher ansetzt: die Unterstützung der Betroffenen. Derzeit gilt: Wer fürchtet, digital ausgespäht und gestalkt zu werden, braucht IT-affine Freunde und Glück. Es gibt nach wie vor zu wenige Beratungsstellen für digitale Gewalt. Solche Anlaufstellen zu schaffen und diese mit genug Geld und kompetentem Personal auszustatten, das sollte jetzt höchste Priorität bekommen.
Das kostet viel Geld. Aber es ist nicht verhandelbar. Deutschland hat die Istanbul-Konvention unterzeichnet und sich damit dazu verpflichtet, alles dafür zu tun, um geschlechtsspezifische Gewalt zu bekämpfen, Betroffenen Schutz und Unterstützung zu bieten und Gewalt zu verhindern. Jetzt muss es diese Verpflichtung auch umsetzen.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Daten zu mehr als 700 Personen standen im Netz, weil das Bezirksamt Berlin-Mitte aus Versehen die Vorschlagslisten für die Schöff:innen-Wahl 2024 veröffentlichte. Schöff:innen wurden in der Vergangenheit schon wegen ihres Amts bedroht, sie müssen sich auf den Schutz ihrer Informationen verlassen können.

Im Jahr 2023 bewirbt sich Marie als Schöffin in Berlin. „Ich wollte aktiv Verantwortung in der Gesellschaft übernehmen und an diesem demokratischen Prozess mitwirken“, sagt sie, die in Wirklichkeit anders heißt. Eine juristische Vorbildung hat sie nicht. Doch die ist auch gar nicht notwendig, um ehrenamtliche Richterin zu werden.
Mehr als 60.000 Menschen in Deutschland sind Schöff:innen. Die ehrenamtlichen Richter:innen begleiten Strafverfahren an Amts- und Landgerichten und sind formal den Berufsrichter:innen gleichgestellt, gewählt werden sie für eine Dauer von 5 Jahren. Wer als Schöff:in bestimmt wird, kann das nur mit einer besonderen Begründung ablehnen. Die aktuelle Amtszeit geht bundesweit von 2024 bis 2028.
Wie andernorts in Deutschland bereiten sich auch die Berliner Bezirke im Jahr 2023 auf die Wahl der neuen Schöff:innen an Strafgerichten und zusätzlich der ehrenamtlichen Richter:innen an Verwaltungsgerichten vor. Viele Menschen bewerben sich wie Marie freiwillig auf das Schöff:innen-Amt. Da, wo in der Bundeshauptstadt nicht genügend freiwillige Bewerber:innen zusammenkommen, unter anderem in Berlin-Mitte, werden zusätzlich zufällig ausgewählte Personen auf eine Vorschlagsliste aufgenommen.
Bei einer Sitzung im Frühjahr 2023 beschließt das Bezirksamt Mitte dann seine finale Vorschlagsliste, über die später die Bezirksverordnetenversammlung abstimmen wird. Der Vorgang wird, wie andere Beschlüsse, auf der Website des Bezirksamts veröffentlicht. Doch aus Versehen geraten auch die kompletten Vorschlagslisten ins Netz, auf ihnen eine Menge personenbezogene Daten: „Schöffenvorschlagsliste 2023 männlich freiwillig“ oder „Ehrenamt Richterin“ heißen diese. Gemeinsam enthalten sie mehr als 700 Namen mit Postleitzahl des Wohnorts, Geburtsjahr, teils erlerntem und ausgeübtem Beruf sowie bei einer der Listen sogar die genaue Anschrift und das exakte Geburtsdatum von 16 Personen. Eine Datenpanne.
Aus Versehen „Ja“ eingetragen
Im Gerichtsverfassungsgesetz ist zwar festgelegt, dass die Vorschlagslisten für neue Schöff:innen eine Woche lang zur Einsicht in der Gemeinde ausgelegt werden. In dem Formular für die Berliner Kandidat:innen heißt es jedoch extra, diese Listen würden „nur in gedruckter Form“ zur Einsicht bereitgestellt. Auch die Wochenfrist der Auslage überschreitet die Veröffentlichung des Bezirksamts deutlich.
Doch wie konnte es zu der Veröffentlichung kommen? Auf Anfrage von netzpolitik.org antwortet das Bezirksamt Mitte: „Im Protokoll der entsprechenden Bezirksamtssitzung war unter der Rubrik ‚Veröffentlichung‘ versehentlich ‚Ja‘ eingetragen worden.“ Dieser Fehler sei nicht aufgefallen, „weder dem Bezirksamts-Gremium bei der finalen Freigabe des Protokolls noch später im Geschäftsbereich, aus dem die Bezirksamts-Vorlage kam, noch im Büro der Bezirksbürgermeisterin, das die Bezirksamts-Vorlage ins Netz geladen hat“.
So stehen die Listen im Jahr 2023 mehrere Wochen online, bis jemand einen Hinweis gibt. „Eine betroffene Person wandte sich seinerzeit an das Wahlamt“, schreibt das Bezirksamt Mitte. Man nimmt daraufhin die Listen aus dem Netz. Wann genau das geschah, kann das Bezirksamt nicht mehr sagen, „jedenfalls zeitnah nach Veröffentlichung“, heißt es auf Anfrage. Eine Meldung an die Berliner Datenschutzbehörde erfolgt damals nicht, auch die Betroffenen bekommen keine Benachrichtigung.
Ein Sprecher der Berliner Datenschutzbehörde bestätigt auf Nachfrage von netzpolitik.org, dass ein Vorfall standardmäßig „binnen 72 Stunden nach Bekanntwerden zu melden“ ist. Warum das damals nicht geschah, lässt sich heute nicht mehr nachvollziehen. Doch das Bezirksamt versäumt noch etwas anderes und denkt nicht daran, dass die Listen auch noch andernorts zu finden sein könnten, etwa im Internet Archive. Das Projekt hat sich der Langzeitarchivierung digitaler Daten verschrieben und bietet unter anderem Einblicke in historische Versionen von Websites. Und so bleiben auch die Vorschlagslisten für Schöff:innen weitere Jahre im Netz. Bis zu einem weiteren Hinweis aus unserer Redaktion Anfang Januar 2026.
Betroffene fühlen sich verunsichert und verwundbar
Diesmal reagiert das Bezirksamt umfangreich und informiert seine interne Datenschutzbeauftragte. Die meldet den Sachverhalt an die Berliner Datenschutzbehörde. Auch an das Internet Archive habe man sich direkt gewandt, heißt es gegenüber netzpolitik.org, und eine „unverzügliche Löschung beantragt“. Betroffene seien ebenfalls per Brief informiert worden. Nach unseren Informationen ist dies mittlerweile auch bei einigen der Menschen auf der Liste passiert, wie stichprobenartige Nachfragen ergeben haben.
Marie, die sich 2023 für das Schöff:innen-Amt beworben hatte, war „fassungslos“, als sie erfuhr, dass ihre persönlichen Daten im Netz veröffentlicht waren. „Ich war davon ausgegangen, dass sensible Informationen verantwortungsvoll geschützt werden“, sagt sie im Gespräch. Dass das bei der Vorschlagsliste offenbar nicht geklappt hat, habe in ihr Verunsicherung und ein Gefühl von Hilflosigkeit sowie Verwundbarkeit ausgelöst. Denn im Gegensatz zur zeitlich begrenzten öffentlichen Auslage in der Gemeinde gebe es bei der Veröffentlichung im Netz ein viel größeres Publikum – „eines, das man damit nie erreichen wollte“.
Die Tragweite des Vorfalls ist auch dem Bezirksamt offenbar bewusst. „Aus datenschutzrechtlicher Sicht handelt es sich um eine unbeabsichtigte Offenlegung personenbezogener Daten“, schreibt das Bezirksamt gegenüber netzpolitik.org. In der zugehörigen Meldung an die Berliner Datenschutzbehörde gibt das Amt unter der Frage „Welche Folgen für die Betroffenen halten Sie für wahrscheinlich?“ folgende Punkte an: „Gesellschaftliche Nachteile, Identitätsdiebstahl oder -betrug, Bedrohung, Erpressung im Kontext der Tätigkeit als Schöff:innen/Richter:innen“.
Schöff:innen verdienen besonderen Schutz
Potenzielle Schöff:innen sind in Strafverfahren besonders exponiert. Das zeigt etwa ein beinahe historischer Fall aus dem Jahr 1995. Mehrere ehrenamtliche Richter:innen verweigerten damals die Zusammenarbeit mit einem Mannheimer Richter, der in einer Urteilsbegründung den damaligen NPD-Chef und Holocaustleugner Günter Deckert „Charakterstärke, tadellose Eigenschaften und einen vorzüglichen persönlichen Eindruck“ attestiert hatte. Einige der verweigernden Schöff:innen bekamen daraufhin Drohungen.
Und erst im vergangenen Jahr zeigte ein weiterer Fall in Berlin, wie sehr Schöff:innen ins Visier geraten können. Damals verfolgte ein Angeklagter aus der sogenannten Querdenker-Szene einen Schöffen im Anschluss an seine Verhandlung. Er bedrängte den Ehrenamtsrichter vor dem Gerichtsgebäude und wollte ihn festhalten. Dem Schöffen gelang es aber, sich in Sicherheit zu bringen.
Ein Sprecher der Berliner Datenschutzbeauftragten schreibt: „Angemessene Datenschutzvorkehrungen sind bei ehrenamtlichem Engagement in öffentlich exponierten Ämtern wie dem Schöffenamt essenziell, insbesondere um die betroffenen Personen vor Belästigung, Bedrohung oder unzulässiger Einflussnahme zu schützen. Gerade Ehrenamtliche, die sich ohne gesonderte Vergütung oder neben ihrem Hauptberuf für das Gemeinwohl einsetzen, verdienen besonderen Schutz ihrer Privatsphäre, damit ihr Engagement nicht zu persönlichen Nachteilen oder Gefährdungen führt.“ Der Sprecher betont weiter, dass es sich beim Schöff:innen-Amt um eine „Bürgerpflicht“ handele. Die Vorgeschlagenen müssten sich auf eine rechtskonforme Datenverarbeitung verlassen können, „unabhängig davon, ob sie sich freiwillig gemeldet haben oder ausgelost wurden“.
Für die Zukunft müsse es „geeignete organisatorische Maßnahmen“ geben, um derartige Vorfälle zu verhindern, so das Bezirksamt. Es will nun nachbessern. Als Beispiele nennt es „die Erarbeitung von Regeln und Prüfschritten für Veröffentlichungsprozesse und verstärkte Sensibilisierung der Beschäftigten für datenschutzrechtliche Anforderungen bei Anlagen mit personenbezogenen Daten“.
Dass das Bezirksamt seine Prozesse überarbeitet, wünscht sich auch Marie. „Da muss eine Aufarbeitung stattfinden, damit sensible Daten bestmöglich geschützt werden.“ Auch eine Entschuldigung und eine Erklärung, wie das passieren konnte, würde sie sich wünschen. Ob sie sich nach dem Datenschutzvorfall noch einmal auf das Schöff:innen-Amt bewerben würde? Nein, sagt Marie. An dieser Entscheidung hat auch der Datenschutz-Vorfall einen großen Anteil. Und sie fürchtet, dass solche Vorkommnisse auch andere abhalten könnten, sich freiwillig zu melden.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Der Großkonzern Palantir geht presserechtlich gegen das Schweizer Magazin „Republik“ vor. Das hatte in Recherchen nachgezeichnet, warum die Systeme des Unternehmens problematisch für Staaten und deren Souveränität sind. Das Magazin will sich von der Klage nicht einschüchtern lassen.

Der Überwachungskonzern Palantir verklagt das Republik Magazin wegen dessen Berichterstattung und verlangt eine Gegendarstellung. Das gab heute die Journalistin Adrienne Fichter in sozialen Medien bekannt, ein Sprecher von Palantir bestätigte den Vorgang gegenüber netzpolitik.org.
Im Dezember hatte das Magazin berichtet, wie Palantir versuchte, in der Schweiz Fuß zu fassen – und wie das Schweizer Militär eine Zusammenarbeit ablehnte, weil es unter anderem zum Schluss kam, dass ein Abfluss von Daten aus den Palantir-Systemen technisch nicht verhindert werden könne.
Wenige andere Medien haben in letzter Zeit so viel und so detailliert über Palantir berichtet wie das kleine leser:innenfinanzierte Schweizer Magazin mit seinen 30.000 Abonnent:innen. Palantir hingegen ist ein milliardenschwerer Überwachungs- und Datenkonzern, dessen Software zahlreiche Polizeibehörden, Militärs und Geheimdienste weltweit verwenden. Auch in Deutschland arbeiten Polizeien mit dem Unternehmen zusammen. Obwohl der Einsatz der Software von Palantir höchst umstritten ist, schaffen hierzulande neue Polizeigesetze gerade die rechtliche Grundlage für den ausgeweiteten Einsatz derartiger Software.
Das Unternehmen Palantir gehört unter anderem dem rechtsgerichteten Oligarchen Peter Thiel, der aus seiner Verachtung für die Demokratie kein Geheimnis macht. Die Systeme des Konzerns helfen Trumps Polizeitruppe ICE bei ihren Abschiebe-Einsätzen und dem israelischen Militär bei dessen Kriegen. Palantir wird dem „Authoritarian Stack“ zugerechnet, also privatwirtschaftliche Unternehmen, die zunehmend in staatliche Kontroll- und Überwachungssysteme eingreifen und diese übernehmen.
Schweizer Militär warnte vor Sicherheitsrisiken
Offenbar macht investigativer Journalismus den Überwachungsriesen nervös: Im Dezember hatte Republik eine zweiteilige Recherche veröffentlicht, in der das Medium nachzeichnete, wie der Überwachungskonzern um unterschiedliche Schweizer Behörden geworben hatte. Grundlage der Recherche waren Dokumente, die das Rechercheteam durch Informationsfreiheitsanfragen erhalten hatte. Trotz sieben Jahren Klinkenputzen gelang es Palantir demnach nicht, einen Vertrag mit Schweizer Institutionen und Behörden abzuschließen.
Die Republik fand dabei etwa heraus, dass der Generalstab der Schweizer Armee die Software evaluiert hatte und zu dem Schluss gekommen war, dass die Armee auf den Einsatz von Palantir-Produkten verzichten sollte. Die Militärexperten fürchteten, dass ein Abfluss von Daten aus den Palantir-Systemen hin zu US-amerikanischen Geheimdiensten wie CIA und NSA technisch nicht verhindert werden könne.
Die Recherche fand international Widerhall, auch der Guardian berichtete. Britische Abgeordnete verwiesen auf die Schweizer Einschätzung. „Ich denke, die Schweizer Armee hat das Recht, misstrauisch zu sein“, sagte etwa der Labour-Abgeordnete Clive Lewis.
Weltpolitik vor dem Handelsgericht
Gegen diese Berichterstattung hatte Palantir laut der verantwortlichen Tech-Reporterin Adrienne Fichter in der Weihnachtszeit einen Blogbeitrag bei LinkedIn in Stellung gebracht, in dem der Palantir-Manager Courtney Bowman der Republik unter anderem Verzerrungen, Andeutungen und grenzwertige Verschwörungstheorien vorwarf. Am 29. Dezember verlangte Palantir Fichter zufolge dann per Anwaltsschreiben eine Gegendarstellung in der Republik. Das lehnte das Magazin nach eigener Aussage ab. Im Januar wiederholte der Konzern demnach seine Forderung. Die Republik lehnte wieder ab. Nun zieht Palantir also vor das Handelsgericht in Zürich um eine Gegendarstellung durchzusetzen.
Adrienne Fichter schreibt, dass der Krieg, den die autoritäre Tech-Oligarchie gegen die Medien führe, mit der Klage eine neue Stufe erreicht habe. Palantir wolle nicht, dass die Republik die Wahrheit schreibe. Die Berichterstattung mache das Unternehmen nervös. „Selbstverständlich haben wir uns stets an die hohen Standards journalistischer Arbeit gehalten. Vor der Veröffentlichung haben wir eine gründliche Faktenprüfung durchgeführt“, so Fichter weiter. Die Recherchen in Bezug auf die Schweiz und Zürich basierten neben den eigenen Erkenntnissen zudem auf der Berichterstattung renommierter Medien.
Laut Fichter hat die Republik eine „umfassende Verteidigungsschrift“ eingereicht. „Alle unsere Feststellungen können wir mit verschiedenen Dokumenten und öffentlich zugänglichen Medienberichten belegen.“ In Zürich werde nun vor dem Gericht bald Weltpolitik verhandelt, so Fichter weiter. Für sie ist klar: „Wir lassen uns nicht einschüchtern.“
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Das geplante Polizeigesetz in Sachsen-Anhalt wurde heute vom Innenausschuss beschlossen. Es soll Analysen riesiger Datenmengen bei der Polizei erlauben. Sachverständige hatten den Entwurf wegen der Missachtung von Vorgaben aus Karlsruhe heftig kritisiert. Ob für die Datenanalyse eine Palantir-Software genutzt werden soll, steht noch nicht fest.

Der Innenausschuss von Sachsen-Anhalt hatte heute einen Gesetzentwurf auf der Tagesordnung, der es in sich hat: Die Polizei soll eine Reihe neuer Befugnisse bekommen, darunter auch die polizeiliche Datenanalyse. Hinter dem Begriff versteckt sich die Idee, die verschiedenen Datentöpfe der Polizei zusammenzuführen und die Informationen darin automatisiert auszuwerten.
Bisher wird in den vier Bundesländern, die eine solche Datenanalyse in ihren Polizeigesetzen erlauben und anwenden, die Softwarelösung „Gotham“ des US-Konzerns Palantir genutzt. Aus geopolitischen Gründen ist der US-Anbieter aber gerade bei sensiblen polizeiinternen Daten alles andere als die erste Wahl. Die Softwaresysteme des Konzerns sind proprietär und die genauen Funktionen Geschäftsgeheimnisse.
Palantir
Wir berichten mehr über Palantir als uns lieb wäre. Unterstütze unsere Arbeit!
Die automatisierte polizeiliche Datenanalyse ist auch rechtlich längst kein unbeschriebenes Blatt mehr, sondern wurde bereits wegen Gesetzen in Hessen und Hamburg beim Bundesverfassungsgericht verhandelt. Beide Gesetze waren in Teilen verfassungswidrig. Auch Nordrhein-Westfalen, Bayern und Baden-Württemberg stehen gerade wegen der Datenanalyse-Regelungen in ihren Polizeigesetzen und wegen der Zusammenarbeit mit Palantir in der Kritik. Ein Urteil des Bundesverfassungsgerichts aus dem Februar 2023 macht weitreichende und detaillierte Vorgaben für solche Datenzusammenführungen.
Das Urteil, das alle deutschen Gesetzgeber bindet, scheint aber nicht überall mit der genügenden Expertise gelesen worden zu sein: In Sachsen-Anhalt war der Gesetzentwurf von Sachverständigen harsch kritisiert worden, weil er die Vorgaben aus Karlsruhe nicht ausreichend umsetzt.
Experten zerpflücken automatisierte Datenanalyse bei der Polizei Sachsen-Anhalt
Doch die Experten stießen offenbar auf taube Ohren: Ohne Korrekturen wurden die geplanten gesetzlichen Regelungen zur Datenanalyse nun von den Regierungsparteien CDU, SPD und FDP als Beschlussempfehlung an das Parlament gegeben. Der Gesetzentwurf blieb unverändert in der ursprünglichen Fassung von 14. Januar 2025, was die umstrittene Datenanalyse angeht. Die Regierungskoalition kündigte aber einen Entschließungsantrag zur zweiten Lesung im Landtag an. Der Inhalt des Antrags ist noch unbekannt.
Nicht nur ein Problem Sachsen-Anhalts
Die Juristin und Palantir-Expertin Franziska Görlitz von der Gesellschaft für Freiheitsrechte (GFF) hatte die Datenzusammenführung von Polizeidaten, die im sachsen-anhaltinischen Gesetz Strategische Datenanalysen und Operative Datenanalysen heißen, in ihrer Stellungnahme als „schwerwiegenden Grundrechtseingriff“ bewertet. Die Grenzen vor allem der Strategischen Analyse würden das Urteil des Bundesverfassungsgerichts zur automatisierten Datenanalyse aus dem Jahr 2023 missachten: Die „vorgesehenen Eingriffsschwellen“ genügten den Vorgaben aus Karlsruhe nicht.
Die Datenmenge der Analyse ist im Gesetzentwurf nicht beschränkt. Da zahlreiche polizeiliche Datenbanken und Auskunfts- und Informationssysteme einbezogen werden dürfen, ist das Polizeigesetz damit nicht nur ein Problem Sachsen-Anhalts. Denn es fließen auch Daten in die Analyse ein, die gar nicht von der dortigen Landespolizei erhoben wurden.

Darauf verwies auch Jonas Botta, Sachverständiger in der Anhörung und Verfassungs- und Datenschutzjurist beim Deutschen Forschungsinstitut für öffentliche Verwaltung. Es sei keine herkunftsbezogene Beschränkung im Gesetzentwurf enthalten. So würden beispielsweise sogar Daten in die Analyse einfließen dürfen, die nicht einmal von inländischen Polizeibehörden stammen. Das betrifft etwa Geheimdienstdaten vom Verfassungsschutz, Bundesnachrichtendienst oder Militärischen Abschirmdienst, die an Polizeibehörden übermittelt wurden. Es sei nach dem Gesetzentwurf zulässig, Geheimdienstinformationen, die sich „in den polizeilichen Datenbeständen befinden, in eine Analyseplattform einzuspeisen“, so Botta in seiner Stellungnahme.
Gegenüber netzpolitik.org sagt Juristin Görlitz, dass im geplanten Polizeigesetz „weitgehend unbegrenzte Analysen riesiger Datenmengen bei der Polizei unter zu geringen Voraussetzungen“ vorgesehen seien. Das beträfe auch Daten völlig unverdächtiger Menschen, darunter beispielsweise auch vermisste Personen oder Opfer von Straftaten. Es könnten „Unbeteiligte ins Visier der Polizei geraten, ohne dass sie dafür Anlass geboten haben“.

Wie diese Analysen ablaufen, sei im Gesetz „kaum eingeschränkt“. Es mangele auch an „ausreichender Kontrolle und Sicherungen“, um wirksam vor Fehlern, diskriminierender Software und Missbrauch zu schützen. Das sei deswegen problematisch, weil die polizeilichen Datenanalysen weitgehende Überwachungsmaßnahmen seien, die tief in die Grundrechte eingriffen, ohne dass die Betroffenen das überhaupt mitbekämen.
Görlitz erklärt unzweideutig: „Die vom Bundesverfassungsgericht aufgestellten Anforderungen für Datenanalyse-Befugnisse sind nicht eingehalten.“
Auch hat das Gesetz in Sachsen-Anhalt weitere Defizite, die bereits in anderen Bundesländern kritisiert wurden. In Hessen liegt etwa eine Verfassungsbeschwerde der GFF gegen das dortige Polizeigesetz und die automatisierte Datenanalyse vor, die das hohe Gericht aktuell bearbeitet. Gerügt wird darin insbesondere, dass zuviele konkret im Gesetz zu regelnde Vorgaben kurzerhand in Verordnungen ausgelagert werden.
Das kritisiert Görlitz auch an den sachsen-anhaltinischen Plänen, bei denen die Befugnis zu Datenanalysen nicht ausreichend beschränkt sei. Der Gesetzgeber „überlässt es der Verwaltung, selbst Beschränkungen festzulegen“. Die Juristin hat keine Zweifel: „Der Entwurf ist daher verfassungswidrig.“
Opposition gegen eine Zusammenarbeit mit Peter Thiel und Palantir
Die Sachverständigen senkten unmissverständlich die Daumen. Und auch die Opposition im Landtag ist nicht begeistert: Sowohl die Linke als auch die Grünen sehen die Datenanalyse-Befugnisse kritisch.
Die Linken erklären gegenüber netzpolitik.org ihre Ablehnung der Pläne zur Zusammengeführung der Polizeidaten, auch weil diese Menschen einbezieht, ohne dass sie sich „was zu Schulden haben kommen lassen“. Eva von Angern, Fraktionsvorsitzende der Linken, betont: „Ein gläserner Bürger ist mit uns Linken nicht zu machen.“ Sie stellt sich explizit „gegen eine Zusammenarbeit mit Peter Thiel, der Palantir mit entwickelt hat und einer der wichtigsten Hintermänner der rechtsautoritären Wende in den USA ist“.
Die grüne Fraktion erklärt gegenüber netzpolitik.org, dass sie den vom Innenausschuss durchgewunkenen Gesetzentwurf „aufgrund des Überwachungsdrucks, der Streubreite und der Diskriminierungsgefahr“ schlicht als „ verfassungswidrig“ erachte. Das sagt Sebastian Striegel, innenpolitischer Sprecher der Fraktion Bündnis 90/Die Grünen im Landtag von Sachsen-Anhalt, und betont: „CDU, SPD und FDP haben heute im Ausschuss alle praktikablen und verfassungsrechtlichen Bedenken und Zweifel an den Gesetzesvorhaben beiseite gewischt.“
Das Gesetz sei „im Design auf Produkte des Herstellers Palantir zugeschnitten“. Die Landesregierung gebe sich hier „kenntnislos“ und schiebe „Verantwortung an den Bund ab“. Ob im Bund jedoch auch Innenminister Alexander Dobrindt (CSU) auf die Palantir-Karte setzen wird, hat er noch nicht öffentlich kundgetan.
Gefährliche AfD-Vorzeichen
Die langjährige Landesinnenministerin von Sachsen-Anhalt, Tamara Zieschang (CDU), ist offenbar keine allzu starke Verfechterin der Palantir-Softwarelösung. Sie setzt sich für eine alternative Software für die Polizei ein, die all die Datentöpfe der Behörden zusammenführt.
Allerdings steht eine solche Alternative nicht sofort zur Verfügung, anders als die Softwarelösung des US-amerikanischen Konzerns. Denn das Bundesland Bayern hatte einen Rahmenvertrag ausgehandelt, in den auch Sachsen-Anhalts Polizei kurzfristig einsteigen könnte. Daher brachte Zieschang die Systeme von Palantir als eine Art Zwischenlösung als Gespräch.
Das geplante Polizeigesetz in Sachsen-Anhalt entsteht unter gefährlichen Vorzeichen: Im September 2026 wird dort gewählt. Und eine Regierungsübernahme der AfD scheint nicht ausgeschlossen, wenn man den Umfragen glaubt. Sie sehen die Rechtsradikalen in Sachsen-Anhalt bei Werten um die vierzig Prozent.
Selbst wenn die aktuelle Regierung aus CDU, SPD und FDP doch nicht die bisher favorisierte Interimslösung umsetzt und sich noch gegen den US-Anbieter Palantir entscheidet, könnte die AfD nach der Wahl die Karten neu mischen. Die guten Kontakte ins Trump-MAGA-Lager, in das sich auch der US-Konzern eingeordnet hat, weisen schon in diese Richtung.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Die EU-Kommission hat einen Aktionsplan gegen Cybermobbing unter Minderjährigen vorgelegt. Dazu gehört eine neue Melde-App, die viele Nachrichtenmedien aufgreifen. Bei näherer Betrachtung kratzt der Aktionsplan jedoch nur an der Oberfläche. Eine Analyse.

„Du stinkst“, „du bist hässlich“, „geh sterben“ – auf dem Schulhof können Sätze fallen, die viele Erwachsene selten hören. Häufen sich solche Dinge gegenüber einer bestimmten Person über längere Zeit, spricht man von Mobbing. Inzwischen passiert das auch online.
Gegen dieses sogenannte Cybermobbing will die EU-Kommission mit einem neuen Aktionsplan vorgehen. Ihre Ankündigung hat sie mit dem Bild aus einer Fotodatenbank illustriert. Zu sehen ist eine sonderbare Computer-Tastatur. Statt einer Umschalttaste hat sie eine feuerrote Taste mit der Aufschrift „STOP Cyberbullying“. Ein Finger bewegt sich vom rechten Bildrand auf diese Taste zu. Das erweckt den Eindruck, man könne Cybermobbing quasi per Knopfdruck beenden.
Was wir auf dem Bild nicht sehen: Menschen. Etwa einen Teenager, der sich einer Pädagogin anvertraut oder zwei Freund*innen, die sich gegenseitig Trost spenden. Es könnte eine Nebensache sein, doch in diesem Fall ist das Motiv mit der fiktiven Tastatur ein Sinnbild dafür, wie die EU-Kommission das Thema vorwiegend angeht: technisch und distanziert.
Die EU-Kommission, so geht es aus dem 18-seitigen Aktionsplan hervor, möchte Cybermobbing primär als ein Problem von Plattformregulierung und digitaler Infrastruktur bearbeiten. Die Beziehungen zwischen Kindern, Jugendlichen und Erwachsenen spielen eine Nebenrolle. Zeit und Vertrauen – die für gute Fürsorge oftmals entscheidenden knappen Ressourcen – stehen nicht im Zentrum. Das zeigt ein näherer Blick auf die drei Säulen des Aktionsplans.
Erste Säule: Mit Plattformregulierung gegen Cybermobbing
In der ersten von drei Säulen des Aktionsplans gegen Cybermobbing zitiert die EU-Kommission einschlägige Digitalgesetze, allen voran das Gesetz über digitale Dienste (DSA). Es ist das wohl wichtigste Regelwerk für Plattformen, auf denen auch Minderjährige Inhalte teilen können, etwa Instagram, TikTok, Snapchat.
„Soziale Medien sind der primäre Kanal, über den Kinder und Heranwachsende Cybermobbing ausgesetzt werden“, heißt es im Aktionsplan. Folglich will die EU-Kommission bei der bevorstehenden Prüfung der DSA-Regeln für Minderjährige den „Fokus“ auf Cybermobbing und Meldemechanismen stärken. Zudem gebe es bald Leitlinien für vertrauensvolle Hinweisgeber*innen („Trusted Flaggers“). Das sind zum Beispiel NGOs, die mit besonderer Expertise Inhalte auf Plattformen recherchieren und melden.
Dabei fällt unter den Tisch, dass Inhalte auf Plattformen nur ein Symptom von Mobbing unter Kindern und Jugendlichen sind. Primär geht es beim Mobbing allerdings nicht um regulierbaren „Content“, sondern um zwischenmenschliche Beziehungen.
Mehr als 80 Prozent der Fälle von Cybermobbing geschehen im schulischen Umfeld, das zeigt eine deutsche Studie des „Bündnis gegen Cybermobbing“ aus dem Jahr 2024. Dafür haben rund 4.200 Schüler*innen von sieben bis 20 Jahren, 1.000 Eltern und 630 Lehrer*innen ihre Erfahrungen geschildert. Demnach kennen zwei Drittel der Betroffenen die Täter*innen persönlich. Offline und online gehören beim Mobbing eng zusammen.
Eine ebenso 2024 veröffentlichte Umfrage des Deutschen Jugendinstituts (DJI) macht anschaulich, welche Form Cybermobbing häufig annimmt. Demnach gibt es Kinder und Jugendliche, die andere online bedrohen oder beleidigen, deren Fotos verbreiten, sie aus Online-Gruppen ausschließen – oder neue Gruppen gründen, um sich dort über sie lustig zu machen.
Wo genau Cybermobbing mehrheitlich geschieht, hat wiederum das Sinus-Institut mit der Krankenkasse Barmer näher erforscht. Das Ergebnis: „Eindeutiger Spitzenreiter unter den Cybermobbing-Kanälen ist weiterhin unangefochten WhatsApp.“ Diesen Messenger nannte demnach jede*r zweite Befragte. Das dürfte damit zusammenhängen, dass WhatsApp für viele die Plattform schlechthin für Klassenchats ist. Wer nachts im Klassenchat gemobbt wird, sitzt am nächsten Morgen wieder mit den Bullys zusammen im Klassenzimmer.
Nachrichten auf WhatsApp sind allerdings Ende-zu-Ende-verschlüsselt und deshalb privat. Das heißt, ein großer Teil von Cybermobbing bietet kaum Anknüpfungspunkte für Plattformregulierung. Für Betroffene steht vielmehr im Mittelpunkt, wie Konflikte in der eigenen Schulklasse ausgetragen werden, wie Lehrer*innen und Aufsichtspersonen helfen können.
Zweite Säule: Mit Info-Material gegen Cybermobbing
Die zweite Säule der EU-Kommission dreht sich um Prävention und Aufklärung. Wie die Kommission betont, müsse Prävention alle Akteur*innen einbeziehen – Gleichaltrige, Täter*innen, Eltern, Betreuer*innen, Lehrkräfte, „die gesamte Schulgemeinschaft“ und die Zivilgesellschaft.
Laut Aktionsplan will die EU-Kommission diesen Akteur*innen vor allem eines bieten: Infomaterial. Es geht primär um Leitlinien, Ressourcen und Werkzeugkästen, um Digitalkompetenz und Bildung.
Kaum eine Rolle spielt im Aktionsplan, dass es beispielsweise in deutschen Schulen vor allem an Zeit und Personal fehlt. Zuletzt hatte etwa die Leopoldina dieses Thema behandelt. In ihrem Diskussionspapier schreiben die Forschenden der Wissenschaftsgesellschaft darüber, wie sich soziale Medien auf die psychische Gesundheit von Kindern und Jugendlichen auswirken. Demnach gebe es in Deutschland keinen Mangel an Infomaterial. „Häufig scheitert schlicht die Umsetzung in den Schulen.“ Die Gründe dafür seien vielfältig. „Es fehlt unter anderem an Fachpersonal, Zeit“ oder „Fortbildungsmöglichkeiten für Lehrkräfte“, so die Leopoldina.
Info-Kampagnen kosten vergleichsweise wenig. Teuer ist es dagegen, Pädagog*innen einzustellen, sie auf Fortbildungen zu schicken und ihnen die Zeit einzuräumen, ihre Kenntnisse im schulischen Alltag anzuwenden. Die Zuständigkeit dafür liegt in den Mitgliedstaaten, in Deutschland bei den Bundesländern.
Spielräume hat die EU dennoch. Darauf geht der Aktionsplan zumindest in Ansätzen ein. So nennt die Kommission etwa das Programm Erasmus+. Es soll „allgemeine und berufliche Bildung, Jugend und Sport“ fördern. Dafür müssen Organisationen Anträge stellen. Bei deren Prüfung will die EU verstärkt auf Projekte für gutes Schulklima achten. Der Einfluss auf Cybermobbing geschieht also eher indirekt. Der Aktionsplan macht keine direkten finanziellen Zusagen und nennt keine messbaren Zielgrößen.
Dritte Säule: Mit einer App gegen Cybermobbing
Die dritte und letzte Säule aus dem Aktionsplan hat Nachrichtenmedien offenbar am meisten interessiert: „EU will mit Melde-App gegen Cybermobbing vorgehen“, titelte zum Beispiel tagesschau.de.
In einer separaten Ankündigung schreibt die EU-Kommission von einer „Online-Sicherheits-App“, mit der Opfer „zurückschlagen“ können, auf Englisch: „fight back“. Zumindest auf dem dazugehörigen Symbolbild sind Menschen zu sehen: drei Jungs – möglicherweise bereit „zurückzuschlagen“.
Einen Prototypen für die App will die EU-Kommission laut Aktionsplan selbst vorlegen. Auf dessen Basis könnten die Mitgliedstaaten ab dem dritten Quartal dieses Jahres eigene Versionen entwickeln.
Was die Online-Safety-App genau können soll, beschreibt die Kommission eher knapp. Drei Schwerpunkte lassen sich herauslesen.
- Helfen. Demnach könnte die App Anlaufstellen und Beratungsangebote für Betroffene bündeln. Die Rede ist etwa von Hilfs-Hotlines und Kinderschutz. Es geht also um fachliche und emotionale Begleitung. Vorbild sei die französische App „3018“ der NGO E-Enfance. Im Google Play Store wurde die App nur rund 10.000 Mal heruntergeladen. Die EU-Kommission bezeichnet „3018“ als „erfolgreich“.
- Löschen. Die Online-Safety-App könne laut Aktionsplan per Programmierschnittstelle einen direkten Draht zu Online-Plattformen bekommen. So könnten Nutzer*innen über die App deren Inhalte melden. Grundlage ist der DSA, der Plattformen dazu verpflichtet, solche Meldungen zeitnah zu prüfen. Allerdings müssen Plattformen laut DSA auch selbst zugängliche und benutzerfreundliche Meldeverfahren einrichten. Das wirft die Frage auf, welchen Sinn der Umweg über eine separate App hätte.
- Anzeigen. Offenbar stellt sich die EU-Kommission vor, dass Minderjährige über die App auch die Polizei einschalten können. Im Aktionsplan ist das allerdings noch nicht kindgerecht formuliert. Die Rede ist von „maßgeschneiderter Unterstützung durch koordinierte Überweisung an zum Beispiel Strafverfolgungsbehörden“. Die App soll auch elektronische Beweise sicher „speichern und übermitteln“ können.
Je nach Ausgestaltung könnte die „Online-Safety-App“ also sehr unterschiedliche Richtungen einschlagen. Laut EU-Kommission hänge der Erfolg der App davon ab, ob Mitgliedstaaten sie zugänglich machen und unterstützen. Der Erfolg dürfte allerdings vielmehr davon abhängen, ob Kinder und Jugendliche die App überhaupt benutzen möchten.
In Deutschland gibt es bereits Anlaufstellen für hilfesuchende Kinder und Jugendliche, etwa die Nummer gegen Kummer oder Juuport. Beides sind gemeinnützige Vereine. Arbeit im sozialen Bereich ist oft ehrenamtlich oder prekär. Anfang 2025 hat die Stadt Berlin der „Nummer gegen Kummer“ Mittel gestrichen. Betroffen sind demnach 100 der insgesamt 3.800 ehrenamtlichen Mitarbeiter*innen in Deutschland.
Geht es nach dem Aktionsplan der EU-Kommission, bekommen Hilfsangebote wie die „Nummer gegen Kummer“ zwar keine Aussicht auf bessere Finanzierung. Aber sie sollen sich wohl um die Integration in eine Melde-App kümmern – zusammen mit unter anderem TikTok, Facebook, Instagram und Polizeibehörden.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Fast die Hälfte der Asylverfahren werden mittlerweile mit Hilfe einer Blockchain verwaltet, zumindest von Registrierung bis Anhörung. Immer mehr Bundesländer nutzen das Assistenzsystem des Bundesamts für Migration und Flüchtlinge, die Behörde wird zunehmend zum Software-Anbieter.

Seit 2018 arbeitet das Bundesamt für Migration und Flüchtlinge an einem Blockchain-System, das mittlerweile den blumigen Namen FLORA trägt. FLORA, das steht für „Föderale Blockchain Infrastruktur Asyl“. Ziel des Assistenzsystems ist vor allem, verschiedene beteiligte Behörden bei „Registrierung, Aktenanlage und Anhörung“ zu unterstützen. Über das System sollen sie den Status von Asylverfahren abrufen können – zumindest in der Zeit zwischen der Registrierung etwa bei einer Ausländerbehörde und der Anhörung durch das BAMF.
2021 startete der Pilotbetrieb für FLORA, ab 2022 wurde das System produktiv genutzt – zuerst in Sachsen und Brandenburg. Mittlerweile kommt das Blockchain-Projekt zusätzlich in Rheinland-Pfalz, Baden-Württemberg, Niedersachsen, Mecklenburg-Vorpommern, Hessen und Thüringen zum Einsatz. „Derzeit werden ca. 47 Prozent der bundesweit bearbeiteten Asylverfahren mit Unterstützung durch FLORA durchgeführt“, so eine Sprecherin des BAMF gegenüber netzpolitik.org. Bayern, Nordrhein-Westfalen, Berlin und Sachsen-Anhalt sollen folgen, bis Ende 2027 soll die Anbindung der interessierten Länder abgeschlossen sein.
Ausbau der Funktionen liegt auf Eis
Eigentlich sollte die Blockchain-Lösung auf Basis des Open-Source-Frameworks Hyperledger Fabric nicht nur räumlich, sondern auch funktional noch weiter ausgebaut werden: beispielsweise auf die Verteilung von Geflüchteten auf Landkreise und Kommunen oder EU-weit bei der Koordination, welcher Mitgliedstaat für ein Asylverfahren zuständig ist. Doch diese Pläne, so das BAMF, liegen vorerst auf Eis. Oder wie die Behörde es ausdrückt: wurden „zurückgestellt“.
Grund dafür sei, dass die Priorität auf einem bundesweiten Roll-out des Systems liege. „Maßgeblich für diese Entscheidung“, so das BAMF, „waren die umfangreichen Haushaltskürzungen zu Beginn des Jahres 2024“. Damals fehlten im Kernhaushalt rund 17 Milliarden Euro, die von der damaligen Ampel-Regierung an verschiedenen Stellen gekürzt wurden. Dem fiel auch die funktionale Ausweitung des Blockchain-Projekts zum Opfer.
FLORA indes hat sein ganz zu Beginn geplantes Budget schon seit langem gesprengt. 2019, nach der Machbarkeitsstudie, waren für das Projekt „Verwaltung von Asylprozessen in der Blockchain“ noch insgesamt 4,53 Millionen Euro veranschlagt gewesen. Mittlerweile liegen die Gesamtkosten für Entwicklung und Betrieb von FLORA bis Ende 2025 bei 25.710.867,50 Euro, das ist mehr als das Fünffache. Die ursprünglich geplanten Beträge waren schon 2020 erreicht, noch bevor es einen ersten Pilotbetrieb gab.
Der Aufwand, eine datenschutzkonforme, Blockchain-basierte Lösung für die Koordinierung von Prozessen zu konzipieren, die jede Menge personenbezogener Daten involvieren, war hoch. Juristen und Informatiker suchten nach Wegen, das zu realisieren. Sie erstellten Machbarkeitsstudien und Gutachten und am Ende lautete das Fazit – vereinfacht gesagt: Das ist eine Menge Aufwand, aber möglich. Dass es geht, hat das BAMF mittlerweile gezeigt. Dass das Projekt entsprechend teuer geworden ist, auch.
Die Bundesländer als „Kunden“
Die Kosten würden sich, so das BAMF, aus dem Roll-out und der Anbindung von Bundesländern ergeben. Außerdem habe es 2024 eine Neuentwicklung der FLORA-Cloudversion gegeben. In einem wissenschaftlichen Bericht von Forschenden der Universitäten von Luxembourg und Arkansas klingt an, was wohl den größeren Aufwand verursacht hat: Das BAMF hatte zu Beginn auf dezentrales Hosting von FLORA gesetzt und mehr Verantwortung bei den Bundesländern gesehen. Die Forschenden schreiben: „Diese Bemühungen gerieten jedoch ins Stocken, als die Bundesländer eine schnelle Einführung des FLORA-Systems forderten. Daraufhin beschloss das FLORA-Team, seinen (De-)Zentralisierungskompromiss weiter zu formalisieren.“
Die Länder wollten also offenbar nicht alles selbst machen, sondern am liebsten eine fertige Lösung nach ihren Anforderungen nutzen, schlüsselfertig und ohne Zusatzaufwand. Das BAMF übernahm so immer mehr Verantwortung für die FLORA-Infrastruktur, die Bundesländer wurden immer mehr zu „Kunden“ des Bundesamts – die Anpassungen bestellten, um ihre eigenen Prozesse abzubilden.
Zahlen müssen die Bundesländer dafür praktischerweise nicht. Das BAMF schreibt: „Hier entstehen für die Bundesländer keine eigenen Kosten, da das BAMF die Anwendung an die Anforderungen des einzelnen Bundeslands anpasst und die benötigte Infrastruktur zur Nutzung bereitstellt.“
Weitere Kosten, so die Sprecherin des BAMF, sind angefallen, weil die Reform des europäischen Asylsystems (GEAS) Änderungen im System erforderlich macht. Derartige Anpassungen werden in diesem Jahr weiterhin erforderlich sein, denn die nationale Umsetzung von GEAS in Deutschland ist längst nicht abgeschlossen. Obwohl die EU-Regeln ab Juni 2026 in allen EU-Staaten anwendbar sein sollen, hat Deutschland bisher seine Anpassungsgesetze nicht verabschiedet, sie liegen weiterhin zur Beratung im Bundestag.
Und bevor die genauen nationalen Regeln nicht klar sind, lassen sich die IT-Systeme nicht so einfach aktualisieren. Die Zeit wird knapp, es bleiben nur noch vier Monate. Die Bundesregierung sieht „eine erhebliche Herausforderung“ darin, die GEAS-Regelungen rechtzeitig umzusetzen, schrieb sie im Januar – was längst nicht nur FLORA betrifft, sondern eine Vielzahl von IT-Systemen von BAMF und anderen Behörden.
Interesse eingeschlafen
Das BAMF will unterdessen FLORA „zur Unterstützung des Fristenmanagements“ weiterentwickeln. Durch GEAS würden sich Bearbeitungsfristen für das BAMF „zum Teil deutlich verkürzen“. Wie lange die Fristen etwa zur Entscheidung von Asylanträgen letztlich in Deutschland sein werden, ist noch nicht festgelegt. Die EU-Regeln geben den Mitgliedstaaten einen Spielraum, die Details müssen in einem nationalen Gesetz definiert werden.
Auf europäischer Ebene, so wirkt es, ist das Interesse an der Asyl-Blockchain mittlerweile eingeschlafen. „Die Kontaktaufnahme mit anderen EU-Staaten wurde im Zuge der Neuausrichtung des Projekts zu Beginn 2024 zurückpriorisiert“, so das BAMF. Aktuell seien keine weiteren Aktivitäten bekannt oder Gespräche geplant“. Ein gemeinsames Projekt mit Frankreich, eine Blockchain-basierte Lösung für die Zuständigkeitsbestimmung von EU-Ländern im bisherigen Dublin-Verfahren zu nutzen, wurde eingestellt, „da das EU-Partnerland das Projekt nicht weiterbetrieben hat“.
Während der allgemeine Blockchain-Hype also deutlich abgeflacht ist, arbeitet das BAMF unbeirrt weiter an der Technologie. Und wird, wie es aussieht, auch in den nächsten Jahren jede Menge Support für die involvierten Bundesländer-Kunden leisten müssen.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Seit Australien Minderjährige aus sozialen Medien aussperrt, vergeht hier keine Woche ohne Forderungen nach ähnlichen Verboten. Im Interview warnt Medienrechtler Stephan Dreyer: Die politische Debatte habe sich von Forschung und Rechtslage entkoppelt.

Bis zu ihrem 16. Geburtstag dürfen Kinder und Jugendliche in Australien keine Accounts auf Instagram, TikTok, YouTube oder Reddit haben. Seit dem 10. Dezember 2025 dürfen sie dort nichts liken, kommentieren oder gar selbst hochladen. Inhalte hinter einer Log-in-Schranke können sie sich nicht anschauen. Außer natürlich sie umgehen das Verbot mit simplen Werkzeugen wie VPN-Diensten.
Dieses australische Modell fordern inzwischen auch führende Politiker*innen in Deutschland und Europa. Zu den prominenteren Befürwortern gehört der französische Präsident Emmanuel Macron. Ende Januar hat ein französisches Gesetz die erste Hürde in der Nationalversammlung genommen, dem Unterhaus des Parlaments. Ähnliche Vorstöße gibt es auch in Spanien, Griechenland und Österreich.
In Deutschland hat die Bundesregierung zunächst eine Expert*innen-Kommission eingerichtet. Sie soll „Schritte für einen effektiven Kinder- und Jugendmedienschutz prüfen“. Dennoch ist die Debatte um ein Verbot bereits heißgelaufen. Sobald einzelne deutsche Politiker*innen das Social-Media-Verbot befürworten, machen Nachrichtenmedien daraus eine Schlagzeile.
Währenddessen setzt die EU-Kommission bereits bestehende Jugendschutz-Regeln weiter um. Jüngst hat sie deshalb ein Verfahren gegen TikTok gestartet. Im Visier: Das süchtig machende Design der Plattform, deren algorithmisch sortierte Feeds für ihre Sogwirkung bekannt sind. Grundlage ist das Gesetz über digitale Dienste (DSA), das darauf abzielt, Plattformen so zu gestalten, dass Kinder und Jugendliche dort sicherer unterwegs sind.
Ein aufmerksamer Beobachter der Politik rund um Jugendschutz im Netz ist der Medienrechtler Stephan Dreyer. Am Leibniz-Institut für Medienforschung beschäftigt er sich damit, was es heißt, mit digitalen Medien aufzuwachsen. Im Interview erklärt er, warum nationale Social-Media-Verbote in der EU auf tönernen Füßen stehen – und warum er ein Verbot für Minderjährige trotzdem kommen sieht.
„Es geht um die mentale Krise der Jugend“
netzpolitik.org: Stephan Dreyer, warum wollen alle Social Media für Minderjährige verbieten?
Stephan Dreyer: Das Thema kocht gerade global hoch. Zumindest medial wird kolportiert, dass wir eine mentale Krise der Jugend hätten. Demnach sind soziale Medien im schlimmsten Fall an dieser Krise schuld, im besten Fall sollen sie eine Mitschuld tragen. Als erstes ist Australien vorgeprescht. Seit dem 10. Dezember gibt es dort ein Social-Media-Verbot für unter 16-Jährige. Seitdem gibt es viele ähnliche Vorstöße, auch in Europa. Was mich daran überrascht, ist, wie entkoppelt der politische Diskurs von Rechtslage und Forschungslage stattfindet.
netzpolitik.org: Wie ist denn die Forschungslage?
Stephan Dreyer: Komplex. Es ist unglaublich schwer, Mediennutzung als kausale Ursache psychischer Erkrankungen nachzuweisen. Es verdichten sich allerdings Hinweise, dass bestimmte Nutzungsformen mit bestimmten Erkrankungen zusammenhängen. Zum Beispiel hängt negatives Körperbefinden stark zusammen mit dem sozialen Vergleich auf Social Media. Ein anderes Beispiel sind körperliche Beeinträchtigungen durch Schlafmangel, wenn Kinder und Jugendliche spät abends soziale Medien nutzen. Studien zeigen zwar die Zusammenhänge, aber wir wissen nicht, ob sie kausal sind. Andererseits hat der Staat auch eine Vorsorgeaufgabe, was das gute Aufwachsen von Kindern angeht.
netzpolitik.org: Ist das australische Modell eine gute Vorsorge?
Stephan Dreyer: Das wissen wir nicht. Es ist bisher nichts weiter passiert, als dass sich Plattform-Anbieter an das neue Gesetz gehalten und mehrere Millionen Accounts gelöscht und deaktiviert haben. Von einem Erfolg des Gesetzes lässt sich deshalb nicht sprechen. Denn es geht ja um die mentale Krise der Jugend. Bis wir hierzu Ergebnisse sehen, brauchen wir jede Menge gute Forschung und auch ein bisschen Zeit.
Nationales Social-Media-Verbot „nicht anwendbar“
netzpolitik.org: EU-Staaten wie Frankreich, Österreich, Spanien und Griechenland wollen nicht warten. Sie wollen das australische Modell. Und zwar sofort. Geht das?
Stephan Dreyer: Es gibt drei Hürden. Die erste ist die Frage, ob Mitgliedstaaten überhaupt ein tatsächlich anwendbares Social-Media-Verbot für Minderjährige einführen können. Das hängt mit dem bestehenden Europarecht zusammen. Dafür muss man in den Digital Services Act (DSA) schauen, der als Verordnung unmittelbar in allen Mitgliedstaaten gilt. Er ist vollharmonisierend, das heißt, er soll den unmittelbaren und abschließenden Rechtsrahmen für Plattform-Governance in der ganzen EU darstellen. Mitgliedstaaten haben also keine Spielräume, nationale Vorschriften für Online-Plattformen zu erlassen, die die gleichen Ziele wie der DSA verfolgen.
netzpolitik.org: Bevor wir über die anderen beiden Hürden sprechen – habe ich das richtig verstanden, ein einzelner EU-Staat darf gar kein nationales Social-Media-Verbot einführen?
Stephan Dreyer: Doch. Das Gesetz darf beschlossen werden. Aber es ist nicht anwendbar.
netzpolitik.org: Man darf das Gesetz haben, aber nichts damit machen?!
Stephan Dreyer: Genau. Der DSA hat als vollharmonisierendes EU-Recht sogenannten Anwendungsvorrang. Die Frage ist aber, was geschieht, wenn ein nationaler Gesetzgeber dennoch behauptet, das eigene Gesetz sei anwendbar. Und wenn Behörden dennoch anfangen, das Gesetz zu vollziehen. Dann müssten sich die Betroffenen – zum Beispiel Online-Plattformen – erst einmal wehren, und sagen: Das Gesetz ist doch nicht anwendbar. Oder aber sie fügen sich.
Es wäre nicht das erste Mal, dass so etwas passiert. Auch das NetzDG in Deutschland war eklatant europarechtswidrig. Es wurde dennoch beschlossen, in Teilen umgesetzt und später durch einen neuen Gesetzsakt abgeschafft. Es hat den ganzen Lebenszyklus eines Gesetzes durchlaufen.
„Schwere Eingriffe in die Teilhabe- und Kommunikationsrechte“
netzpolitik.org: Als Nicht-Jurist kann ich sagen, das ist verwirrend.
Stephan Dreyer: Es kann noch verwirrender werden. Denkbar sind Regulierungen, die Plattformen nicht direkt adressieren, aber dennoch praktisch dazu führen, dass Minderjährige bis zu einer Altersgrenze keine Social-Media-Accounts haben dürfen. Das schafft noch mehr Unklarheit, ob der Anwendungsvorrang des DSA eigentlich umgangen wird oder nicht. Ich weiß aber nicht, ob wir in diese Verästelungen hineingehen wollen.
netzpolitik.org: Lieber nicht. Ich bin noch am verarbeiten, dass sich Mitgliedstaaten sehenden Auges über EU-Recht hinwegsetzen könnten. Was ist das EU-Recht wert, wenn Staaten am Ende tun und lassen, was sie wollen?
Stephan Dreyer: Das ist, was mir Sorgen macht. Wenn Mitgliedstaaten sagen: Es gibt einen Rechtsrahmen, aber der ist uns egal, dann wirft das die Frage auf, ob man sich überhaupt noch an das Recht halten muss. Ich frage mich, welches Signal das senden soll.
netzpolitik.org: Wie lautet denn die zweite Hürde für nationale Social-Media-Verbote in der EU?
Stephan Dreyer: Die zweite große Hürde ist das Herkunftslandsprinzip. Selbst, wenn man um den Anwendungsvorrang herumkommt oder ihn ignoriert, muss sich ein Anbieter nur an die nationalen Vorgaben des EU-Landes halten, in dem er seine Niederlassung hat. Bei den meisten Social-Media-Anbietern ist das Irland. Das heißt, sie müssen sich an irisches Recht halten.
netzpolitik.org: Also solange Irland kein Social-Media-Verbot einführt, könnten Plattformen die Aufsichtsbehörden anderer Länder einfach abblitzen lassen. Verstanden. Und die dritte Hürde?
Stephan Dreyer: Das ist das Verhältnismäßigkeitsprinzip, dem jedes Gesetz genügen muss. Hier sind mehrere Fragen zu klären. Erfüllt das Gesetz einen legitimen Zweck? Klar ist Jugendschutz ein legitimer Zweck. Aber ist ein Social-Media-Verbot bis zu einer bestimmten Altersgrenze wirklich erforderlich, um diesen Zweck zu erreichen?
netzpolitik.org: … ist es das?
Stephan Dreyer: Hier ist die empirische Evidenz widersprüchlich. Einerseits gibt es die beschriebenen Zusammenhänge zwischen Social-Media-Nutzung und Beeinträchigungen der psychischen Gesundheit. Andererseits bringen soziale Medien für Minderjährige gewichtige Vorteile mit sich: Kommunikation, Information, Austausch mit Peer Groups.
Das wirft auch die Frage nach der Zumutbarkeit eines Social-Media-Verbot auf. Wir sprechen von schweren Eingriffen in die Teilhabe- und Kommunikationsrechte von Minderjährigen. Wenn es ein für den Zweck ebenso effizientes, milderes Mittel gibt, dann muss man das mildere Mittel wählen.
„Man steht vor einer Weggabelung“
netzpolitik.org: Mildere Mittel hat die EU mit dem DSA geschaffen. Betroffene Anbieter müssen demnach prüfen, welche Risiken ihre Dienste für Minderjährige haben und diese Risiken mindern. Aber das scheint die Fürsprecher*innen des Social-Media-Verbots überhaupt nicht zu interessieren. Ist mit dem DSA etwas nicht in Ordnung?
Stephan Dreyer: Aus Governance-Sicht bietet der DSA einen schönen Rechtsrahmen. Minderjährige werden nicht ausgeschlossen, aber Plattformanbieter sind laut Artikel 28 DSA dazu verpflichtet, altersangemessene Angebote zu gestalten. Sie müssen Funktionen und Inhalte altersgerecht anbieten. Mit Blick auf die Grundrechte von Kindern und Jugendliche ist das genau, was wir wollen.
netzpolitik.org: Also kann der DSA alle Sorgen lösen?
Stephan Dreyer: Das wissen wir noch nicht. Der DSA greift erst seit Feburar 2024. Es hat nochmal ein halbes Jahr gedauert, bis die EU-Kommission handlungsfähig geworden ist. Erst seit September 2024 gibt es Verfahren gegen Plattformen. Aber was dabei genau passiert, wissen wir nicht. Die EU-Kommission liefert hier leider kaum Transparenz. Ich kann verstehen, wenn Menschen sagen: Sie sehen nicht, dass etwas passiert. Es ist noch viel Luft nach Oben bei der Umsetzung von Artikel 28.
Das heißt, man steht vor einer Weggabelung. Entweder man sagt, wir müssen den Vollzug des geltenden Rechts stärker machen. Hier gab es nun gerade letzten Freitag die Mitteilung der EU-Kommission, dass sie in Bezug auf TikTok Verstöße gegen den DSA festgestellt hat. Oder man sagt: Wir müssen jetzt verbieten.
netzpolitik.org: Wer den Weg des Social-Media-Verbots wählt, hat diese großen Hürden vor sich. Warum tun Verbots-Befürworter wie Emmanuel Macron oder Spaniens Ministerpräsident Pedro Sánchez so, als würden diese Hürden nicht existieren?
Stephan Dreyer: Ich kenne die Beweggründe im Einzelnen nicht. Es kann sein, dass Regierungen mit ihren Forderungen Handlungsfähigkeit und Handlungswillen beweisen wollen. Sie könnten den Eindruck erwecken wollen, Probleme anzupacken. Die Vorstöße könnten auch Probebohrungen sein, um zu prüfen, wie die Außenwelt reagiert. Es ist aber auch möglich, dass die Mitgliedstaaten vorpreschen, um die EU-Kommission und den EU-Gesetzgeber unter Zugzwang zu setzen.
„Mögliche Mehrheiten“ für EU-weites Verbot
netzpolitik.org: Könnte denn die EU selbst ein Social-Media-Verbot für Minderjährige einführen?
Stephan Dreyer: Ja. Sie könnte mit einer neuen Verordnung ältere Vorgaben überschreiben. Das hätte auch Folgen für den DSA. Anbieter könnten ihre bisherigen Vorsorgemaßnahmen für unter 16-Jährige einstellen. Sie müssten sich um die Jüngeren keine Gedanken mehr machen – denn die dürften laut neuem Gesetz nicht mehr auf ihren Plattformen sein. Ein Social-Media-Verbot macht den Jugendschutz auf Plattformen schlechter.
netzpolitik.org: Will die EU das?
Stephan Dreyer: Spätestens seit November 2025 zeichnet sich ab, dass alle drei Akteure der EU zu einem Social-Media-Verbot für Minderjährige bereit wären. Wir sehen, dass es im Rat und im EU-Parlament mögliche Mehrheiten dafür gibt. Kommissionspräsidentin Ursula von der Leyen hat im Herbst gesagt, dass sie Alterskontrollen zumindest prüfen will.
netzpolitik.org: Wie wahrscheinlich ist ein Social-Media-Verbot für Minderjährige in der EU?
Stephan Dreyer: Ich bin der Meinung, dass wir nicht mehr über das Ob sprechen, sondern nur noch über das Wie.
netzpolitik.org: Gerade sind Kommission, Parlament und Rat in den finalen Verhandlungen zur CSA-VO, der „Verordnung zur Prävention und Bekämpfung des sexuellen Missbrauchs von Kindern“, bekannt als Chatkontrolle. Darin vorgesehen sind – je nach Ausgestaltung – auch strenge und verpflichtende Alterskontrollen für App-Stores und „interpersonelle Kommunikationsdienste“. Also Plattformen mit Chatfunktion. Kurzum, es kann auf Alterskontrollen für die meisten sozialen Medien hinauslaufen. Wo rutschen wir da gerade hinein?
Stephan Dreyer: Die Alterskontrollen stehen seit 2022 im Entwurf der EU-Kommission, doch die politische Diskussion hat sich allein an der Chatkontrolle entzündet. Jetzt ist die Zeit knapp, um noch viel dagegen zu tun. Es ist möglich, dass die Verhandlungen schon im Herbst abgeschlossen sind. Es kann also gut sein, dass wir schon sehr bald ein Gesetz haben, das strenge Alterskontrollen für viele Anbieter in der EU vorschreibt.
„Wir reden von einer Diskriminierungs-Technologie“
netzpolitik.org: Dann würde nur noch eine feste Altersgrenze für soziale Medien fehlen, und das australische Modell wäre komplett. Welche Folgen hätten solche Alterskontrollen für Europa?
Stephan Dreyer: Ein Gesetz für umfassende Altersüberprüfungen wäre erst der Anfang der Probleme. So eine Vorschrift ist vergleichsweise schnell geschrieben. Dann kommt die Umsetzung. Australien hat einen mehr als 1.000-seitigen Bericht darüber vorgelegt, wie unterschiedlich intrusiv verschiedene Technologien zur Altersüberprüfung sind, welche auch negativen Effekte sie haben können, welche Akzeptanzprobleme in der Bevölkerung sie mit sich bringen.
netzpolitik.org: Was bedeutet das für uns?
Stephan Dreyer: Wenn die Altersüberprüfungen kommen, werden wir uns noch umschauen. Und das meine ich nicht als Drohung. Wir reden von einer Diskriminierungs-Technologie, denn sie soll Menschen nach ihrem Alter diskriminieren. Und immer, wenn man so etwas tut, gibt es einen Fallout, also Fehler in beide Richtungen.
Es wird Menschen geben, die zu jung sind, aber die Altersprüfungen umgehen, und Menschen, die alt genug sind, aber keine Möglichkeit haben, das dem System zu beweisen. Das ist eine Standardsituation der Technikfolgenabschätzung. Je flächendeckener eine Technologie eingeführt wird, desto größer der Fallout.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Ein Online-Tool soll künftig die Arbeit des Düsseldorfer Stadtrates unterstützen. Auch anonyme Abstimmungen sind damit möglich. Für die Glaubwürdigkeit parlamentarischer Prozesse ist die Idee ein Problem.

Das IT-Unternehmen OpenSlides unterstützt Parteien, Gewerkschaften und Vereine bei der Organisation von Rednerlisten und Abstimmungen. Die Produkte von OpenSlides werden bei Bundesparteitagen genutzt und auch bei zahlreichen kleineren Veranstaltungen. Nun will erstmals ein deutsches Parlament ein Digitales Wahlsystem des Herstellers einsetzen.
Der Düsseldorfer Stadtrat will heute seine Geschäftsordnung so ändern, dass künftig Abstimmungen digital durchgeführt werden können. Auch geheime Abstimmungen sollen über einen Internet-Dienst möglich sein. Laut einem Rechtsgutachtens sei das rechtskonform. Oberbürgermeister Stephan Keller (CDU) hat auf eine netzpolitik.org-Anfrage nicht reagiert.
Immer wieder gibt es Menschen und Gruppen, die demokratische Prozesse digitalisieren wollen. In zahlreichen Nationen werden bereits Wahlen digital durchgeführt. Doch die Praxis stößt auf massive Kritik. Laut Chaos Computer Club beispielsweise sind geheime, digitale Wahlen problematisch, weil ihre Integrität vom ordentlichen Funktionieren und der Manipulationssicherheit der Technologie abhängt. Diese elementaren Kriterien können von Wähler*innen, Wahlhelfenden und Wahlvorständen nicht überprüft werden.
Wahlen müssen öffentlich überprüfbar sein
In Deutschland wurden Wahlcomputer seit 1999 eingesetzt. Das Bundesverfassungsgericht stoppte 2009 ihre Verwendung. „Der Grundsatz der Öffentlichkeit der Wahl, der sich aus den verfassungsrechtlichen Grundentscheidungen für Demokratie, Republik und Rechtsstaat ergibt, gebietet, dass alle wesentlichen Schritte der Wahl öffentlich überprüfbar sind“, erklärte es dazu. Diese Überprüfung dürfe keine besonderen Kenntnisse benötigen.
Es gibt Ideen dazu, wie geheime, digitale Wahlen nachprüfbar ablaufen könnten. Doch diese beinhalten eine pseudonyme Identifikation der einzelnen Stimme. „Das wäre wie ein individuell gekennzeichneter Wahlschein“, sagt Emanuel Schütze, einer der Gründer von OpenSlides. Er sieht in solchen Ideen eine Gefahr für die Anonymität einer Wahl, da derartige Pseudonyme mit Klarnamen in Verbindung gebracht werden und eine freie Wahl verunmöglichen könnten. Ein Aufbrechen des Wahlgeheimnisses sei nicht akzeptabel.
Das Dilemma: Ohne solche Pseudonyme könne die Überprüfbarkeit nicht sichergestellt werden. Für Schütze bleibt nur ein Ausweg: „Wir müssen auf das System vertrauen“, sagt er. Im analogen System müsse man schließlich auch vertrauen, dass der Wahlschein nicht getauscht wird.
Sein Unternehmen sichere den Kunden vertraglich zu, dass es keine Daten manipuliere und auch nicht registriere, wer wofür stimmt. Es sei auch vertraglich ausgeschlossen, dass die Kunden Zugriff auf die Wahldaten bekommen. Protokolliert würde nur, wer seine Stimme abgegeben hat und wie viele Stimmen welche Option erhalten habe. Nicht: wer wofür stimmt.
Um die Manipulationssicherheit zu erhöhen, arbeite man an der Umsetzung eines kryptografischen Konzepts, das auch Kontrollstimmen beinhaltet, anhand derer man sehen kann, ob alle Stimmen sauber erfasst wurden.
Entweder anonym oder fälschungssicher
Folgt man der Argumentation des Online-Wahl-Herstellers, kann in anonymen digitalen Wahlen immer nur eins garantiert werden: Anonymität oder Fälschungssicherheit. OpenSlides setzt dabei vorrangig auf Anonymität. Eine Wahlfälschung beispielsweise könnte demnach nicht anhand einer Neuauszählung der Stimmen nachgewiesen werden. Das ist problematisch, denn wie alle informationstechnischen Systeme, die am Internet hängen, ist auch das von OpenSlides angreifbar.
Selbst wenn man Administratoren und Servern von OpenSlides vertraut, bleibt eine Unsicherheit. Die digitalen Endgeräte, an denen die Abstimmungen vollzogen werden, sind ebenfalls ein Einfallstor für mögliche Angreifer. Oft werden zur Nutzung von OpenSlides private Geräte verwendet. Wer sich Zugriff auf ein solches Gerät verschafft, kann die Stimmabgabe registrieren und sogar manipulieren.
Schütze sieht die Sicherheitsprobleme durchaus. Er sagt, sein Unternehmen veranstalte absichtlich keine politischen Wahlen, bei denen es um die Zusammensetzung von Parlamenten geht. „Wir haben nicht vor, eine Landtagswahl oder Bundestagswahl zu unterstützen. Dafür ist aktuell keine Software bereit“, sagt er.
„Eine unbemerkte Manipulation wäre fatal“
Dabei sind geheime Abstimmungen innerhalb von Parlamenten ja ebenso sensibel wie die zu deren Aufstellung. Chris Demmer, Fraktionsvorsitzender der Linksfraktion im Düsseldorfer Stadtrat sagt: „Die geheimen Abstimmungen sind mitunter die bedeutendsten. Da wählen wir zum Beispiel Politikerinnen und Politiker in die Aufsichtsräte unserer kommunalen Unternehmen. Schon eine Stimme mehr oder weniger ist dann sehr entscheidend. Eine unbemerkte Manipulation wäre fatal!“
Demmer wehrt sich dagegen, im politischen Prozess einer Software vertrauen zu müssen. „Anonyme digitale Abstimmungen sind in besonderem Maße der Gefahr von Manipulation unterworfen, weil jedes elektronische System angreifbar ist und es keine Möglichkeit gibt, die Ergebnisse unabhängig zu verifizieren“, sagt er.
Die Linksfraktion fordert: „Bei geheimen Abstimmungen sollte Düsseldorf aus Gründen der Sicherheit weiterhin auf Stift, Stimmzettel und Wahlurne setzen“. Demmer fügt hinzu: „Bei der Abstimmung mit Urne ist das Verfahren transparent. Im Zweifel öffnen wir den Deckel und zählen nach.“
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Viele Menschen sind mit ihrer Geduld mit Elon Musk und seiner Plattform X am Ende. Die Plattform hatte im Zusammenspiel mit dem Chatbot Grok zuletzt millionenfach sexualisierte Deepfakes verbreitet und ist seit der Übernahme durch den Milliardär politisch auf rechtsaußen gepolt.

Laut einer repräsentativen Umfrage des Instituts YouGov im Auftrag on People vs Big Tech und HateAid fordern knapp 70 Prozent der Deutschen, dass die EU mehr Maßnahmen ergreifen soll, wenn Elon Musks Plattform X weiterhin gegen bestehendes Recht verstößt. Gefragt nach den Maßnahmen unterstützte ein knappes Viertel der Befürworter:innen Geldstrafen, 21 Prozent forderten einen Ausschluss der Plattform vom europäischen Markt und mehr als die Hälfte forderte Geldstrafen sowie einen Ausschluss aus dem Markt. Ein solcher Ausschluss wäre gleichbedeutend mit einem Verbot der Plattform in Europa.
Zusammengerechnet befürwortet also etwa die Hälfte der befragten Deutschen ein Verbot der Plattform, die vor dem Kauf durch Elon Musk einmal das wichtigste Nachrichten- und Informationsnetzwerk der Welt war. In anderen europäischen Ländern wie Frankreich, Spanien, Polen und Italien liegt die Rate nur etwas darunter. Generell befürworten mehr Frauen als Männer harte Maßnahmen gegen X. Befragt wurden jeweils etwa 1.000 Personen aus diesen Ländern.
Würde sich die EU-Kommission tatsächlich für einen Ausschluss von X vom europäischen Markt entscheiden, hätte dies gravierende und umstrittene Folgen: Um so ein Verbot durchzusetzen, müsste die X-App aus europäischen App-Stores verbannt und der Zugang zur Webversion der Plattform mit Zensurmaßnahmen wie Netzsperren erschwert werden. Die Eindämmung der demokratieschädigenden, rassistischen und sexistischen Plattform X würde also mit schwerwiegenden Grundrechtseinschränkungen erkauft.
Niedergang von Twitter zu X
Hintergrund der Umfrage ist der Niedergang der Plattform X und zunehmend auch Rechtsverstöße. Ende Januar hat die EU-Kommission ein weiteres Verfahren gegen den Kurznachrichtendienst X eingeleitet. Dabei will sie prüfen, ob das eng mit dem KI-Chatbot Grok verzahnte soziale Netzwerk gegen den Digital Services Act (DSA) verstoßen hat. Die Kommission sagt, dass der Online-Dienst vor dem Ausrollen des Produkts damit verbundene Risiken nicht untersucht habe. Der Chatbot hatte laut Medienberichten im Zusammenspiel mit X Millionen sexualisierter Deepfakes, hauptsächlich von Frauen, aber auch von Kindern erzeugt.
Der neuerliche Skandal der Plattform reiht sich ein in eine Kette des Niedergangs, die mit dem Kauf der Plattform durch den rechtsradikalen Milliardär Elon Musk im Jahr 2022 begann. Kurz nach dem Kauf entließ er ganze Moderationsteams und holte im Namen der Meinungsfreiheit zuvor gesperrte Rechtsextremisten, Trolle und professionelle Lügner:innen auf den Dienst zurück. Werbekunden sprangen ab, da sie offenbar ihre Anzeigen ungern neben Nazi-Inhalten sehen wollten. Musk akzeptierte das nicht und überzog die Abtrünnigen mit Klagen.
Der Umbau von X zu einer offen rassistischen und sexistischen Plattform geht Hand in Hand mit Musks Unterstützung für rechtsradikale und antidemokratische Bewegungen, hierzulande die AfD. Der Unternehmer macht kein Geheimnis daraus, sein soziales Netzwerk in den Dienst einer rechtsradikalen Revolution zu stellen.
Im Vorjahr zeigte eine Untersuchung von ZDF Frontal, dass die Empfehlungsalgorithmen von X rechte Parteiinhalte überproportional bevorzugen. Bei rassistisch motivierten Ausschreitungen im Sommer 2024 in England hat laut einer Studie von Amnesty International das Empfehlungssystem von X „eine zentrale Rolle“ gespielt. Auch die EU-Kommission vermutet, dass von den algorithmischen Empfehlungen systemische Risiken ausgehen könnten, hat ihre Untersuchungen aber noch nicht abgeschlossen.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Eigentlich sollte das Selbstbestimmungsgesetz Menschen zur geschlechtlichen Selbstbestimmung verhelfen. Doch in Baden-Württemberg sollen ihre Daten nun an die Polizei übermittelt werden. Die Begründung dafür ist nicht neu.

Menschen in Deutschland können seit inzwischen mehr als einem Jahr den Geschlechtseintrag und Vornamen ohne fremde Begutachtung dem gelebten Geschlecht anpassen. Seit dieser Zeit ist das Selbstbestimmungsgesetz (SBGG) in Kraft. Trotzdem wird weiterhin über grundlegende Fragen gestritten. Aktuell kommt der Aufruhr aus Baden-Württemberg.
Das dortige Innenministerium unter Thomas Strobl (CDU) hatte vergangenen November per Verordnung beschlossen, dass frühere Vornamen und Geschlechtseinträge automatisch an Polizeibehörden weitergegeben werden sollen. Es war ein Alleingang, nachdem zuvor zwei ähnlich gelagerte Vorhaben auf Bundesebene bereits gescheitert sind. Erst konnte die ehemalige Innenministerin Nancy Faeser (SPD) eine entsprechende Passage im ursprünglichen Gesetzentwurf der Ampel nicht durchsetzen. Später konnte das Innenministerium von Alexander Dobrindt (CSU) für einen neuen Anlauf im Herbst keine notwendige Mehrheit im Bundesrat organisieren.
Die Antwort des Innenministeriums Baden-Württemberg auf die kleine Anfrage des SPD-Abgeordneten Florian Wahl gibt nun Einblicke in die Beweggründe. Das Innenministerium bekräftigt, die Änderungen der Meldeverordnung seien rein technischer Natur und zwingend erforderlich. Die Daten würden zur Aufgabenerfüllung der Polizei und zur Gefahrenabwehr im Bereich Extremismus und Terrorismus gebraucht. Doch Fachverbände schlagen Alarm. Für Betroffene sei das Grundrecht auf informationelle Selbstbestimmung in Gefahr und es drohe weitreichende Diskriminierung.
Über die Köpfe der Betroffenen hinweg
„Ein Skandal ist, dass von den queerpolitischen Gruppen in Baden-Württemberg keine einzige einbezogen wurde. Weder der LSVD+ noch wir, das Queere Netzwerk Baden-Württemberg“, sagt Janka Kluge, eine Sprechende des Netzwerks, das aus einem Zusammenschluss von über 120 queerpolitischen Gruppen, Vereinen und Initiativen im Bundesland besteht.
Mit der Verordnung wurden gleich mehrere Neuerungen im Meldewesen eingeführt, die Datenweitergabe an Ermittlungsbehörden nach Geschlechtseintragsänderungen war nur eine davon. Andere Akteure wie etwa Schul- und Elternvertretungen hat das Ministerium im Vorfeld konsultiert, Interessenvertretungen von trans und queeren Menschen dagegen nicht. Das geht aus der Antwort auf die Kleine Anfrage des SPD-Abgeordneten Florian Wahl hervor.
„Es ist schlichtweg unerhört, dass bei der Anhörung zur Änderung der Meldeverordnung die queere Community außen vor gelassen wurde“, sagt Florian Wahl gegenüber netzpolitik.org. „Da könnte man fast Absicht unterstellen, um keine unbequemen Antworten zu erhalten.“ Die SPD ist im Landtag in der Opposition, die Landesregierung stellen die Grünen und die CDU.
Im Herbst war es den queerpolitischen Verbänden noch gelungen, die Initiative des BMI zur Umsetzung des Selbstbestimmungsgesetzes (SBGG) von der Tagesordnung des Bundesrats zu nehmen. Das haben sie als großen Erfolg verbucht. Denn die Verordnung sah aus ihrer Sicht eine unnötige Verschärfung des Gesetzes vor – in Form eines lebenslangen Zwangsoutings in behördlichen Datensätzen. „Deshalb ist es ein herber Rückschlag, dass nun das Landesinnenministerium im Alleingang die baden-württembergische Meldeverordnung geändert hat“, so Wahl.
Scharfe Kritik am Vorgehen des Landesinnenministeriums gibt es auch aus den Reihen der regierenden Grünen selbst. Oliver Hildenbrand, grüner Landtagsabgeordneter und Sprecher für Innen- und Queerpolitik, sagte gegenüber netzpolitik.org: „Ich bin mit diesem Vorgehen des Innenministeriums nicht einverstanden. Wer solche Regelungen einfach verkündet, ohne vorab die Betroffenen anzuhören, lässt die notwendige Sensibilität vermissen und kann kein Verständnis erwarten.“ Auch er sagt, er habe die Verordnung dem Gesetzblatt entnehmen müssen und habe keine Möglichkeit gehabt mitzuwirken.
Auf die Frage, warum keine Interessenvertretungen trans und queerer Menschen bei der Erarbeitung der Verordnung angehört wurden, entgegnete das Innenministerium: „Von einer Anhörung weiterer Initiativen oder Nichtregierungsorganisationen haben wir abgesehen, da die Änderung der Vorschrift zu regelmäßigen Datenübermittlungen an die Polizeidienststellen ausschließlich der technischen Aktualisierung bestehender Datensätze dient.“
„Offenbarungsverbot ist keine Blankoermächtigung“
Laut dem baden-württembergischen Innenministerium sei die automatische Weiterleitung aller Namensänderungen – nicht nur solcher nach SBGG – an Polizei und Landeskriminalamt zwingend erforderlich, um polizeiliche Datenbanken aktuell zu halten. Die Behörden brauchten den früheren Vornamen und Geschlechtseintrag, um ihre Aufgaben erfüllen zu können: beispielsweise zur Strafverfolgung sowie für sogenannte Sicherheitsüberprüfungen, etwa wenn eine Person einen Waffenschein beantragt.
Die Rechtmäßigkeit der pauschalen und automatischen Datenweitergabe an diese Behörden ergebe sich laut dem Innenministerium aus dem Selbstbestimmungsgesetz selbst. Darin regelt das sogenannte „Offenbarungsverbot“, dass der frühere Name und Geschlechtseintrag einer Person nicht ohne ihre Zustimmung offenbart oder ausgeforscht werden darf. Das Gesetz führt gleichzeitig bestimmte Ausnahmen ein, wann das Offenbarungsverbot nicht gilt. Laut dem Innenministerium greife bei polizeilichen Informationssystemen und der Aufgabenerfüllung der Polizeien eben so eine Ausnahme.
Doch das sehen die Verbände ganz anders. Was das Innenministerium als eine bloße technische Aktualisierung polizeilicher Datensätze abtut, sei für die Betroffenen ein tiefer Eingriff in das Grundrecht der informationellen Selbstbestimmung. „Es gibt keinerlei Grund, die Polizei per se über Namens- und Personenstandsänderungen zu informieren. Das Selbstbestimmungsgesetz sieht bereits vor, dass Daten bei gegebenem Anlass übermittelt werden dürfen“, sagt Janka Kluge vom Queeren Netzwerk Baden-Württemberg. „Die Polizei hat Zugriff auf das Melderegister und soll auch anlassbezogen ermitteln können. Dass jetzt die automatische Weitergabe der Daten erfolgen soll, ist skandalös.“
Auch Julia Monro, eine der stärksten Stimmen der Community und Bundesvorstandsmitglied im LSVD⁺ – Verband Queere Vielfalt, macht auf den Unterschied zwischen anlassloser und anlassbezogener Datenübermittlung aufmerksam. In ihrer detaillierten Einordnung der Meldeverordnung schreibt sie: Nach SBGG dürfen Strafverfolgungsbehörden die früheren Geschlechtsdaten nur auf Nachfrage und für den jeweiligen Einzelfall erhalten. Das Offenbarungsverbot sei keinesfalls generell aufgehoben. Auch verstoße eine solche Datenübermittlung gegen das Prinzip der Datenminimierung, das in der Datenschutzgrundverordnung verankert sei. „Die Verordnung markiert einen Systemwechsel von anlassbezogener Datenverarbeitung zu vorsorglicher Datenverfügbarkeit“, sagt Monro. „Das Offenbarungsverbot wird als eine Art Blankoermächtigung dargestellt, was es nicht ist.“
Neue Datenblätter für das Melderegister
Strittig ist außerdem, wie die Daten bei einer Änderung nach SBGG überhaupt erst erfasst und gespeichert werden sollen. Zum 1. April 2025 wurden drei neue Datenblätter in das bundesweit einheitliche Melderegister aufgenommen: der frühere Geschlechtseintrag, das Datum der Änderung und die ändernde Behörde mit Aktenzeichen. Für die Betroffenen bedeute das, dass ihre früheren Geschlechtsdaten für immer Teil ihres behördlichen Datensatzes bleiben und bei jedem Behördengang zu einem ungewollten Outing führen können. Diese Art der Datenerfassung sei diskriminierend und verfehle den eigentlichen Kern des Selbstbestimmungsgesetzes, haben Expert*innen mehrfach kritisiert.
Die Einführung dieser neuen Datenblätter wollte das Bundesinnenministerium mit seiner Verordnung zum Selbstbestimmungsgesetz regeln. Weil die nötige Zustimmung in der Länderkammer fehlte und es nicht zu einer Abstimmung kam, ist die Verordnung nach wie vor nicht beschlossen. Damit stellte sich laut Julia Monro die Frage nach der Rechtsgrundlage der neuen Datenblätter.
Nun sagt das Innenministerium Baden-Württemberg auf Anfrage von netzpolitik.org: Die Erlaubnis, den früheren Geschlechtseintrag in dieser Form zu speichern, leite sich aus dem allgemeinen Bundesmeldegesetz und dem SBGG selbst ab. Baden-Württemberg setze somit nur Anforderungen um, die sich aus Bundesrecht ergeben, so die Pressesprecherin.
Hier widerspricht Julia Monro. „Die Regelung im SBGG-Gesetzestext beinhaltet nicht das aktive Einführen von neuen Datenfeldern zur dauerhaften Datenspeicherung und Offenbarung“, sagt die Expertin und Aktivistin.
Von Kriminellen, Terroristen und Minderheiten
„Die Unkenntnis auch zurückliegender personenbezogener Informationen birgt stets die Gefahr folgenschwerer Fehlbeurteilungen und -entscheidungen. Gerade in den Bereichen des Extremismus und Terrorismus ist es dringend geboten, derartige Wissenslücken zu verhindern“, schreibt das Innenministerium Baden-Württemberg in seiner Antwort auf die Kleine Anfrage. Auch das sei ein Grund für die automatische Datenübermittlung an Polizeibehörden.
Dieses Narrativ, Kriminelle könnten das SBGG missbräuchlich nutzen, um Strafverfolgung zu entgehen und bei laufenden Ermittlungen unterzutauchen, ist nicht neu. Schon das Bundesinnenministerium unter Nancy Faeser hatte es während des Gesetzgebungsverfahrens der Ampel bemüht. Damals schlug es vor, die Änderung des Namens und Geschlechtseintrages automatisch an den gesamten Sicherheitsapparat des Landes zu übermitteln. Die entsprechende Passage sorgte für heftige Kritik und wurde schließlich wegen datenschutz- und menschenrechtlicher Bedenken ersatzlos gestrichen. Nun hat das Innenministerium Baden-Württemberg eine ähnliche Datenübermittlung in etwas abgewandelter Form auf Landesebene beschlossen.
„Im Selbstbestimmungsgesetz wird nicht geprüft, was für eine politische Einstellung jemand hat. Von daher ist es rein theoretisch möglich, dass irgendein schlimmer Bösefinger den Vornamen und den Personenstand über das SBGG ändert. Aber das rechtfertigt nicht, mit Pauschalisierungen zu arbeiten und Daten ganzer Menschengruppen anlasslos preiszugeben“, sagt Janka Kluge vom Queeren Netzwerk Baden-Württemberg.
Besonders problematisch sei an diesem Narrativ die Täter-Opfer-Umkehr, sagt Julia Monro. „Trans* Personen gehören zu den bedrohtesten Minderheiten unserer Gesellschaft. Mit dieser Verordnung wird ihnen pauschal misstraut und sie werden mit Extremismus- und Terrorverdacht in Verbindung gebracht.“ Das erinnere an die Entwicklungen in den USA, wo das FBI die trans* Community als extremistische Gruppierung einstufen möchte. „Wir befinden uns hier auf einer gefährlichen Vorstufe zu solchen Entgleisungen“, sagt Monro.
Wie geht es weiter?
Bedenken hat Monro auch bezüglich der demokratischen Legitimität der Verordnung. Im Bund sei auf die Datenübermittlung an Polizei und andere Behörden verzichtet worden. Dies nun auf Bundes- oder Landesebene per Verordnung einführen zu wollen, gehe an den üblichen parlamentarischen Verfahren vorbei. „Das ist besorgniserregend“, sagt Monro.
Baden-Württemberg ist damit das zweite Bundesland, das eine automatische Übermittlung der hochsensiblen Daten der früheren Vornamen und Geschlechtseintrages an Strafverfolgungsbehörden beschlossen hat. Bayern hatte bereits 2024 – pünktlich zum Inkrafttreten des SBGG – eine ähnliche Verordnung auf den Weg gebracht.
„Mit Baden-Württemberg wurde ein Vorstoß gemacht. Ich denke, dass andere Bundesländer jetzt nachziehen werden. Zuerst die CDU-geführten Länder und später auch die anderen. Ich denke, der Plan ist, das Bundesland für Bundesland sukzessive durchzuführen“, so Janka Kluge.
In Baden-Württemberg tritt die entsprechende Regelung im November 2026 in Kraft. Oliver Hildenbrand von den Grünen setzt sich aktuell dafür ein, dass das Innenministerium Vertreter*innen des Landespolizeipräsidiums und des Queeren Netzwerks Baden-Württemberg an einen Tisch holt. „Der direkte Austausch ist überfällig.“
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Vor kurzem hat Meta auf seinen Plattformen politische Werbung verboten. Der US-Konzern will damit einer neuen Verordnung der EU trotzen. Die Maßnahme trifft nicht nur zivilgesellschaftliche Organisationen mit voller Härte, sondern kann auch Unternehmen oder Museen die Arbeit erschweren.

Auf den ersten Blick haben die Posts nicht viel miteinander gemein: Ein Unternehmer spricht in einem Video darüber, was mit Windkraftanlagen passiert, wenn sie ausrangiert werden. Ein Verein aus dem Bereich Gesundheitsprävention verschickt zum Welt-Aids-Tag kostenlos rote Schleifchen. Eine angehende Journalistin kritisiert die rechtliche Lage bei der zivilen Seenotrettung auf dem Mittelmeer.
Für Meta fallen diese Inhalte alle in dieselbe Kategorie: Sie sind zu politisch, jedenfalls für Werbung auf Instagram und Facebook. Die Posts an sich werden auf den Plattformen des größten Social-Media-Konzerns der Welt zwar geduldet, doch ihre Urheber:innen können nicht mehr für erhöhte Reichweite bezahlen.
Denn seit dem 6. Oktober 2025 erlaubt Meta in der Europäischen Union keine politische Werbung mehr. Anzeigen, die unter die neue Regel fallen, werden nicht freigeschaltet oder nachträglich gesperrt. Inzwischen häufen sich Fälle, in denen Werbetreibende sagen: zu Unrecht. Sie berichten von Willkür und Intransparenz, die Werbung für ihre Anliegen auf Meta-Plattformen fast unmöglich machen.
Ist Aufklärung politisch?
In einigen Fällen könne man zumindest halbwegs nachvollziehen, wieso eine Anzeige abgelehnt wurde, erzählt Lisa Fedler von der Deutschen Aidshilfe. Der Verein nutzt Metas Plattformen unter anderem für Präventionsarbeit zum Thema HIV. Vor allem auf Instagram nehme man auch ein bisschen Geld in die Hand, um Reichweite zu erhalten. „Wie soll man sonst in einer Öffentlichkeit, die so stark von Plattformen kontrolliert ist, Sichtbarkeit für die eigenen Inhalte herstellen?“
In einigen Anzeigen hatte der Verein beispielsweise auf die weltweit sinkenden Mittel für die HIV-Prävention hingewiesen. „Dabei haben wir die US-Regierung und auch die Bundesregierung kritisiert.“ Dass Kritik an herrschender Politik nicht erlaubt sein soll, ärgert Fedler, aber es überrascht sie nicht. Es ist nachvollziehbar, warum Meta darin eine politische Anzeige sieht.

Ganz anders im Fall der roten Schleife. Das ist das Symbol, mit dem Menschen auf HIV aufmerksam machen und Solidarität zeigen. Der Verein hat die Schleifen zum Welt-Aids-Tag kostenlos an Interessierte verschickt und wollte das mit einer Anzeige auf Instagram bekanntmachen. Doch auch diese Werbung wurde verboten.
Genauso erging es der Aidshilfe mit einem aufwendig produzierten Aufklärungsvideo, in dem Menschen, die über ein Coming Out nachdenken, bei ihrer Suche nach dem richtigen Zeitpunkt beraten werden. Auch das war Meta zu politisch, um es bewerben zu dürfen. Fedler findet das skandalös. „Das ist doch etwas ganz Basales und vor allem eine persönliche Entscheidung, die hier politisiert wird.“
Eine Frage der Definition
Damit sind wir beim Kern des Problems: Denn was genau politische Werbung ist und was nicht, ist eine Frage der Definition, die der US-Konzern allein beantwortet. Für Meta zählen dazu: Anzeigen von Parteien und Politiker:innen, Anzeigen mit Bezug zu Wahlen und Referenden, Anzeigen, die durch gesetzlich als politische Werbung gelten, und Anzeigen zu „gesellschaftlich relevanten Themen“, sogenannte Social-Issue-Ads.
Gesellschaftlich relevante Themen? Das kann alles sein. In einer Präsentation für Werbetreibende versucht Meta zu erklären, was auf Instagram und Facebook darunter fällt: Bürgerrechte und soziale Rechte, Kriminalität, Wirtschaft, Umweltpolitik, Gesundheit, Einwanderung, politische Werte und Regierungsführung, Sicherheit und Außenpolitik. Weil das ein ziemlich weites Feld ist, hat Meta seinen Werbekund:innen eine Tür offengelassen. Nicht alle Anzeigen zu den genannten Themen sind verboten, sondern nur bestimmte.
Die Präsentation enthält verschiedene Beispiele. Untersagt sind demzufolge Werbebotschaften wie „Die Meinungsfreiheit wird angegriffen“ oder „Wir müssen gegen Ungleichheit kämpfen“. Erlaubt sind zum Beispiel Ankündigungen wie „Die Bürgerrechts-Ausstellung wird am Montag eröffnet“ oder „Seht euch unseren Film über das Leben in einem Flüchtlingslager an“. Auch eine Aussage wie „Das Konzept der Gastfreundschaft sollte im Mittelpunkt unserer Regierungsführung stehen“ sei erlaubt.
Doch zwischen politischen Parolen und unverfänglichen Ausstellungsankündigungen liegt ein ganzes Universum an politischer Kommunikation. In der Praxis scheint Meta die Sperrentscheidungen in gewohnter Gutsherrenart zu treffen: heute so, morgen so. Werbung für die Renaturierung von Mooren kann davon genauso betroffen sein wie solche mit dem Wort „Rechtsruck“.
Ein ziemliches Rätselraten
Nicht alle Anzeigen der Aidshilfe würden gesperrt, erzählt Lisa Fedler. Welche durchgehen, könne man vorher nie genau sagen. Auch andere Organisationen berichten von massiven Problemen mit Intransparenz und Willkür bei der Moderation ihrer Werbung. Erklärungen für Ablehnungsentscheidungen gebe es jenseits von standardisierten Phrasen nicht. Manchmal helfe ein Widerspruch, doch das sei selten.
„Das Wort Demokratie kann problematisch sein“, erzählt Ilona Diefenbach vom Rätselraten um mögliche Reizworte. Sie berät zahlreiche zivilgesellschaftliche Organisationen beim Online-Fundraising und sagt, dass Meta manchmal dieselbe Anzeige für eine Zielgruppe durchwinke, während sie für eine andere abgelehnt werde. Wie viele unserer Gesprächspartner:innen vermutet auch Diefenbach, dass die Moderation automatisiert erfolgt und keine Menschen die Anzeigen prüfen.
Gerne hätten wir von Meta mehr dazu erfahren, doch der Konzern ließ einen Fragenkatalog zu diesem Aspekt sowie weiteren Gesichtspunkten der Recherche unbeantwortet. Er teilte lediglich mit, dass von uns genannte Anzeigen und Beiträge überprüft worden seien und diejenigen wiederhergestellt wurden, die fälschlicherweise deaktiviert worden waren.
“Inhalte zum Holocaust werden eher mal blockiert“
Auch Sandra Hollmann vom Jüdischen Museum in Berlin hat Erfahrungen mit Metas obskuren Entscheidungen gemacht. „Wir hatten beispielsweise Probleme mit einem historischen Anzeigenmotiv zur Bücherverbrennung in der NS-Zeit“, sagte Hollmann. Im Hintergrund seien Menschen zu sehen gewesen, die den Hitlergruß zeigen. „Da kann man sich wenigstens erklären, wie ein Algorithmus darauf kommen kann, dass das nicht geht.“
In anderen Fällen sei das Jüdische Museum aber ratlos. So etwa bei einer gesperrten Anzeige, die einen Ausschnitt aus einem Zeitzeugen-Gespräch mit einem Holocaust-Überlebenden enthielt. Mit Werbung für eine Ausstellung des französischen Regisseurs Claude Lanzmann gab es hingegen keine Probleme. Der Filmemacher ist für seine Auseinandersetzung mit der Shoah bekannt.
„Themen rund ums Judentum und insbesondere den Holocaust werden offenbar eher mal blockiert“, fasst Hollmann die Erfahrungen des Museums zusammen. „Wir spüren da aber auch eine große Willkür.“ Man operiere wie im luftleeren Raum. „Es gibt ja bei Meta auch keine Ansprechpartner:innen, an die wir uns wenden können.“
Eine Kampagne zur Bewerbung eines digitalen Lernangebots namens di.kla zu jüdischer Geschichte und Gegenwart in Deutschland sei auf Meta kürzlich problemlos durchgegangen, auf Google jedoch komplett gesperrt worden. Auch der Suchmaschinenbetreiber und größte Werbekonzern der Welt hat entschieden, keine politischen Anzeigen in der EU mehr zuzulassen.
Untragbare Komplexität
Die beiden US-Unternehmen begründen ihr Verbot mit einem neuen Regelwerk der Europäischen Union. Nach dem Cambridge-Analytica-Skandal und wiederholten Berichten über verdeckte Einflusskampagnen auf Social-Media-Plattformen will die EU mit ihrer Verordnung über die Transparenz und das Targeting politischer Werbung (TTPA) demokratische Wahlen schützen. 2023 wurde die Verordnung beschlossen, seit Oktober 2025 ist sie gänzlich in Kraft.
Regeln für Wahlwerbung im Fernsehen oder im öffentlichen Raum gab es davor schon lange, im Internet jedoch nicht. Auch die EU-Verordnung operiert mit einer recht breiten Definition politischer Werbung, verbietet sie allerdings nicht, sondern fordert vor allem Transparenz über die Finanzierung und das Targeting. Nur die Nutzung sensibler Daten wie jenen zu sexueller Orientierung, politischen Meinungen oder Religion ist nicht erlaubt. Außerdem Wahlwerbung, für die aus dem außer-europäischen Ausland bezahlt wird.
Meta geht das aber offenbar zu weit. Die Verordnung bringe „zusätzliche Verpflichtungen für unsere Prozesse und Systeme, die zu einer untragbaren Komplexität und Rechtsunsicherheit für Werbetreibende und Plattformen führen, die in der EU tätig sind“, schrieb das Unternehmen im Juni in einem Blogpost. Deshalb beende es Werbung zu Politik und zu gesellschaftlich relevanten Themen lieber ganz.
“Meta will sich nicht an Regulierung halten“
Dass Plattformen keine politische Werbung zulassen, ist kein neues Phänomen. Auf TikTok ist sie seit jeher nicht erlaubt – auch wenn das Unternehmen Probleme hat, die eigenen Regeln konsequent durchzusetzen. 2019 führte auch Twitter ein weitreichendes Verbot politischer Werbung ein, beschränkte den Umfang aber schon bald: Verboten war nur noch Werbung mit Bezug zu politischen Prozessen im engeren Sinne, also zu Wahlen oder Abstimmungen. Werbung zu gesellschaftlich relevanten Themen blieb erlaubt. Nach Übernahme der Plattform, die heute X heißt, nahm Elon Musk das Werbeverbot zurück.
Torben Klausa forscht beim Thinktank Agora Digitale Transformation zur digitalen Öffentlichkeit. Er sagt: Die aktuelle Episode sei vor allem ein weiteres Zeichen dafür, dass Meta grundsätzlich kein Interesse daran habe, sich überhaupt an Regulierung zu halten. „Warum auch? Rückendeckung der US-Regierung für EU-Rechtsverstöße gibt es ja zuhauf.“ Das eigene Verbot von politischer Werbung sei vielmehr ein Versuch, wirksame Aufsicht zu verhindern. „Die Behauptung, hinter dem Verbot stecke die schwierig durchzusetzende TTPA-Verordnung, ist fadenscheinig: Meta traut sich ja ganz offensichtlich zu, politische von unpolitischer Werbung zu unterscheiden, ansonsten wäre das eigene Verbot hinfällig.“
Für Meta dürfte auch Geld eine Rolle gespielt haben. Der Markt für politische Werbung in der EU gilt als verhältnismäßig klein. Einer Analyse des Tagesspiegel zufolge gaben etwa die deutschen Parteien in den letzten beiden Wochen des Bundestagswahlkampfes 2025 insgesamt knapp 4,6 Millionen Euro für Werbung auf Facebook und Instagram aus. In den USA sollen im Präsidentschaftsrennen 2024 hingegen knapp zwei Milliarden Dollar an die Plattformen geflossen sein.
Auf der anderen Seite stehen mögliche Strafen, die bei Verstößen gegen die EU-Verordnung bis zu 6 Prozent des weltweiten Umsatzes eines Unternehmens vorsehen. Bei 164 Milliarden US-Dollar Umsatz im Jahr 2024 könnte für Meta einiges zusammenkommen. Da ist der Verzicht auf ein paar Werbeeinnahmen wohl in Kauf zu nehmen.
Wirtschaftliche Schäden
Gravierender als für Meta könnte der wirtschaftliche Schaden für die Werbetreibenden sein. Viele Nichtregierungsorganisationen nutzen die Plattformen des Konzerns nicht nur für den Markenaufbau und die Kommunikation mit Zielgruppen, sondern auch für das Fundraising.
„Für uns als spenden- und mitgliederbasierte Organisation ist das essenziell, sonst können wir unsere Arbeit nicht machen“, sagt Daniela Dibelius, Teamleitung Fundraising bei Reporter ohne Grenzen. Die Organisation, die sich weltweit für Pressefreiheit einsetzt, wurde vom Werbebann inmitten ihrer Fundraising-Kampagne zum Jahresende getroffen. In einem gesperrten Werbevideo berichtete eine Journalistin beispielsweise von Angriffen im Internet, denen sie wegen ihrer Berichterstattung zum Gaza-Krieg ausgesetzt sei. Reporter ohne Grenzen habe ihr in dieser Situation geholfen, deshalb rief sie zu Spenden für die Organisation auf.
„Sie hat sich inhaltlich überhaupt nicht zu dem Konflikt oder irgendwie politisch geäußert, sondern von ihren Erfahrungen erzählt und nur zur Unterstützung für uns aufgerufen“, sagt Daniela Dibelius. Trotzdem waren die Anzeige und weitere Motive für Meta zu politisch. „Da war die ganze Kampagne für die Tonne“. Mehrere der Organisationen, mit denen wir gesprochen haben, berichten von aufwendig produzierten Inhalten, die sie nicht oder nur eingeschränkt nutzen konnten.
Auch Unternehmen berichten von einem wirtschaftlichen Schaden durch geblockte Werbung auf Meta. Die Firma GP Joule aus Schleswig-Holstein, die Energiewende-Projekte umsetzt und betreibt, nennt zwei große abgelehnte Werbekampagnen. In einer von ihnen informieren Mitarbeiter des Unternehmens in kurzen Videos über erneuerbare Energien. Die Videos tragen Titel wie „Was passiert mit abgebauten Windkraftanlagen?“, „Wie viel kostet Strom aus erneuerbaren Energien?“ oder „Beeinträchtigt Windenergie den Tourismus?“.
Für Meta: zu politisch. Fabian Faller von GP Joule ärgert das: „Abgesehen von der ethischen Frage ist es für uns auch ein wirtschaftlicher Schaden.“ Mit der anderen geplanten Kampagne habe das Unternehmen bislang Kontakte zu Flächenbesitzern generiert, die für den Bau von Windkraft- oder Photovoltaik-Anlagen wichtig sind. „Flächeneigentümer sind oft Männer und Frauen im mittleren und höheren Alter, Landwirtinnen und Landwirte zum Beispiel. Die haben wir in der Vergangenheit mit Werbung auf Facebook gefunden.“
Welches Thema denn nicht gesellschaftlich und politisch relevant sei, fragt Faller. „Dann dürfte man doch auch keine Werbung für fossile Energieträger machen, für Gasheizungen, für Verbrenner-Autos oder Alkohol.“
Orbans Fidesz-Partei kann Wahlkampf machen
Tatsächlich finden sich auf Meta-Plattformen weiter zahlreiche Anzeigen von Öl-, Auto- oder Rüstungskonzernen. Es ist meist klassische Produkt- und Markenwerbung, außerdem Stellenanzeigen oder Werbung für Bonusprogramme. Dass Job-Inserate von Rheinmetall mit Panzern und Kampfflugzeugen bebildert sind, stört offenbar nicht. Den Unternehmen gereicht zum Vorteil, dass sie anders als NGOs keine Botschaften haben, die Meta als explizit politisch versteht.
Ganz anders müsste das eigentlich in einem weiteren Fall aussehen: Ende Oktober berichteten ungarische Medien, dass dort die Regierungspartei Fidesz trotz Metas Verbot in großem Umfang klassische politische Werbung schalten konnte. Das Team von Viktor Orban setzt seit einiger Zeit auf sogenannte „Digitale Bürgerkreise“, mit denen lokale Bürger-Bewegungen zugunsten des Langzeitautokraten erschaffen werden sollen. Die Kreise schalteten Hunderte Werbe-Anzeigen mit prominenten Fidesz-Gesichtern, die Menschen aufforderten, der Kampagne für den bevorstehenden Wahlkampf ihre Kontaktdaten zu übermitteln.
So verfestigt sich drei Monate nach Metas Werbebann das Bild eines gezinkten politischen Wettbewerbs auf der Plattform und einer Öffentlichkeit, in der unter den Teilnehmenden keine Waffengleichheit herrscht. Während die einen Aufmerksamkeit für ihre Anliegen kaufen können, sind die anderen auf organische Reichweite angewiesen, welche Meta für politische Inhalte allerdings schon länger bewusst drosselt.
Problematische Abhängigkeit
Vor dem Hintergrund der politischen Ausrichtung, die Mark Zuckerberg seinem Konzern seit der Wiederwahl Donald Trumps verpasst hat, stellt sich die Frage, ob das ein bloßer Kollateralschaden ist oder Absicht. Weil Meta selbst dazu keine Fragen beantwortet, lässt sich nur mutmaßen. Ökonomische Faktoren wie die Sorge vor Strafzahlungen und Kostenersparnis durch den Verzicht auf verlässliche und transparente Moderationsprozesse spielen ganz sicher eine Rolle. Meta profitiert auch deshalb von einer breiten und chaotischen Auslegung des Werbeverbots, weil es so möglichst viele Werbetreibende gegen die EU-Verordnung aufwiegelt. Dass nebenbei auch all jene schlechte Karten haben, die für Umweltschutz, Menschenrechte oder diskriminierte Gruppen streiten, dürfte Zuckerberg zumindest nicht stören.
Am Ende ist die Motivation jedoch zweitrangig, sagt Torben Klausa von Agora Digitalwende, denn es sei klar: „Wer an Demokratie und Kompromisse glaubt, kämpft auf den großen Social-Media-Plattformen bergan.“ Die Frage, ob auf Instagram und Co. für die Zivilgesellschaft dann überhaupt noch Platz ist, beantworten viele Organisationen bislang trotzdem zähneknirschend mit ja. Auf keiner anderen Plattform habe das Fundraising bislang auch nur annähernd so gut funktioniert wie bei Meta.
„Wir sind da in einer problematischen Abhängigkeit, die wir selbst mit gefördert haben“, gesteht Lisa Fedler von der Deutschen Aidshilfe ein. „Wir haben die ja bezahlt und machen damit jetzt weiter. Das ist ein echtes Dilemma.“ Natürlich denke man über Plattform-Diversifizierung und Alternativen zu Big Tech nach. Ein schneller Weg aus der Abhängigkeit ist aber nicht in Sicht.
Das Katz- und Maus-Spiel geht weiter
Also machen viele Organisationen weiter, auch wenn die Bauschmerzen weiterwachsen. Sie liefern sich jetzt eine Art Katz- und Maus-Spiel mit Meta. Die einen verändern die Schreibweise einzelner Worte in ihren Anzeigen, in der Hoffnung, sie für automatisierte Systeme schwerer erkennbar zu machen. Die anderen streichen bestimmte Worte ganz aus ihrem Repertoire.
Eine weitere Strategie ist die Entpolitisierung der Kommunikation. „Wir legen jetzt erst mal den Weichspülgang ein“, so formuliert es eine Person, mit der wir gesprochen haben. Statt klarer Botschaften versuche man es jetzt vorerst mit unverfänglichen Aussagen wie „Unterstütze uns“.
Unpolitisch kommunizierende NGOs – allen ist klar, wie absurd das ist. Auf Meta-Plattformen könnte das nun trotzdem das neue Normal werden.
—
Dieser Artikel erscheint auch bei Übermedien.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Automatisch abgespielte Inhalte, personalisierte Werbung, Gamification – solche Elemente sollen Internet-Nutzer*innen heimlich beeinflussen. Dagegen soll der Digital Fairness Act helfen. Doch gegen die Pläne der EU-Kommission lobbyieren Big-Tech-Firmen wie Meta und Google, zeigt eine Untersuchung von Corporate Europe Observatory.

Manipulatives Design – so genannte Dark Patterns – ist Teil digitaler Geschäftsmodelle, durch die suchterzeugende Designs und personalisierte Empfehlungssysteme das Verhalten von Nutzer*innen steuern sollen.
Erst vergangene Woche hat die EU-Kommission von TikTok daher drastische Veränderungen an ihrem Plattformdesign verlangt. Die Forderungen sind das vorläufige Ergebnis einer zweijährigen Untersuchung auf Basis des Digital Services Act (DSA).
Das EU-Digitalgesetz enthält bereits erste Ansätze dazu, derartige Design-Entscheidungen einzuschränken, geht aber nicht weit genug. Nun plant die EU-Kommission, im vierten Quartal des Jahres den ersten Gesetzesentwurf zum Digital Fairness Act (DFA) vorzulegen. Mit dem geplanten Gesetz soll es gelingen, etwaige Regelungslücken zu schließen.
Dabei ist mit Widerstand zu rechnen. In ihrem kürzlich veröffentlichten Bericht zeigt die NGO Corporate Europe Observatory (CEO), wie US-amerikanische Big-Tech-Unternehmen derweil versuchen, auf das Vorhaben einzuwirken.
Tech-Lobby im Zeitgeist von Deregulierung
Derzeit arbeiten die Big-Tech-Unternehmen, allen voran Meta, Google, TikTok und Snap Inc, daran, ihren Einfluss auf die europäische Gesetzgebung auszubauen. Im Kontakt zu EU-Kommissionsmitgliedern scheinen sie damit erfolgreich zu sein.
83 Prozent der Lobbygespräche zum DFA fanden der CEO-Auswertung zufolge mit Vertreter*innen der Digitalindustrie statt. Vertreter*innen aus Nichtregierungsorganisationen, die das Gesetzesvorhaben allesamt unterstützen, seien dagegen auf weniger als 14 Prozent der Gespräche gekommen.
Das schafft die Tech-Lobby durch einen massiven personellen Ausbau und hohe Budgets, wie CEO in einer eigenen Untersuchung offengelegt hat.
Zusätzlich versuchen die Konzerne über versteckte Wege gegen den DFA vorzugehen, zeigt der aktuelle Bericht. Zum Beispiel finanzieren Meta und Google die Lobbyorganisation Consumer Choice Center Europe (CCC Europe), eine vorgeblich verbraucherorientierte Organisation, die jedoch gegen Verbraucherschutz lobbyiert.
CCC Europe finanziert wiederum die Initiative EU Tech Loop. Diese kritisierte die DFA-Pläne in auf dem Online-Medium Euronews veröffentlichten Artikeln. Euronews ließ die öffentliche Meinungsbeeinflussung zu, ohne einfach und nachvollziehbar offenzulegen, wer wirklich hinter den Artikeln und der wohl einträglichen Kooperation steckt.
Die Tech-Lobby begründet ihre Agenda vor allem mit der bestehenden Gesetzeslage. Statt neuer Gesetze solle die EU bereits existierende wie den Digital Services Act (DSA) durchsetzen und auf freiwillige Initiativen setzen. Damit würde sie die langfristige Wettbewerbsfähigkeit der EU durch Vereinfachung stärken. Dazu hatte die EU-Kommission im vergangenen Jahr eine Reihe sogenannter Omnibus-Pakete vorgestellt.
DFA soll eindeutiges Fundament schaffen
Richtig ist, dass bereits bestehende Rechtsgrundlagen – wie der DSA und der AI Act – einzelne Regelungen zu Dark Patterns enthalten. Der so genannte „Fitness-Check“, eine vorangegangene Umfrage der Kommission zum Status Quo des digitalen Verbraucherschutzes, hatte jedoch auf Lücken im Bereich der Dark Patterns hingewiesen.
Zivilgesellschaftlichen Organisationen würde es zwar verhältnismäßig an finanziellen Mitteln fehlen, jedoch hätten sie die öffentliche Meinung auf ihrer Seite, betont CEO. Nach einer Umfrage des Meinungsforschungsinstituts YouGov sprachen sich 63 Prozent der Befragten in Frankreich, 59 Prozent in Deutschland und 49 Prozent in Spanien für eine strengere Durchsetzung der EU gegenüber Big-Tech-Unternehmen aus.
Rückenwind für eine starke gesetzliche Regelung liefern zudem die Ergebnisse einer öffentlichen Konsultation, welche die EU-Kommission im Vorfeld durchgeführt hat. Demnach gibt es eine breite Zustimmung von Verbraucher*innen zum geplanten Gesetzesvorhaben.
Um diesem Wunsch nachzukommen, muss der DFA nach Einschätzung von CEO einige Hürden überstehen: Die Deregulierungs-Prämisse der EU, den steigenden Druck vonseiten der US-Regierung als weiteres Sprachrohr von Big Tech sowie den wachsenden Einfluss rechtsgerichteter EU-Politik. Zudem dürfe die Debatte um Abhängigkeiten und negative Effekte von Social-Media-Konsum nicht auf Kinder und Jugendliche beschränkt werden.
Betroffene klagt in den USA gegen manipulatives Design
Auch in den USA könnten Meta und Google für ihre manipulativen Techniken belangt werden. Am Superiour Court in Los Angeles wurde vergangene Woche ein Verfahren eröffnet, das fortan prüft, ob Instagram und Youtube absichtlich abhängig machende Elemente in ihr Plattformdesign eingebaut haben. Der Fall könnte als Maßstab für die über 2.300 anhängigen Klagen von Eltern, Schulbezirken und Staatsanwälten gelten.
Die 20-jährige Hauptklägerin gehört zur im Virtuellen aufgewachsenen Gen-Z: Mit sechs Jahren habe sie YouTube geschaut. Seit mehr als zehn Jahren sei sie süchtig nach Social Media, weshalb sie unter Depressionen, Angststörungen und einem verzerrten Körperbild leide, heißt es in der Klageschrift.
Zwar sind Tech-Unternehmen in den USA nach dem Telekommunikationsgesetz nicht unmittelbar für die Inhalte auf ihren Plattformen verantwortlich. Das Verfahren behandelt dagegen die Frage, wie die Inhalte an Nutzer*innen ausgespielt werden. Sollten die Gerichte die Plattformen als verantwortlich beurteilen, könnten Unternehmen wie Meta für ihre Empfehlungssysteme haftbar gemacht werden.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Die geplante Vorratsdatenspeicherung von IP-Adressen steht in der Kritik. Die großen Internetanbieter weisen darauf hin, dass die Pläne der Justizministerin zu vielen Monaten Speicherzwang führen würden und daher rechtswidrig sind. Doch schon die eigentlich geplanten drei Monate Speicherpflicht sind mit nichts begründet.

Nachdem das Bundesjustizministerium Ende Dezember seine Pläne zu einer verpflichtenden Vorratsdatenspeicherung von Telekommunikationsdaten wie IP-Adressen, Portnummern und weiteren Informationen zur Internetnutzung öffentlich gemacht hatte, beteiligte sich eine ganze Reihe von Verbänden und Organisationen mit Stellungnahmen zum Referentenentwurf. Das Ministerium stellte vergangene Woche insgesamt 26 Stellungnahmen zu dem Entwurf online.
Der Entwurf soll Internetdiensteanbieter zu einer umfänglichen anlasslosen IP-Adressen-Vorratsdatenspeicherung sowie zu verschiedenen weiteren Speichervorgaben verpflichten. Mit einer „Sicherungsanordnung“ sollen Ermittler künftig verdachtsabhängig, aber ohne eine richterliche Einbindung Internetdiensteanbieter zwingen dürfen, Verkehrs- sowie Standortdaten aufzuheben.
Vorgesehen für die anlasslose IP-Adressen-Bevorratung ist eine dreimonatige Speicherfrist. Ob diese monatelange Frist dem Urteil des Europäischen Gerichtshofs aus dem Jahr 2024 genügt, ist strittig. Denn darin schrieb das hohe Gericht das Kriterium fest, den Zeitraum „auf das absolut Notwendige“ zu begrenzen. Allerdings führen die heutigen technischen Gegebenheiten dazu, dass es praktisch auf eine deutlich längere Speicherdauer von vielen Monaten oder gar Jahren hinausläuft. Das begründen die großen Netzbetreiber und Internetdiensteanbieter in ihren Stellungnahmen an das Ministerium.
Das Justizministerium führt eine Reihe ganz unterschiedlicher Straftaten auf, mit der sie das Vorhaben begründet. Etwa bei „der Kommunikation von Tatverdächtigen über Messengerdienste, der Verbreitung von Kinderpornographie, bei kriminellen Handelsplattformen, die Betäubungsmittel oder Cybercrime-as-a-Service anbieten, sowie bei echt wirkenden Onlineshops, die Waren verkaufen, die gar nicht existieren“, könnte eine Speicherung aller IP-Adressen nützlich sein.
Doch um einen solch weitreichenden Vorschlag wie die massenhafte Speicherung der IP-Adressen zu rechtfertigen, braucht es etwas mehr als nur einige Beispiele. Deswegen zweifeln Stellungnahmen von Juristenverbänden und Digital-NGOs bereits die Erforderlichkeit der riesigen verdachtslosen Datensammlung an.
Lange Speicherzeiten nicht mit EuGH-Urteil zu vereinbaren
Die gemeinsame Stellungnahme der großen Mobilfunknetzbetreiber Telefónica, Telekom, Vodafone und 1&1 weist auf technische Umstände hin, die sie als „datenschutzrechtlich kritisch“ erachten. Sie betreffen die vorgesehene Speicherdauer der zwangweise festzuhaltenden Datensätze für drei Monate. Die Netzbetreiber weisen darauf hin, dass der Referentenentwurf diese Speicherung „mit Beginn der Zuweisung und Löschung nach drei Monaten ab dem Zeitpunkt des Endes der Zuweisung“ vorsieht.
Diese „Zuweisung“ bezieht sich auf die vergebene IP-Adresse mit weiteren Begleitdaten, die einem Nutzeranschluss zugeordnet ist und künftig für alle Anschlüsse gespeichert werden soll. Die Netzbetreiber merken an, dass diese Regelung „zu einer Datenspeicherung deutlich über drei Monate hinaus“ führe. Das „verletzt somit die Vorgaben des EuGH“.
Denn der Europäische Gerichtshof hatte 2024 über eine IP-Adressenspeicherung entschieden, die zur Verfolgung von Urheberverwertungsrechtsverletzungen in Frankreich verwendet wird. Der Gerichtshof schrieb in dem Urteil vor, dass „die Dauer der Speicherung auf das absolut notwendige Maß beschränkt sein“ muss und keine detaillierten Profile der Nutzer erstellt werden dürfen.
Vorratsdatenspeicherung
Wir berichten seit zwanzig Jahren über die politischen Vorhaben rund um die Vorratsdatenspeicherung. Unterstütze unsere Arbeit!
Die Netzbetreiber machen ganz praktisch klar, warum die geplante Regelung die eigentlich vorgesehene dreimonatige Speicherdauer ganz erheblich verlängert: „In vielen Netzen, insbesondere bei modernen Glasfaseranschlüssen, gibt es keine Zwangstrennung mehr.“ Zwar gäbe es „selten“ Verbindungstrennungen, etwa wegen Wartungsarbeiten, aber „Verbindungszeiten von mehreren Wochen und Monaten sind die Regel“. Bestünde die Verbindung „beispielsweise über zehn Monate, führt dies zu einer Speicherdauer von insgesamt 13 Monaten bei der bislang im Gesetzestext formulierten Speicherzeit“.
Unzweifelhaft wären solch lange Speicherzeiten mit dem EuGH-Urteil nicht zu vereinbaren. Das sieht auch der Verband der Anbieter von Telekommunikations- und Mehrwertdiensten (VATM) in seiner Stellungnahme kritisch. Es bestünde die Gefahr, „dass Daten faktisch deutlich länger als die avisierte Speicherfrist von drei Monaten“ vorgehalten werden müssen. Das würde „die Vorgaben des EuGH überschreiten und damit unionsrechtswidrig“ sein.
In Bezug auf die fehlende Zwangstrennung rechnet auch der VATM vor, dass die „Verbindungszeiten mehrere Monate betragen“. Das stelle inzwischen „die Regel dar“. Eine Zuordnung einer IP-Adresse zu einem Endkunden sei durch die vorgesehene Regelung „nicht nur für drei Monate möglich, sondern faktisch für die gesetzliche Speicherfrist zuzüglich der Dauer der Session“. Die hier gemeinte „Session“ beginnt mit der Zuweisung der IP-Adresse zum Nutzer.
Keine „empirischen Grundlagen“ für dreimonatige Speicherfrist
Doch schon die eigentlich geplanten drei Monate Speicherpflicht sind weiterhin mit nichts begründet. Darauf weist die Bundesrechtsanwaltskammer (BRAK), die Interessenvertretung von rund 166.000 Rechtsanwältinnen und Rechtsanwälten in Deutschland. Es fehle an „empirischen Grundlagen“ für diese Frist.
Der Hinweis in der Begründung des Entwurfes auf „Praxiserfahrung“ verdeutliche, dass es sich nur um eine „unspezifizierte Erwartungshaltung“ handele. Warum eine Frist von vier Wochen nicht ebenso ausreichen könne, sei „nicht ersichtlich“, so die BRAK in ihrer Stellungnahme. Sie verweist auf die Aussage der BKA-Vizepräsidentin Martina Link in einer Bundestagsanhörung im Rechtsausschuss im Oktober 2023. Sie hatte aus Sicht der Ermittler aus der Praxis berichtet.
Link warf in der Anhörung selbst die Frage auf, wie lange Speicherfristen bemessen sein müssten, damit das BKA ihm vorliegende IP-Adressen noch einem Nutzer zuordnen könnte. Sie bezog sich auf Fälle des NCMEC (Nationales Zentrum für vermisste und ausgebeutete Kinder), einer US-Organisation, die das BKA in großer Zahl auf kinder- und jugendpornographische Inhalte hinweist. Link erklärte, eine „Speicherverpflichtung von 2 bis 3 Wochen“ wäre „schon ein signifikanter Gewinn“.
Referentenentwurf ohne Begründung der Erforderlichkeit
Neben der Kritik an der Länge der Speicherung verweist die BRAK auch in aller Deutlichkeit auf die Frage, womit der Gesetzgeber eine Vorratsdatenspeicherung eigentlich begründet:
Die Einführung neuer Ermittlungsmethoden, die einen Grundrechtseingriff darstellen, bedarf zunächst der Erforderlichkeit der Maßnahme. Im vorliegenden Entwurf fehlen jedwede Ausführungen hierzu, die jedoch im Hinblick darauf, dass nun seit de facto über 18 Jahren in Deutschland keine Vorratsdatenspeicherung durchgeführt wurde, sich förmlich aufdrängen.
Im Referentenentwurf der Vorgängerregierung hatte das Bundesjustizministerium sich eine solche Blöße nicht gegeben, sondern aus „empirischer Sicht“ erklärt, dass „trotz fehlender Vorratsdatenspeicherung in einer Vielzahl von Verfahren Verkehrsdaten erhoben werden können“. Für das Vorjahr war es damals gelungen, „auch ohne Anwendung der Vorschriften der Vorratsdatenspeicherung […] 90,8 Prozent der bekannt gewordenen Fälle der Verbreitung kinderpornographischer Inhalte“ aufzuklären, zitiert die BRAK das Ministerium.
Bei den Juristen bleiben „erhebliche Zweifel an der Erforderlichkeit“ der Vorratsdatenspeicherung. Insgesamt sieht die BRAK den Entwurf „mit erheblicher Skepsis“.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
An Orten mit viel Kriminalität darf die Mannheimer Polizei Überwachungskameras installieren. Aber in einem Areal gab es seit Anbeginn der Videoüberwachung offenbar keine Delikte. Infolge unserer Recherchen hat sich nun die baden-württembergische Datenschutzbehörde eingeschaltet.

Die Mittelachse ihrer Innenstadt nennen die Mannheimer*innen „Breite Straße“, auch wenn sie offiziell Kurpfalzstraße heißt. Hier fährt die Straßenbahn, hier kann man bummeln, einkaufen, essen gehen – und sich von der Polizei filmen lassen. Denn auf rund 700 Metern Länge wird die Breite Straße von zahlreichen Kameras flankiert.
Deren Bilder durchsucht eine Software nach verdächtigen Bewegungen. Dieser Verhaltensscanner ist ein Pilotprojekt und Vorbild für zahlreiche weitere Städte und Bundesländer, die das System übernehmen wollen.
Recherchen von netzpolitik.org zeigen nun: Zumindest bei einem Teil der installierten Kameras gibt es Anlass zum Zweifel, ob die Überwachung eine Rechtsgrundlage hat. Konkret geht es um die seit 2019 laufende Überwachung am Nordende der Breiten Straße.
Öffentliche Areale dürfen in Baden-Württemberg nur dann videoüberwacht werden, wenn sich dort die „Kriminalitätsbelastung“ von der des übrigen Gemeindegebiets deutlich abhebt. Hierfür zieht die Polizei Fälle von Straßen- und Betäubungsmittel-Kriminalität heran, erklärt sie auf Anfrage. Darunter fällt zum Beispiel Taschendiebstahl oder der Verkauf von Drogen.
Am Nordende der Breiten Straße hat die Polizei seit 2017 jedoch kein einziges dieser Delikte verzeichnet, wie Daten aus der Polizeilichen Kriminalstatistik (PKS) zeigen. Seit 2005 waren es insgesamt nur elf Fälle – auch das dürfte keine erhöhte Kriminalitätsbelastung darstellen. Netzpolitik.org hat diese Zahlen unter Berufung auf das Informationsfreiheitsgesetz (IFG) bei der Mannheimer Polizei angefragt. Die Zahlen reichen bis ins Jahr 2024, aktuellere Angaben sind noch nicht öffentlich.
Die Polizei findet andere Zahlen wichtiger
Null Delikte seit fast zehn Jahren, aber dennoch Kameras – wie ist das möglich? Die Polizei sieht hier auf Anfrage kein Problem. Sie schickt der Redaktion eine Tabelle mit anderen Zahlen, die die Videoüberwachung in der Breiten Straße legitimieren sollen. Dort sind unter „Breite Straße“ jedes Jahr mehrere hundert Fälle aus den beiden Deliktfeldern verzeichnet.

Auf den ersten Blick ist das verwunderlich. Wo kommen die ganzen Delikte her? Die Erklärung ist einfach: Die auf Anfrage vorgelegten anderen Zahlen der Polizei kommen aus einer anderen Übersicht als der PKS, und zwar aus dem Lagebild. Dabei beruft die Polizei sich auf ein Urteil des Oberverwaltungsgerichts NRW, demnach sich Videoüberwachung mit Zahlen aus dem Lagebild legitimieren lässt.
Alles netzpolitisch Relevante
Drei Mal pro Woche als Newsletter in deiner Inbox.
In der PKS zählt die Polizei jene Fälle, die sie in einem Kalenderjahr bearbeitet und an die Staatsanwaltschaft übermittelt hat. Das Lagebild wiederum kann mehr Sachverhalte umfassen – darunter solche, die nicht bei der Staatsanwaltschaft landen. Auch der Zeitpunkt der Erfassung ist ein anderer: In der PKS taucht erst dann ein Delikt auf, wenn die Polizei es fertig bearbeitet hat.
Für die Kameraüberwachung in der Breiten Straße gibt es jedoch einen weiteren wichtigen Unterschied zwischen PKS und Lagebild. Beide Darstellungen teilen die Stadt in unterschiedlich große Bereiche. Die PKS fasst das Nordende der Breiten Straße mit zwei Häuserblocks zusammen, die daran angrenzen. Die Daten aus dem Lagebild wiederum werden von der Polizei nur für die Breite Straße als Ganzes herausgegeben. Die Zahlen aus dem Lagebild können also nicht zeigen, ob das Nordende der Breiten Straße besonders von Kriminalität belastet ist.
Datenschutzaufsicht will sich Bild vor Ort machen
Die PKS legt nahe, dass die Belastung am Nordende gering ist – zumindest wurden dort viele Jahre lang keine Fälle registriert, die der Staatsanwaltschaft übermittelt wurden. Die Polizei scheint das nicht zu überzeugen. Sie hält die Überwachung am Nordende der Breiten Straße für legitim, wie aus dem Austausch mit der Pressestelle hervorgeht.
Anders sieht das Davy Wang, Jurist bei der Gesellschaft für Freiheitsrechte. Wir haben ihm den Fall geschildert und um seine Einschätzung gebeten. Er schreibt:
Die anlasslose Videoüberwachung greift massiv in Grundrechte ein, besonders bei automatisierter Verhaltenserkennung. An Orten ohne erhöhte Kriminalitätsbelastung fehlt die Rechtsgrundlage – die Überwachung ist rechtswidrig und muss sofort eingestellt werden. Die Polizei darf sie nicht grundlos auf beliebige Orte ausweiten.
Zuständig für die Kontrolle der Mannheimer Videoüberwachung ist die Landesdatenschutzbehörde. In der Antwort auf unsere Presseanfrage heißt es, die Behörde befinde sich in einem Beratungsprozess mit der Polizei. Man werde sich zeitnah selbst ein Bild vor Ort machen.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Unsere Kolumnistin schaut sich nach Oscar-Vergleichen auf LinkedIn an, was Digitalisierung und Blockbuster-Filme gemeinsam haben – oder eben auch nicht. Denn den digitalen Verwaltungsleistungen haben die populären Filme einiges voraus. Vorhang auf!

Die heutige Degitalisierung könnte etwas feiern: den Launch des Deutschland-Stacks, KI-Agenten, eine deutsche Führungsrolle in der Verwaltungsdigitalisierung, Govtech, Innovation. Renommierte Preise, ach was sag‘ ich: Auszeichnungen vom Stellenwert eines Oscars. Das steht zumindest auf LinkedIn. Nur wird diese Kolumne das heute nicht tun, das wäre ja noch schöner.
Denn zum Feiern kann in der Realität der real angekommenen Digitalisierung von Verwaltung und Gesundheitswesen niemandem zu Mute sein. Dieses Problem ist systematisch und besonders in Deutschland ein wiederkehrendes. Denn eigentlich ist erfolgreiche Digitalisierung ein wenig wie die Schaffung cineastischer Meisterwerke, bei denen immer wieder ein paar entscheidende Teile vergessen worden zu sein scheinen: das Publikum und die Schaffung eines Rahmens für ein solches. Kunst der Kunst wegen; Kunst, für die das Erlangen eines Blickes noch schwerer zu bekommen ist als auf einen raren Kunstfilm im Arthaus-Kino.
Damit Digitalisierung zu einem Blockbuster werden könnte, fehlt nämlich oftmals das, was das Kino schon lange hat: etablierte Verbreitungswege. Digitalisierung in Deutschland scheitert allzu oft am Rollout.
Rollin‘
Anfang dieses Monats gab es in Berlin eine Pressekonferenz im Bundesministerium für Digitales und Staatsmodernisierung. Dabei ging es um einen „neuen Umsetzungsansatz für die Digitalisierung der Verwaltung“, im Speziellen um das Ausrollen von digitalen Verwaltungsleistungen. Spezielle Teams für den Roll-in sollen dabei in die Verwaltungen vor Ort gehen und dort bei der Einrichtung neuer Systeme helfen. Ziel ist dann letztlich das Ausrollen oder Einrollen von immerhin fünf Verwaltungsleistungen, die dann im jeweiligen Bundesland flächendeckend verfügbar sein sollen.
Geschehen soll das zuerst pilotiert, dann in ganz Bayern und Hessen. Und wer jetzt erwartet, dass es in Bayern und Hessen dann am Ende dieses Jahres dieselben fünf Verwaltungsleistungen flächendeckend verfügbar geben könnte, nein, das wäre zu einfach. In Bayern werden die Leistungen „Online-Ummeldung“, „Online-Beantragung des Führerscheins“, „Online-Beantragung von Bauvorbescheid und Baugenehmigung“, „Online-Beantragung einer Aufenthaltsgenehmigung“ und „Online-Waffenrechtliche Erlaubnisse“ eingeführt.
Hessen will die Leistungen „Online-Ummeldung“, „Online-Beantragung des Führerscheins (Erstantrag)“, „Online-Beantragung einer Aufenthaltsgenehmigung“, „Online-Unterhaltsvorschuss“ und „Online-Anlagengenehmigung und -zulassung“ flächendeckend einführen.
Damit sind dann Ende 2026 vielleicht zwei Verwaltungsleistungen in der Schnittmenge flächendeckend verfügbar, also in Hessen und Bayern. Nicht in der ganzen Republik.
Aber gab es nicht einmal ein Vorhaben, das sogar ganze 575 Verwaltungsleistungen flächendeckend verfügbar machen wollte? Ja, das gab es und die Älteren hier kennen das als Onlinezugangsgesetz. Das trat 2017 in Kraft, der Prozess sollte 2022 abgeschlossen sein, und naja, 2026 stehen wir also an dem Punkt, dass Roll-in-Teams durch Hessen und Bayern tingeln und Verwaltungsleistungen in der Art wandernder Kaufleute von Kommune zu Kommune bringen. Dingdong, dürfen wir mit Ihnen über Einer-für-alle-Leistungen sprechen? Heute im Angebot: Online-Ummeldung, ganz fangfrisch aus Hamburg.
Vertriebswege
Nun wurden im Intro ja schon die schlechten Filmpreisvergleiche angestoßen. Im Gegensatz zu digitalen Verwaltungsleistungen haben Kinofilme – trotz stärker werdenden Streamings von Inhalten für Zuhause – immer noch besser funktionierende Verteilungswege für ihre Inhalte. In Deutschland gab es 2024 1.722 Kinos mit 4.842 Leinwänden, auf denen zumindest die großen Blockbuster im ganzen Land konsumierbar werden. Häufig auch die Filme, die einen oder mehrere Oscars gewinnen.
Digitale Verwaltungsleistungen sind von dieser Omnipräsenz leider oft noch weit entfernt. Die Online-Ummeldung, die in Hessen und Bayern ja von Kommune zu Kommune endlich vollends ausgerollt werden soll, ist aktuell erst von zwei Dritteln der Bevölkerung nutzbar. Zwar haben 15 von 16 Bundesländern schon die digitale Verwaltungsleistung ausgerollt und auch das Saarland, das hier ausnahmsweise mal nicht als universeller Messmaßstab dienen soll, plant eine Nutzung. Nur gibt es auf kommunaler Ebene eher noch viele Nutzbarkeitslücken, ähnlich wie beim nicht durchgehenden Mobilfunkempfang. Online ummelden in Regensburg? Fehlanzeige. Ummeldung vom Sofa aus in Brandenburg? Nur in drei Prozent des Landes verfügbar.
Verwaltungsarbeit in Deutschland wird vorwiegend von den Kommunen vor Ort umgesetzt. Bundesgesetze und Länderregelungen schön und gut, aber die „Musik“ spielt vor Ort in der Kommune. Und so kommen die ganzen neuen, verheißungsvollen digitalen Verwaltungsleistungen oftmals gar nicht so recht weiter. Die Gründe dafür ließen sich jetzt in typischer Verantwortungsdiffusion im Kreis der möglichen Verantwortlichen hin- und herschieben. Die Kommunen könnten schuld sein, weil sie die Leistungen nicht annehmen. Vielleicht noch einmal einen Brief schreiben, wie das der ehemalige Staatssekretär Johann Saathof tun wollte? Bitten allein werden nach fast zehn Jahren OZG nicht mehr helfen. Fingerzeige auch nicht.
Realistisch betrachtet sind die allermeisten Kommunen in Deutschland auf Roll-in-Teams angewiesen, die Kommunen dabei helfen, digitale Verwaltungsleistungen vor Ort zu implementieren. Kommunen mit manchmal nur halben IT-Stellen, die sich in Personalunion um das Schul-WLAN, die Drucker im Amt und irgendwelche Onlineleistungen kümmern sollen, werden nicht viele Kapazitäten haben, auch noch viele neue digitale Baustellen aufzumachen. „Sobald eine andere Aufgabe kommt, eine Pflichtaufgabe, die hat dann doch Priorität vor der Digitalisierung“, attestiert etwa ein Erfahrungsbericht der Hochschule Harz zum Rollout des OZG in kleinen Kommunen. Von den fehlenden finanziellen Mitteln in manchen Kommunen ganz zu schweigen.
Vollständig zentralisieren lassen sich Verwaltungsleistungen im Digitalen übrigens auch nicht, auch wenn das vielleicht gerade die Hoffnung ist. Spätestens bei der Durchsetzung von Verwaltungsvorgängen, sei es über Ordnungsämter, Standesämter oder ähnliche Behörden, braucht auch zentrale Infrastruktur wieder dezentrale Anknüpfungspunkte in der Kommune vor Ort. Damit bleiben Rollout-Herausforderungen in der Verwaltung immer vorhanden.
Ebenso kann es schwerlich ein vollständig zentralisiertes digitales Gesundheitswesen geben, weil dieses immer mit Menschen agieren muss, die vor Ort mit echten Patient*innen interagieren. Auch hier: Es gibt kein vollständig zentralisierbares digitales System, das nicht irgendwann auf Rollout-Probleme vor Ort stoßen würde.
Märkte
In der Digitalisierung der Verwaltung, aber auch des Gesundheitswesens, ist eines in Deutschland immer gewiss: Dass aus großen Digitalprojekten immer ein für die Wirtschaft durchaus erträglicher Markt wird, ganz egal, ob digitale Leistungen bei Bürger*innen auch wirklich ankommen.
Das OZG ist und war ein riesiger Markt. Versenktes Budget für die OZG EfA-Leistungen? Über eine Milliarde Euro ohne nennenswerte Fortschritte. Folglich sprach der Bundesrechnungshof zur Verwendung der Mittel für das Onlinezugangsgesetz 2024 zu vom Bund finanzierten Leistungen teilweise sogar von Investitionsruinen.
Ähnlich verhält es sich mit der verschleppten Nutzung bei anderen Digitalgroßprojekten in Deutschland. Der „neue“ Personalausweis etwa, der bei seiner Einführung 2010 einen für die damalige Zeit unglaublichen Funktionsumfang mitbrachte. eID-Funktion zum Ausweisen im Internet, qualifizierte elektronische Signaturen, Pseudonym-Funktionen sowie eine Alters- oder Wohnortbestätigung, ohne Geburtsdatum oder genaue Adresse preiszugeben.
Funktionen, die heute eigentlich jede Bundesbürger*in in der digitalen Welt brauchen könnte. Funktionen, die aber nach wie vor schlecht ausgerollt werden. PIN für die ganzen schönen digitalen Ausweisfunktionen nicht zur Hand? Tja, es gab mal einen PIN-Rücksetzdienst, der war aber dann zu teuer. Digitales, rechtssicheres Signieren mit jedem Personalausweis, offline und immer verfügbar? Wäre technisch gegangen. Wurde 2010 aber dem Markt überlassen (€). Signaturzertifikate für den Personalausweis bot dann in einem marktoffenen Modell mit genau noch einem Marktteilnehmer dann nur ein staatsnaher Marktteilnehmer an.
Nicht nur in der Verwaltung, sondern auch im Gesundheitswesen wird in der Digitalisierung in Deutschland immer im Markt die Lösung für das Problem der Skalierung gesehen. Das ist aber nicht ohne große Komplexität und erzeugt teils erhebliche Probleme, ein großes, stimmig zusammenpassendes Ganzes zu schaffen. Oder wie die für die Spezifikationen der Digitalisierung des Gesundheitswesens zuständige gematik schreibt:
Denn im Marktmodell gibt es für TI-Anwendungen wie die ePA zahlreiche Softwarelösungen der verschiedenen Systemhersteller. Diese müssen alle mit der TI kompatibel sein und teils auch untereinander funktionieren. Das erhöht die Komplexität des „Ökosystems“ Telematikinfrastruktur zusätzlich.
Auch wenn das „teils“ funktionieren eher noch mehr Fragen aufwirft, ist die Beschreibung des Marktmodells und der Gründe des Scheiterns geradezu universell anwendbar auf typisch deutsche Digitalgroßprojekte: marktorientiert, komplex, zersplittert und kaum bis wenig von der Bevölkerung nutzbar und damit auch wirklich genutzt. Egal ob in der Versorgung im Gesundheitswesen oder von Bürger*innen in der Verwaltung.
Academy-Standard
Ein letztes Mal ist es dabei sinnvoll, den Filmvergleich zu bemühen. Die Academy of Motion Picture Arts and Sciences, die alljährlich in glamourösen Veranstaltungen die Oscars für die Filme des Jahres vergibt, ist nicht nur eine Organisation für Jubelereignisse. Die Academy hat in der Zeit ihres Bestehens auch wesentlich zur Standardisierung des Films und seiner Vertriebswege beigetragen. Das Academy-Format stellte 1929 einen wesentlichen Meilenstein für die Standardisierung von Filmformaten dar. Filme waren so von ihren Aufnahmen bis zu ihrer Verbreitung in unzähligen Kinos endlich entsprechend interoperabel einsetzbar. Vor und nach der Festsetzung des Academy-Standards gab es immer wieder durchaus viele unterschiedliche andere Filmformate, mit ganz sonderlichen Entwicklungen in größeren und breiten Formaten oder sogar mit mehreren Kameras auf einmal.
Letztlich blieb der Academy-Standard aber lange Jahrzehnte ein geeigneter Rahmen, um unzählige, vielfältige und mannigfaltige filmische Werke zu produzieren und diese auch weltweit aufführen zu können.
Wer in der Digitalisierung der Verwaltung Vergleiche mit dem Oscar anbringt, sollte sich darüber bewusst sein, dass hinter all diesen Preisen wesentlich mehr steckt als ein paar Showevents und Marketing. Die Digitalisierung der Verwaltung in Deutschland ist noch lange nicht an dem Punkt, sich über Oscars Gedanken machen zu können. Filme, die nur aus Spezialeffekten bestehen, sind ebenso sinnfrei wie Verwaltungspreise für „agentische KI“, die letztlich nur als Show-Anwendung dient.
Die Digitalisierung in Deutschland braucht einen Rahmen, in dem diese funktionieren und skalieren kann. Ob das der Deutschland-Stack – der auch mir immer noch sehr nebulös ist – sein kann, muss sich zeigen. Der Deutschland-Stack braucht aber sicherlich weit mehr als eine singuläre agentische KI-Anwendung. Es ist fraglich, ob der Weg zu einem tragfähigen Fundament das abermalige Rufen nach Startups, nach Govtech und der heilenden Hand des Marktes ist. Letztlich haben nahezu alle durch den Markt geprägten digitalen Großprojekte, angefangen vom nPA zur ePA bis hin zum OZG, zwar viele Gelder bewegt, aber das Publikum, uns als Bürger*innen, weit weniger erreicht als populäre Kinofilme. Egal, ob der Film oder die digitale Leistung jetzt einen Oscar bekommen hat oder nicht.
Wer sich mit großem Kino vergleicht, sollte auch verstehen, was hinter großem Kino steht: gute Rahmenwerke und Standards, gute Verteilwege, viel Kreativität im Inhalt, aber auch viel Klarheit in der Technik. Vielleicht klappt es dann auch wirklich mit einer internationalen Führungsrolle – nicht nur auf LinkedIn.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
