netzpolitik.org

Bitte aktualisieren Sie PHP auf Version 8.2.0 (zurzeit: 8.1.2-1ubuntu2.22). Info
Das Erste, was man neuerdings bei einer Google-Suche sieht, ist oftmals eine KI-generierte Zusammenfassung. Eine Option zum Abschalten dieser „Übersicht mit KI“ bietet Google zwar nicht direkt an. Mit wenigen Klicks in den Browser-Einstellungen klappt es trotzdem.

Seit März 2025 ist die sogenannte „Übersicht mit KI“ auch in Deutschland vollständig in der Google-Suche integriert. Google bietet direkt unter der Suchleiste eine per Sprachmodell generierte Zusammenfassung der Suchergebnisse an, „um schneller und einfacher“ zu Suchergebnissen zu kommen, so Google selbst.
Jedoch sind die Antworten der KI-Übersicht nicht verlässlich: Die Google-KI kann „unrichtige oder anstößige Informationen liefern. Bei Übersichten mit KI können und werden Fehler vorkommen“, wie der Konzern erklärt. Die „Übersicht mit KI“ sei eine Kernfunktion der Google-Suche und ließe sich deswegen nicht direkt deaktivieren.
Es gibt aber aktuelle Möglichkeiten, die KI-Übersicht dauerhaft zu meiden. Sie können je nach Browser variieren – und ob sie auf Dauer funktionieren, hängt von Google ab. Noch bietet Google selbst eine Ansicht der Suchergebnisse ohne KI, allerdings ein wenig versteckt: Bereits im Mai 2024 führte Google hierfür einen neuen Reiter mit dem Namen „Web“ ein, zusätzlich zu den Reitern „Bilder“, „Videos“ und „News“. Manchmal befindet sich dieser Reiter hinter dem Aufklapp-Menü „Mehr“ am Ende der Auflistung.
Nach dem Googeln auf diesen Reiter zu klicken ist eine Möglichkeit, die KI-Übersicht zu meiden. Wer sich jedoch das dauerhafte Klicken sparen möchte, kann sich zumindest in manchen Browsern direkt diesen Web-Reiter anzeigen lassen. Das heißt, man bekommt nach einer Suchanfrage sofort die Ergebnisse ohne KI-Zusammenfassung serviert.
Benutzerdefinierte Suchmaschine anlegen

Um Googles KI-Zusammenfassung zu umgehen, lässt sich in den Browser-Einstellungen bei Firefox und Chrome eine benutzerdefinierte URL für Suchmaschinen festlegen.
Bei Chrome funktioniert die Umstellung in sieben Schritten:
- Mit einem Klick auf das Drei-Punkte-Symbol in der Browser-Leiste öffnen sich die Browser-Einstellungen.
- In der Spalte links öffnet ein Klick auf den Menüpunkt „Suchmaschinen“ die Suchmaschinen-Einstellungen.
- Dort auf „Suchmaschinen und die Websitesuche verwalten“ klicken.
- Unter „Websitesuche“ lässt sich ein neuer Eintrag mit dem Button „Hinzufügen“ anlegen.
- Es öffnet sich ein kleines Fenster mit mehreren Eingabemöglichkeiten: „Name“ und „Kürzel“ können frei gewählt werden. Wichtig ist nur unter „URL“ folgendes Eingabe: {google:baseURL}/search?udm=14&q=%s
- Mit Klick auf den Button „Hinzufügen“ wird dieser neue Eintrag gespeichert.
- In der Auflistung der Suchmaschinen, direkt hinter dem neuen Eintrag, muss im Drei-Punkte-Menü noch die Option „Als Standard festlegen“ angeklickt werden.
Diese Änderung lässt sich auch schnell wieder rückgängig machen, indem man Google wieder als Standardsuchmaschine festlegt.
Bei Firefox funktioniert die Umstellung ähnlich einfach:
- Ein Klick aufs Burger-Symbol in der Browserleiste öffnet die Einstellungen.
- In der Spalte links öffnet ein Klick auf den Menüpunkt „Suche“ die Suchmaschinen-Einstellungen.
- Unten auf der Seite bei „Suchmaschinen-Schlüsselwörter“ legt ein Klick auf „Hinzufügen“ einen neuen Eintrag an.
- Es öffnet sich ein kleines Fenster mit mehreren Eingabemöglichkeiten: „Name der Suchmaschine“ und „Schlüsselwort“ sind frei wählbar. Wichtig ist, unter „URL mit %s anstelle des Suchbegriffs“ Folgendes einzugeben: https://www.google.com/search?udm=14&q=%s
- Mit Klick auf „Suchmaschine hinzufügen“ wird dieser neue Eintrag gespeichert.
- Oben auf der Seite unter „Standardsuchmaschine“ lässt sich im Drop-Down-Menü die neu angelegte Suchmaschine als Standard-Suchmaschine festlegen.
In diesem Drop-Down-Menü kann man die Standardsuchmaschine auf Wunsch auch wieder ändern.
Bei Safari ist es nicht möglich, benutzerdefinierte Suchmaschinen anzulegen, ohne weitere Apps oder Add-ons zu installieren.
„Übersicht mit KI“ verändert Browsing-Verhalten
Kürzlich veröffentlichte das US-Meinungsforschungsinstitut Pew Research Center eine Studie zum Online-Suchverhalten von 900 Teilnehmer*innen. Dabei fanden die Wissenschaftler*innen heraus, dass die „Übersicht mit KI“ deutliche Auswirkungen hat. Erscheint bei einer Suche mit Google eine KI-Zusammenfassung, ist demnach die Wahrscheinlichkeit geringer, dass Suchende noch auf Links zu weiterführenden Webseiten klicken. Außerdem würden Google-Nutzende öfter ihre Browsing-Session beenden, nachdem eine KI-Zusammenfassung auftaucht. Auch andere Studien bestätigen diesen Effekt. Viele sehen in dieser Entwicklung deshalb eine Bedrohung für werbefinanzierte Webseiten, da Aufrufzahlen und somit Einnahmen sinken.
Eine andere Möglichkeit, die „Übersicht mit KI“ zu umgehen, ist die Suchmaschine zu wechseln. In der alternativen Suchmaschine „DuckDuckGo“ gibt es zwar auch eine KI-Zusammenfassung; sie lässt sich jedoch direkt in den Einstellungen der Suchmaschine ausstellen. Außerdem legt der US-Anbieter größeren Wert auf Privatsphäre der Nutzenden. In den Datenschutzbestimmungen von DuckDuckGo heißt es: „Wir speichern und teilen Ihre Such- und Browserverläufe nicht“. Hier berichten wir ausführlicher über alternative Suchmaschinen.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Die britische Medienaufsicht hat sich durchgesetzt. Pornhub und weitere große Plattformen setzen jetzt rigorose Alterskontrollen durch. Als nächstes könnten VPN-Dienste ins Visier geraten. So wird der Jugendschutz zum Vorwand, um Grundrechte im Netz zu schleifen. Ein Kommentar.

Ab heute, dem 25. Juli, müssen Plattformen mit potenziell für Kinder schädlichen Inhalten das Alter britischer Nutzer*innen kontrollieren. Die Grundlage dafür ist der Online Safety Act, durchgesetzt von der dortigen Medienaufsicht Ofcom.
Pornhub-Mutterkonzern Aylo, eines der weltgrößten Porno-Unternehmen, zieht mit und betont in feinster PR-Prosa, sich schon seit Jahren für das Thema eingesetzt zu haben. Andernorts, in Deutschland und Frankreich etwa, wehrt sich Pornhub erbittert gegen ähnliche Vorstöße vor Gericht. Denn auch in der EU drängen Politik und Behörden auf rigorose Altersschranken.
Großbritannien geht hier mit schlechtem Beispiel voran. Der Blick zum ehemaligen EU-Land lohnt sich, um zu sehen, wie man es nicht machen sollte.
Zu den in Großbritannien amtlich empfohlenen Methoden der Alterskontrolle gehören etwa der Upload von Ausweisdokumenten oder biometrische Gesichtsscans. Auch über Banken oder mithilfe von Kreditkarten können Nutzer*innen ihr Alter nachweisen. Betroffen sind nicht nur Pornoseiten, sondern ebenso andere Plattformen mit potenziell nicht jugendfreien Inhalten, darunter Reddit, Discord, Bluesky oder Grindr.
Behörde warnt vor Hürden, die sie selbst errichtet hat
Die von der Ofcom empfohlenen Methoden zur Alterskontrolle, die auf Dokumenten basieren, schließen nicht nur Menschen ohne Papiere aus – sie sind auch eine Gefahr für Datenschutz und Privatsphäre. Nicht minder bedenklich sind biometrische Gesichtsscans, denn Biometrie ist ähnlich invasiv.
Mithilfe von biometrischen Gesichtersuchmaschinen wie Clearview AI oder PimEyes lassen sich Menschen allein anhand ihres Gesichts identifizieren. Hinzu kommt potenzielle Diskriminierung: KI-basierte Systeme, die das Alter anhand des Gesichts abschätzen, machen Fehler, insbesondere bei Personen aus Gruppen, die in den Trainingsdaten unterrepräsentiert sind.
Es mutet zynisch an, wenn die britische Medienaufsicht selbst auf einer Infoseite schreibt:
Sie sollten bei der Weitergabe persönlicher Informationen ein gewisses Maß an Vorsicht und Urteilsvermögen walten lassen.
Die Behörde warnt also vor den Hürden, die sie selbst errichtet hat. Aus gutem Grund pocht die EU-Kommission in ihren Leitlinien zu Alterskontrollen auf Datensparsamkeit und Anonymität. Wobei nach wie vor zweifelhaft ist, ob sich die EU auch an ihre eigenen Maßstäbe halten wird.
Kontrollen lassen sich kinderleicht umgehen
Bei aller Kritik am „Wie“ von Alterskontrollen kann die Frage nach dem „Ob“ schnell in Vergessenheit geraten. Denn Fachleute für Medienpädagogik und für digitale Grundrechte hinterfragen, dass solche strengen Altersschranken überhaupt eingesetzt werden – auch im Interesse der Jugendlichen selbst. Der Grund: Minderjährige brauchen gute Infoangebote statt Verbote; sie brauchen vertrauensvolle Ansprechpersonen statt Ausweiskontrollen. Die leicht umgehbaren Kontrollsysteme bieten nur eine trügerische Sicherheit.
Die offenkundige Ignoranz gegenüber solchen Einwänden legt den Verdacht nahe, dass bei der beharrlich betriebenen Alterskontroll-Politik andere Motive eine Rolle spielen. So könnte es bei manchen Wähler*innen einen Eindruck von Durchsetzungskraft und Stärke hinterlassen, wenn Politik und Behörden Tech-Konzerne zum Einlenken bringen. Zudem dürfte ein Internet mit mehr Kontrollen und Datenspuren, mit weniger Anonymität und Freiheiten all jenen gefallen, die seit Jahrzehnten Überwachungsfantasien hegen.
Überwachungsfantasie ist das Stichwort für die Gefahr hinter der britischen Symbolpolitik. Stand aktuell werden die hart erkämpften Alterskontrollen keinen einzigen britischen Jugendlichen von Pornos fernhalten. Mit simplen Mitteln wie VPN-Software oder dem Tor-Browser lassen sich die Kontrollen kinderleicht umgehen. Sie verfehlen ihren angeblichen Zweck.
Die BBC zitiert einen britischen Nutzer, der ironisch von einer „schweren“ Entscheidung spricht: „Na klar gebe ich meine sensiblen Daten einfach irgendeinem unbekannten, nicht überprüften Unternehmen – oder… ich benutze eben ein VPN.“ Der Nutzer steht damit stellvertretend für viele andere. Auch in US-Bundesstaaten ging die VPN-Nutzung durch die Decke, nachdem deren Regierungen Pornoseiten zur Einführung von Alterskontrollen gedrängt hatten.
Medienaufsicht will Infos über VPNs einschränken
Wenig sinnvolle Alterskontrollen, die sich auch noch leicht umgehen lassen: Die Geschichte der britischen Alterskontrollen könnte eine Komödie sein, wenn sie an dieser Stelle enden würde. Das tut sie aber nicht.
Die Einführung der Alterskontrollen könnten sich nämlich nur als der erste Akt einer Tragödie erweisen, um Stück für Stück Anonymisierungs-Dienste wie VPN-Software oder Tor zu kriminalisieren. Solche Dienste gehören in den Werkzeugkasten digitaler Selbstverteidigung, um Grundrechte wie Datenschutz, Privatsphäre oder Informationsfreiheit zu wahren und Zensur zu umgehen. Wer ein VPN nutzt, verschleiert gegenüber dem eigenen Internet-Zugangsanbieter und dem Website-Betreiber die tatsächliche Herkunft; vertraut diese Informationen jedoch dem VPN-Anbieter an.
Der britischen Medienaufsicht sind VPN-Dienste jetzt schon ein Dorn im Auge, wie aus einer Leitlinie für Betreiber von Pornoseiten hervorgeht. Demnach sollen die betroffenen Seiten keine Inhalte zulassen, die Minderjährige dazu anleiten oder ermutigen, Zugangskontrollen zu umgehen. Verboten sind demnach „Informationen über oder Links zu einem Virtual Private Network (VPN)“.
Weg in eine düstere Zukunft
Solche Formulierungen erinnern auf beklemmende Weise an Gesetze aus autoritären Staaten, die den Zugang zur Informationen und damit die Meinungsfreiheit kontrollieren wollen. Zum Beispiel hat der Iran die Nutzung von VPN-Diensten verboten. Der russische Staat sperrt VPN-Dienste, die nicht mit Behörden kooperieren wollen.
Von den Ofcom-Leitlinien zu einem veritablen VPN-Verbot mag es noch ein langer Weg sein. Zunächst sollen es Pornoseiten ihren britischen Nutzer*innen lediglich nicht unter die Nase reiben, wie man ihre Kontrollen umgeht. Ohne Blick aufs große Ganze könnte man das als schlüssig betrachten. Allerdings ebnet es den Weg für radikalere Vorstöße.
Grassierende Alterskontrollen können also in eine düstere Zukunft führen, in der eines Tages auch in Großbritannien und der EU ernsthaft über die Kriminalisierung von VPN-Diensten diskutiert wird – natürlich nur im Namen des Jugendschutzes. Politiker*innen, die nach einem lückenlos überwachten Internet trachten, könnten mit gespielter Überraschung anprangern, dass die Alterskontrollen ja gar nicht wirksam sind und man da doch etwas unternehmen müsse. Sonst wären die jahrelangen Bemühungen umsonst gewesen; das dürfe man den Kindern nicht antun.
Und plötzlich stehen dann die Grundrechte von allen auf dem Spiel, die sich aus gutem Grund vor kommerzieller und staatlicher Überwachung im Netz schützen müssen, darunter Journalist*innen und Aktivist*innen, Dissident*innen und Oppositionelle, verfolgte Minderheiten, Whistleblower*innen und so weiter.
Währenddessen hilft niemand jungen Menschen, die einfach nur mehr darüber wissen wollen, wie Lust, Sex und Einvernehmlichkeit funktionieren. Dafür bräuchte es nicht etwa Beschäftigung mit Seiten wie Pornhub, sondern unverklemmte, der Entwicklung angemessene Angebote für sexuelle Aufklärung.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Der für Ende des Jahres geplante Digital Networks Act wird kaum eine Ecke des Internet-Ökosystems unangetastet lassen. Zur Vorbereitung des Gesetzes hat die EU-Kommission die Öffentlichkeit nach ihrer Meinung gefragt. Wir haben uns angesehen, was auf der Wunschliste der großen Ex-Monopolisten steht.

Mit dem geplanten Digital Networks Act (DNA) hat sich die EU-Kommission viel vorgenommen: Das für Ende des Jahres angekündigte Gesetz soll den Ausbau moderner Infrastruktur beschleunigen, den Bürokratieaufwand für Netzbetreiber senken und womöglich einen gemeinsamen europäischen Markt für Telekommunikation schaffen.
Wie die EU diese ambitionierten Ziele im Detail erreichen will, ist noch nicht geklärt. Zumindest die grobe Richtung hat die Kommission aber schon vorgegeben: In von der EU in Auftrag gegebenen Berichten warben ehemalige europäische Spitzenpolitiker wie Enrico Letta oder Mario Draghi für Deregulierung, Konsolidierung und generell mehr Markt. Auch ein ähnlich gelagertes, vom inzwischen aus der Kommission ausgeschiedenen Thierry Breton auf den Weg gebrachtes Weißbuch soll ausdrücklich als Inspiration für den DNA herhalten.
EU-Kommission könnte Paradigmenwechsel anstoßen
Über den Sommer hat die Kommission eine Konsultation durchgeführt und die Öffentlichkeit um ihre Meinung zu den bislang nur grob skizzierten Vorschlägen gebeten. Zur Debatte hat sie dabei einige Eckpfeiler bisheriger Regulierungspolitik gestellt: So etwa die Regeln für die Netzneutralität und die bislang national durchgeführte Vergabe von Mobilfunkfrequenzen. Auch die die Verpflichtung für große Ex-Monopolisten wie die Telekom, zu geregelten Bedingungen Wettbewerber in ihre Netze zu lassen, steht auf dem Prüfstand.
Zugleich richtet die EU-Kommission den Blick in die Zukunft. Nicht ganz so blumig wie Bretons Weißbuch sieht sie dennoch ein weiteres Zusammenwachsen von Netzen und darauf laufender Anwendungen vor sich, sodass ein eng verzahntes „Konnektivitätsökosystem“ aus Leitungen, Rechenzentren und beispielsweise KI-Chatbots oder smarten Toastern entsteht. Dass dies auf sogenannte vertikale Integration hinausläuft, bei der letztlich vieles aus der Hand eines einzigen Unternehmens kommt, streitet die Kommission zwar als Zielvorgabe ab, wünscht sich aber zumindest eine erleichterte Zusammenarbeit zwischen den jeweiligen Akteuren.
Kurzum: Es gibt kaum ein Eck des Internet-Ökosystems, das nicht potenziell vom DNA angetastet wird. Entsprechend vielfältig war die Beteiligung an der EU-Konsultation, darunter große wie kleine Netzbetreiber, Verbraucherschutzorganisationen, Inhalteanbieter oder Hardwarehersteller. In einem ersten Schritt haben wir uns die verfügbaren Stellungnahmen der großen Ex-Monopolisten aus Deutschland (Telekom Deutschland), Spanien (Telefónica) und Frankreich (Orange) angesehen und ausgewertet. Gleich vorweg: Ihre Sicht ist in weiten Teilen deckungsgleich.
Es geht um handfeste Interessen auf einem milliardenschweren Markt: Dem Branchenverband Bitkom zufolge wurden in diesem allein in Deutschland 2024 insgesamt fast 226 Milliarden Euro umgesetzt. Auf der anderen Seite steht der Investitionsbedarf, der laut Kommission notwendig ist, nur um die selbst gesteckten Ausbauziele zu erreichen. Mindestens 150 Milliarden Euro seien EU-weit erforderlich, um eine flächendeckende Versorgung mit Glasfaser und 5G-Mobilfunk bis zum Ende des Jahrzehnts zu schaffen.
Schielen auf den Aktienmarkt
Mit ihren Deregulierungsfantasien läuft die EU-Kommission bei ehemaligen und bislang stark regulierten Monopolisten naturgemäß offene Türen ein. Seit ihrer (Teil-) Privatisierung hat die sogenannte Vorab-Regulierung ihre Marktmacht zwar gedämpft, große und inzwischen börsennotierte Unternehmen mit ganz eigenen Bedürfnissen sind sie aber dennoch geblieben.
Das lässt sich nicht zuletzt an ihrer Prioritätensetzung ablesen. Die unterscheidet sich merklich von kleineren Betreibern: So lenkt die Telekom Deutschland in ihrer Stellungnahme zum DNA den Blick zunächst auf die Aktien- und Kapitalmärkte. Trotz steigender Nachfrage nach ihren Produkten, eingebettet in eine insgesamt wachsende EU-Wirtschaft, habe sich die Marktkapitalisierung der fünf größten europäischen Netzbetreiber seit 2016 mehr als halbiert, genauso wie die Kapitalrendite gefallen sei.
Damit blieben die Erträge unter den Erwartungen der Investor:innen, die laut Telekom „weitgehend“ das Vertrauen in die Branche verloren hätten. Problematisch sei zudem, dass Netzbetreiber in der EU im Verhältnis zum Umsatz mehr als Betreiber in vergleichbaren Industrienationen investieren würden, während etwa in den USA doppelt so viel pro Kopf fließen würde. Zusammen mit wachsenden Schulden schränke das ihre Möglichkeiten ein, sich frisches Kapital zu besorgen, das sie für „Innovation und Investment“ brauche, warnt die Telekom.
Große Betreiber wollen Vorab-Regulierung beenden
Neben diesem Schlüsselargument wirbt die Telekom, gemeinsam mit Telefónica und Orange, erwartbar für die Abschaffung der Vorab-Regulierung. Stattdessen soll normales Wettbewerbsrecht, das nur nachträglich auf Fehlentwicklungen reagieren kann, zum Standard-Regulierungsansatz werden, begleitet vom im Vorjahr verabschiedeten Gigabit Infrastructure Act. Zudem sollten möglichst viele sektorspezifische Regeln fallen, etwa durch harmonisierte, horizontale Vorschriften für Verbraucherschutz, die obendrein von EU-Ländern nicht verschärft werden dürften.
Umgekehrt brauche es jedoch kein harmonisiertes EU-Zugangsprodukt, so die Konzerne. Damit sind Spezifikationen gemeint, mit denen sich Wettbewerber in die Infrastruktur der regulierten Ex-Monopolisten einklinken können. Für Universaldienstverpflichtungen sehen sie keinen Platz mehr, sie sollten komplett entfallen. Darüber hinaus drängen Telefónica und Orange darauf, die ePrivacy-Richtlinie ebenfalls ersatzlos zu streichen. In unterschiedlicher Intensität werben die Betreiber zudem dafür, die Roaming-Regeln zu lockern.
Während es die Telekom beim Wunsch nach drastisch reduzierten Transparenz- und Berichtspflichten in dem Bereich belässt, sieht Telefónica keinen Anlass mehr für regulierte Roaming-Preise und für Anrufe innerhalb der EU. So hätte der Markt dieses Problem gelöst, außerdem gebe es ja sogenannte OTTs (Over-The-Top-Anbieter), mit denen sich kostenlos kommunizieren lasse, schreibt Telefónica. Freilich hat nicht der Markt, sondern erst EU-Regulierung das Problem der horrend hohen Gebühren für EU-Auslandstelefonie beseitigt.
Netzneutralität aufschnüren
Genau von diesen OTTs wollen Telko-Riesen jedoch Geld und drängen in diesem Punkt dann doch auf mehr Regulierung: Sie wollen garantierte Entgelte von Inhalteanbietern, die ihre Leitungen zu Endkunden nutzen. Dabei treibt die Telekom laut ihrer Stellungnahme die Angst vor dem Ende des offenen Internets um: Große Inhalteanbieter würde mittlerweile den Löwenanteil des Datenverkehrs verursachen, „was einen signifikanten Wandel von einem offenen, dezentralen und nutzerzentrierten Internet zu einem hochkonzentrierten Content-Delivery-Netzwerk für große kommerzielle Inhalteanbieter markiert“, schreibt sie.
Außerdem würden für traditionelle Telekommunikationsanbieter spezifische Auflagen gelten, an die sich die neuen Platzhirsche wie WhatsApp nicht halten müssten, so die Telekom – etwa die EU-Regeln zur Netzneutralität. Zur Erinnerung: Die wurden ursprünglich auch deshalb in die Welt gesetzt, damit Netzbetreiber mit beispielsweise Aufpreisen für Skype-Telefonie oder Messenger- und SMS-Nachrichten neuen Internetdiensten nicht Steine in den Weg legen und Innovation verhindern können.
Da solche OTTs inzwischen auf den gleichen Märkten aktiv seien, wäre der bisherige Ansatz unfair und müsse beendet werden: „Diese regulatorische Asymmetrie sollte angegangen werden“, fordert die Telekom. Ähnlich argumentiert das französische Unternehmen Orange, das sogar Hersteller von Betriebssystemen in die Pflicht nehmen will. Schließlich hätten auch sie „Auswirkungen auf die Servicequalität und das Benutzererlebnis“, heißt es in der Stellungnahme.
Aufgewärmte „Fair Share“-Debatte
Mindestens brauche es einen neuen Mechanismus, mit dem sich Auseinandersetzungen rund um Zusammenschaltungsentgelte zwischen Netzbetreibern und Inhalteanbietern „effizient“ beilegen lassen sollen. Dieser soll nach dem Wunsch der Konzerne bei einer ungenannt gebliebenen Behörde angesiedelt werden – offenbar an Gerichten vorbei, die solche bisher seltenen Streitigkeiten aufgelöst haben. Damit wärmen die Großbetreiber die sogenannte „Fair Share“-Debatte wieder auf, die eigentlich vor Jahren unrühmlich in der Versenkung verschwunden war.
An der Netzneutralität knabbern wollen große Netzbetreiber auch an anderer Stelle. Die im 5G-Mobilfunkprotokoll eingebauten „Network Slices“ sollen von ihnen lang ersehnte, bezahlte Überholspuren endlich möglich machen. Mit der Slicing-Technik lässt sich das Internet in voneinander abgeschirmte Scheiben mit unterschiedlichen Qualitätsparametern schneiden und vermarkten. Im schlimmsten Fall wäre dies ein Todesstoß für die Netzneutralität.
Möglich sind solche „Spezialdienste“ heute schon, aber unter Auflagen: Sie müssen objektiv notwendig sein, dürfen normale Zugangsprodukte nicht ersetzen und können nicht zu Lasten des offenen Internets gehen. Dies sei nicht mehr zeitgemäß, behaupten die drei Betreiber. Mindestens müsse es klare Vorgaben für erlaubte Spezialdienste geben, die über die heute geltenden und durchaus detaillierten Regeln hinausgehen, fordern sie.
Den Mobilfunkbereich wollen die drei Betreiber ohnehin möglichst nur für sich selbst reklamieren. So sollten die Nutzungsrechte für Frequenzen drastisch verlängert werden, in den Raum stellen sie 40 Jahre bis unendlich lange. Zudem wollen sie über den umkämpften oberen 6-Gigahertz-Bereich alleine verfügen, anstatt ihn mit WLAN zu teilen.
Alles in allem lesen sich die Wünsche der großen drei Ex-Monopolisten wie ein Programm, das sie wieder zu alter Größe und nahezu monopolistischer Macht führen soll – nur diesmal in privater und nicht mehr staatlicher Hand. Ganz anders sehen das kleinere Anbieter, über deren Einreichungen zur Konsultation wir im nächsten Artikel berichten werden.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Sechs Millionen Menschen aus Deutschland haben Anspruch auf Schadensersatz, weil Facebook ihre Daten ungenügend gesichert hat. Der Sammelklage kann man sich kostenlos anschließen. Ein Erfahrungsbericht vom Kampf gegen den Meta-Konzern.

Ich gestehe, ich habe einen Facebook-Account. Und um es noch peinlicher zu machen: Dieser Facebook-Account ist mit meiner Handynummer verknüpft. Ich wollte Facebook nie meine Nummer geben. Ich nutze es auch schon ewig nicht mehr. Aber eines Tages wollte ich doch mal wieder rein, um eine Person zu kontaktieren, zu der ich keinen anderen Kontakt hatte.
Facebook stellte mich vor die Wahl: Personalausweiskopie oder Handynummer. Es gab keine andere Möglichkeit, um Zugang zu erhalten. Dann eben die Handynummer, dachte ich. Das hat sich gerächt.
2021 sind Daten von rund 530 Millionen Facebook-Mitgliedern außerhalb Facebooks aufgetaucht. Sie wurden wohl durch eine Sicherheitslücke gestohlen, die bis Sommer 2019 offen stand. Damals waren Daten wie Name, Handynummer, E-Mail-Adresse, Wohnort, Beziehungsstatus, Geschlecht und Geburtsdatum ungeschützt abrufbar. Von mir findet man beispielsweise Name, Geschlecht und Handynummer im Netz.
Ominöse Jobangebote und eine Vielzahl von Hallos
Jetzt bekomme ich regelmäßig ominöse Jobangebote auf mein Telefon oder Anfragen von Menschen, die mich angeblich als Guide buchen wollen für ihre Deutschlandtour oder auch einfach nur „Hallo“ schreiben. Viele dieser Anfragen kommen von Accounts, deren Profilfotos junge Frauen zeigen.
Die Unterhaltungen lassen sich mit einem Tippen löschen und die Accounts blockieren und melden. Schwieriger wird es, wenn die Menschen, die versuchen, mich zu scammen, mich anrufen. Denn dann muss ich rangehen oder zurückrufen. Es könnte ja eine Quelle sein, die eine neue Geschichte für mich hat.
Ich arbeite seit bald 30 Jahren mit dieser Telefonnummer. Ich kann sie nicht einfach wechseln, weil ich nicht von allen Menschen, die mich möglicherweise als Journalisten kontaktieren wollen, einen Kontakt habe. Also hebe ich gelegentlich auch für Scammer ab.
So schließt man sich der Sammelklage an
Ich finde, Mark Zuckerbergs Konzern Meta, dem Facebook ja gehört, schuldet mir dafür eine Entschädigung. Deshalb habe ich geklagt. Es gibt mehrere Kanzleien, die Menschen vertreten, deren Datenschutzrechte durch den Facebook-Leak verletzt wurden, WBS.LEGAL zum Beispiel. Ich habe Dr. Stoll & Sauer gewählt, die Kanzlei klagt auch für den Verbraucherzentrale Bundesverband (vzbv) gegen Meta.
Dieser Musterfeststellungsklage haben sich bereits etwa 11.000 Menschen angeschlossen. Die Teilnahme kostet nichts und gibt die Hoffnung, ebenfalls Geld von Meta zu erhalten. Ob du berechtigt bist, teilzunehmen, zeigt der „Klage-Check“ des vzbv. Ob deine Telefonnummer dank Facebook im Internet kursiert, erfährst du im „Datenleak-Check“ von Dr. Stoll & Sauer.
Die mündliche Verhandlung ist am 10. Oktober. Bis drei Wochen danach kann mensch sich der Sammelklage noch anschließen. Sechs Millionen Menschen aus Deutschland steht womöglich ein Schmerzensgeld zu, denn so viele deutsche Telefonnummern finden sich in dem Leak. Betroffen sind potenziell alle, die 2019 und früher ein Facebook-Konto hatten.
Anspruch auf mindestens 100 Euro
Laut Bundesgerichtshof rechtfertigt allein der Kontrollverlust über die persönlichen Daten einen Schadensersatz von 100 Euro, unabhängig von tatsächlichen Schäden. Henning Fischer, der die Sammelklage für den vzbv betreut, hofft, „dass derartige Verfahren Meta motivieren, den Datenschutz ernster zu nehmen“.
Ich habe als Einzelperson gegen Facebook geklagt. Obwohl die Fälle seit Anfang 2025 eigentlich als verjährt gelten, gebe es weiterhin rechtliche Möglichkeiten, auch als Einzelne*r den Kampf aufzunehmen, sagt Christian Grotz, Geschäftsführer von Dr. Stoll & Sauer. Das lohne sich, wenn man besondere Nachteile durch das Datenleck gehabt habe und bereit sei, persönlich vor Gericht aufzutreten.
„Es wurde insbesondere ihr persönliches Erscheinen angeordnet“, steht im Schreiben des Landgericht Berlin II. Sollte ich nicht auftauchen, könne gegen mich ein Ordnungsgeld von 1.000 Euro festgesetzt werden. Eine Stunde bevor es losgehen soll, ruft mich mein Anwalt an. Er sagt, es reiche völlig, wenn ich mich per Videotelefonat einwähle. Vermutlich käme ich sowieso nicht zu Wort.
Wie Meta versucht, sich herauszuwinden
Also wähle ich mich ein. Der zuständige Richter sitzt in einem schmalen schlauchförmigen Raum, der extrem hallt. Die beiden zugeschalteten Anwälte sind ebenfalls kaum zu verstehen. Was ich mitbekomme: Der Meta-Vertreter versucht, den Fall für verjährt zu erklären. Die Klage sei im März 2025 zugestellt worden, ich hätte aber seit 2021 Kenntnis von dem Datenleck gehabt. Außerdem könne meine Nummer gleichzeitig auch anderswo frei im Netz erhältlich gewesen sein.
Der Meta-Vertreter bestreitet zudem die zeitliche Anwendbarkeit der Datenschutzgrundverordnung. Es sei möglich, dass der Datenverlust vor deren Inkrafttreten im Jahr 2018 stattgefunden habe. Und es sei nicht ersichtlich, ob die Screenshots, die ich von Spamanrufen in meiner Anrufliste machte, überhaupt Spamanrufe zeigten, und ob diese wirklich bei meiner Nummer eingegangen seien. All das sieht der Richter nicht ein. Wohl aber, dass der Datenverlust aufgrund meines Berufs besonders schwer wiegt. 250 Euro muss Meta mir zahlen, beschließt er, ohne mich anzuhören.
Gekostet hat meine anwaltliche Vertretung bislang 517,65 Euro brutto, so Grotz. Finanziell gelohnt hat sich der Kampf nicht. Aber mir geht es auch mehr darum, Meta mit dem Geschäftsgebaren nicht ungeschoren davonkommen zu lassen. Außerdem zahlt meine Rechtsschutzversicherung die Kosten. Und gerade prüft sie, ob sie bereit ist, mich auch in einer Berufung zu unterstützen. Grotz meint, ich könne noch mehr Geld von Meta erstreiten. Es ist aber auch möglich, dass Meta selbst in Berufung geht, weil der Konzern weiterhin gar nichts zahlen will.
vzbv will 600 Euro pro Person erklagen
Dr. Stoll & Sauer vertritt Fälle wie meinen mit Hilfe von Legal Tech: Eingabemasken, Textbaukästen, standardisierte Akten, KI-Texterkennung, automatisierte Fallbearbeitung. Gegen Facebook klagte Dr. Stoll & Sauer im Namen von 500 Menschen, es fielen 326 Urteile in erster Instanz und 33 in zweiter. Ergebnis: Zwischen null und 3.000 Euro für die Betroffenen.
In der parallelen Sammelklage, an der Verbraucher*innen sich kostenlos beteiligen können, hält der vzbv eine Entschädigung von mindestens 600 Euro für angemessen, wenn beispielsweise neben Facebook-ID, Name und Telefonnummer auch Wohnort, E-Mail-Adresse, Geburtsdatum sowie Beziehungsstatus öffentlich geworden sind. „Mit der Musterfeststellungsklage kann man seinen eigenen Anspruch sichern und sich zurücklehnen“, sagt Grotz. Er findet: „Man muss einen Großkonzern nicht mit so was durchkommen lassen. Wenn die Verbraucher*innen in ausreichend großer Masse aufstehen, ändert sich da was.“
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Die USA wollen bei KI weltweit führend bleiben – mit einem Aktionsplan, der mehr Freiheit für Unternehmen verspricht. Doch in einem Punkt greift die Regierung ein: KI darf nicht „woke“ sein. Das könnte zur ideologischen Säuberung von Trainingsdaten führen, warnen Fachleute.

Die Trump-Regierung hat am Mittwoch einen nationalen Aktionsplan zur Entwicklung von Künstlicher Intelligenz (KI) vorgestellt. Der 28-seitige Plan soll die Vormachtstellung der USA gegenüber China im KI-Bereich sichern.
Um dieses Ziel zu erreichen, will die Regierung „bürokratische Hürden“ beseitigen, etwa Umweltauflagen beim Bau neuer Datenzentren in den USA. Die USA sollen zudem mehr KI-Produkte an Verbündete exportieren. Damit kommt die Regierung den Wünschen von KI-Unternehmen wie Open AI entgegen.
Bemerkenswert ist jedoch die einzige Ausnahme von diesem Bürokratieabbau. Der Plan empfiehlt, dass große Sprachmodelle, die von der US-Regierung beschafft werden, „objektiv und frei von ideologischen Vorurteilen“ sein sollten. Gemeint sind Modelle wie etwa OpenAIs ChatGPT oder Grok von Elon Musks Unternehmen xAI.
Per Verfügung gegen „Woke-KI“
In einer Verfügung zur „Verhinderung von Woke-KI“, die US-Präsident Donald Trump gestern unterzeichnete, wird diese Vorgabe fixiert. Die Verfügung verbietet US-Bundesbehörden, Verträge mit Tech-Unternehmen abzuschließen, die ihre KI-Modelle nicht nach den Grundsätzen von „Wahrheitstreue“ und „ideologischer Neutralität“ entwickeln. Die Regierung dürfe nicht in Modelle investieren, „die Wahrhaftigkeit und Genauigkeit zugunsten ideologischer Ziele opfern“, heißt es weiter. Die Regeln greifen in 120 Tagen, also zu Ende Oktober.
Konkret benennt die Verfügung dabei Konzepte wie „Critical Race Theory, Transgenderismus, Intersektionalität und systematischen Rassismus“, die zu einer Verzerrung der Ergebnisse in den Modellen führen würden. Critical Race Theory und Intersektionalität sind Ansätze aus der akademischen Forschung zu Diskriminierung und Rassismus. Von „Transgenderismus“ oder „Gender-Ideologie“ sprechen transfeindliche rechte Kreise, um zu suggerieren, es handele sich bei der Identität von trans* Personen um eine Weltanschauung.
Auf einem KI-Gipfel am Mittwoch sagte Trump dazu: „Das amerikanische Volk will keinen woken marxistischen Wahnsinn in KI-Modellen.“
Was ist „ideologisch neutral“?
Es ist unklar, wie Unternehmen die Vorgaben umsetzen sollen oder werden. Die Definitionen der Vorgaben von „Wahrheitstreue“ und „ideologischer Neutralität“ in der neuen Verordnung sind so vage gehalten, dass die Regierung sie in Zukunft einsetzen könnte, um Druck auf Unternehmen auszuüben.
Anthropic, OpenAI, Google und xAI haben alle in der vergangenen Woche neue Verträge über jeweils bis zu 200 Millionen Dollar mit dem US-Verteidigungsministerium abgeschlossen, um autonome KI-Agenten zu entwickeln.
Fachleute befürchten, dass die Verfügung dafür sorgen könnte, dass Unternehmen in Zukunft ihre Trainingsdaten von Ansichten bereinigen, die nicht in das Weltbild der Trump-Regierung passen. Die KI-Expertin Rumman Chowdhury benennt im Gespräch mit TechCrunch das Problem: Der Begriff „woke“ sei zu einem Container für alle möglichen Dinge geworden, die der Regierung nicht passten.
„Anti-woke“ und außer Kontrolle
Chowdhury verweist auch auf Aussagen von Elon Musk, der bei der Ankündigung der neuen Version seines Sprachmodells Grok schrieb, er werde „das gesamte Wissen der Menschheit neu schreiben, fehlende Informationen hinzufügen und Fehler löschen“. xAIs Sprachmodell Grok gilt als mögliche Blaupause dafür, welche Folgen es haben kann, wenn die Sicherheitsmaßnahmen, die andere Unternehmen in ihre Modelle eingezogen haben, um gewalttätige und diskriminierende Ergebnisse zu verhindern, bewusst aufgehoben werden.
Elon Musk hatte Grok bewusst als „anti-woke KI“ konzipiert. Das Modell wird immer wieder ausfällig und verbreitet rechte Verschwörungsmythen wie etwa den vermeintlichen Genozid an weißen Südafrikanern. Zuletzt hatte Grok Anfang Juli antisemitische Beschimpfungen und Vergewaltigungsfantasien ausgespuckt, nachdem Entwickler*innen das Modell angewiesen hatten, sich „nicht zu scheuen, politisch unkorrekte Behauptungen aufzustellen“.
Die neuen KI-Pläne der US-Regierung sind Teil eines Kulturkrieges gegen Werte und Vorstellungen, die Trumps rechte MAGA-Anhängerschaft als links und woke verunglimpft. Bereits in der Vergangenheit hatte die Regierung gegen Tech-Unternehmen gewettert, deren Inhalte-Moderation ihrer Meinung nach linke Ideen und Inhalte favorisierte und zu hart gegen rechtskonservative Positionen und Desinformation vorging. Dies wertet die Regierung als Eingriff in die Meinungsfreiheit. Mehrere Tech-Konzerne hatten nach Trumps Wiederwahl ihre Inhaltemoderation entsprechend zurückgefahren, darunter Meta. Trumps aktuelle Verfügung wird im Aktionsplan als Maßnahme für die Sicherung der Meinungsfreiheit in der „Ära von KI“ bezeichnet.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Die Polizei soll bald auch Gesichter-Suchmaschinen wie Clearview und Überwachungs-KI wie Palantir nutzen. Wir veröffentlichen das neue Sicherheitspaket des Innenministeriums. Die Zivilgesellschaft kritisiert den erneuten Vorstoß für weitreichende Befugnisse.

Das Bundesinnenministerium von Alexander Dobrindt plant ein neues „Sicherheitspaket“. Sein Ministerium hat zwei Gesetzentwürfe erstellt und an die anderen Ministerien geschickt. Wir veröffentlichen beide Entwürfe in Volltext:
- Entwurf eines ersten Gesetzes zur Stärkung digitaler Ermittlungsbefugnisse in der Polizeiarbeit
- Entwurf eines zweiten Gesetzes zur Stärkung digitaler Ermittlungsbefugnisse in der Polizeiarbeit
Biometrische Überwachung im Internet
Das Gesetzespaket soll Bundeskriminalamt und Bundespolizei erlauben, Personen anhand biometrischer Daten in „öffentlich zugänglichen Daten aus dem Internet“ zu suchen. Die Polizei soll so Personen „identifizieren, lokalisieren sowie Tat-Täter-Zusammenhänge erschließen“. Biometrische Daten sind zum Beispiel Fotos, aber auch andere Merkmale wie Bewegungs-, Handlungs- oder Sprechmuster.
Dafür dürfte die Polizei digitale Werkzeuge wie die Gesichter-Suchmaschinen Clearview AI oder PimEyes nutzen. Diese suchen massenhaft und anlasslos Fotos im Internet und legen riesige Datenbanken mit Gesichtern an. Solche Datensammlungen sind nach Einschätzungen vieler Datenschützer illegal.
Das BKA soll damit nicht nur Verdächtige suchen, sondern auch andere Personen wie beispielsweise „Kontaktpersonen, Opfer und Zeugen“. Auch das Bundesamt für Migration und Flüchtlinge soll Fotos, die es von Asylsuchenden aufnimmt, mit Gesichter-Suchmaschinen im Internet abgleichen.
Big Data und Künstliche Intelligenz
Darüber hinaus sollen die Gesetze Bundeskriminalamt und Bundespolizei erlauben, „verschiedene Datenbestände technisch zusammenzuführen“ und automatisiert zu analysieren. Die Polizei soll so „Verbindungen zwischen Taten, Personen, Orten sowie anderen Anknüpfungspunkten finden“ und sogar „neues Wissen erzeugen“.
Das ist das Versprechen von Big Data und „Künstliche Intelligenz“ wie von Palantir. Das Bundesverfassungsgericht hatte vor zwei Jahren Landesgesetze zur automatisierten Datenanalyse als verfassungswidrig eingestuft und gekippt. Die Gesellschaft für Freiheitsrechte hat heute Verfassungsbeschwerde gegen Data Mining und Palantir in Bayern eingereicht.
Die Polizei soll den „Grunddatenbestand“ bereits anlasslos „zusammenführen“ und „in einer entsprechenden Anwendung“ vorhalten. Diese „Zusammenführung und Formatierung ist aufgrund der Masse der Daten aufwändig“. Eine „Zusammenführung lediglich im Einzelfall“ wäre daher nicht „schnell und effektiv“.
Bereits dritter Anlauf
Das Doppelgesetz ist bereits der dritte Anlauf für Gesichtserkennung und KI auf Bundesebene. Vor knapp einem Jahr wollte die damalige Innenministerin Nancy Faeser dem BKA diese Befugnisse bereits geben. Wir hatten den Gesetzentwurf veröffentlicht. Dazu kam es aber nie.
Nach dem Messeranschlag in Solingen haben die Ampel-Fraktionen im Bundestag ein Sicherheitspaket beschlossen, das allen Polizeibehörden Gesichtserkennung und KI erlauben sollte. Der Bundesrat hat dieses Gesetz aber gestoppt.
Die aktuelle Bundesregierung aus Union und SPD hat das Vorhaben in ihrem Koalitionsvertrag vereinbart. Demnach plant sie „die automatisierte Datenrecherche und -analyse sowie den nachträglichen biometrischen Abgleich mit öffentlich zugänglichen Internetdaten, auch mittels Künstlicher Intelligenz“.
Im Koalitionsvertrag haben Union und SPD auch beschlossen, dass die Befugnisse „verfassungsrechtliche Vorgaben und digitale Souveränität“ berücksichtigen. Das klingt, als ob ausländische Anbieter ausgeschlossen sind. Doch der Gesetzentwurf erlaubt stattdessen explizit „die Zusammenarbeit mit Dritten, auch außerhalb der Europäischen Union“.
Abstimmung der Bundesregierung
Das Innenministerium hat das Paket in zwei Gesetze getrennt. Der Haupt-Teil ist im ersten Gesetz, das der Bundestag allein beschließen kann. Weitere Teile sind im zweiten Gesetz, dem der Bundesrat zustimmen muss.
Die geplanten Gesetze sind aktuell noch Referentenentwürfe des Innenministeriums. Das Ministerium von Dobrindt hat die Entwürfe zur Vorabstimmung an die anderen Ministerien verschickt. Nach dieser ersten Feedback-Runde folgt die Länder- und Verbändebeteiligung und die offizielle Ressortabstimmung. Wenn das Kabinett das Paket beschließt, geht es in den Bundestag.
Wir haben das Innenministerium nach dem Zeitplan gefragt. Eine Sprecherin teilt mit: „Zu den zeitlichen Abläufen äußert sich das BMI nicht“.
Zivilgesellschaft kritisiert „Totalüberwachung“
Das letzte Sicherheitspaket wurde stark kritisiert. Zivilgesellschaftliche Organisationen lehnten das Gesetzespaket ab. Sachverständige im Bundestag kritisierten das Vorhaben. Die Bundesbeauftragte für Datenschutz bezeichnete die Super-Datenbanken und Gesichtserkennungstechnologie als „besonders problematisch“.
Das aktuelle Sicherheitspaket dürfte ähnlich kritisiert werden. Erik Tuchtfeld, Co-Vorsitzender der Digital-NGO D64, erklärt: „In Zukunft sollen alle Bilder und Videos, auf die Sicherheitsbehörden im Internet zugreifen können, automatisiert nach Gesichtern, Stimmen und Bewegungsmustern durchsucht werden. Das wird die Totalüberwachung des öffentlichen Raumes ermöglichen.“
Weiter kritisiert Tuchtfeld die KI-gestützte Auswertung aller Daten, die den Strafverfolgungsbehörden vorliegen: „Das ist genau, was die Palantir-Software von Trump-Buddy Peter Thiel macht. Es ist erschreckend, wer dem Innenministerium hier offensichtlich als Inspirationsquelle dient.“
Grüne: „Hoffentlich hat das BMI gelernt“
Das letzte Sicherheitspaket wurde auch innerhalb der Ampel-Parteien kontrovers diskutiert. Grüne und FDP sehen sich als Bürgerrechtsparteien, die Gesichtserkennung und KI-Überwachung eigentlich ablehnen. Auch Abgeordnete der SPD waren skeptisch. Am Ende haben fast alle Ampel-Abgeordneten für das Gesetz gestimmt.
Im Gesetzgebungs-Verfahren haben die Ampel-Abgeordneten den Regierungsvorschlag laut eigener Aussage „besser und vor allem grundrechtskonform gemacht“. Der Grüne Abgeordnete Konstantin von Notz sprach von „sehr relevanten und entscheidenden Verbesserungen“ und warb für Zustimmung.
Zum neuen Paket kommentiert von Notz: „Bislang liegt dem Parlament noch kein Vorschlag vor. Für uns als Grüne ist aber völlig klar, dass wir uns auch das neue Gesetzespaket wieder sehr genau mit Blick auf Grundrechtsschutz und Verhältnismäßigkeit anschauen und nötigenfalls wieder Änderungen vorschlagen werden. Bislang können wir nur hoffen, dass das BMI aus den massiven Fehlern, die es im Zuge der Vorlage des letzten Pakets gemacht hat, irgendwas gelernt hat.“
Linke: „Inakzeptabel und rechtlich bedenklich“
Update: Die Linke hat bereits das letzte Sicherheitspaket abgelehnt. Die Abgeordnete Clara Bünger sagte im Bundestag: „Das Sicherheitspaket wird niemandem Sicherheit bringen und keine weiteren Terroranschläge verhindern.“
Auch das neue Gesetzespaket lehnt die Linke ab. Clara Bünger kritisiert: „Der Gesetzentwurf bleibt gefährlich: mehr Befugnisse für die Polizei, weniger Grundrechte. Das schafft keine Sicherheit, sondern ist inakzeptabel und rechtlich bedenklich.“
eco: „Biometrische Vollerfassung ist grundrechtswidrig“
Update: Der Verband der Internetwirtschaft eco fordert die Bundesregierung auf, das Gesetzespaket nicht ins parlamentarische Verfahren einzubringen. Der Vorstandsvorsitzende Oliver Süme „warnt vor Rückbau rechtsstaatlicher Kontrolle“:
Sicherheit darf nicht zu Lasten von Freiheit und Grundrechten gehen. Ermittlungsarbeit braucht rechtsstaatliche Grenzen, nicht anlasslose Massenüberwachung. Der Einsatz von KI muss gesetzlich klar begrenzt, transparent und kontrollierbar bleiben. Eine biometrische Vollerfassung im Netz ist grundrechtswidrig.
Hier die Gesetzentwürfe in Volltext:
- Datum: 26. Juni 2025
- Von: Bundesministerium des Innern
- Status: Referentenentwurf
Entwurf eines ersten Gesetzes zur Stärkung digitaler Ermittlungsbefugnisse in der Polizeiarbeit
A. Problem und Ziel
Polizei- und Strafverfolgungsbehörden müssen zum Schutz der inneren Sicherheit auf neue Herausforderungen reagieren können. Im vergangenen Jahr kam es im öffentlichen Raum vermehrt zu schweren Gewalttaten durch Einzeltäter wie in Mannheim, Solingen, Magdeburg, Aschaffenburg und Hamburg. Es besteht eine hohe abstrakte Bedrohungslage für die Sicherheit in Deutschland – auch durch den internationalen Terrorismus. Erhebliche Bedrohungen gehen ebenso von der schweren und organisierten Kriminalität aus; das zeigt sich unter anderem an der gestiegenen Gewaltbereitschaft sowie am zunehmenden Unterwanderungspotential krimineller Gruppierungen in gesellschaftlichen Strukturen.
Die Bedrohung durch terroristische und kriminelle Strukturen erfordert den Einsatz technologischer Instrumente – auch Künstlicher Intelligenz – in der Gefahrenabwehr und der Strafverfolgung. Ziel des Gesetzentwurfs ist es, den Polizeibehörden die rechtlichen Befugnisse zur Verfügung zu stellen, um den Herausforderungen sachgerecht begegnen zu können.
B. Lösung
Der Gesetzentwurf enthält Befugnisse zur automatisierten Datenanalyse, für den biometrischen Internetabgleich sowie das Testen und Trainieren von IT-Produkten für die Polizeibehörden des Bundes, sowohl für die Gefahrenabwehr als auch die Strafverfolgung. Dieser Gesetzentwurf bildet mit dem Entwurf eines zweiten Gesetzes zur Stärkung der Ermittlungsbefugnisse in der Polizeiarbeit ein Gesetzespaket. Er enthält die zustimmungsfreien Bestandteile des Pakets.
Hinsichtlich des Bundeskriminalamts betrifft dies die Aufgabe als Zentralstelle für die Kriminalpolizei des Bundes und der Länder nach § 2 des Bundeskriminalamtgesetzes sowie den Schutz von Mitgliedern der Verfassungsorgane und der Leitung des Bundeskriminalamts nach § 6 des Bundeskriminalamtgesetzes. Im Hinblick auf die Bundespolizei beziehen sich die Befugnisse auf ihre Aufgabe zur Gefahrenabwehr im Rahmen des Grenzschutzes nach § 2 Absatz 2 Nummer 2 Buchstabe c des Bundespolizeigesetzes, auf ihre Aufgabe nach § 3 Absatz 1 des Bundespolizeigesetzes zur Abwehr von Gefahren für die öffentliche Sicherheit und Ordnung, die auf dem Gebiet der Bahnanlagen der Eisenbahnen des Bundes den Benutzern, den Anlagen oder dem Betrieb der Bahn drohen, beim Betrieb der Bahn entstehen oder von den Bahnanlagen ausgehen, auf ihre Aufgabe zur Gefahrenabwehr im Bereich der Luftsicherheit nach §§ 4 und 4a des Bundespolizeigesetzes, auf ihre Aufgabe zum Schutz von Bundesorganen nach § 5 des Bundespolizeigesetzes sowie auf ihre Aufgaben auf See nach § 6 des Bundespolizeigesetzes. Die Änderungen der Strafprozessordnung ermöglichen die Nutzung der Befugnisse in strafprozessualen Ermittlungsverfahren. Zudem erfolgt eine Angleichung der Regelung zum biometrischen Internetabgleich im Asylgesetz an die gegenständlichen Vorschriften.
Die automatisierte Datenanalyse ist ein zentraler Baustein, um die stetig wachsenden Datenmengen in polizeilichen Ermittlungsverfahren verarbeiten zu können. Mittels der Analyse bereits rechtmäßig erhobener polizeilicher Daten ist es möglich, Verbindungen zwischen Taten, Personen, Orten sowie anderen Anknüpfungspunkten zu finden. Insbesondere für komplexe Ermittlungen in den Bereichen Terrorismus, schwerer und organisierter Kriminalität, ist die automatisierte Datenanalyse als Ermittlungsinstrument notwendig. Überdies ermöglicht sie es, in konkreten Anschlagssituationen schnellstmöglich Daten auszuwerten und somit weitere Maßnahmen zur Gefahrenabwehr zu ergreifen.
Der biometrische Abgleich mit öffentlich zugänglichen Daten aus dem Internet ist erforderlich, um Personen insbesondere zu identifizieren, lokalisieren sowie Tat-Täter-Zusammenhänge zu erschließen. Die Befugnis erlaubt es, biometrische Daten – zum Beispiel das Lichtbild einer gesuchten Person – mit öffentlich zugänglichen Daten aus dem Internet abzugleichen. Im Rahmen der Ausübung der Befugnis ist die Zusammenarbeit mit Dritten, auch außerhalb der Europäischen Union, erlaubt.
IT-Produkte sind elementarer Bestandteil einer modernen polizeilichen Arbeit. Der Gesetzentwurf enthält eine Befugnis für das Testen und Trainieren von IT-Produkten. Dies umfasst auch selbstlernende Systeme.
Die Befugnisse sind technik- und produktneutral ausgestaltet.
C. Alternativen
Keine.
D. Haushaltsausgaben ohne Erfüllungsaufwand
Es entstehen keine Haushaltsausgaben ohne Erfüllungsaufwand.
E. Erfüllungsaufwand
E.1 Erfüllungsaufwand für Bürgerinnen und Bürger
Für Bürgerinnen und Bürger entsteht kein Erfüllungsaufwand.
E.2 Erfüllungsaufwand für die Wirtschaft
Für die Wirtschaft entsteht kein Erfüllungsaufwand.
Davon Bürokratiekosten aus Informationspflichten
Keine.
E.3 Erfüllungsaufwand der Verwaltung
Platzhalter.
F. Weitere Kosten
Es entstehen keine weiteren Kosten.
Referentenentwurf des Bundesministeriums des Innern
Entwurf eines ersten Gesetzes zur Stärkung digitaler Ermittlungsbefugnisse in der Polizeiarbeit
Vom …
Der Bundestag hat das folgende Gesetz beschlossen:
Artikel 1 – Änderung des Bundeskriminalamtgesetzes
Das Bundeskriminalamtgesetz vom 1. Juni 2017 (BGBl. I S. 1354; 2019 I S. 400), das zuletzt durch Artikel 5 des Gesetzes vom 30. Juli 2024 (BGBl. 2024 I Nr. 255) geändert worden ist, wird wie folgt geändert:
- Die Inhaltsübersicht wird wie folgt geändert:
- Nach der Angabe zu § 10a werden die folgenden Angaben eingefügt:
§ 10b – Biometrischer Abgleich mit öffentlich zugänglichen Daten aus dem Internet
§ 10c – Automatisierte Datenanalyse.
- Nach der Angabe zu § 63a werden die folgenden Angaben eingefügt:
§ 63b – Biometrischer Abgleich mit öffentlich zugänglichen Daten aus dem Internet
§ 63c – Automatisierte Datenanalyse.
- Nach der Angabe zu § 10a werden die folgenden Angaben eingefügt:
- Nach § 10a werden die folgenden §§ 10b, 10c eingefügt:
§ 10b – Biometrischer Abgleich mit öffentlich zugänglichen Daten aus dem Internet
(1) Das Bundeskriminalamt kann zur Ergänzung vorhandener Sachverhalte Daten, auf die es zur Erfüllung seiner Aufgaben zugreifen darf, mit öffentlich zugänglichen personenbezogenen Daten aus dem Internet mittels einer automatisierten Anwendung zur Datenverarbeitung biometrisch abgleichen, sofern
- dies zur Erfüllung seiner Aufgabe als Zentralstelle nach § 2 Absatz 2 Nummer 1 erforderlich ist,
- bestimmte Tatsachen den Verdacht begründen, dass eine Straftat im Sinne des § 2 Absatz 1 begangen worden ist oder die Annahme rechtfertigen, dass eine Person innerhalb eines übersehbaren Zeitraums auf eine zumindest ihrer Art nach konkretisierte Weise eine solche Straftat begehen wird und
- die Verfolgung oder Verhütung der Straftat auf andere Weise aussichtslos oder wesentlich erschwert wäre.
Die öffentlich zugänglichen Daten aus dem Internet dürfen nicht in Echtzeit erhoben werden.
(2) Die Maßnahme nach Absatz 1 darf gegen andere Personen als die in § 18 Absatz 1 Nummer 1 bis 3 bezeichnete Personen nur durchgeführt werden, sofern dies dem Zweck der Identifizierung oder Aufenthaltsermittlung dient.
(3) Für die nach Absatz 1 abzugleichenden Daten gilt § 12 Absatz 2 entsprechend. Der Abgleich mit Daten, die aus in § 12 Absatz 3 genannten Maßnahmen erlangt wurden, ist ausgeschlossen.
(4) Die im Rahmen des biometrischen Abgleichs nach Absatz 1 erhobenen Daten sind nach dessen Durchführung unverzüglich zu löschen, sofern sie keinen konkreten Ermittlungsansatz für den Ausgangssachverhalt aufweisen.
(5) Bei der Übermittlung im innerstaatlichen Bereich sowie an Mitgliedsstaaten der Europäischen Union kann das Bundeskriminalamt, sofern dies zur Durchführung des Abgleichs nach Absatz 1 erforderlich ist, personenbezogene Daten an öffentliche und nichtöffentliche Stellen übermitteln und von § 25 Absatz 6 abweichen.
(6) Im internationalen Bereich gilt § 27 Absatz § mit der Maßgabe, dass das Bundeskriminalamt personenbezogene Daten, sofern dies zur Durchführung des Abgleichs nach Absatz 1 erforderlich ist, an öffentliche und nichtöffentliche Stellen übermitteln und, sofern dies zum Zweck des Schutzes der nationalen Sicherheit erforderlich ist, von § 81 Absatz 1 Nummer 3 und Absatz 4 des Bundesdatenschutzgesetzes abweichen kann.
(7) Die §§ 25 bis 28 bleiben im Übrigen unberührt.
§ 10c – Automatisierte Datenanalyse
(1) Das Bundeskriminalamt kann zur Erfüllung der Aufgabe als Zentralstelle im Informationssystem oder im polizeilichen Informationsverbund gespeicherte personenbezogene Daten nach Maßgabe von § 12 mittels einer automatisierten Anwendung zur Datenverarbeitung zusammenführen und darüber hinaus zum Zwecke der Analyse weiterverarbeiten, sofern bestimmte Tatsachen
- den Verdacht begründen, dass eine Straftat im Sinne des § 100a Absatz 2 der Strafprozessordnung begangen worden ist und die Tat auch im Einzelfall schwer wiegt, oder
- die Annahme rechtfertigen, dass eine Person innerhalb eines übersehbaren Zeitraums auf eine zumindest ihrer Art nach konkretisierte Weise eine Straftat begehen wird, die in § 100a Absatz 2 der Strafprozessordnung genannt ist und sich gegen den Bestand oder die Sicherheit des Bundes oder eines Landes oder gegen Leib, Leben oder Freiheit einer Person oder gegen Sachen von bedeutendem Wert, deren Erhaltung im öffentlichen Interesse geboten ist, richtet,
und dies zur Verhütung oder Verfolgung der Straftat erforderlich ist.
(2) Im Rahmen der Weiterverarbeitung nach Absatz 1 können insbesondere datei- und informationssystemübergreifend Beziehungen oder Zusammenhänge zwischen Personen, Personengruppierungen, Institutionen, Organisationen, Objekten und Sachen hergestellt, unbedeutende Informationen und Erkenntnisse ausgeschlossen, Suchkriterien gewichtet, die eingehenden Erkenntnisse zu bekannten Sachverhalten zugeordnet sowie gespeicherte Daten statistisch ausgewertet werden.
- § 22 wird wie folgt geändert:
- Die Überschrift wird durch die folgende Überschrift ersetzt:
§ 22 – Weiterverarbeitung von Daten zu weiteren Zwecken.
- Nach Absatz 2 wird der folgende Absatz 3 eingefügt:
(3) Das Bundeskriminalamt darf bei ihm vorhandene personenbezogene Daten zur Entwicklung, Überprüfung, Änderung oder zum Trainieren von IT-Produkten einschließlich selbstlernender Systeme weiterverarbeiten und an Dritte übermitteln, soweit dies zur Erfüllung seiner Aufgaben erforderlich ist, insbesondere weil
- unveränderte Daten benötigt werden oder
- eine Anonymisierung oder Pseudonymisierung der Daten nicht oder nur mit unverhältnismäßigem Aufwand möglich ist.
Das Trainieren von IT-Produkten mit personenbezogenen Daten, die aus in § 12 Absatz 3 genannten Maßnahmen erlangt wurden, ist unzulässig. Eine Übermittlung der in Satz 2 genannten Daten ist unzulässig. Personenbezogene Daten werden nur an solche Personen übermittelt, die Amtsträger oder für den öffentlichen Dienst besonders Verpflichtete sind oder die zur Geheimhaltung verpflichtet worden sind. § 1 Absatz 2, 3 und 4 Nummer 2 des Verpflichtungsgesetzes ist auf die Verpflichtung zur Geheimhaltung entsprechend anzuwenden. Durch organisatorische und technische Maßnahmen hat das Bundeskriminalamt zu gewährleisten, dass die Daten gegen unbefugte Kenntnisnahme geschützt sind.
- Die Überschrift wird durch die folgende Überschrift ersetzt:
- Nach § 63a werden die folgenden §§ 63b, 63c eingefügt:
§ 63b – Biometrischer Abgleich mit öffentlich verfügbaren Daten aus dem Internet
(1) Das Bundeskriminalamt kann Daten, auf die es zur Erfüllung seiner Aufgaben zugreifen darf, mit öffentlich zugänglichen personenbezogenen Daten aus dem Internet mittels einer automatisierten Anwendung zur Datenverarbeitung biometrisch abgleichen, sofern dies im Einzelfall erforderlich ist
- zur Abwehr einer Gefahr für eine zu schützende Person oder für eine zu schützende Räumlichkeit nach § 6 oder
- zum Schutz von Leib, Leben, Freiheit, sexueller Selbstbestimmung oder bedeutenden Sachwerten einer zu schützenden Person oder zum Schutz einer zu schützenden Räumlichkeit nach § 6, wenn Tatsachen den Schluss auf ein wenigstens seiner Art nach konkretisiertes und zeitlich absehbares Geschehen zulassen, an dem bestimmte Personen beteiligt sein werden, oder
- zum Schutz von Leib, Leben, Freiheit oder sexueller Selbstbestimmung einer zu schützenden Person oder zum Schutz einer zu schützenden Räumlichkeit nach § 6, wenn das individuelle Verhalten einer Person die konkrete Wahrscheinlichkeit begründet, dass sie in einem übersehbaren Zeitraum eine Straftat gegen eines dieser Rechtsgüter der zu schützenden Person oder gegen eine zu schützende Räumlichkeit begehen wird,
und die Abwehr der Gefahr auf andere Weise aussichtslos oder wesentlich erschwert wäre. Die öffentlich zugänglichen Daten aus dem Internet dürfen nicht in Echtzeit erhoben werden.
(2) Der Abgleich nach Absatz 1 darf gegen andere Personen als die entsprechend § 17 oder § 18 des Bundespolizeigesetzes Verantwortlichen, die in § 20 Absatz 1 des Bundespolizeigesetzes bezeichnete Person oder Personen im Sinne von Absatz 1 Nummer 2 oder 3 nur durchgeführt werden, sofern dies dem Zweck der Identifizierung oder Aufenthaltsermittlung dient.
(3) Für die nach Absatz 1 Satz 1 abzugleichenden Daten gilt § 12 Absatz 2 entsprechend. Der Abgleich mit Daten, die die aus in § 12 Absatz 3 genannten Maßnahmen erlangt wurden, ist ausgeschlossen.
(4) Die im Rahmen des biometrischen Abgleichs nach Absatz 1 erhobenen Daten sind nach dessen Durchführung unverzüglich zu löschen, sofern sie keinen konkreten Ermittlungsansatz für den Ausgangssachverhalt aufweisen.
(5) Bei der Übermittlung im innerstaatlichen Bereich sowie an Mitgliedsstaaten der Europäischen Union kann das Bundeskriminalamt, sofern dies zur Durchführung des Abgleichs nach Absatz 1 erforderlich ist, personenbezogene Daten an öffentliche und nichtöffentliche Stellen übermitteln und von § 25 Absatz 6 abweichen.
(6) Im internationalen Bereich gilt § 27 Absatz § mit der Maßgabe, dass das Bundeskriminalamt personenbezogene Daten, sofern dies zur Durchführung des Abgleichs nach Absatz 1 erforderlich ist, an öffentliche und nichtöffentliche Stellen übermitteln und, sofern dies zum Zweck des Schutzes der nationalen Sicherheit erforderlich ist, von § 81 Absatz 1 Nummer 3 und Absatz 4 des Bundesdatenschutzgesetzes abweichen kann.
(7) Die §§ 25 bis 28 bleiben im Übrigen unberührt.
§ 63c – Automatisierte Datenanalyse
(1) Das Bundeskriminalamt kann im Informationssystem oder im polizeilichen Informationsverbund gespeicherte personenbezogene Daten nach Maßgabe von § 12 mittels einer automatisierten Anwendung zur Datenverarbeitung zusammenführen und darüber hinaus zum Zwecke der Analyse weiterverarbeiten, sofern dies zur Abwehr einer im Einzelfall bestehenden Gefahr für Leib, Leben oder Freiheit einer nach § 6 zu schützenden Person erforderlich ist. Eine Maßnahme nach Satz 1 ist auch zulässig, sofern
- Tatsachen die Annahme rechtfertigen, dass eine Person innerhalb eines übersehbaren Zeitraums auf eine zumindest ihrer Art nach konkretisierte Weise eine Straftat von auch im Einzelfall erheblicher Bedeutung gegen Leib, Leben oder Freiheit einer nach § 6 zu schützenden Person begehen wird, oder und
- das individuelle Verhalten einer Person die konkrete Wahrscheinlichkeit begründet, dass sie innerhalb eines übersehbaren Zeitraums eine Straftat von auch im Einzelfall erheblicher Bedeutung gegen Leib, Leben oder Freiheit einer nach § 6 zu schützenden Person begehen wird,
und dies zur Verhütung dieser Straftat erforderlich ist.
(2) Im Rahmen der Weiterverarbeitung nach Absatz 1 Satz 1 können insbesondere datei- und informationssystemübergreifend Beziehungen oder Zusammenhänge zwischen Personen, Personengruppierungen, Institutionen, Organisationen, Objekten und Sachen hergestellt, unbedeutende Informationen und Erkenntnisse ausgeschlossen, Suchkriterien gewichtet, die eingehenden Erkenntnisse zu bekannten Sachverhalten zugeordnet sowie gespeicherte Daten statistisch ausgewertet werden.
Artikel 2 – Änderung des Bundespolizeigesetzes
Das Bundespolizeigesetz vom 19. Oktober 1994 (BGBl. I S. 2978, 2979), das zuletzt durch Artikel 5 des Gesetzes vom 6. Mai 2024 (BGBl. 2024 I Nr. 149) geändert worden ist, wird wie folgt geändert:
1. In der Inhaltsübersicht werden nach der Angabe zu § 34 die folgenden Angaben eingefügt:
§ 34a – Biometrischer Abgleich mit öffentlich zugänglichen Daten aus dem Internet
§ 34b – Automatisierte Datenanalyse
§ 34c – Weiterverarbeitung und Übermittlung von personenbezogenen Daten zum Testen und Trainieren von IT-Produkten.
Nach § 34 werden die folgenden §§ 34a bis 34c eingefügt:
„§ 34a – Biometrischer Abgleich mit öffentlich zugänglichen Daten aus dem Internet
(1) Die Bundespolizei kann zur Erfüllung einer ihr obliegenden Aufgabe Daten, auf die sie zur Erfüllung ihrer Aufgaben zugreifen darf, mit öffentlich zugänglichen personenbezogenen Daten aus dem Internet mittels einer automatisierten Anwendung zur Datenverarbeitung biometrisch abgleichen, sofern
- dies zur Abwehr einer im Einzelfall bestehenden Gefahr für den Bestand oder die Sicherheit des Bundes oder eines Landes oder für Leib, Leben oder Freiheit einer Person oder Sachen von bedeutendem Wert, deren Erhaltung im öffentlichen Interesse geboten ist und
- Tatsachen die Annahme rechtfertigen, dass eine Person innerhalb eines übersehbaren Zeitraums auf eine zumindest ihrer Art nach konkretisierte Weise eine Straftat nach den §§ 96 Absatz 2, 97 des Aufenthaltsgesetzes oder eine Straftat, die gegen die Sicherheit der Anlagen oder des Betriebes des Luft-, See- oder Bahnverkehrs gerichtet ist, insbesondere Straftaten nach den §§ 315, 315b, 316b und 316c des Strafgesetzbuches, und eine nicht unerhebliche Gefährdung eines der in Nummer 1 genannten Rechtsgüter erwarten lässt, begehen wird, oder
- das individuelle Verhalten einer Person die konkrete Wahrscheinlichkeit begründet, dass sie innerhalb eines übersehbaren Zeitraums eine Straftat nach den §§ 96 Absatz 2, 97 des Aufenthaltsgesetzes oder eine Straftat, die gegen die Sicherheit der Anlagen oder des Betriebes des Luft-, See- oder Bahnverkehrs gerichtet ist, insbesondere Straftaten nach den §§ 315, 315b, 316b und 316c des Strafgesetzbuches, und eine nicht unerhebliche Gefährdung eines der in Nummer 1 genannten Rechtsgüter erwarten lässt, begehen wird
und die Verhütung der Straftat auf andere Weise aussichtslos oder wesentlich erschwert wäre. Die öffentlich zugänglichen Daten aus dem Internet dürfen nicht in Echtzeit erhoben werden.
(2) Der Abgleich nach Absatz 1 darf gegen andere Personen als die nach § 17 oder § 18 Verantwortlichen, die in § 20 Absatz 1 bezeichnete Person oder Personen im Sinne von Absatz 1 Nummer 2 oder 3 nur durchgeführt werden, sofern dies dem Zweck der Identifizierung oder Aufenthaltsermittlung dient.
(3) Für die nach Absatz 1 Satz 1 abzugleichenden Daten gilt § 12 Absatz 2 des Bundeskriminalamtgesetzes entsprechend.
(4) Die im Rahmen des biometrischen Abgleichs nach Absatz 1 erhobenen Daten sind nach dessen Durchführung unverzüglich zu löschen, sofern sie keinen konkreten Ermittlungsansatz für den Ausgangssachverhalt aufweisen.
(5) Sofern dies zur Durchführung des Abgleichs nach Absatz 1 erforderlich ist, kann die Bundespolizei personenbezogene Daten im innerstaatlichen Bereich sowie an Mitgliedsstaaten der Europäischen Union an öffentliche und nichtöffentliche Stellen übermitteln und dabei von § 33 Absatz 6 abweichen.
(6) Sofern dies zur Durchführung des Abgleichs nach Absatz 1 erforderlich ist, kann die Bundespolizei personenbezogene Daten im internationalen Bereich an öffentliche und nichtöffentliche Stellen übermitteln und dabei von § 81 Absatz 1 Nummer 3 und Absatz 4 des Bundesdatenschutzgesetzes abweichen, sofern dies zum Zweck des Schutzes der nationalen Sicherheit erforderlich ist.
§ 34b – Automatisierte Datenanalyse
(1) Die Bundespolizei kann zur Erfüllung einer ihr obliegenden Aufgabe Daten, auf die sie zur Erfüllung ihrer Aufgaben zugreifen darf, mittels einer automatisierten Anwendung zur Datenverarbeitung zusammenführen und darüber hinaus zum Zwecke der Analyse weiterverarbeiten, sofern
- dies zur Abwehr einer im Einzelfall bestehenden Gefahr für den Bestand oder die Sicherheit des Bundes oder eines Landes oder für Leib, Leben oder Freiheit einer Person oder Sachen von bedeutendem Wert, deren Erhaltung im öffentlichen Interesse geboten ist, erforderlich ist,
- Tatsachen die Annahme rechtfertigen, dass eine Person innerhalb eines übersehbaren Zeitraums auf eine zumindest ihrer Art nach konkretisierte Weise eine Straftat nach den §§ 96 Absatz 2, 97 des Aufenthaltsgesetzes oder eine Straftat, die gegen die Sicherheit der Anlagen oder des Betriebes des Luft-, See- oder Bahnverkehrs gerichtet ist, insbesondere Straftaten nach den §§ 315, 315b, 316b und 316c des Strafgesetzbuches, und eine nicht unerhebliche Gefährdung eines der in Nummer 1 genannten Rechtsgüter erwarten lässt, begehen wird, und dies zur Verhütung der Straftat erforderlich ist, oder
- das individuelle Verhalten einer Person die konkrete Wahrscheinlichkeit begründet, dass sie innerhalb eines übersehbaren Zeitraums eine Straftat nach den §§ 96 Absatz 2, 97 des Aufenthaltsgesetzes oder eine Straftat, die gegen die Sicherheit der Anlagen oder des Betriebes des Luft-, See- oder Bahnverkehrs gerichtet ist, insbesondere Straftaten von auch im Einzelfall erheblicher Bedeutung nach den §§ 315, 315b, 316b und 316c des Strafgesetzbuches, und eine nicht unerhebliche Gefährdung eines der in Nummer 1 genannten Rechtsgüter erwarten lässt, begehen wird, und dies zur Verhütung der Straftat erforderlich ist.
(2) Im Rahmen der Weiterverarbeitung nach den Absatz 1 können insbesondere datei- und informationssystemübergreifend Beziehungen oder Zusammenhänge zwischen Personen, Personengruppierungen, Institutionen, Organisationen, Objekten und Sachen hergestellt, unbedeutende Informationen und Erkenntnisse ausgeschlossen, Suchkriterien gewichtet, die eingehenden Erkenntnisse zu bekannten Sachverhalten zugeordnet sowie gespeicherte Daten statistisch ausgewertet werden.
§ 34c – Weiterverarbeitung und Übermittlung von personenbezogenen Daten zum Testen und Trainieren von IT-Produkten
Die Bundespolizei kann bei ihr vorhandene personenbezogene Daten zur Entwicklung, Überprüfung, Änderung oder zum Trainieren von IT-Produkten einschließlich selbstlernender Systeme weiterverarbeiten und an Dritte übermitteln, soweit dies zur Erfüllung einer ihr obliegenden Aufgabe erforderlich ist, insbesondere weil
- unveränderte Daten benötigt werden oder
- eine Anonymisierung oder Pseudonymisierung der Daten nicht oder nur mit unverhältnismäßigem Aufwand möglich ist.
Personenbezogene Daten werden nur an solche Personen übermittelt, die Amtsträger oder für den öffentlichen Dienst besonders Verpflichtete sind oder die zur Geheimhaltung verpflichtet worden sind. § 1 Absatz 2, 3 und 4 Nummer 2 des Verpflichtungsgesetzes ist auf die Verpflichtung zur Geheimhaltung entsprechend anzuwenden. Durch organisatorische und technische Maßnahmen hat die Bundespolizei zu gewährleisten, dass die Daten gegen unbefugte Kenntnisnahme geschützt sind.
Artikel 3 – Änderung der Strafprozessordnung
Die Strafprozessordnung wird wie folgt geändert:
Artikel 4 – Änderung des Asylgesetzes
Das Asylgesetz in der Fassung der Bekanntmachung vom 2. September 2008 (BGBl. I S. 1798), das zuletzt durch Artikel 2 des Gesetzes vom 25. Oktober 2024 (BGBl. 2024 I Nr. 332) geändert worden ist wird wie folgt geändert:
1. § 15b wird durch den folgenden § 15b ersetzt:
§ 15b – Biometrischer Abgleich mit öffentlich zugänglichen Daten aus dem Internet
(1) Das nach § 16 Absatz 1 Satz 1 und 2 erhobene biometrische Lichtbild des Ausländers darf mit öffentlich zugänglichen personenbezogenen Daten aus dem Internet mittels einer automatisierten Anwendung zur Datenverarbeitung biometrisch abgeglichen werden, wenn es zur Feststellung der Identität oder Staatsangehörigkeit erforderlich ist, da der Ausländer keinen gültigen Pass oder Passersatz besitzt. Die öffentlich zugänglichen Daten aus dem Internet dürfen nicht in Echtzeit erhoben werden.
(2) Die im Rahmen des Abgleichs nach Absatz 1 erhobenen Daten sind nach Durchführung des Abgleichs unverzüglich zu löschen, sofern sie für die Feststellung der Identität oder Staatsangehörigkeit nicht mehr erforderlich sind.
(3) Bei der Übermittlung im innerstaatlichen Bereich sowie an Mitgliedsstaaten der Europäischen Union kann das Bundesamt personenbezogene Daten an öffentliche und nichtöffentliche Stellen übermitteln, sofern dies zur Durchführung des Abgleichs nach Absatz 1 erforderlich ist.
(4) Im internationalen Bereich kann das Bundesamt personenbezogene Daten an Öffentliche und nichtöffentliche Stellen übermitteln, sofern dies zur Durchführung des Abgleichs nach Absatz 1 erforderlich ist und von § 81 Absatz 1 Nummer 3 und Absatz 4 des Bundesdatenschutzgesetzes abweichen, sofern dies zum Zweck des Schutzes der nationalen Sicherheit erforderlich ist.
Artikel 5 – Inkrafttreten
Dieses Gesetz tritt am Tag nach der Verkündung in Kraft.
Begründung
A. Allgemeiner Teil
I. Zielsetzung und Notwendigkeit der Regelungen
Polizei- und Strafverfolgungsbehörden müssen zum Schutz der inneren Sicherheit auf neue Herausforderungen reagieren können. Im vergangenen Jahr kam es im öffentlichen Raum vermehrt zu schweren Gewalttaten durch Einzeltäter wie in Mannheim, Solingen, Magdeburg, Aschaffenburg und Hamburg. Es besteht eine hohe abstrakte Bedrohungslage für die Sicherheit in Deutschland – auch durch den internationalen Terrorismus. Erhebliche Bedrohungen gehen ebenso von der schweren und organisierten Kriminalität aus; das zeigt sich unter anderem an der gestiegenen Gewaltbereitschaft sowie am zunehmenden Unterwanderungspotential krimineller Gruppierungen in gesellschaftlichen Strukturen.
Die Bedrohung durch terroristische und kriminelle Strukturen erfordert den Einsatz technologischer Instrumente – auch Künstlicher Intelligenz – in der Gefahrenabwehr und der Strafverfolgung. Ziel des Gesetzentwurfs ist es, den Polizeibehörden die rechtlichen Befugnisse zur Verfügung zu stellen, um den Herausforderungen sachgerecht begegnen zu können.
II. Wesentlicher Inhalt des Entwurfs
Der Gesetzentwurf enthält Befugnisse zur automatisierten Datenanalyse, für den biometrischen Internetabgleich sowie das Testen und Trainieren von IT-Produkten für die Polizeibehörden des Bundes, sowohl für die Gefahrenabwehr als auch die Strafverfolgung. Dieser Gesetzentwurf bildet mit dem Entwurf eines zweiten Gesetzes zur Stärkung der Ermittlungsbefugnisse in der Polizeiarbeit ein Gesetzespaket. Er enthält die zustimmungsfreien Bestandteile des Pakets.
Hinsichtlich des Bundeskriminalamts betrifft dies die Aufgabe als Zentralstelle für die Kriminalpolizei des Bundes und der Länder nach § 2 des Bundeskriminalamtgesetzes sowie den Schutz von Mitgliedern der Verfassungsorgane und der Leitung des Bundeskriminalamts nach § 6 des Bundeskriminalamtgesetzes. Im Hinblick auf die Bundespolizei beziehen sich die Befugnisse auf ihre Aufgabe zur Gefahrenabwehr im Rahmen des Grenzschutzes nach § 2 Absatz 2 Nummer 2 Buchstabe c des Bundespolizeigesetzes, auf ihre Aufgabe nach § 3 Absatz 1 des Bundespolizeigesetzes zur Abwehr von Gefahren für die öffentliche Sicherheit und Ordnung, die auf dem Gebiet der Bahnanlagen der Eisenbahnen des Bundes den Benutzern, den Anlagen oder dem Betrieb der Bahn drohen, beim Betrieb der Bahn entstehen oder von den Bahnanlagen ausgehen, auf ihre Aufgabe zur Gefahrenabwehr im Bereich der Luftsicherheit nach §§ 4 und 4a des Bundespolizeigesetzes, auf ihre Aufgabe zum Schutz von Bundesorganen nach § 5 des Bundespolizeigesetzes sowie auf ihre Aufgaben auf See nach § 6 des Bundespolizeigesetzes. Die Änderungen der Strafprozessordnung ermöglichen die Nutzung der Befugnisse in strafprozessualen Ermittlungsverfahren. Zudem erfolgt eine Angleichung der Regelung zum biometrischen Internetabgleich im Asylgesetz an die gegenständlichen Vorschriften.
Die automatisierte Datenanalyse ist ein zentraler Baustein, um die stetig wachsenden Datenmengen in polizeilichen Ermittlungsverfahren verarbeiten zu können. Mittels der Analyse bereits rechtmäßig erhobener polizeilicher Daten ist es möglich, Verbindungen zwischen Taten, Personen, Orten sowie anderen Anknüpfungspunkten zu finden. Insbesondere für komplexe Ermittlungen in den Bereichen Terrorismus, schwerer und organisierter Kriminalität, ist die automatisierte Datenanalyse als Ermittlungsinstrument notwendig. Überdies ermöglicht sie es, in konkreten Anschlagssituationen schnellstmöglich Daten auszuwerten und somit weitere Maßnahmen zur Gefahrenabwehr zu ergreifen.
Der biometrische Abgleich mit öffentlich zugänglichen Daten aus dem Internet ist erforderlich, um Personen insbesondere zu identifizieren, lokalisieren sowie Tat-Täter-Zusammenhänge zu erschließen. Die Befugnis erlaubt es, biometrische Daten – zum Beispiel das Lichtbild einer gesuchten Person – mit öffentlich zugänglichen Daten aus dem Internet abzugleichen. Im Rahmen der Ausübung der Befugnis ist die Zusammenarbeit mit Dritten, auch außerhalb der Europäischen Union, erlaubt.
IT-Produkte sind elementarer Bestandteil einer modernen polizeilichen Arbeit. Der Gesetzentwurf enthält eine Befugnis für das Testen und Trainieren von IT-Produkten. Dies umfasst auch selbstlernende Systeme.
Die Befugnisse sind technik- und produktneutral ausgestaltet.
III. Exekutiver Fußabdruck
Interessenvertreterinnen und Interessenvertreter Dritter oder sonstige Personen außerhalb der Bundesverwaltung sind nicht an der Erstellung des Entwurfs beteiligt worden.
IV. Alternativen
Keine.
V. Gesetzgebungskompetenz
Die Gesetzgebungskompetenz des Bundes folgt für die Änderung des Bundeskriminalamtgesetzes bezüglich der Zentralstellenfunktion Art. 73 Abs. 1 Nr. 10 Buchstabe a des Grundgesetzes und bezüglich des Schutzes von Bundesorganen, Mitgliedern der Verfassungsorgane und der Leitung des Bundeskriminalamts aus der Natur der Sache. Für die Änderungen des Bundespolizeigesetzes folgt die Gesetzgebungskompetenz aus Artikel 73 Absatz 1 Nummer 5 (Grenzschutz), 6 (Luftverkehr) und 6a (Eisenbahnen) des Grundgesetzes sowie für die datenschutzrechtlichen Regelungen als Annex zu den jeweiligen Sachkompetenzen. Soweit für die Änderungen des Bundespolizeigesetzes der Schutz von Bundesorganen betroffen ist, folgt die Gesetzgebungskompetenz aus der Natur der Sache. Für die Änderungen des Asylgesetzes folgt die Gesetzgebungskompetenz aus Artikel 74 Absatz 1 Nummer 6 des Grundgesetzes.
VI. Vereinbarkeit mit dem Recht der Europäischen Union und völkerrechtlichen Verträgen
Der Gesetzentwurf ist mit dem Recht der Europäischen Union und völkerrechtlichen Verträgen, die die Bundesrepublik Deutschland geschlossen hat, vereinbar.
VII. Gesetzesfolgen
Der Gesetzentwurf dient dem Schutz der öffentlichen Sicherheit in Deutschland und der Stärkung der Ermittlungsbefugnisse im Rahmen von Gefahrenabwehr und Strafverfolgung.
1. Rechts- und Verwaltungsvereinfachung
Die Regelungen des Gesetzentwurfs werden nicht zu einer Rechts- oder Verwaltungsvereinfachung führen.
2. Nachhaltigkeitsaspekte
Der Gesetzentwurf steht im Einklang mit den Leitgedanken der Bundesregierung zur nachhaltigen Entwicklung im Sinne der Deutschen Nachhaltigkeitsstrategie, die der Umsetzung der Agenda 2030 für nachhaltige Entwicklung der Vereinten Nationen dient. Der Entwurf dient entsprechend der Zielvorgabe 16.1 der Erhöhung der persönlichen Sicherheit und dem Schutz vor Kriminalität.
3. Haushaltsausgaben ohne Erfüllungsaufwand
Es entstehen keine Haushaltsausgaben ohne Erfüllungsaufwand.
4. Erfüllungsaufwand
a) Erfüllungsaufwand für Bürgerinnen und Bürger
Für Bürgerinnen und Bürger entsteht kein Erfüllungsaufwand.
b) Erfüllungsaufwand für die Wirtschaft
Für die Wirtschaft entsteht kein Erfüllungsaufwand.
c) Erfüllungsaufwand der Verwaltung
Platzhalter.
5. Weitere Kosten
Weitere Kosten sind nicht zu erwarten.
6. Weitere Gesetzesfolgen
Auswirkungen auf demografierelevante Belange sind nicht zu erwarten.
VIII. Befristung; Evaluierung
Befristung und Evaluierung sind nicht vorgesehen.
B. Besonderer Teil
Zu Artikel 1 (Änderung des Bundeskriminalamtgesetzes)
Zu Nummer 1 (Inhaltsübersicht)
Zu Buchstabe a
Es handelt sich um eine redaktionelle Folgeänderung zur Einführung von den §§ 10b, 10c.
Zu Buchstabe b
Es handelt sich um eine redaktionelle Folgeänderung zur Einführung von den §§ 63b, 63c.
Zu Nummer 2 (§§ 10b, 10c)
Zu § 10b
Das Bundeskriminalamt hat nach § 2 Absatz 2 Nummer 1 die Aufgabe, alle zur Verhütung und Verfolgung von Straftaten mit länderübergreifender, internationaler oder erheblicher Bedeutung nach § 2 Absatz 1 erforderlichen Informationen zu sammeln und auszuwerten. Als Zentralstelle unterstützt das Bundeskriminalamt die Polizeien des Bundes und der Länder in der gesamten Breite der Kriminalitätsbekämpfung, insbesondere aber in den Feldern der Terrorismusabwehr sowie der schweren und organisierten Kriminalität. Für eine moderne Aufgabenwahrnehmung ist es unerlässlich, dass dies auch Informationen aus dem Internet umfasst. Straftäter hinterlassen in der analogen wie auch digitalen Welt Spuren: Das Bundeskriminalamt muss in beiden Situationen über die erforderlichen Ermittlungsinstrumente verfügen. Diesem Zweck dient § 10b.
Ziel des Abgleichs biometrischer Daten mit öffentlich zugänglichen Daten aus dem Internet ist die Identifizierung und Lokalisierung sowie Erkennung von Tat-Täter-Zusammenhängen. Eine entsprechende Befugnis ist neben der hier betroffenen Zentralstellenregelung zur Abwehr von Gefahren des internationalen Terrorismus (§ 39a) und zum Schutz von Mitgliedern der Verfassungsorgane und der Leitung des Bundeskriminalamts (§ 63b) vorgesehen.
Die Befugnis ist technik- und produktneutral. Die Umsetzung kann mittels eigener IT-Produkte des Bundeskriminalamts oder kommerzieller IT-Produkte Dritter erfolgen.
Zu Absatz 1
Zweck des Abgleichs nach Absatz 1 Satz 1 ist, dass das Bundeskriminalamt zur Erfüllung der Aufgabe als Zentralstelle im Bereich der Strafverfolgung und Straftatenverhütung bestehende Hinweise zu Personen und einer bestimmten Begehungsweise verdichten kann. Mittels des biometrischen Abgleichs von Daten mit öffentlich zugänglichen Daten, insbesondere dem Internet, können Personen identifiziert und lokalisiert sowie Tat-Täter-Zusammenhänge erkannt werden.
Unter einem biometrischen Abgleich im Sinne der Vorschrift ist die technisch gestützte Überprüfung der Übereinstimmung von biometrischen Signaturen mit dem Ergebnis einer Übereinstimmungsbewertung zu verstehen. Ausgangspunkt ist ein biometrisches Datum, beispielsweise ein Fahndungslichtbild, das mit Referenzdaten abgeglichen wird. Unter allgemein öffentlich zugängliche Daten fallen solche Daten, die von jedermann verwendet werden können, beispielsweise aus sozialen Medien, soweit sich diese nicht an einen spezifisch abgegrenzten Personenkreis richten. Konkretisierend fallen darunter Daten, wenn sie jede Person ohne oder nach vorheriger Registrierung, Genehmigung oder Entgeltzahlung nutzen kann. Nicht umfasst sind Daten, die einer spezifischen Schwelle unterzogen sind, beispielsweise der Einstellung von Daten in sozialen Medien für einen begrenzten Kreis, dessen Zugang einer Kontrolle unterzogen wird. Privatkommunikation über Messenger-Dienste von sozialen Medien können nicht von der Maßnahme erfasst werden.
Die Befugnis setzt entsprechend § 9 Absatz 1 voraus, dass die Maßnahme nur zur Ergänzung vorhandener Sachverhalte erfolgen kann. Voraussetzungen für ein Tätigwerden des Bundeskriminalamts ist, dass bereits Ermittlungsunterlagen vorliegen (vgl. Bundestagsdrucksache 13/1550, S. 24). Die Vorschrift setzt einen Tatverdacht bzw. zur Straftatenverhütung eine zumindest konkretisierte Gefahrenlage voraus. Der Abgleich erfolgt zielgerichtet bezogen auf einen konkreten Sachverhalt. Die erstmalige Gewinnung von Verdachts- oder Gefahrenmomenten ist nicht von der Befugnis erfasst.
Zum Zweck der Durchführung des Abgleichs nach Absatz 1 können öffentlich zugängliche Daten aus dem Internet erhoben werden. Die Vorschrift erlaubt zudem die Speicherung der Daten, um diese als Referenz für den Abgleich zu verwenden. Diese temporäre Speicherung erfolgt ausschließlich zu dem Zweck des konkreten Ausgangsverfahrens, eine weitere Verwendung der Daten ist ausgeschlossen, sie sind nach Absatz 4 zu löschen.
Öffentlich zugängliche Daten können auch im Rahmen der allgemeinen Ermittlungsbefugnisse erhoben werden. Spezialgesetzlicher Regelungsbedarf besteht jedoch, da Absatz 1 Satz 1 den biometrischen Abgleich öffentlich zugänglicher Daten mittels automatisierter Verarbeitung regelt. Nur mittels einer solchen technischen Anwendung können Lichtbilder und Videos analysiert werden, die einen Abgleich ermöglicht. Ohne eine solche technische Verarbeitung könnten die erhobenen Daten nicht verwendet werden, da sich öffentlich zugängliche Daten in Format und Struktur von den im Informationssystem oder -verbund gespeicherten Daten unterscheiden.
Nach Satz 2 ist es ausgeschlossen, dass die öffentlich zugänglichen Daten aus dem Internet in Echtzeit erhoben werden dürfen. Die Erhebung von personenbezogenen Daten aus Livestreams im Internet ist daher verboten. Sobald der zugrundeliegende Lebenssachverhalt abgeschlossen ist, ist eine nachträgliche Erhebung der Daten erlaubt.
Zu Absatz 2
Die Maßnahme nach § 10b Absatz 1 ist auch zur Identifizierung und Aufenthaltsermittlung anderer Personen als den in § 18 Absatz 1 Nummer 1 bis 3 genannten möglich, beispielsweise von Kontaktpersonen, Opfern und Zeugen.
Zu Absatz 3
Der Abgleich nach Absatz 1 setzt voraus, dass im Informationssystem oder -verbund Daten als Grundlage des Abgleichs vorhanden sind (Beispiel: Lichtbild eines Tatverdächtigen). Absatz 3 Satz 1 sieht eine entsprechende Geltung des § 12 Absatz 2 für die abzugleichenden Daten vor. Damit werden die Vorgaben der hypothetischen Datenneuerhebung auf die gegenständliche Maßnahme übertragen. Das Bundeskriminalamt darf demnach nur solche Daten als Grundlage des Abgleichs einbeziehen, die mindestens der Verfolgung einer vergleichbar bedeutsamen Straftat dienen und aus denen sich im Einzelfall konkrete Ermittlungsansätze zur Verfolgung solcher Straftaten ergeben. Letzteres sichert, dass nur im Einzelfall notwendige Daten zum Abgleich verwendet werden. Daten, die durch einen verdeckten Einsatz technischer Mittel in oder aus Wohnungen oder verdeckten Eingriff in informationstechnische Systeme erlangt wurden, können aufgrund der hohen Eingriffsintensität nicht in den Abgleich einbezogen werden.
Zu Absatz 4
Nach Absatz 4 dürfen ausschließlich Daten verarbeitet werden, sofern sich auf Grundlage des Abgleichs ein konkreter Ermittlungsansatz aus den Daten ergibt. Die Weiterverarbeitung richtet sich im Weiteren nach den Regelungen zur Weiterverarbeitung nach diesem Gesetz oder der Strafprozessordnung. Im Übrigen sind die für die Durchführung des Abgleichs nach Absatz 1 verwendeten Daten unverzüglich zu löschen. Die Vorschrift sichert eine enge Zweckbindung der Daten.
Zu Absatz 5
Zur Durchführung des biometrischen Internetabgleichs nach Absatz 1 kann eine Übermittlung an andere öffentliche oder nichtöffentliche Stellen erforderlich sein. Absatz 5 sieht insofern eine spezielle Übermittlungsbefugnis vor. Die Vorschrift regelt die Möglichkeit, bei der Datenübermittlung im innerstaatlichen Bereich sowie an Mitgliedsstaaten der Europäischen Union von den Regelungen in 825 Absatz6 zur Verpflichtung Dritter zur Zweckbindung abzuweichen. Eine solche Ermessensentscheidung des Bundeskriminalamts kann insbesondere damit begründet werden, dass eine solche Verpflichtung praktisch nicht möglich ist und das Risiko besteht, dass die Durchführung des Abgleichs nicht erfolgen könnte.
Zu Absatz 6
Absatz 6 Satz 1 regelt einen Dispens für Übermittlungen im internationalen Bereich. § 27 Absatz § gilt demnach unter der Maßgabe, dass Datenübermittlung an öffentliche und nichtöffentliche Stellen in Drittstaaten erlaubt ist und von § 81 Absatz 1 Nummer 3 und Absatz 4 des Bundesdatenschutzgesetzes abgewichen werden kann, sofern dies zum Schutz der nationalen Sicherheit erforderlich ist.
§ 27 Absatz § in Verbindung mit § 81 des Bundesdatenschutzgesetzes setzt Artikel 39 der Richtlinie (EU) 2016/680 des Europäischen Parlaments und des Rates vom 27. April 2016 zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten durch die zuständigen Behörden zum Zwecke der Verhütung, Ermittlung, Aufdeckung oder Verfolgung von Straftaten oder der Strafvollstreckung sowie zum freien Datenverkehr und zur Aufhebung des Rahmenbeschlusses 2008/977/JI des Rates um. Die Richtlinie (EU) 2016/680 regelt jedoch nicht die Verarbeitung personenbezogener Daten bei Tätigkeiten, die nicht unter das Unionsrecht fallen. Dies betrifft die nationale Sicherheit betreffende Tätigkeiten sowie Tätigkeiten von Agenturen oder Stellen, die mit Fragen der nationalen Sicherheit befasst sind (Erwägungsgrund 14) und spiegelt den in Artikel 4 Absatz 2 Satz 3 des Vertrags über die Europäische Union primärrechtlich verankerten Vorbehalt der alleinigen Verantwortung der einzelnen Mitgliedstaaten für die nationale Sicherheit wider.
Unter den Begriff der nationalen Sicherheit nach Artikel 4 Absatz 2 Satz 3 des Vertrags über die Europäische Union fällt nach der Rechtsprechung des Europäischen Gerichtshofs das zentrale Anliegen „die wesentlichen Funktionen des Staates und die grundlegenden Interessen der Gesellschaft zu schützen, und umfasst die Verhütung und Repression von Tätigkeiten, die geeignet sind, die tragenden Strukturen eines Landes im Bereich der Verfassung, Politik oder Wirtschaft oder im sozialen Bereich in schwerwiegender Weise zu destabilisieren und insbesondere die Gesellschaft, die Bevölkerung oder den Staat als solchen unmittelbar zu bedrohen, wie insbesondere terroristische Aktivitäten.“ (Europäischer Gerichtshof, Urteil vom 6.10.2020, Rechtssachen C-511/18, C-512/18 und C-520/18, Randnummer 135).
Darunter fallen Tätigkeiten des Bundeskriminalamts im Bereich der Abwehr, Verhütung und Verfolgung von Terrorismus, Spionage, Sabotage und Straftaten einer § 5 Absatz 1 Satz 2 vergleichbaren Dimension. Das Bundesverfassungsgericht führt zu der Vorgängerfassung von § 5 Absatz 1 Satz 2 aus: „Straftaten mit dem Gepräge des Terrorismus in diesem Sinne zielen auf eine Destabilisierung des Gemeinwesens und umfassen hierbei in rücksichtsloser Instrumentalisierung anderer Menschen Angriffe auf Leib und Leben beliebiger Dritter. Sie richten sich gegen die Grundpfeiler der verfassungsrechtlichen Ordnung und das Gemeinwesen als Ganzes.“ (Bundesverfassungsgericht, Urteil vom 24. April 2016, Az. 1 BvR 966/09 u.a., Randnummer 96).
Zu Absatz 7
Absatz 7 stellt klar, dass die Regelungen zur Datenübermittlung in §§ 25 bis 28 im Übrigen Anwendung finden.
Zu § 10c
Das Bundesverfassungsgericht hat in seinem Urteil vom 16. Februar 2023 zur automatisierten Datenanalyse (Az. 1 BvR 1547/19, 1 BvR 2634/20) die verfassungsrechtliche Legitimität von Befugnissen zur automatisierten Datenanalyse bestätigt und die verfassungsrechtlichen Anforderungen an entsprechende Vorschriften konkretisiert. Die neuen Regelungen in §§ 10c, 39b und 63c setzen diese Anforderungen um.
Die Einrichtung und Nutzung einer automatisierten Anwendung zur Datenanalyse ist für die Aufgabenerfüllung des Bundeskriminalamts erforderlich. Ausgangspunkt ist das stetige Ansteigen der vorhandenen Daten, welche durch das Bundeskriminalamt ausgewertet werden müssen. Es bedarf insofern einer Fortentwicklung der technischen Instrumente zur Bewältigung der polizeilichen Aufgaben. Ein Baustein dafür sind Anwendungen zur automatisierten Datenanalyse. Im Vergleich zum Datenabgleich zeichnen sich automatisierte Datenanalysen dadurch aus, dass sie darauf gerichtet sind, neues Wissen zu erzeugen (BVerfG, a. a. O., Randnummer 67).
Das Bundesverfassungsgericht hat in seinem Urteil vom 16. Februar 2023 Kriterien dafür aufgestellt, unter welchen Umständen Eingriffe durch Datenverarbeitungen eine besondere Eingriffsintensität erreichen, die einer spezifischen gesetzlich zu regelnden Eingriffsschwelle bedürfen. Dazu gehören unter anderem die Fähigkeit der Auswertung großer und komplexer Informationsbestände (BVerfG, a. a. O., Randnummer 69) als auch der Einsatz komplexer Formen des Datenabgleichs (BVerfG, a. a. O., Randnummer 90), wobei es sich jeweils nur um Anhaltspunkte zur Bestimmung der Eingriffsintensität handelt.
Die hier eingeführten Vorschriften ermöglichen es dem Bundeskriminalamt, unter Wahrung der verfassungsrechtlichen Voraussetzungen entsprechende Datenanalysen vorzunehmen. Dabei sollen die Datenbestände, die beim Bundeskriminalamt bereits aufgrund bestehender Rechtsgrundlagen rechtmäßig erlangt und gespeichert werden, ausschließlich zum Zwecke der Analyse zusammengeführt und weiterverarbeitet werden. Das Bundeskriminalamt wird auf diese Weise in die Lage versetzt, bereits bei ihm im polizeilichen Informationssystem oder im polizeilichen Informationsverbund nach § 29 vorhandene Informationen besser, schneller und effizienter auszuwerten. Die Befugnisse zur Weiterverarbeitung von personenbezogenen Daten nach § 16 Absatz 1 und für den (ebenfalls automatisierten) Datenabgleich nach § 16 Absatz 4 bleiben von dieser Regelung unberührt.
Eine entsprechende Befugnis ist neben der hier betroffenen Zentralstellenregelung zur Abwehr von Gefahren des internationalen Terrorismus (§ 39b) und zum Schutz von Mitgliedern der Verfassungsorgane und der Leitung des Bundeskriminalamts (§ 63c) vorgesehen.
Zu Absatz 1
Absatz 1 regelt die Befugnis des Bundeskriminalamts, die im Informationssystem des Bundeskriminalamts oder im Informationsverbund gespeicherten Daten mittels einer automatisierten Anwendung zur Datenanalyse aus verschiedenen Datenbeständen technisch zusammenzuführen. Er regelt ferner die Befugnis, diese zusammengeführten Daten zu analysieren, wenn dies zur Erfüllung der Zentralstellenaufgabe des Bundeskriminalamts erforderlich ist. Die besondere verfassungsrechtliche Rolle des Bundeskriminalamts als Zentralstelle für das polizeiliche Auskunfts- und Nachrichtenwesen und für die Kriminalpolizei erfordert hohe Fähigkeiten im Bereich der Auswertung und Analyse von Daten. Als Zentralstelle hat das Bundeskriminalamt insbesondere den gesetzlichen Auftrag, Informationen zu sammeln und auszuwerten und muss daher auch mit den rechtlichen sowie technischen Mitteln ausgestattet werden, die es in die Lage versetzen, diesen Auftrag bestmöglich zu erfüllen.
Voraussetzung ist zunächst, dass dies im Rahmen der Befugnisse des Bundeskriminalamts als Zentralstelle für das polizeiliche Auskunfts- und Nachrichtenwesen und für die Kriminalpolizei zur Verfolgung oder Verhütung einer Straftat erforderlich ist. Der Einsatz entsprechender Analysen unterliegt einer angemessenen Eingriffsschwelle. Nach dem Urteil des Bundesverfassungsgerichts vom 16. Februar 2023 kann die automatisierte Datenanalyse bei einer hinreichend konkretisierten Gefahr für besonders gewichtige Rechtsgütern erfolgen (Bundesverfassungsgericht, a. a. O., Randnummer 105f.). Der Tatbestand entspricht der Rechtsprechung des Bundesverfassungsgerichts zu den Anforderungen an eine konkretisierte Gefahrenlage (Urteil vom 20. April 2016, Az. 1 BvR 966/09 und 1 BvR 1140/09, Randnummer 165). Die präventive Regelung in § 10c Absatz 1 Nummer 2 sieht vor, dass eine konkretisierte Gefahrenlage für die Begehung einer Straftat nach § 100a Absatz 2 der Strafprozessordnung bestehen muss und kumulativ die vom Bundesverfassungsgericht anerkannten besonders gewichtigen Rechtsgüter gefährdet sind (Bundesverfassungsgericht, a. a. O., Randnummer 105f.).
Die repressive Aufgabenwahrnehmung des Bundeskriminalamts in seiner Zentralstellenfunktion ist in § 10c Absatz 1 Nummer 1 geregelt. Das Bundesverfassungsgericht sieht als maßgebliches Kriterium für die Rechtfertigung von repressiven Befugnissen das Gewicht der verfolgten Straftaten an (Urteil vom 20. April 2016, Az. 1 BvR 966/09 und 1 BvR 1140/09, Randnummer 106). Eingriffsintensive Überwachungsmaßnahmen – beispielsweise – Telekommunikationsüberwachung erfordern demnach den Verdacht einer schweren Straftat, während besonders eingriffsintensive Überwachungsmaßnahmen – Wohnraumüberwachung und Zugriff auf informationstechnische Systeme – den Verdacht einer besonders schweren Straftat erfordern (Urteil vom 20. April 2016, Az. 1 BvR 966/09 und 1 BvR 1140/09, Randnummer 107). Das Bundesverfassungsgericht hat präventive Befugnisse zur automatisierten Datenanalyse – in der gegenständlichen Ausgestaltung – als eingriffsintensive heimliche Überwachungsmaßnahme eingestuft (Urteil vom 16. Februar 2023, Az. 1 BvR 1547/19, 1 BvR 2634/20, Randnummer 105). Für die Rechtfertigung ist somit der Straftatenkatalog des § 100a Absatz 2 der Strafprozessordnung, der schwere Straftaten umfasst, angemessen. Überdies ist erforderlich, dass die verfolgte Straftat auch im Einzelfall schwer wiegt (zur Speicherung von Telekommunikationsdaten: Bundesverfassungsgericht, Az. 1 BvR 256/08, Randnummer 229).
Die technische Zusammenführung der Daten sichert die Verarbeitbarkeit der Daten im Rahmen der automatisierten Datenanalyse. Die Zusammenführung muss aus technischen Gründen vom Einzelfall und weiteren Eingriffsschwellen unabhängig sein. Die Daten können nur dann schnell und effizient analysiert werden, wenn zumindest der Grunddatenbestand bereits zusammengeführt und aktualisiert in einem einheitlichen Datenformat in einer entsprechenden Anwendung vorliegt. Der Vorgang der Zusammenführung und Formatierung ist aufgrund der Masse der Daten aufwändig, so dass eine Zusammenführung lediglich im Einzelfall dem gewünschten Zweck der schnellen und effektiven Straftatenverhütung und -verfolgung nicht gerecht werden könnte.
Die Eingrenzung der Daten auf das Informationssystem nach § 13 und den polizeilichen Informationsverbund nach § 29 ist aus Gründen der Verhältnismäßigkeit angezeigt. Es dürfen lediglich solche Daten einbezogen werden, die bereits rechtmäßig erhoben wurden. Das Bundeskriminalamt wird somit dazu befugt, die automatisierte Analyse interner Datenbestände durchzuführen.
Nicht von der Befugnis umfasst sind Datenerhebungen in externen/öffentlichen Datenquellen wie zum Beispiel Social-Media Plattformen, um diese einer direkten Analyse zu unterziehen. Daten aus externen Quellen können im konkreten Einzelfall in die Analyse nur dann miteinbezogen werden, wenn diese bereits im Vorfeld auf Basis einer entsprechenden Befugnisnorm zur Datenerhebung rechtmäßig erhoben wurden und weiterhin rechtmäßig gespeichert in dem Informationssystem des Bundeskriminalamts vorliegen oder zwischengespeichert werden, ohne dass es zu einer längerfristigen Speicherung der Daten kommt.
Für die Datenverarbeitung sind die in § 12 geregelten Grundsätze zur hypothetischen Datenneuerhebung zu beachten.
Zu Absatz 2
Absatz 2 enthält eine nicht abschließende Aufzählung der möglichen Formen der Weiterverarbeitung im Rahmen einer automatisierten Anwendung zur Datenanalyse.
Zu Nummer 3 (§ 22)
Zu Buchstabe a
Die Änderung der Überschrift von § 22 folgt aus der Einfügung des Absatzes 3. Die Aufzählung der einzelnen Verarbeitungszwecke wird gestrichen.
Zu Buchstabe b
Die Befugnis zum Testen von IT-Produkten sowie Trainieren von selbstlernenden Systemen ist für die Nutzung von IT- Anwendungen des Bundeskriminalamts von entscheidender Bedeutung. Für die (Weiter-)Entwicklung solcher Anwendungen können mehrstufige Testzyklen erforderlich sein, die unter Umständen auch die Verwendung von pseudonymisierten oder Echtdaten erfordern. Dies gilt für eigene IT-Anwendungen des Bundeskriminalamts als auch im Einzelfall für die Unterstützung im Rahmen der Aufgabe des Bundeskriminalamts als Zentralstelle.
Der neue § 22 Absatz 3 schafft eine ausdrückliche Rechtsgrundlage für die Entwicklung, Überprüfung, Änderung und das Trainieren von IT-Produkten durch das Bundeskriminalamt anhand von Echtdaten. IT-Produkte sind entsprechend der Legaldefinition in § 2 Absatz 9a des Gesetzes über das Bundesamt für Sicherheit in der Informationstechnik (BSIG) Software, Hardware sowie alle einzelnen oder miteinander verbundenen Komponenten, die Informationen informationstechnisch verarbeiten. Ausdrücklich genannt ist das Training selbstlernender Systeme.
Auch wenn das Testen von IT-Produkten mittels personenbezogener Daten in der Regel eine technisch-organisatorische Maßnahme zur Gewährleistung der Sicherheit der Datenverarbeitung im Produktivbetrieb darstellt, die auf Artikel 6 Absatz 1 Buchstabe c der Verordnung (EU) 2016/679 des Europäischen Parlamentes und des Rates vom 27. April 2016 zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten, zum freien Datenverkehr und zur Aufhebung der Richtlinie 95/46/EG (ABl. L 119/1 vom 4. Mai 2016, S. 1), im Folgenden Datenschutz-Grundverordnung, in Verbindung mit Artikel 32 der Datenschutz-Grundverordnung beziehungsweise § 64 des Bundesdatenschutzgesetzes gestützt werden kann, soll aus Gründen der Rechtssicherheit eine spezialgesetzliche Rechtsgrundlage geschaffen werden.
Erfüllt das Testen und Trainieren von IT-Produkten im Einzelfall die für die wissenschaftliche Forschung kennzeichnenden Merkmale, ist § 21 als Rechtsgrundlage für die Datenverarbeitung für die wissenschaftliche Forschung heranzuziehen.
Eine Verarbeitung personenbezogener Daten durch das Bundeskriminalamt nach § 22 Absatz 3 Satz 1 ist ausschließlich zum Zwecke der Entwicklung, Überprüfung, Änderung und des Trainierens von IT-Produkten zulässig. Zudem muss es sich um IT-Produkte handeln, die das Bundeskriminalamt für die eigene Aufgabenwahrnehmung entwickelt oder nutzt. Die Datenverarbeitung muss zur Erreichung der benannten Zwecke erforderlich sein. Insbesondere muss ein Bedürfnis für unveränderte Daten bestehen oder eine Anonymisierung oder Pseudonymisierung der Daten nicht oder nur mit unverhältnismäßigem Aufwand möglich sein. Die Aufzählung der Gründe für die Erforderlichkeit der Datenverarbeitung ist nicht abschließend.
Die Sätze 2 und 3 dienen dem besonderen Schutz von Daten, die aus den in § 12 Absatz 3 genannten besonders eingriffsintensiven Maßnahmen stammen. IT-Produkte, einschließlich selbstlernender Systeme, dürfen nicht mit Daten, die aus besonders eingriffsintensiven Maßnahmen stammen, trainiert werden. Die Übermittlung von Daten, die aus den in § 12 Absatz 3 genannten Maßnahmen stammen, an Dritte ist nach Satz 3 ausgeschlossen. Dies dient dem Schutz der besonders eingriffsintensiv erhobenen Daten. Für die Entwicklung, Überprüfung und Änderung dieser Daten durch das Bundeskriminalamt gilt dieses Verbot nicht. IT-Produkte des Bundeskriminalamts sind vor größeren technischen Umstellungen in einer separaten Schutzumgebung zu testen. Unter solchen technischen Umstellungen sind zum Beispiel der Umzug der Betriebsumgebung, der Rollout eines neuen Produkts oder ein umfangreiches Update zu verstehen. Ziel der Testung in einer separaten Schutzumgebung ist die Feststellung von Schwachstellen und die Sicherung der Funktionsfähigkeit im Betrieb. Personenbezogene Daten nach § 12 Absatz 3 müssen Teil dieser Betrachtung in der Testumgebung sein. Insbesondere sind technisch-organisatorische Vorkehrungen nach § 12 Absatz 5 zu treffen, die der Sicherstellung der Vorgaben der hypothetischen Datenneuerhebung dienen. Die Vorkehrungen müssen zwingend Bestandteil des Teststadiums sein.
Die Regelungen in den Sätzen 4 und 5 stellen sicher, dass Dritte im Rahmen einer Auftragsverarbeitung nur tätig werden dürfen, wenn sichergestellt ist, dass die Verarbeitung personenbezogener Daten nur durch Amtsträger oder für den öffentlichen Dienst besonders Verpflichtete oder zur Geheimhaltung verpflichtete Mitarbeiterinnen oder Mitarbeiter erfolgt. Dies entspricht der Regelung in § 21 Absatz 4 zur Weiterverarbeitung von personenbezogenen Daten für die wissenschaftliche Forschung.
Absatz 3 Satz 6 regelt den technisch-organisatorischen Schutz der Datensicherheit durch das Bundeskriminalamt. Dies entspricht der Regelung in § 21 Absatz 6 zur Weiterverarbeitung von personenbezogenen Daten für die wissenschaftliche Forschung.
Zu Nummer 4
Zu § 63b
§ 63b regelt die Befugnis zum biometrischen Abgleich mit öffentlich zugänglichen Daten aus dem Internet zum Zweck des Schutzes von Mitgliedern der Verfassungsorgane und der Leitung des Bundeskriminalamts. Insbesondere die Radikalisierung in der sogenannten Reichsbürger- und Querdenkerszene und die damit verbundene erhöhte Gefährdungslage für die Repräsentanten des Rechtsstaats und der Verfassungsorgane erfordern auch für diesen Aufgabenbereich adäquate rechtliche Befugnisse und technische Fähigkeiten. Aber auch in anderen Phänomenbereichen sind gleichgelagerte Gefahren denkbar. Es wird auf die Begründung zu § 10b verwiesen.
Die in Absatz 1 Nummer 3 geregelte Tatbestandsvariante bezieht sich auf das individuelle Verhalten einer Person und erfordert nicht, dass Tatsachen ein wenigstens seiner Art nach konkretisiertes und zeitlich absehbares Geschehen erkennen lassen. Das Bundesverfassungsgericht hat eine solche Tatbestandsvariante im Bereich des Terrorismus anerkannt (Urteil vom 20. April 2016, Az. 1 BvR 966/09 und 1 BvR 1140/09, Randnummer 112). Das Bundesverfassungsgericht begründete dies damit, dass terroristische Straftaten oft durch lang geplante Taten von bisher nicht straffällig gewordenen Einzelnen an nicht vorhersehbaren Orten und in ganz verschiedener Weise verübt werden (ebenda). Die Aufgabe nach § 6 unterscheidet sich von der Aufgabe der Abwehr des Terrorismus insofern, als dass nicht der Schutz der Allgemeinheit im Vordergrund steht, sondern der Schutz von Mitgliedern der Verfassungsorgane und der Leitung des Bundeskriminalamts zu schützenden Personen. Inhaltlich weisen beide Aufgaben jedoch eine vergleichbare Ausgangslage auf, insbesondere besteht eine inhaltliche Schnittmenge zwischen Terrorismus und einem Angriff auf nach § 6 geschützte Personen. Unabhängig von der Zielrichtung können solche Angriffe zudem eine Bedrohungs- und Destabilisierungswirkung erzielen, die terroristischen Angriffen vergleichbar ist. Bei der Abwehr möglicher Angriffe auf nach § 6 geschützte Personen bedarf es daher ebenfalls der Möglichkeit, Maßnahmen gegen Personen aufgrund ihres individuellen Verhaltens einzuleiten, sofern eine konkrete Wahrscheinlichkeit für die Begehung einer Straftat in einem übersehbaren Zeitraum besteht.
Zu § 63c
§ 63c regelt die Befugnis zur automatisierten Datenanalyse zum Zweck des Schutzes von Mitgliedern der Verfassungsorgane und der Leitung des Bundeskriminalamts. Es wird auf den in der Begründung zu § 63b ersichtlichen Bedarf verwiesen.
Der Tatbestand von § 63c Absatz 1 Satz 1 richtet sich auf die Abwehr von Gefahren für Leib, Leben oder Freiheit der geschützten Personen. § 63 Absatz 1 Satz 2 entspricht der Rechtsprechung des Bundesverfassungsgerichts zu den Anforderungen an eine konkretisierte Gefahrenlage für besonders gewichtige Rechtsgüter (Urteil vom 20. April 2016, Az. 1 BvR 966/09 und 1 BvR 1140/09, Randnummer 105f., 165). Im Übrigen wird auf die Begründung zu § 10c verwiesen. Bezüglich der tatbestandlichen Schwelle in Satz 2 Nummer 2 wird auf die Begründung zu § 63b verwiesen.
Zu Artikel 2 (Änderung des Bundespolizeigesetzes )
Zu Nummer 1
Es handelt sich um eine redaktionelle Änderung des Inhaltsverzeichnisses aufgrund der Einfügung der §§ 34a, 34b und 34c.
Zu Nummer 2
Zu § 34a
§ 34a regelt die Befugnis der Bundespolizei, zur Erfüllung einer ihr obliegenden Aufgabe Daten, auf die sie zur Erfüllung ihrer Aufgaben zugreifen darf, mit öffentlich zugänglichen personenbezogenen Daten aus dem Internet mittels einer automatisierten Anwendung zur Datenverarbeitung biometrisch abzugleichen.
Die Eingriffsschwellen und Schutzgüter folgen aus dem spezifischen bundespolizeilichen Aufgabenbereich. Gemäß § 2 Absatz 2 Nummer 2 Buchstabe c des Bundespolizeigesetzes ist die Bundespolizei im Rahmen des Grenzschutzes zuständig für die Abwehr von Gefahren. Unerlaubte Grenzübertritte werden vorrangig in Form von Schleusungen organisiert (88 96 f. des Aufenthaltsgesetzes). Von Schleusungen kann eine erhebliche Gefahr für Leib, Leben oder Freiheit der Geschleusten ausgehen. Insbesondere im Falle von Behältnisschleusungen (etwa bei hohen Temperaturen oder bei fehlender ausreichender Sauerstoffversorgung) ist per se von einer Gefährdung von Leib und Leben der Geschleusten auszugehen. Ferner werden alle Formen der Schleusung regelmäßig in Form von organisierter Kriminalität und damit banden- und gewerbsmäßig durchgeführt. Gemäß § 3 Absatz 1 BPolG ist die Bundespolizei ferner zuständig für die Abwehr von Gefahren für die öffentliche Sicherheit und Ordnung, die auf dem Gebiet der Bahnanlagen der Eisenbahnen des Bundes, die den Benutzern, den Anlagen oder dem Betrieb der Bahn drohen, beim Betrieb der Bahn entstehen oder von den Bahnanlagen ausgehen. Die Zuständigkeit der Bundespolizei für die Sicherheit des Luftverkehrs ergibt sich aus § 4 des Bundespolizeigesetzes, jene für die Sicherheit des Seeverkehrs aus § 6 des Bundespolizeigesetzes. Auch Eingriffe in die Sicherheit der Anlagen oder des Betriebs des Luft-, See- oder Bahnverkehrs können erhebliche, auch lebensgefährdende Auswirkungen auf eine Vielzahl von Personen haben.
Ziel der Maßnahme kann es unter anderem sein, Hinweise auf den Aufenthaltsort von Schleusern und Saboteuren zu erhalten. Diese sind im Rahmen der Fahndung nach solchen Personen von wesentlicher Bedeutung, um eine Schadensverwirklichung oder -vertiefung durch die Festnahme der Personen zu verhindern. Ebenso können Verbindungen zwischen Personen und Strukturen durch biometrische Übereinstimmungen ermittelt werden. Zudem können im Rahmen der Gefahrenabwehr beispielsweise Schleuser auf Grundlage von Handyvideos der Geschleusten mittels des biometrischen Abgleichs mit öffentlich zugänglichen Daten aus dem Internet identifiziert und im weiteren Verlauf festgenommen werden. Dies ist insbesondere bei gerade andauernden Behältnisschleusungen relevant, bei denen polizeiliches Handeln zur Abwehr von Gefahren für Leib und Leben dringend geboten ist.
Im Übrigen wird auf die Begründung zu § 10b BKAG verwiesen.
Zu § 34b
Die Bundespolizei muss zur Erfüllung ihrer Aufgaben eine wachsende Anzahl von Daten auswerten und miteinander verknüpfen. Dies kann sinnvoll nur über technische Anwendungen geschehen. Der Gesetzentwurf trägt den technischen Möglichkeiten und den Bedarfen der Zeit Rechnung, indem er die Voraussetzung für die Nutzung von Softwares zur automatisierten Datenanalyse durch die Bundespolizei schafft. Bei der konkreten Ausgestaltung insbesondere auch der Eingriffsschwellen wurde den Anforderungen des Bundesverfassungsgerichts im Urteil vom 16. Februar 2023, Az. 1 BvR 1547/19 u. a. Rechnung getragen. Auf die Begründung zu § 10c des Bundeskriminalamtsgesetzes wird verwiesen.
Die Schutzgüter folgen aus dem spezifischen bundespolizeilichen Aufgabenbereich. Auf die Begründung zu § 34a BPolG wird verwiesen. Im Bereich der häufig lebensgefährlichen Schleusungen ist das Erkennen von Tat- und Täterzusammenhängen von entscheidender Bedeutung, um die häufig organisiert agierenden Täterstrukturen zu zerschlagen.
Der Luft-, See- und Bahnverkehr ist als wichtige Infrastruktur zunehmend hybriden Bedrohungen und Sabotageakten ausgesetzt. Das Risiko ist angesichts der weltpolitischen Lage als steigend einzuschätzen. Die einzelnen Sabotageakte lassen sich ohne die Möglichkeit der automatisierten Datenanalyse häufig nicht bestimmten Tätergruppierungen zuordnen und können fälschlicherweise als unzusammenhängende Einzelfälle scheinen. Auch hier ist das Erkennen von Täter- und Tatzusammenhängen für die Abwehr von Gefahren zentral.
Auch Angriffe auf Bundesorgane (§ 5 des Bundespolizeigesetzes) können durch organisierte Tätergruppierungen durchgeführt werden. Solche Angriffe könnten Auswirkungen auf die Aufrechterhaltung der Staats- und Regierungsfähigkeit haben. Hier ist es ebenfalls zentral für das Erkennen von Täter- und Tatzusammenhängen, vorhandene Daten strukturiert zusammenführen zu können.
Zu 34c
Der neue § 34c schafft eine ausdrückliche Rechtsgrundlage für die Entwicklung, Überprüfung, Änderung und das Trainieren von IT-Produkten durch die Bundespolizei anhand von Echtdaten. Auf die Begründung zu § 22 Absatz 3 BKAG wird verwiesen.
Zu Artikel 3 (Änderung der Strafprozessordnung)
Zu Nummer 1
Zu Artikel 4 (Änderung des Asylgesetzes)
Zu Nummer 1
Das Bundesamt für Migration und Flüchtlinge (BAMF) hat nach § 16 Absatz 1 Satz 1 Asylgesetz (AsylG) die Aufgabe die Identität eines Ausländers, der um Asyl nachsucht, durch erkennungsdienstliche Maßnahmen zu sichern. Angesichts der großen Bedeutung der frühzeitigen Identitätsklärung sowohl für die innere Sicherheit als auch für die Durchführung des Asylverfahrens ist es für das BAMF notwendig, die Befugnis zum biometrischen Abgleich mit öffentlich zugänglichen Daten aus dem Internet zu erhalten. Nach der Regelung des § 15b Absatzes 1 AsylG-E ist der biometrische Abgleich mit öffentlich zugänglichen Daten aus dem Internet zum Zweck der Feststellung der Identität oder der Staatsangehörigkeit vorzunehmen. Die Identität umfasst dabei nicht nur den Namen der Person, sondern weitere Merkmale die einen Menschen von anderen Menschen unterscheidet und damit zu einer individuellen Persönlichkeit macht. Zur Identität zählen daher auch Merkmale, die Ausdruck der physischen, physiologischen, genetischen, psychischen, wirtschaftlichen, kulturellen oder sozialen Identität der Person sind. Um die Identitätsmerkmale des asylsuchenden Ausländers zu erfassen, ist das BAMF zudem zum Zwecke der Ausführung des Asylgesetzes berechtigt weitere personenbezogene Daten zu erheben. Zur Identität im asylrechtlichen Sinne zählen daher auch das Geburtsland, das Land des gewöhnlichen Aufenthalts, der Familienstand, die Volks- und Religionszugehörigkeit sowie die Sprachkenntnisse des Ausländers.
Unter einem biometrischen Abgleich im Sinne der Vorschrift ist die technisch gestützte Überprüfung der Übereinstimmung von biometrischen Lichtbildern mit dem Ergebnis einer Übereinstimmungsbewertung zu verstehen. Ausgangspunkt ist das vom Ausländer nach § 16 Absatz 1 Satz 1 aufgenommene Lichtbild, das mit Referenzdaten abgeglichen wird. Unter allgemein öffentlich zugängliche Daten fallen solche Daten, die von jedermann verwendet werden können, beispielsweise aus sozialen Medien, soweit sich diese nicht an einen spezifisch abgegrenzten Personenkreis richten. Konkretisierend fallen darunter Daten, wenn sie jede Person ohne oder nach vorheriger Registrierung, Genehmigung oder Entgeltzahlung nutzen kann. Nicht umfasst sind Daten, die einer spezifischen Schwelle unterzogen sind, beispielsweise der Einstellung von Daten in sozialen Medien für einen begrenzten Kreis, dessen Zugang einer Kontrolle unterzogen wird. Privatkommunikation über Messenger-Dienste von sozialen Medien können nicht von der Maßnahme erfasst werden.
Die Befugnis ist technik- und produktneutral. Die Umsetzung kann mittels eigener IT-Produkte der Bundesbehörden oder kommerzieller IT-Produkte Dritter erfolgen.
Die Vorgaben des Artikels 14 der Verordnung (EU) 2024/1689 des Europäischen Parlaments und des Rates vom 13. Juni 2024 zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz und zur Änderung der Verordnungen (EG) Nr. 300/2008, (EU) Nr. 167/2013, (EU) Nr. 168/2013, (EU) 2018/858, (EU) 2018/1139 und (EU) 2019/2144 sowie der Richtlinien 2014/90/EU, (EU) 2016/797 und (EU) 2020/1828 (ABl. L vom 12.7.2024) (Verordnung über künstliche Intelligenz) sowie des Artikels 22 der Verordnung (EU) 2016/679 des Europäischen Parlaments und des Rates vom 27. April 2016 zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten, zum freien Datenverkehr und zur Aufhebung der Richtlinie 95/46/EG (ABl. L 119 vom 4.5.2013) (Datenschutz-Grundverordnung) sind zu beachten.
Demnach ist der automatisierte Vorgang vor jeglichen weiteren Maßnahmen oder Entscheidungen durch zwei Personen zu überprüfen und zu bestätigen. Zweifel an der Richtigkeit der Treffer gehen nicht zu Lasten des Ausländers. Aufzeichnungen über Erkenntnisse aus dem Kernbereich privater Lebensgestaltung, die durch den Abgleich erlangt werden, sind unverzüglich zu löschen und die Tatsache ihrer Erlangung und Löschung aktenkundig zu machen. Alle übrigen ausgelesenen Daten sind unverzüglich zu löschen, sobald sie für die Feststellung der Identität oder Staatsangehörigkeit nicht mehr erforderlich sind. Das BAMF hat das Auslesen, Auswerten und Löschen von Daten zur Nachvollziehbarkeit der Maßnahme in der Asylakte zu dokumentieren. Das BAMF hat die betroffene Person über den Zweck, den Umfang und die Durchführung des biometrischen Abgleichs in verständlicher Weise zu informieren.
Zur Durchführung des biometrischen Internetabgleichs nach Absatz 1 kann eine Übermittlung an andere öffentliche oder nichtöffentliche Stellen erforderlich sein. § 15b Absatz 3 AsylG-E sieht insofern eine spezielle Übermittlungsbefugnis vor.
§ 15b Absatz 4 AsylG-E regelt einen zu Absatz 3 vergleichbaren Dispens für Übermittlungen im internationalen Bereich. Eine Übermittlung wird ermöglicht, sofern dies zum Schutz der nationalen Sicherheit erforderlich ist.
Zu Artikel 5 (Inkrafttreten)
Die Bestimmung regelt das Inkrafttreten des Gesetzes.
- Datum: 26. Juni 2025
- Von: Bundesministerium des Innern
- Status: Referentenentwurf
Entwurf eines zweiten Gesetzes zur Stärkung digitaler Ermittlungsbefugnisse in der Polizeiarbeit
A. Problem und Ziel
Polizei- und Strafverfolgungsbehörden müssen zum Schutz der inneren Sicherheit stetig auf neue Herausforderungen reagieren. Im vergangenen Jahr kam es im öffentlichen Raum vermehrt zu schweren Gewalttaten durch Einzeltäter wie in Mannheim, Solingen, Magdeburg, Aschaffenburg und Hamburg. Es besteht eine hohe abstrakte Bedrohungslage für die Sicherheit in Deutschland – auch durch den internationalen Terrorismus. Erhebliche Bedrohungen gehen ebenso von der schweren und organisierten Kriminalität aus; das zeigt sich unter anderem an der gestiegenen Gewaltbereitschaft sowie am zunehmenden Unterwanderungspotential krimineller Gruppierungen in gesellschaftlichen Strukturen.
Die Bedrohung durch terroristische und kriminelle Strukturen erfordert den Einsatz technologischer Instrumente – auch Künstlicher Intelligenz – in der Gefahrenabwehr und der Strafverfolgung. Ziel des Gesetzentwurfs ist es, den Polizeibehörden die rechtlichen Befugnisse zur Verfügung zu stellen, um den Herausforderungen sachgerecht begegnen zu können.
B. Lösung
Der Gesetzentwurf enthält Befugnisse zur automatisierten Datenanalyse und für den biometrischen Internetabgleich für das Bundeskriminalamt. Dieser Gesetzentwurf bildet mit dem Entwurf eines ersten Gesetzes zur Stärkung der Ermittlungsbefugnisse in der Polizeiarbeit ein Gesetzespaket. Er enthält die zustimmungsbedürftigen Bestandteile des Pakets. Dies betrifft die Befugnisse des Bundeskriminalamts im Rahmen der Aufgabe der Abwehr internationaler Gefahren des Terrorismus.
Die automatisierte Datenanalyse ist ein zentraler Baustein, um die stetig wachsenden Datenmengen in polizeilichen Ermittlungsverfahren verarbeiten zu können. Mittels der Analyse bereits rechtmäßig erhobener polizeilicher Daten ist es möglich, Verbindungen zwischen Taten, Personen, Orten sowie anderen Anknüpfungspunkten zu finden. Insbesondere für komplexe Ermittlungen in der Terrorismusabwehr, ist die automatisierte Datenanalyse als Ermittlungsinstrument notwendig. Überdies ermöglicht sie es, in konkreten Anschlagssituationen schnellstmöglich Daten auszuwerten und somit weitere Maßnahmen zur Gefahrenabwehr zu ergreifen.
Der biometrische Abgleich mit öffentlich zugänglichen Daten aus dem Internet ist erforderlich, um Personen insbesondere zu identifizieren, lokalisieren sowie Tat-Täter-Zusammenhänge zu erschließen. Die Befugnis erlaubt es, biometrische Daten – zum Beispiel das Lichtbild einer gesuchten Person – mit öffentlich zugänglichen Daten aus dem Internet abzugleichen. Im Rahmen der Ausübung der Befugnis ist die Zusammenarbeit mit Dritten, auch außerhalb der Europäischen Union, erlaubt.
Die Befugnisse sind technik- und produktneutral ausgestaltet.
C. Alternativen
Keine.
D. Haushaltsausgaben ohne Erfüllungsaufwand
Es entstehen keine Haushaltsausgaben ohne Erfüllungsaufwand.
E. Erfüllungsaufwand
E.1 Erfüllungsaufwand für Bürgerinnen und Bürger
Für Bürgerinnen und Bürger entsteht kein Erfüllungsaufwand.
E.2 Erfüllungsaufwand für die Wirtschaft
Für die Wirtschaft entsteht kein Erfüllungsaufwand.
Davon Bürokratiekosten aus Informationspflichten
Keine.
E.3 Erfüllungsaufwand der Verwaltung
Platzhalter.
F. Weitere Kosten
Keine.
Referentenentwurf des Bundesministeriums des Innern und für Heimat
Entwurf eines zweiten Gesetzes zur Stärkung digitaler Ermittlungsbefugnisse in der Polizeiarbeit
Vom …
Der Bundestag hat mit Zustimmung des Bundesrates das folgende Gesetz beschlossen:
Artikel 1 – Änderung des Bundeskriminalamtgesetzes
Das Bundeskriminalamtgesetz vom 1. Juni 2017 (BGBl. I S. 1354; 2019 I S. 400), das zuletzt durch Artikel 5 des Gesetzes vom 30. Juli 2024 (BGBl. 2024 I Nr. 255) geändert worden ist, wird wie folgt geändert:
- In der Inhaltsübersicht werden nach der Angabe zu § 39 die folgenden Angaben eingefügt:
§ 39a – Biometrischer Abgleich mit öffentlich zugänglichen Daten aus dem Internet
§ 39b – Automatisierte Datenanalyse.
- Nach § 39 werden die folgenden §§ 39a, 39b eingefügt:
§ 39a – Biometrischer Abgleich mit öffentlich verfügbaren Daten aus dem Internet
(1) Das Bundeskriminalamt kann Daten, auf die es zur Erfüllung seiner Aufgaben zugreifen darf, mit öffentlich zugänglichen personenbezogenen Daten aus dem Internet mittels einer automatisierten Anwendung zur Datenverarbeitung biometrisch abgleichen, sofern
1. dies zur Abwehr einer im Einzelfall bestehenden Gefahr für den Bestand oder die Sicherheit des Bundes oder eines Landes oder für Leib, Leben oder Freiheit einer Person oder Sachen von bedeutendem Wert, deren Erhaltung im öffentlichen Interesse geboten ist, im Zusammenhang mit Straftaten nach § 5 Absatz 1 Satz 2 erforderlich ist und
2. die Abwehr der Gefahr auf andere Weise aussichtslos ist oder wesentlich erschwert wäre.
Die Maßnahme nach Satz 1 ist auch zulässig, sofern
3. Tatsachen die Annahme rechtfertigen, dass eine Person innerhalb eines übersehbaren Zeitraums auf eine zumindest ihrer Art nach konkretisierte Weise eine Straftat nach § 5 Absatz 1 Satz 2 begehen wird oder
4. das individuelle Verhalten einer Person die konkrete Wahrscheinlichkeit begründet, dass sie innerhalb eines übersehbaren Zeitraums eine Straftat nach § 5 Absatz 1 Satz 2 begehen wird
und die Verhütung der Straftat auf andere Weise aussichtslos ist oder wesentlich erschwert wäre. Die öffentlich zugänglichen Daten aus dem Internet dürfen nicht in Echtzeit erhoben werden.
(2) Der Abgleich nach Absatz 1 Satz 1 darf gegen andere Personen als die entsprechend § 18 oder § 19 des Bundespolizeigesetzes Verantwortlichen, die in § 21 Absatz 1 des Bundespolizeigesetzes bezeichnete Person oder Personen im Sinne von Absatz 1 Satz 2 Nummer 1 oder 2 nur durchgeführt werden, sofern dies dem Zweck der Identifizierung oder Aufenthaltsermittlung dient.
(3) Für die nach Absatz 1 Satz 1 abzugleichenden Daten gilt § 12 Absatz 2 entsprechend. Der Abgleich mit Daten, die die aus in § 12 Absatz 3 genannten Maßnahmen erlangt wurden, ist ausgeschlossen.
(4) Die im Rahmen des biometrischen Abgleichs nach Absatz 1 erhobenen Daten sind nach dessen Durchführung unverzüglich zu löschen, sofern sie keinen konkreten Ermittlungsansatz für den Ausgangssachverhalt aufweisen.
(5) Bei der Übermittlung im innerstaatlichen Bereich sowie an Mitgliedsstaaten der Europäischen Union kann das Bundeskriminalamt, sofern dies zur Durchführung des Abgleichs nach Absatz 1 erforderlich ist, personenbezogene Daten an öffentliche und nichtöffentliche Stellen übermitteln und von § 25 Absatz 6 abweichen.
(6) Im internationalen Bereich gilt § 27 Absatz § mit der Maßgabe, dass das Bundeskriminalamt personenbezogene Daten, sofern dies zur Durchführung des Abgleichs nach Absatz 1 erforderlich ist, an öffentliche und nichtöffentliche Stellen übermitteln und, sofern dies zum Zweck des Schutzes der nationalen Sicherheit erforderlich ist, von § 81 Absatz 1 Nummer 3 und Absatz 4 des Bundesdatenschutzgesetzes abweichen kann.
(7) Die §§ 25 bis 28 bleiben im Übrigen unberührt.
§ 39b – Automatisierte Datenanalyse
(1) Das Bundeskriminalamt kann im Informationssystem oder im polizeilichen Informationsverbund gespeicherte personenbezogene Daten nach Maßgabe von § 12 mittels einer automatisierten Anwendung zur Datenverarbeitung zusammenführen und darüber hinaus zum Zwecke der Analyse weiterverarbeiten, sofern dies zur Abwehr einer im Einzelfall bestehenden Gefahr für den Bestand oder die Sicherheit des Bundes oder eines Landes oder für Leib, Leben oder Freiheit einer Person oder Sachen von bedeutendem Wert, deren Erhaltung im öffentlichen Interesse geboten ist, im Zusammenhang mit Straftaten nach § 5 Absatz 1 Satz 2 erforderlich ist. Eine Maßnahme nach Satz 1 ist auch zulässig, sofern
- Tatsachen die Annahme rechtfertigen, dass eine Person innerhalb eines übersehbaren Zeitraums auf eine zumindest ihrer Art nach konkretisierte Weise eine Straftat nach § 5 Absatz 1 Satz 2 begehen wird oder
- das individuelle Verhalten einer Person die konkrete Wahrscheinlichkeit begründet, dass sie innerhalb eines übersehbaren Zeitraums eine Straftat nach § 5 Absatz 1 Satz 2 begehen wird
und dies zur Verhütung dieser Straftat erforderlich ist.
(2) Im Rahmen der Weiterverarbeitung nach Absatz 1 können insbesondere datei- und informationssystemübergreifend Beziehungen oder Zusammenhänge zwischen Personen, Personengruppierungen, Institutionen, Organisationen, Objekten und Sachen hergestellt, unbedeutende Informationen und Erkenntnisse ausgeschlossen, Suchkriterien gewichtet, die eingehenden Erkenntnisse zu bekannten Sachverhalten zugeordnet sowie gespeicherte Daten statistisch ausgewertet werden.
Artikel 2 – Inkrafttreten
Dieses Gesetz tritt am Tag nach der Verkündung in Kraft.
Begründung
A. Allgemeiner Teil
I. Zielsetzung und Notwendigkeit der Regelungen
Polizei- und Strafverfolgungsbehörden müssen zum Schutz der inneren Sicherheit stetig auf neue Herausforderungen reagieren. Im vergangenen Jahr kam es im öffentlichen Raum vermehrt zu schweren Gewalttaten durch Einzeltäter wie in Mannheim, Solingen, Magdeburg, Aschaffenburg und Hamburg. Es besteht eine hohe abstrakte Bedrohungslage für die Sicherheit in Deutschland – auch durch den internationalen Terrorismus. Erhebliche Bedrohungen gehen ebenso von der schweren und organisierten Kriminalität aus; das zeigt sich unter anderem an der gestiegenen Gewaltbereitschaft sowie am zunehmenden Unterwanderungspotential krimineller Gruppierungen in gesellschaftlichen Strukturen.
Die Bedrohung durch terroristische und kriminelle Strukturen erfordert den Einsatz technologischer Instrumente – auch Künstlicher Intelligenz – in der Gefahrenabwehr und der Strafverfolgung. Ziel des Gesetzentwurfs ist es, den Polizeibehörden die rechtlichen Befugnisse zur Verfügung zu stellen, um den Herausforderungen sachgerecht begegnen zu können.
II. Wesentlicher Inhalt des Entwurfs
Der Gesetzentwurf enthält Befugnisse zur automatisierten Datenanalyse und für den biometrischen Internetabgleich für das Bundeskriminalamt. Dieser Gesetzentwurf bildet mit dem Entwurf eines ersten Gesetzes zur Stärkung der Ermittlungsbefugnisse in der Polizeiarbeit ein Gesetzespaket. Er enthält die zustimmungsbedürftigen Bestandteile des Pakets. Dies betrifft die Befugnisse des Bundeskriminalamts im Rahmen der Aufgabe der Abwehr internationaler Gefahren des Terrorismus.
Die automatisierte Datenanalyse ist ein zentraler Baustein, um die stetig wachsenden Datenmengen in polizeilichen Ermittlungsverfahren verarbeiten zu können. Mittels der Analyse bereits rechtmäßig erhobener polizeilicher Daten ist es möglich, Verbindungen zwischen Taten, Personen, Orten sowie anderen Anknüpfungspunkten zu finden. Insbesondere für komplexe Ermittlungen in der Terrorismusabwehr, ist die automatisierte Datenanalyse als Ermittlungsinstrument notwendig. Überdies ermöglicht sie es, in konkreten Anschlagssituationen schnellstmöglich Daten auszuwerten und somit weitere Maßnahmen zur Gefahrenabwehr zu ergreifen.
Der biometrische Abgleich mit öffentlich zugänglichen Daten aus dem Internet ist erforderlich, um Personen insbesondere zu identifizieren, lokalisieren sowie Tat-Täter-Zusammenhänge zu erschließen. Die Befugnis erlaubt es, biometrische Daten – zum Beispiel das Lichtbild einer gesuchten Person – mit öffentlich zugänglichen Daten aus dem Internet abzugleichen. Im Rahmen der Ausübung der Befugnis ist die Zusammenarbeit mit Dritten, auch außerhalb der Europäischen Union, erlaubt.
Die Befugnisse sind technik- und produktneutral ausgestaltet.
III. Exekutiver Fußabdruck
Interessenvertreterinnen und Interessenvertreter Dritter oder sonstige Personen außerhalb der Bundesverwaltung sind nicht an der Erstellung des Entwurfs beteiligt worden.
IV. Alternativen
Keine.
V. Gesetzgebungskompetenz
Die Gesetzgebungskompetenz des Bundes folgt für die Änderung des Bundeskriminalamtgesetzes bezüglich der Abwehr von Gefahren des internationalen Terrorismus aus Art. 73 Abs. 1 Nr. 9a des Grundgesetzes.
VI. Vereinbarkeit mit dem Recht der Europäischen Union und völkerrechtlichen Verträgen
Der Gesetzentwurf ist mit dem Recht der Europäischen Union und völkerrechtlichen Verträgen, die die Bundesrepublik Deutschland geschlossen hat, vereinbar.
VII. Gesetzesfolgen
1. Rechts- und Verwaltungsvereinfachung
Der Gesetzentwurf dient dem Schutz der öffentlichen Sicherheit in Deutschland und der Stärkung der Ermittlungsbefugnisse im Rahmen von Gefahrenabwehr und Strafverfolgung.
2. Nachhaltigkeitsaspekte
Der Gesetzentwurf steht im Einklang mit den Leitgedanken der Bundesregierung zur nachhaltigen Entwicklung im Sinne der Deutschen Nachhaltigkeitsstrategie, die der Umsetzung der Agenda 2030 für nachhaltige Entwicklung der Vereinten Nationen dient. Der Entwurf dient entsprechend der Zielvorgabe 16.1 der Erhöhung der persönlichen Sicherheit und dem Schutz vor Kriminalität.
3. Haushaltsausgaben ohne Erfüllungsaufwand
Es entstehen keine Haushaltsausgaben ohne Erfüllungsaufwand.
4. Erfüllungsaufwand
a) Erfüllungsaufwand für Bürgerinnen und Bürger
Für Bürgerinnen und Bürger entsteht kein Erfüllungsaufwand.
b) Erfüllungsaufwand für die Wirtschaft
Für die Wirtschaft entsteht kein Erfüllungsaufwand.
c) Erfüllungsaufwand der Verwaltung
Platzhalter.
5. Weitere Kosten
Weitere Kosten sind nicht zu erwarten.
6. Weitere Gesetzesfolgen
Auswirkungen auf demografierelevante Belange sind nicht zu erwarten.
VIII. Befristung; Evaluierung
Befristung und Evaluierung sind nicht vorgesehen.
B. Besonderer Teil
Zu Artikel 1 (Änderung des Bundeskriminalamtgesetzes)
Zu Nummer 1
Es handelt sich um eine redaktionelle Folgeänderung zur Einführung von §§ 39a, 39b.
Zu Nummer 2
Zu § 39a
§ 39a regelt die Befugnis zum biometrischen Abgleich mit öffentlich zugänglichen Daten aus dem Internet zum Zweck der Abwehr von Gefahren des internationalen Terrorismus. Ziel der Maßnahme kann es unter anderem sein, Hinweise auf den Aufenthaltsort von aus dem Untergrund agierender Störer zu erhalten, um terroristische Taten zu verhindern. Ebenso können Querverbindungen zwischen Personen und Strukturen durch biometrische Übereinstimmungen ermittelt werden. Zudem können beispielsweise Akteure in Propagandavideos terroristischer Organisationen identifiziert werden.
Die Tätigkeit des Bundeskriminalamts nach § 5 Absatz 1 Satz 2 unterfällt vollumfänglich dem Begriff der nationalen Sicherheit nach Artikel 4 Absatz 2 Satz 3 des Vertrags über die Europäische Union im Sinne der Definition des Europäischen Gerichtshofs (Urteil vom 6.10.2020, Rechtssachen C-511/18, C-512/18 und C-520/18, Randnummer 135). Dem Bundeskriminalamt ist im Rahmen der Wahrnehmung der Aufgabe nach § 5 Absatz 1 Satz 2 die Aufgabe zugewiesen, terroristische Gefahren abzuwehren beziehungsweise terroristische Straftaten zu verhüten. Die in § 5 Absatz 1 Satz 2 einbezogenen Straftaten nach § 129a Absatz 1 und 2 des Strafgesetzbuchs setzen den Katalog der Richtlinie (EU) 2017/541 den Europäischen Parlaments und des Rates vom 15. März 2017 zur Terrorismusbekämpfung und zur Ersetzung des Rahmenbeschlusses 2002/475/JI des Rates und zur Änderung des Beschlusses 2005/671/JI des Rates um (zum Rahmenbeschluss 2002/475/JI: Bundestagsdrucksache 15/813, S. 6f.).
Das Bundesverfassungsgericht führt zu der Vorgängerfassung von § 5 Absatz 1 Satz 2 aus: „Straftaten mit dem Gepräge des Terrorismus in diesem Sinne zielen auf eine Destabilisierung des Gemeinwesens und umfassen hierbei in rücksichtsloser Instrumentalisierung anderer Menschen Angriffe auf Leib und Leben beliebiger Dritter. Sie richten sich gegen die Grundpfeiler der verfassungsrechtlichen Ordnung und das Gemeinwesen als Ganzes.“ (Bundesverfassungsgericht, Urteil vom 24. April 2016, Az. 1 BvR 966/09 u.a., Randnummer 96).
Im Übrigen wird auf die Begründung zu § 10b verwiesen.
Zu § 39b
§ 39b regelt die Befugnis zur automatisierten Datenanalyse zum Zweck der Abwehr von Gefahren des internationalen Terrorismus. Gerade im Phänomenbereich des internationalen Terrorismus, in dem die Täter häufig in dezentralen Strukturen operieren, ist das Erkennen von Zusammenhängen auf etwa gemeinsame Strukturen und Personengruppen von besonders hoher Bedeutung. Die technologischen Fähigkeiten des Bundeskriminalamts müssen für diesen Bereich dem aktuellen Stand der Technik entsprechen.
Die fachliche Nutzung der nach § 39b Absatz 1 zum Zwecke der Analyse zusammengeführten Daten darf nur dann erfolgen, wenn die Voraussetzungen von Absatz 1 vorliegen, um den Einsatz einer jeweils angemessenen Eingriffsschwelle zu unterwerfen. Voraussetzung ist nach Satz 1 eine Gefahr im Zusammenhang mit Straftaten nach § 5 Absatz 1 Satz 2, soweit besonders gewichtige Rechtsgüter betroffen sind. Nach dem Urteil des Bundesverfassungsgerichts vom 16. Februar 2023 (Az. 1 BvR 1547/19, 1 BvR 2634/20) kann die automatisierte Datenanalyse ebenfalls bei einer hinreichend konkretisierten Gefahr für besonders gewichtigen Rechtsgütern erfolgen (Randnummer 105f.). Satz 2 Nummer 1 oder 2 entspricht der Rechtsprechung des Bundesverfassungsgerichts zu den Anforderungen an eine konkretisierte Gefahrenlage (Urteil vom 20. April 2016, Az. 1 BvR 966/09 und 1 BvR 1140/09, Randnummer 165). Auf Grund des Bezugs auf § 5 Absatz 1 Satz 2 ist für § 16a Absatz 1 Satz 2 Nummer 1 und 2 sichergestellt, dass der Einsatz der automatisierten Anwendung zur Datenanalyse auf den Schutz von besonders gewichtigen Rechtsgütern beschränkt ist. Für den Schutz von Sachen gilt entsprechend der Rechtsprechung des Bundesverfassungsgerichts ein enges Verständnis, nach dem etwa wesentliche Infrastruktureinrichtungen oder sonstige Anlagen mit unmittelbarer Bedeutung für das Gemeinwesen gefasst werden (BVerfG, Az. 1 BvR 1547/19, 1 BvR 2634/20, Randnummer 105).
Es wird auf die Begründung zu § 10c verwiesen.
Zu Artikel 2 (Inkrafttreten)
Die Bestimmung regelt das Inkrafttreten des Gesetzes.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Forschende der New York University sehen in sozialen Medien einen Zerrspiegel für gesellschaftliche Normen, angetrieben von Empfehlungsalgorithmen. Sie empfehlen, sich dieser Illusion zu entziehen.

Ob TikTok-Feeds mit verstörender Sogwirkung oder rechtsradikale Empörungswellen auf Twitter-Nachfolger X: Auf sozialen Medien unterwegs zu sein, fühlt sich oftmals aufwühlender an als ein Spaziergang durch die Innenstadt. Dieses Phänomen haben auch Psycholog*innen der New York University beobachtet. In ihrem aktuellen Paper beschreiben sie, wie soziale Medien die Wahrnehmung gesellschaftlicher Normen verzerren. Um die Effekte anschaulich zu machen, vergleichen sie Plattformen mit einer Fabrik aus Zerrspiegeln („funhouse mirror factory“).
Zerrspiegel kennen viele wahrscheinlich von Jahrmärkten. Sie verändern die Proportionen von Dingen. Man sieht sich darin zum Beispiel mit riesigen, in die Länge gezogenen Füßen und einem winzigen Erbsenkopf – oder gestaucht, als wäre man ein Gartenzwerg. Das Team um den US-amerikansichen Psychologie- und Neurologie-Professor Jay Van Bavel nutzt Zerrspiegel als Vergleich, um die Wirkung durch soziale Medien zu verdeutlichen. Soziale Medien spiegeln demnach durchaus die Gesellschaft, erzeugen aber kein realistisches Abbild.
Polarisierung durch verzerrte Wahrnehmung
„Online-Diskussion werden von einer überraschend kleinen, extrem lauten und nicht-repräsentativen Minderheit dominiert“, schreiben die Forschenden. Sie verweisen etwa auf Ergebnisse einer Studie des US-amerikanischen Pew Research Center aus dem Jahr 2019, wonach die Mehrheit politischer Inhalte auf Twitter von einer Minderheit der Nutzer*innen stammt. Auch bei sogenannten Fake News sehen die Forschenden diese Verzerrung. Laut einer Studie der Northeastern University in Massachusetts aus dem Jahr 2016 hätten nur 0,1 Prozent der Twitter-Nutzer*innen insgesamt 80 Prozent der Fake-News-Inhalte verbreitet.
An dieser Stelle kommt die psychologische Ebene ins Spiel. „Durch wiederholte Auseinandersetzung mit den Meinungen der Allgemeinheit kann man Rückschlüsse darauf ziehen, welche Meinung als gesellschaftliche Norm gilt“, schreiben die Forschenden. Das heißt: Die Verzerrungen auf sozialen Medien können auf die Nutzer*innen zurückwirken; das verzerrte Abbild als neue Norm erscheinen. Das könne zu Polarisierung führen, zu Feindseligkeit zwischen gesellschaftlichen Gruppen oder zur Unterstützung autoritärer Regime, so die Forschenden.
Den Grund für die beobachteten Effekte sehen die Forschenden in der Gestaltung der werbefinanzierten Plattformen. „Soziale Medien funktionieren nach dem Prinzip der Aufmerksamkeitsökonomie – sie sind so gestaltet, dass sie möglichst viel Aufmerksamkeit erzeugen und Nutzende dazu bringen, möglichst intensiv zu interagieren.“ Es gebe also starke Anreize für Nutzer*innen, Inhalte zu posten, die Aufmerksamkeit erregen und Interaktion maximieren.
Elon Musk als Antreiber für Verzerrung
Das Paper erschien bereits Ende 2024, also vor der Machtübernahme durch die rechtsradikale Trump-Regierung im Januar 2025. Wir haben deshalb Van Bavel gefragt, wie er das Modell der Zerrspiegelfabrik aus heutiger Sicht betrachtet. „Diese Dynamik scheint immer noch eine Rolle zu spielen“, antwortet er auf Englisch. „Eine kleine Anzahl an extremen Akteur*innen treibt den Großteil der politischen Diskussion online an.“
Ein Beispiel dafür sei X-Eigentümer Elon Musk selbst, führt Van Bavel in einem Gastbeitrag für den Guardian weiter aus. In seinen ersten 15 Tagen als Chef der Abteilung DOGE habe Musk 1.494 Mal gepostet. Damit hat er also besonders dazu beigetragen, den Eindruck zu vermitteln, dass extreme Meinungen vorherrschen.
Die Forschenden beziehen sich in ihrer Arbeit oftmals auf X und Twitter. Das wirft die Frage auf, welche Rolle andere Plattformen spielen. Gegenüber netzpolitik.org erklärt Van Bavel, dass er auch Facebook, Bluesky, Reddit und ähnliche Plattformen für besonders relevant halte. Entsprechende Effekte habe er auch im Karriere-Netzwerk LinkedIn beobachtet, jedoch würden für konkrete Schlüsse Daten fehlen.
Wege aus der Zerrspiegel-Fabrik
Während das Paper mit der ernüchternden Diagnose endet, geht Van Bavel im Guardian auf Auswege ein:
Der erste Schritt besteht darin, die Illusion zu durchschauen und zu erkennen, dass sich hinter jedem provokanten Beitrag oft eine stille Mehrheit verbirgt. Und wir als Nutzende können ein Stück Kontrolle zurückgewinnen – indem wir unsere Feeds bewusst gestalten, nicht auf Empörungsfallen hereinfallen und uns weigern, Unsinn weiterzuverbreiten. Man kann es sich vorstellen wie die Entscheidung für eine gesündere, weniger verarbeitete Ernährung.
Die Zerrspiegel sind also kein Irrgarten, aus dem man nicht mehr herauskommt. Um zu prüfen, ob der Ausstieg klappt, hat Van Bavel eine Reihe von Experimenten gestartet. So hat er jüngst Proband*innen dafür bezahlt, besonders polarisierenden Accounts auf X zu entfolgen. Das Ergebnis: „Nach einem Monat berichteten Teilnehmer*innen, sie fühlen 23 Prozent weniger Feindseligkeit gegenüber anderen politischen Gruppen. Tatsächlich war ihre Erfahrung so positiv, dass fast die Hälfte aller Teilnehmer*innen abgelehnt haben, den polarisierenden Accounts erneut zu folgen“.
Plattformen könnten auch selbst aktiv werden, wie Van Bavel darlegt. „Sie könnten ihre Algorithmen problemlos so umgestalten, dass nicht länger die schrillsten Stimmen bevorzugt werden, sondern ausgewogenere und repräsentativere Inhalte. Genau das wünschen sich die meisten Menschen.“ – Mit Blick auf das Finanzierungsmodell der größten Social-Media-Plattformen dürfte es jedoch unwahrscheinlich sein, dass Konzerne das freiwillig tun.
Zumindest in der EU gibt es politische Werkzeuge, um den wirtschaftlichen Interessen der Konzerne etwas entgegenzusetzen. Das Gesetz über digitale Dienste (Digital Services Act) verpflichtet sehr große Plattformen dazu, systemische Risiken zu erkennen und Maßnahmen dagegen zu ergreifen. Ein solches Risiko sind laut Gesetz „Auswirkungen auf die gesellschaftliche Debatte“ – und eine mögliche Gegenmaßnahme ist die Anpassung der Empfehlungssysteme.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Der Einsatz von sogenannten KI-Zusammenfassungen auf Suchergebnisseiten führt zu einer deutlichen Änderung des Nutzungsverhaltens. Klassische Internetangebote dürften immer weniger Klicks abbekommen. Darauf deuten gleich mehrere Studien hin.

Seit einiger Zeit zeigt Google manchen Nutzer:innen auf manchen Geräten ganz oben auf der Suchergebnisseite eine sogenannte „Übersicht mit KI“. Diese fasst automatisch das Thema und Suchergebnisse zusammen. Das neue Feature des Suchmaschinen-Konzerns ändert massiv, wie die Menschen die Suche nutzen.
Das Pew Research Center hat nun die Auswirkungen der KI-Zusammenfassung auf das Nutzungsverhalten untersucht. Hierfür hatten 900 Nutzer:innen ihre Online-Browsing-Aktivitäten zur Untersuchung geteilt. Das Ergebnis der Studie war, dass die Nutzer:innen, denen die Zusammenfassung angezeigt wurde, nur etwa halb so oft auf die Links zu den wirklichen Suchergebnisse klickten:
Nutzer:innen, denen eine KI-Zusammenfassung angezeigt wurde, klickten in 8 Prozent aller Besuche auf einen herkömmlichen Suchergebnis-Link. Diejenigen, denen keine KI-Zusammenfassung angezeigt wurde, klickten fast doppelt so häufig auf ein Suchergebnis (15 Prozent der Besuche).
In den KI-Zusammenfassungen sind zwar Links auf Quellen angegeben, doch auf diese nur mit einem Link-Symbol gekennzeichneten Links klickt fast niemand. Laut der Untersuchung klickte nur 1 Prozent der Nutzer:innen auf diese Links. Die häufigsten Links in der Zusammenfassung der US-Untersuchung führten zu Wikipedia, YouTube und Reddit. Auch konnte die Untersuchung feststellen, dass die KI-Zusammenfassungen häufiger Regierungsseiten zeigten als die normale Suche.

Auch konnte die Studie feststellen, dass die Nutzer:innen ihre Browsersitzung häufiger beendeten, wenn es eine Zusammenfassung gab. Das war bei 26 Prozent der Nutzer:innen der Fall, bei einer herkömmlichen Suchergebnisseite beendeten nur 16 Prozent die Sitzung komplett. Zu diesem Nutzerverhalten kommt das Problem hinzu, dass KI-Zusammenfassungen Fehler enthalten.
Weitere Studien sehen ähnliche Entwicklung
Auch andere Studien kommen zu ähnlichen Ergebnissen, die laut dem Bayerischen Rundfunk ein Erdbeben für die Internet-Ökonomie auslösen könnten. Denn viele Internetangebote sind werbefinanziert und auf Klicks angewiesen. Geben sich die Nutzer:innen mit der KI-Zusammenfassung zufrieden, gehen diese Seiten im Internet leer aus.
Laut dem Handelsblatt sind seit der Einführung der KI-Zusammenfassung die Reichweiten von Nachrichtenseiten bereits eingebrochen. Das Handelsblatt verweist auf Daten des Analyseunternehmens Similarweb, diese würden zeigen, dass der klassische Deal „Inhalte gegen Reichweite“ zu kippen drohe. „Durch KI-Zusammenfassungen ist bei US-Medien der Anteil der Nutzer, die nicht auf einen weiterführenden Link klicken, im Vergleich zur klassischen Suche durchgängig gestiegen – teilweise um mehr als zehn Prozentpunkte“, so das Medium.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Bayern fängt sich wegen der automatisierten Datenanalyse im Polizeigesetz eine Verfassungsbeschwerde ein. Dass es ausgerechnet die Software des rechten Milliardärs Peter Thiel sein muss, ist dabei nicht der Kern des Problems, sondern das Zusammenführen und heimliche Rastern einer großen Datenfülle aus verschiedensten Polizeisystemen.

Die Gesellschaft für Freiheitsrechte es hat wieder getan: In einer heute veröffentlichten Beschwerde an das Bundesverfassungsgericht legt sie im Namen von acht Beschwerdeführern dar, wo das bayerische Polizeiaufgabengesetz über die Grenzen des Erlaubten hinausreicht. Sie kommt zu dem Schluss, dass sich der Gesetzgeber im Freistaat nicht ausreichend an die bereits detailliert vorliegenden Vorgaben aus Karlsruhe gehalten hat.
Denn die GFF hatte bereits im Jahr 2023 ein Urteil des Bundesverfassungsgericht erkämpft, das damals ähnliche gesetzliche Befugnisse aus Hamburg und Hessen für verfassungswidrig erklärte. Diesem Urteil Geltung zu verschaffen, aber auch „klarere Grenzen für den Einsatz von Data-Mining-Software“ zu ziehen, ist das erklärte Ziel der Beschwerde.
Es geht also wieder um die automatisierte Datenanalyse durch die Polizei, die ihren Wildwuchs von Datenbanken nicht nur zähmen, sondern vor allem die Daten darin erschließen will. Dafür setzt sie aktuell auf das Softwareprodukt Gotham des US-Konzerns Palantir. Mit dieser Software werden in großem Umfang personenbezogene Polizeidaten aufbereitet und analysiert. Millionen Datenhäppchen über Menschen, die mit der Polizei irgendwann Kontakt hatten, fließen in diese Schattendatenbanken hinein. Oft diskriminierte Gruppen sind besonders betroffen und selbst Berufsgeheimnisträger wie Anwälte, Journalisten oder Ärzte werden nicht verschont und können mitgerastert werden.
„Rechter Verschwörungsideologe Peter Thiel“

Neben den massiven Eingriffen in die informationelle Selbstbestimmung aller dadurch betroffenen Menschen ist auch die starke Abhängigkeit problematisch, in die sich die Polizei begibt. Denn ohne die Palantir-Softwarehilfe ist das Auswerten der eigenen Datenbestände umständlich und zeitaufwendig. Darauf weisen Polizeivertreter bei jeder Gelegenheit hin.
Während die Abhängigkeit an sich bereits eine Herausforderung ist, weil man sich eben langfristig an einen kommerziellen Anbieter bindet, dessen Geschäftsinteressen von den Polizeiinteressen abweichen können oder der sein Geschäftsmodell ändern könnte, so ist speziell dieser US-Konzern als Partner der Polizei eine echte Zumutung. Denn nicht nur der Mitgründer und Großaktionär Peter Thiel, sondern auch der Palantir-Chef Alexander Karp fallen seit Jahren und in zunehmendem Maße durch öffentliche Aussagen auf, die Zweifel nähren, ob für sie Menschenrechte und Demokratie einen Wert haben.
Einer der acht Beschwerdeführer, der Musiker und Aktivist gegen das Polizeigesetz Johannes König, bringt es so auf den Punkt:
Als wäre das bayerische Polizeiaufgabengesetz noch nicht autoritär genug geprägt, setzt die Staatsregierung nun auch noch auf die Überwachungssoftware des rechten Verschwörungsideologen Peter Thiel.
Denn Milliardär Thiel ist ein offensiver rechts-libertärer Kulturkämpfer und Nationalist. Zudem hat der vor 22 Jahren gegründete Konzern dauerhafte und langjährige Verbindungen zu den US-Geheimdiensten und -Militärs, ohne deren Millionenverträge Palantir gar nicht existieren würde. Denn viele Jahre wurde der sektenartige Softwarekonzern von einem CIA-Ableger mitfinanziert und wies niemals Gewinne aus.
Auch zur Trump-Regierung gibt es enge Verbindungen und eine anbiedernde Position der prominenten Palantir-Gesichter Thiel und Karp. Dass Palantir-Software in Kriegsgebieten von Geheimdiensten und Militärs genutzt wird, unterstützt die Trump-Regierung nach Kräften.

Die Zweckbindung untergraben
Die Funktionsweise des Palantir-Produkts ist nur soweit öffentlich nachvollziehbar, wie es der Polizei-Vertragspartner erlaubt. Diese Undurchsichtigkeit könnte behoben werden, wenn ein anderer Vertragspartner zum Zuge käme oder eine eigene Softwarelösung genutzt würde. Aber das löst noch nicht das eigentliche Problem, nämlich welche Daten unter welchen Bedingungen in die automatisierte Analyse einfließen dürfen.
Palantir
Wir berichten mehr über Palantir als uns lieb wäre. Unterstütze unsere Arbeit!
Denn so unverständlich es erscheint, dass im bayerischen Innenministerium auch nach jahrelangen Diskussionen auf den abgründigen Tech-Konzern gesetzt wird, so wenig sollte man sich den Blick auf das Wesentliche verstellen lassen: Palantir ist nicht der Kern des Problems, sondern das Ansinnen, die Zweckbindung polizeilich aufgenommener Daten zu untergraben und letztlich aufzulösen.
Das Zusammenführen und die Analyse von Daten aus polizeilichen Verbunddateien, aus großen Polizeidatenbanken und aus den verschiedenen Fallbearbeitungs- und Auskunftssystemen darf nicht dazu führen, dass aus bloßen praktischen Erwägungen oder weil im konkreten Fall ohnehin niemand genau weiß, wie die Palantir-Software arbeitet, wichtige rechtlichen Schranken wegfallen.
Denn es ist nicht nur eine heimliche, sondern eben auch eine gefährliche Ermittlungsmaßnahme, wenn hinter den Rücken der Menschen die Daten aus den Polizei-Datenbanken gerastert und analysiert werden, die im Vertrauen darauf an die Behörden gegeben wurden, dass mit ihnen sorgsam umgegangen wird. Tritt etwa ein Zeuge eines Diebstahls an die Polizei heran oder wird ein Verkehrsunfall polizeilich aufgenommen, dann sollte niemand der Beteiligten Angst haben müssen, automatisiert in Analysewerkzeugen zu landen, die ihn später mit anderen Straftaten in Verbindung bringen und ihm Überwachungsmaßnahmen bescheren können.
Offenlegung: Der Chaos Computer Club unterstützt die Verfassungsbeschwerde der GFF. Die Autorin ist ehrenamtlich Sprecherin des CCC.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Nach öffentlichem Druck und rechtlicher Prüfung zieht der Bürgermeister von Kenzingen die Rechnung für eine Demo zurück. Der Fall zeigt jedoch, dass in Baden-Württemberg Gebühren für Demonstrationen nicht grundsätzlich ausgeschlossen sind. Jetzt könnte der Landtag nachbessern.

Die südbadische Stadt Kenzingen zieht die Rechnung zurück, die sie einem Demo-Anmelder Ende Juni gestellt hatte. Der Familienvater hatte Anfang Juni eine Demonstration gegen höhere Kinderbetreuungsgebühren angemeldet, die Stadt hatte ihm danach die Kosten für die Verkehrsregelung in Rechnung gestellt. Der Fall, bei dem der Anmelder 374 Euro hätte zahlen sollen, hatte bundesweit Wellen geschlagen, weil Gebühren für Demonstrationen die Versammlungsfreiheit einschränken und eine einschüchternde Wirkung haben können.
Nun hat Dirk Schwier, der Bürgermeister der 11.000-Einwohner-Stadt, nach einer juristischen Prüfung seine Meinung geändert. „Nach der rechtlichen Einschätzung des Landratsamtes ist die Erhebung einer Gebühr für die Durchführung der Versammlung am 5. Juni nicht mit dem Grundrecht auf Versammlungsfreiheit vereinbar“, sagt er gegenüber netzpolitik.org. Die von der Stadt geltend gemachte Grundlage greife nicht, da es an einem dem Anmelder individuell zurechenbaren Gefahrentatbestand fehle, der die Erhebung einer Gebühr rechtfertigen würde.
„Wir werden die bestehende Rechnung stornieren“, sagt Schwier. Weil die Rechnung nicht zulässig sei, fielen die Kosten an die Allgemeinheit. Durch die jetzt erfolgte rechtliche Prüfung sei zudem klar, wie zukünftig mit den Kosten umgegangen werde, die bei Demonstrationen anfallen können.
Fall politisch noch nicht erledigt
„Mit der Rücknahme der Rechnung ist mein Fall juristisch erledigt, politisch jedoch nicht“, sagt der Anmelder der Demonstration, Alexander Feldberger, gegenüber netzpolitik.org. Der Fall habe eine strukturelle Schwäche im baden-württembergischen Recht offengelegt: Anders als in Berlin oder Bayern fehle hier eine klare gesetzliche Regelung, dass Demonstrationen nach Artikel 8 GG grundsätzlich kostenfrei sein müssen.
„Das führt zu großer Unsicherheit. Wer demonstriert, muss bei uns im Ländle jederzeit mit einem Gebührenbescheid rechnen. Das hat eine abschreckende Wirkung und schränkt die Versammlungsfreiheit faktisch ein“, so Feldberger weiter. Immerhin habe der Fall etwas angestoßen: Die Oppositionsparteien FDP und SPD hätten das Thema inzwischen aufgegriffen, im Landtag könnte nun über eine gesetzliche Klarstellung diskutiert werden. „So gesehen hat die unrechtmäßige Rechnung am Ende doch noch für dringend nötige Aufklärung gesorgt.“
„Originäre Polizeiaufgabe“
Die Durchführung von Demonstrationen ist im Regelfall kostenlos – und das aus gutem Grund. Der Rechtsanwalt David Werdermann von der Gesellschaft für Freiheitsrechte (GFF) hält es bereits für zweifelhaft, ob das baden-württembergische Gebührenrecht eine Grundlage für Kostenbescheide an Versammlungsleiter:innen enthält. Aus seiner Sicht könnten Versammlungsleiter:innen nur in Anspruch genommen werden, wenn sie selbst für eine Gefahr verantwortlich sind, die durch eine polizeiliche Maßnahme abgewehrt wird.
„Das ist hier erkennbar nicht der Fall“, sagt Werdermann gegenüber netzpolitik.org. „Der Aufbau der Absperrungen sollte offenbar den reibungslosen Ablauf der Versammlung gewährleisten. Das ist eine originäre Polizeiaufgabe“, so der Jurist weiter.
„Einschränkende und einschüchternde Wirkung“
Bisher sei die Pflicht für Nichtverantwortliche, entstehende Kosten zu tragen, nur ausnahmsweise bei kommerziellen Großveranstaltungen anerkannt, insbesondere bei Fußballspielen. Hier dürfen die Veranstalter auf Grundlage einer speziellen gesetzlichen Grundlage auch für Polizeikosten herangezogen werden, wenn sie selbst nicht für die Gefahren verantwortlich sind, erklärt Werdermann. Das habe das Bundesverfassungsgericht Anfang des Jahres entschieden – das sei aber nach wie vor sehr umstritten.
„Auf Versammlungen ist das nicht übertragbar. Im Gegenteil: Das Bundesverfassungsgericht betont an mehreren Stellen, dass sich aus speziellen Freiheitsrechten strengere Anforderungen ergeben“, so Werdermann weiter. Das Bundesverfassungsgericht verweist zudem auf eine Entscheidung von 2007. Darin heißt es: „Eine grundsätzliche Gebührenpflicht für Amtshandlungen aus Anlass von Versammlungen würde dem Charakter des Art. 8 Abs. 1 GG als Freiheitsrecht widersprechen“.
Auch der Staats- und Verwaltungsrechtsprofessor Clemens Arzt hält die Gebührenerhebung mindestens für umstritten. Zwar habe der Verwaltungsgerichtshof Mannheim 2009 eine Gebührenerhebung für zulässig erklärt, dem stünden jedoch andere Urteile entgegen, so Arzt gegenüber netzpolitik.org. „Ein Rückgriff auf das Landesgebührenrecht, in dem Artikel 8 des Grundgesetzes nicht zitiert wird, ist mit Blick auf die faktischen Auswirkungen einer Gebühr und deren einschränkender und einschüchternder Wirkung mit Blick auf die Versammlungsfreiheit aus Sicht des Verwaltungsgericht Karlsruhe nicht zulässig.“
Update 23.7.:
Auch der SWR / Tagesschau.de berichten.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
KI-Systeme wie ChatGPT müssen sich ab dem 2. August an die KI-Verordnung halten. Mit neuen Leitlinien und einem Kodex will die EU-Kommission die oftmals vagen Vorgaben in Form bringen. Ein Überblick.

Zwei neue Dokumente sollen die Zukunft der KI-Regulierung in der EU mitbestimmen. Es geht darum, an welche Regeln sich mächtige KI-Modelle wie ChatGPT, Meta AI oder Gemini halten sollen. Wie transparent müssen die Systeme sein? Wie gut müssen sie die Daten schützen, die Nutzer*innen ihnen anvertrauen?
Die Grundlage dafür ist die neue KI-Verordnung (AI Act) der Europäischen Union, die nun schrittweise in Kraft tritt. Das Gesetz selbst ist aber an vielen Stellen deutungswürdig. Deshalb sollen jetzt Leitlinien und ein Verhaltenskodex klären, wie genau die EU-Kommission diese Regeln anwenden will – und was Unternehmen tun müssen, um Ärger zu vermeiden. Die wichtigsten Fragen und Antworten.
- Für wen gelten Leitlinien und Kodex?
- Was sollen betroffene KI-Anbieter machen?
- Sind Leitlinien und Kodex verpflichtend?
- Sind nun alle Fragen geklärt?
- Welchen Zeitplan gibt es für Leitlinien und Kodex?
Für wen gelten Leitlinien und Kodex?
Die Leitlinien und der Kodex beziehen sich auf KI-Modelle mit allgemeinem Verwendungszweck (auf Englisch: „General-Purpose AI Models“). Gemeint sind Anwendungen wie ChatGPT oder Meta AI, die sich für erstaunlich viele verschiedene Dinge einsetzen lassen, indem sie beispielsweise Texte, Töne, Bilder oder Videos generieren.
Besser greifbar wird das anhand einiger Beispiele, welche KI-Modelle aus Sicht EU-Kommmission nicht darunterfallen. Den Leitlinien zufolge sind das etwa Modelle, die einfach nur…
- einen Text in Audio umwandeln,
- Schach spielen,
- das Wetter vorhersagen oder
- Soundeffekte erstellen.
Bei solchen und weiteren KI-Modellen ist der Verwendungszweck nicht allgemein, sondern schmal.
Als weiteres Kriterium nennt die EU die Rechenleistung, die beim Training eines KI-Modells zum Einsatz kam, gemessen in der Einheit FLOP („Floating Point Operations“). Der Schwellenwert von 1023 FLOP ist demnach ein Indikator für ein KI-Modell mit allgemeinem Verwendungszweck.
Ob man das in einigen Jahren noch genauso sieht? Die Leitlinien bezeichnen es selbst als eine „nicht zuverlässige Annäherung“, die sich mit dem technologischen Fortschritt verändern könne.
Was sollen betroffene KI-Anbieter machen?
Die Verpflichtungen für Anbieter von KI-Modellen mit allgemeinem Verwendungszweck lassen sich auf drei Bereiche herunterbrechen. Ausführlich beschrieben werden sie im KI-Verhaltenskodex.
- Erstens sollen KI-Anbieter Transparenz schaffen, etwa über die Größe des Modells, die Trainingsdaten, den Energieverbrauch und die unternommenen Versuche, Fehler und Verzerrungen („bias“) einzudämmen.
- Zweitens sollen KI-Anbieter Urheberrechte wahren. Sie sollen zum Beispiel keine Inhalte von Websites erfassen, deren Betreiber dem widersprechen; und sie sollen Maßnahmen ergreifen, um möglichst keine Inhalte erzeugen, die ihrerseits Urheberrechte verletzen.
- Drittens sollen KI-Anbieter sich um Sicherheit und Gefahrenabwehr kümmern. Als konkrete Gefahren nennt der Kodex etwa Diskriminierung, das Abfließen sensibler Daten, die Erstellung illegaler Inhalte oder auch der Einfluss auf die öffentliche mentale Gesundheit. All das sind Aspekte, die beispielsweise Nachrichtenmedien mit Blick auf ChatGPT und ähnliche Modelle längst diskutieren.
Sind Leitlinien und Kodex verpflichtend?
Nein, die KI-Leitlinien und der Verhaltenskodex sind nicht verpflichtend – aber wer sich nicht daran hält, kann trotzdem Probleme bekommen. Das klingt paradox, lässt sich aber erklären, wenn man die Funktion der Regelwerke genauer betrachtet.
Die Grundlage für alles ist die KI-Verordnung, auf die sich Kommission, Rat und Parlament im legislativen Prozess geeinigt haben. Sie ist das Gesetz. Ob jemand gegen dieses Gesetz verstößt oder nicht, das entscheiden im Zweifel Gerichte. Die KI-Verordnung ist aber, wie so viele Gesetze, sehr allgemein formuliert und deutungswürdig.
Hier kommen die Leitlinien ins Spiel. Die EU-Kommission schreibt: Die Leitlinien „verdeutlichen“, wie die Kommission das Gesetz auslegt. Schließlich ist es die Kommission – genauer gesagt: das KI-Büro (AI Office) – das als Regulierungsbehörde über etwaige Verstöße wacht und entsprechende Verfahren einleitet. Doch selbst die Leitlinien sind noch recht allgemein formuliert.
Hier kommt der KI-Verhaltenskodex ins Spiel. Er buchstabiert genauer aus, welche Anforderungen betroffene KI-Systeme erfüllen sollen. Doch auch das ist zunächst freiwillig. Auf die Bedeutung des Kodex geht die EU-Kommission in ihren Leitlinien näher ein. Demnach „können“ betroffene Anbieter die Einhaltung ihrer Verpflichtungen aus der KI-Verordnung nachweisen, indem sie dem Kodex folgen. Wer das lieber nicht tun möchte, müsste auf anderen Wegen den Beweis erbringen, das Gesetz einzuhalten.
Man kann sich diesen Kodex also wie eine Musterlösung vorstellen – für alle, die sich möglichst nicht mit Aufsichtsbehörden anlegen wollen. Der Meta-Konzern will sich anscheinend mit Aufsichtsbehörden anlegen und hat bereits angekündigt, den Kodex nicht befolgen zu wollen. Schon während der Kodex entstand, beklagten Beobachter*innen, wie Konzern-Lobbyist*innen die Regeln zu ihren Gunsten verwässern.
Sind nun alle Fragen geklärt?
Überhaupt nicht. Die Leitlinien zeigen eher auf, auf welchen Ebenen es Konflikte geben wird. Gerade Unternehmen mit starken Rechtsabteilungen dürften versuchen, sich gegen Auflagen und Verpflichtungen zu wehren.
- Bevor ein Mensch ein KI-System nutzt, war oftmals eine Reihe von Akteur*innen beteiligt: vom Training des KI-Modells über den Betrieb eines konkreten Dienstes wie ChatGPT bis hin zu spezifischen Anwendungen, die mittels Schnittstellen funktionieren. Wer genau muss sich nun an die Leitlinien und den Kodex halten? Die EU-Kommission versucht das in den Leitlinien anhand von Beispielen zu verdeutlichen. Konflikte um konkrete Einzelfälle dürften unvermeidbar sein.
- Manche KI-Modelle mit allgemeinem Verwendungszweck will die EU-Kommission besonders ins Visier nehmen. Sie gelten zusätzlich als „systemisches Risiko“ und stehen deshalb unter verschärfter Aufsicht. Entscheidend für diese Einstufung ist laut Leitlinien etwa, ob ein KI-Modell zu den „fortschrittlichsten“ gehört. Durch diese vage Formulierung kann die EU-Kommission zwar flexibel auf technologischen Wandel reagieren. Aber sie gibt widerspenstigen Unternehmen auch Gelegenheit, sich gegen eine unliebsame Einstufung zu wehren.
- Die Leitlinien weisen selbst darauf hin, dass harmonisierte Standards noch fehlen. Dieser Prozess ist komplex und wird dauern. Der Verhaltenskodex sei nur ein temporäres Werkzeug. Gerade wenn Regulierungsstandards den wirtschaftlichen Interessen von Konzernen im Weg stehen, ist eine jahrelange Lobbyschlacht um jedes Detail zu erwarten.
Welchen Zeitplan gibt es für Leitlinien und Kodex?
Wer EU-Regulierung verfolgt, braucht viel Geduld. Es gibt drei wichtige Stichtage über die nächsten drei Jahre:
- Schon sehr bald, am 2. August 2025, treten die Verpflichtungen der KI-Verordnung für Anbieter von KI-Modellen mit allgemeinem Verwendungszweck in Kraft, wie die EU-Kommission auf einer Infoseite erklärt. Das ganz ist aber eher eine Übergangsphase.
- Denn erst ein Jahr später, ab dem 2. August 2026, treten auch die Durchsetzungsbefugnisse der EU-Kommission in Kraft. Das heißt: Erst ab dann müssten säumige Unternehmen damit rechnen, eventuell Ärger von der Regulierungsbehörde zu bekommen, etwa durch Geldbußen.
- Für bereits verfügbare KI-Modelle – von ChatGPT bis Meta AI – gibt es eine noch längere Schonfrist. Denn wer sein KI-Modell schon vor dem 2. August 2025 auf den Markt gebracht hat, muss die Verpflichtungen aus der KI-Verordnung erst in zwei Jahren erfüllen, also ab dem 2. August 2027.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Obwohl Bezahlkarten diskriminieren können und mit Einschränkungen verbunden sind, will die Stadt Hamburg das System auf andere Bereiche ausdehnen. Dabei bleibt unklar, was die Stadt eigentlich will und wie der umstrittene Ansatz tatsächlich Bürokratie abbauen soll.

Hamburg plant, das Modell von Bezahlkarten auszuweiten. Wie aus einer Antwort des Senats auf eine parlamentarische Frage der Linken-Abgeordneten Carola Ensslen hervorgeht, bereitet die Finanzbehörde der Stadt „ein Vorprojekt in Hamburg vor, in dem die Prozesse in den bezirklichen Dienststellen mit Barauszahlungen an den Zahlstellen aufgenommen werden sollen“.
Eingeführt hatte Hamburg zunächst Bezahlkarten für Geflüchtete Anfang des Vorjahres. Dabei handelt es sich um eigens geschaffene Zahlungskarten, üblicherweise geknüpft an restriktive Bedingungen, etwa Limits für Bargeldabhebungen. Inzwischen gibt es seit dem Asylbewerberleistungsgesetz eine bundesweite Regelung, Bundesländer haben jedoch weitreichenden Gestaltungsspielraum.
In Hamburg ist etwa der maximale Abhebebetrag auf 50 Euro im Monat beschränkt, zudem sind Online-Käufe mit der dortigen Bezahlkarte nicht möglich. Das Modell ist umstritten, weil es diskriminiert und den „Charakter einer Schikanemaßnahme“ hat, wie die Grundrechteorganisation Gesellschaft für Freiheitsrechte (GFF) ausführt.
Bezahlkarte als „Verwaltungsmodernisierung“
Ob und mit welchen Einschränkungen eine ausgeweitete Bezahlkarte verknüpft wäre, steht noch nicht fest. Allerdings prüfe die Stadt Hamburg seit 2023, wie „die Bargeldausgabe durch die Stadt an Leistungsempfängerinnen und Leistungsempfänger aber auch für andere Prozesse durch den Einsatz moderner Zahlungsmittel reduziert werden kann“, teilt die hamburgische Behörde für Finanzen auf Anfrage mit. Generell gehe es um „Bürokratieabbau und Verwaltungsmodernisierung“, indem Menschen nicht mehr in die Zahlstellen kommen müssten, um ihr Geld zu erhalten, so ein Sprecher der Behörde.
Tatsächlich hat der Prozess bereits begonnen. „Auch wenn aktuell die Nutzung dieser Karten für Asylbewerbende im Fokus steht, wurden erste Sozialarbeiterinnen und Sozialarbeiter bereits mit Karten ausgestattet, um darüber zum Beispiel Taschengeld an Jugendliche in betreuten Einrichtungen auszahlen zu können“, so der Sprecher weiter. In den nächsten Monaten werde die Behörde nun „weitere geeignete Prozesse und Leistungen gemeinsam mit den Bezirken und der Sozialbehörde aufnehmen und die Kartennutzung sukzessive ausrollen“.
Davor warnt Carola Ensslen, die die Anfrage gestellt hatte. „Es war absehbar, dass die repressive Bezahlkarte auch auf andere Leistungsempfänger*innen ausgedehnt würde“, schreibt die Abgeordnete in einer Pressemitteilung. Bei der Ausdehnung auf die Altersgrundsicherung und Sozialhilfe werde es nicht bleiben, vermutet sie. „Was harmlos mit der Abschaffung von Bargeldauszahlungen beginnt, schafft die Möglichkeit für Einschränkungen der Geldnutzung wie bei Geflüchteten“, sagt Ensslen.
„Möglichkeit für Einschränkungen der Geldnutzung“
Dabei sei bisher völlig unklar, was mit einer kostspieligen Bezahlkarte in der Sozialhilfe bezweckt werden soll, sagt Lena Frerichs von der GFF. Schließlich würden vor allem Menschen Sozialhilfeleistungen beziehen, die nicht erwerbsfähig sind oder schon das Rentenalter erreicht hätten. „An der fehlenden Erwerbsfähigkeit oder gar dem Alter wird eine Bezahlkarte nichts ändern“, sagt Frerichs. Die kostengünstigste, digitale Lösung mit geringem Verwaltungsaufwand sei es, die Geldbeträge – wie bisher auch – auf das normale Konto dieser Personen zu überweisen, damit sie ein selbstbestimmtes Leben führen können, sagt die Juristin.
Skandalös sei es, so Frerichs, wenn Sozialhilfeberechtigte durch solche Forderungen in ein schlechtes Licht gerückt werden. Es entstehe der Eindruck, als wären sie nicht in der Lage, selbstbestimmt mit Geld umzugehen oder hätten andere Optionen, ihren Lebensunterhalt zu decken. „Das ist diffamierend und gerade im Sozialhilferecht völlig fehl am Platz“, sagt Frerichs.
Außerdem bleibe ebenfalls offen, welche Beschränkungen eine Bezahlkarte im Sozialhilferecht haben soll. Aus rechtlichen Gründen kämen allenfalls Bezahlkarten ohne Bargeldbeschränkung in Betracht. „Das ist allerdings völlig sinnlos, denn diese kostet die Kommunen viel Geld, das gespart werden könnte, wenn die Sozialleistung einfach auf normale Konten überwiesen werden würde“, sagt Frerichs.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Das Verwaltungsgericht Köln hat entschieden, dass die Bundesregierung weiterhin mit einer Facebook-Fanpage kommunizieren darf. Der ehemalige Bundesdatenschutzbeauftragte Ulrich Kelber hatte dies untersagt, dagegen hatten die Bundesregierung und Meta geklagt.

Das Presse- und Informationsamt der Bundesregierung darf seine „Facebook-Fanpage“ weiterbetreiben. Dies hat das Verwaltungsgericht Köln aufgrund der mündlichen Verhandlung vom 17. Juli 2025 entschieden und damit den gegen die Bundesbeauftragte für den Datenschutz und die Informationssicherheit (BfDI) gerichteten Klagen des Bundes und vom Konzern Meta stattgegeben.
Der ehemalige Bundesdatenschutzbeauftragte Ulrich Kelber hatte im Juni 2023 dem Bundespresseamt untersagt, eine Facebook-Fanpage für die Bundesregierung zu betreiben. Dagegen haben sich sich sowohl das Amt wie auch der Meta-Konzern gewehrt – und geklagt. Der Fall wurde vor dem Verwaltungsgericht Köln verhandelt.
Das Gericht hat nun entschieden, dass nicht das Bundespresseamt, sondern allein Meta zur Einholung einer Einwilligung der Endnutzenden für die Platzierung von Cookies verpflichtet sei. „Es besteht kein ausreichender Ursachen- und Wirkungszusammenhang zwischen dem Betrieb der Fanpage durch das Bundespresseamt und dem mit der Speicherung und dem Auslesen der Cookies verbundenen Fernzugriff auf die Endgeräte der Nutzer“, so das Gericht. Die Cookies könnten zwar bei Gelegenheit des Besuches einer Fanpage, ebenso jedoch bei dem Besuch einer jeden anderen „Facebook-Seite“ platziert werden.
Auch nach der Datenschutzgrundverordnung (DSGVO) seien Meta und das Bundespresseamt nicht gemeinsam für die beanstandeten Datenverarbeitungen verantwortlich, heißt es weiter. Der Beitrag des Bundespresseamtes zur Speicherung und zum Auslesen der Cookies erschöpfe sich in dem Betrieb der Fanpage. Insbesondere könne das Bundespresseamt keine Parameter für die Platzierung der Cookies und die Auswertung der erhobenen Daten vorgeben. Die bloße Ermöglichung einer Datenverarbeitung begründet nach Auffassung der Kammer indessen nicht die notwendige gemeinsame Festlegung der Mittel der Datenverarbeitung.
Datenschutzbeauftragte hatten Deaktivierung gefordert
Fanpages sind Webseiten auf dem sozialen Netzwerk Facebook, die technisch vom Meta-Konzern betrieben werden – mit all den Datenschutz-Nachteilen, die das auf einer Plattform wie Facebook so mit sich bringt.
Der Bundesdatenschutzbeauftragte ging davon aus, dass ein datenschutzkonformer Betrieb von Facebook-Fanpages nicht möglich ist. Das sahen auch die unabhängigen Datenschutzbehörden der Länder so und haben schon 2022 einen Kurzgutachten (PDF) verfasst, in dem sie die Deaktivierung von offiziellen Behördenseiten fordern, wenn diese einen datenschutzkonformen Betrieb nicht nachweisen können. Behörden hätten eine Vorbildfunktion und müssten sich an den Datenschutz halten, so der Tenor.
Der ehemalige Datenschutzbeauftragte Kelber ging wie schon der Europäische Gerichtshof davor davon aus, dass nicht nur Facebook, sondern auch die Bundesregierung für die Verarbeitung der Daten verantwortlich sei. Das liege daran, dass Facebook den Betreibern von Fanpages Statistiken, so genannte Insights, zur Verfügung stellt.
Diese Funktion stellte jedoch das Bundespresseamt ab. Kelber ließ das nicht gelten und sah weiterhin eine Verantwortung der Bundesregierung. Seine Nachfolgerin Louisa Specht-Riemenschneider hatte im Spiegel-Interview aber angedeutet, dass das Ausschalten der Statistik ausreichen könnte.
Das Verwaltungsgericht hat die Berufung zugelassen, über die das Oberverwaltungsgericht für das Land Nordrhein-Westfalen mit Sitz in Münster entscheiden würde, wenn die Beteiligten dieses Rechtsmittel einlegen.
Politisch verbiete sich die Fanpage
Kelber sieht die Nutzung der Fanpages des US-Konzerns weiterhin kritisch. Er bezweifelt, dass dort nur die Daten eingesammelt werden, „die für den Service notwendig sind“. Es ginge auch nicht nur um die Frage der geteilten Verantwortung.
Es müsse nämlich auch zwischen datenschutzrechtlicher und politischer Bewertung unterschieden werden, so Kelber. Er fragt etwas provokant: „Kein Koalitionspolitiker gibt z.B. der Jungen Freiheit ein Interview. Aber auf X und Meta präsent sein, das soll ok sein?“
Er schreibt, dass schon die Tatsache, „dass Meta Daten über Bürger:innen sammelt, die mit der Regierung kommunizieren“, kritisch sei. Politisch verbiete dies den Betrieb der Fanpage. „Und keine Bundesregierung hat bisher wirklich Druck ausgeübt, dass dies unterbleibt“, so Kelber. Das sei unverständlich.
Update 17:18 Uhr:
In einer Pressemitteilung schreibt die Bundesdatenschutzbeauftragte Louisa Specht-Riemenschneider: „Ich werde mir die Urteilsbegründung sehr gründlich ansehen und entscheiden, ob ich die Sache der nächsthöheren Instanz, dem Oberverwaltungsgericht Münster, zur Entscheidung vorlege.“
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Die Journalistenvereinigung der Nachrichtenagentur AFP schlägt Alarm: Die letzten noch aus Gaza berichtenden Reporter und Fotografen könnten an dem Mangel an Lebensmitteln und Medikamenten sterben. Sie leben unter den gleichen Bedingungen wie die Bevölkerung von Gaza.

Die Journalistenvereinigung SDJ der französischen Nachrichtenagentur Agence France-Presse (AFP) hat am Montag davor gewarnt, dass die letzten aus Gaza berichtenden Journalist:innen sterben werden. Die AFP arbeitet laut der SDJ seit dem Abzug ihrer festangestellten Journalist:innen heute mit einer freiberuflichen Textjournalistin, drei Fotografen und sechs freiberuflichen Videoreportern im Gazastreifen zusammen. Die Nachrichtenagentur ist eine der wenigen, die noch direkt aus Gaza berichtet, weil Israel der internationalen Presse die Einreise in das Kriegsgebiet untersagt.
Die Mitarbeiter:innen der AFP sind laut der Journalistenorganisation denselben Bedingungen ausgesetzt wie die 2,3 Millionen Menschen, die in Gaza leben. In der Pressemitteilung heißt es über einen der Fotografen:
Der 30-jährige Bashar lebt und arbeitet unter den gleichen Bedingungen wie alle anderen Bewohner Gazas und zieht je nach den israelischen Bombardements von einem Flüchtlingslager zum nächsten. Seit über einem Jahr lebt er in völliger Armut und riskiert bei seiner Arbeit sein Leben. Hygiene ist für ihn ein großes Problem, er leidet unter schweren Darmerkrankungen.
Am vergangenen Samstag postete Bashar, der in den Trümmern des Hauses seiner Familie lebt, auf Facebook: „Ich habe keine Kraft mehr, für die Medien zu arbeiten. Mein Körper ist abgemagert und ich kann nicht mehr arbeiten.“
Zwar erhalten die Journalist:innen ein monatliches Gehalt der AFP, es gäbe aber nichts zu kaufen oder nur zu völlig überhöhten Preisen. Zudem ist das Bankensystem zusammengebrochen, und diejenigen, die Geld zwischen Online-Bankkonten und Bargeld umtauschen, verlangen eine Provision von fast 40 Prozent für diese Dienstleistung.
Zu Fuß und mit Eselskarren unterwegs
Die AFP habe keine Möglichkeit mehr, ein Fahrzeug zu beschaffen, geschweige denn Benzin, damit ihre Journalist:innen für ihre Reportagen mobil sind, heißt es weiter. Mit dem Auto zu fahren bedeute ohnehin, das Risiko einzugehen, zur Zielscheibe der israelischen Luftwaffe zu werden. Die AFP-Reporter seien daher zu Fuß oder mit Eselskarren unterwegs.
Andere Mitarbeiter:innen der AFP leben in Zelten, auch sie klagen laut SDJ über den Mangel an Nahrung und Wasser. „Jedes Mal, wenn ich das Zelt verlasse, um über ein Ereignis zu berichten, ein Interview zu führen oder etwas zu dokumentieren, weiß ich nicht, ob ich lebend zurückkomme“, sagt die Mitarbeiterin Ahlam laut SDJ.
Die Journalistenvereinigung schreibt, dass man seit der Gründung der AFP 1944 auch Journalisten in Konflikten verloren habe, man habe Verwundete und Gefangene erlebt, „aber keiner von uns kann sich daran erinnern, jemals einen Kollegen verhungern sehen zu haben“.
Die Leitung der AFP schreibt auf X, dass sie die Sorge der Journalistenvereinigung teilt. Laut der Zeitung Libération hat der französische Außenminister Jean-Noël Barrot im Radiosender France Inter erklärt, er habe sich „dieser Frage“ angenommen, und zeigt sich zuversichtlich, dass es möglich sei, in den kommenden Wochen einige Mitarbeiter von Journalisten aus dem Gazastreifen zu bringen. Er fordert laut Libération außerdem, „dass die freie und unabhängige Presse Zugang zu Gaza erhält, um zu zeigen, was dort geschieht, und darüber zu berichten“.
Kritik von Reporter ohne Grenzen
Reporter ohne Grenzen schätzt, dass in Gaza etwa 200 Journalist:innen getötet wurden, darunter 45 bei der Ausübung ihrer Tätigkeit. In einer Pressemitteilung im Juni kritisierte die Organisation, dass die Journalist:innen unter unerträglichen Bedingungen arbeiten würden. Sie seien mehrfach vertrieben worden, litten unter Hunger und lebten in ständiger Lebensgefahr.
„Wir sehen in der fortgesetzten Medienblockade des Gazastreifens den systematischen Versuch der israelischen Seite, Fakten zu verschleiern, Informationen aus dem Krieg zu unterdrücken und die palästinensische Presse und Bevölkerung zu isolieren“, sagte RSF-Geschäftsführerin Anja Osterhaus damals. „Wir fordern Regierungen, Institutionen und Staatschefs auf der ganzen Welt auf, ihr Schweigen zu beenden. Sonst machen sie sich mitschuldig. Nach dem humanitären Völkerrecht ist die Tötung eines Journalisten ein Kriegsverbrechen.“
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Die ARD sendet ein Sommerinterview mit Alice Weidel, das durch lautstarke Proteste torpediert wird. Die Aktion richtet sich auch gegen die ARD und durchbricht die freundliche Normalität. Ein Kommentar.

Es war ein hörbarer und starker Protest: Demonstrierende haben gemeinsam mit dem Zentrum für politische Schönheit das ARD-Sommerinterview mit der Rechtsextremistin Alice Weidel (AfD) gekapert. Und zwar nicht nur mit ein paar Parolen, Buh-Rufen und Tröten, sondern auch über Minuten mit dem unüberhörbaren Chorgesang „Scheiß AfD, scheiß AfD“. Selten war eine Störaktion im deutschen Fernsehen effektiver.
Natürlich sind die Gegner dieser Protestaktion nicht weit. Erwartbar lügen die Rechtsextremistenfreunde sich nun in die Tasche, dass die ARD die Proteste bestellt oder extra laut aufgedreht hätte, um das Interview zu torpedieren. So weit, so durchsichtig. Nazis lügen halt, ob auf der Braunplattform X, in der Jungen Freiheit oder im ARD-Sommerinterview.
Naives Verständnis eines neutralen Journalismus
Umso mehr überrascht das anhaltend naive wie selbstverliebte Verständnis eines neutralen Journalismus, der angeblich in der Lage ist, Faschistinnen wie Weidel in Interviews und Talkshows „zu stellen“. Seit vielen Jahren versuchen sich gestandene Medienleute daran, die AfD zu dechiffrieren und ihre Ziele offenzulegen. Das ist in vielen Fällen auch gelungen, wohl aber noch nie in seichten Gesprächsformaten.
Im Blog der Wikimedia Deutschland wird vor der Einführung spendenfinanzierter Wikipedia-Redaktionen gewarnt – aus Sorge um das Ehrenamt. Doch es gibt viele Gründe, warum professionelle Redaktionen keine Gefahr, sondern eine hilfreiche Ergänzung für das Wikipedia-Modell sein könnten. Antworten auf die fünf häufigsten Fragen zum Thema.

Wikipedia ist die zentrale Sammlung unseres Weltwissens und längst viel mehr als nur eine Enzyklopädie. Gerade bei komplexen und sich dynamisch entwickelnden Themen von großer gesellschaftlicher Relevanz liefert Wikipedia einen Überblick über den Stand der Dinge – und sie erfüllt damit auch eine quasi journalistische Aufgabe, die kein anderes Medium so leisten kann. Hinzu kommt die Bedeutung der Wikipedia und ihrer Schwesterprojekte für die Reihung von Suchergebnissen und als Lieferant von Trainingsdaten für KI-Anwendungen.
Umso erfreulicher ist es, dass Wikipedia diese für demokratische Öffentlichkeit im digitalen Zeitalter essenziellen Aufgaben werbefrei und auf Basis freier Software und Lizenzen erbringt, finanziert über Spenden und unter Mitwirkung von Tausenden von Freiwilligen.
Mit der großen Bedeutung der Wikipedia geht auch eine Verantwortung einher. Und wie nicht nur die jüngste Recherche der FAZ über veraltete Artikel in der Wikipedia gezeigt hat, gibt es auch hartnäckige Probleme, die nach einer Lösung verlangen. Besonders augenscheinlich ist das bei Artikeln über lebende Personen, deren öffentliche Persona maßgeblich und dauerhaft von der Darstellung in der Wikipedia geprägt wird. Gleichzeitig wird explizit davon abgeraten, den eigenen Artikel selbst zu editieren.
Gerade für politische exponierte Personen, für Frauen und People of Color, die ohnehin bei öffentlichen Auftritten regelmäßig mit Hass und Hetze auf Social Media konfrontiert sind, ist es eine Zumutung, sich außerdem noch mit Umgestaltungen und Verfälschungen ‚ihres‘ Wikipedia-Beitrags auseinandersetzen zu müssen. Hier fehlen professionelle Ansprecherpartner:innen, die auch Artikel editieren dürfen, ganz besonders.
Hinzu kommt, dass sogenanntes „bezahltes Schreiben“ in der Wikipedia längst an der Tagesordnung ist. Erforderlich ist hierfür nur die Offenlegung, dass ein Beitrag im Rahmen von bezahltem Schreiben gemäß Nutzungsbedingungen im Auftrag geleistet wurde. Mit anderen Worten, wer sich professionelle Wikipedia-Begleitung durch eine Agentur leisten kann, hat weniger Probleme als jene (Privat-)Personen, die das nicht tun können.
Ebenso hartnäckig wie die Probleme – veraltete Artikel, mangelnde Diversität unter den Freiwilligen und fehlende Ansprechpartner:innen – ist aber die Weigerung von Teilen der Wikipedia-Community, über die Etablierung von hauptamtlichen Redaktionen direkt bei Wikimedia auch nur ernsthaft zu diskutieren. Jüngstes Beispiel ist ein Blogeintrag bei Wikimedia Deutschland, der argumentiert „Warum das Ehrenamt zählt und bezahltes Schreiben keine Lösung ist“.
Im Folgenden möchte ich deshalb die fünf wichtigsten Fragen beantworten, die mir in der Debatte zu von Wikimedia bezahlten Redaktionen immer wieder unterkommen.
Könnte bezahltes Schreiben die Motivation der Ehrenamtlichen schwächen?
Die größte und am häufigsten vorgebrachte Sorge ist Motivationsverlust unter den freiwilligen Autor:innen. So schreibt Hanna Klein im oben verlinkten Blogeintrag:
Wenn andere für dieselbe Arbeit bezahlt würden, könnte das demotivierend wirken – und dazu führen, dass sich weniger Menschen ehrenamtlich beteiligen.
Es ist sicher kein Zufall, dass die gesamte Passage im Konjunktiv formuliert ist. Denn natürlich mag so ein Effekt auf einzelne freiwillige Autor:innen zutreffen. Allerdings spricht eine Vielzahl an Gründen dagegen, dass es sich dabei um eine weitverbreitete Sichtweise handelt. Denn die Gründe, warum Menschen bei der Wikipedia mitarbeiten, sind vielfältig: aus Freude am Schreiben, aus politischer Überzeugung, um Wissen zu teilen oder einfach, um Teil einer Community zu sein. Diese Motive verschwinden nicht, nur weil es auch ein paar bezahlte Redakteur:innen gibt.
Im Gegenteil: Ein Nebeneinander von bezahlten und freiwillig Mitarbeitenden ist in vielen Bereichen völlig selbstverständlich. Und zwar nicht nur in Organisationen wie dem Roten Kreuz, der Tafel oder dem Technischen Hilfswerk, sondern auch in jener Szene, aus deren Mitte heraus die Wikipedia entstanden ist: freie und offene Software. Viele Projekte florieren gerade deshalb, weil bezahlte Entwickler:innen die oft undankbaren, aber notwendigen Aufgaben übernehmen – etwa Bugfixes, Tests, Sicherheitsupdates. So ist es auch bei der (Weiter-)Entwicklung der Mediawiki-Software, auf der Wikipedia selbst läuft. Diese wird ganz maßgeblich durch Entwickler:innen vorangetrieben, die von der Wikimedia Foundation dafür bezahlt werden.
Aber gibt es nicht Forschung, die negative Effekte von Bezahlung auf intrinsische Motivation belegt?
In der Tat gibt es Studien zum sogenannten Crowding-out-Phänomen im Bereich der Motivationsforschung. Wenn Menschen für etwas bezahlt werden, das sie zuvor freiwillig getan haben, kann das ihre intrinsische Motivation untergraben. Das – wenn auch empirisch umstrittene – Lehrbuchbeispiel ist die finanzielle Vergütung für Blutspenden. So sinkt in bestimmten gesellschaftlichen Gruppen die Bereitschaft zur Blutspende, wenn sie als ökonomische Transaktion und nicht als moralische Tugend verstanden wird.
Vor allem als unzureichend empfundene monetäre Anreize wirken sich negativ auf intrinsische Motivation und geleistete Beiträge aus. Es wäre also in der Tat keine gute Idee, sämtlichen rund 6.000 Freiwilligen ein bisschen Geld für ihre Arbeit zu bezahlen. Aber das schlägt meines Wissens nach auch niemand vor. Stattdessen geht es um die Finanzierung von Vollzeitstellen für gezielt ausgewählte Aufgaben, die allein von Freiwilligen derzeit nicht in ausreichendem Maße erfüllt werden.
Hat die Wikipedia überhaupt genug Geld dafür, um Leute für das Schreiben zu bezahlen?
Ja. Die Wikimedia Foundation als Organisation hinter der Wikipedia erhält genug Spenden, um zumindest in den größeren Sprachversionen Redaktionen zu finanzieren. Alleine Wikimedia Deutschland hat 2024 rund 11,7 Millionen Euro an Spenden und 6,2 Millionen Euro an Mitgliedsbeiträgen eingenommen, Tendenz steigend. Inzwischen verfügt der Verein über Rücklagen in Höhe eines Jahresspendenaufkommens von 11,6 Millionen Euro („Noch nicht verbrauchte Spendenmittel“).
Auch wenn ein großer Teil des Spendenaufkommens an die Wikimedia Foundation weitergeleitet wird – deren Nettovermögen inzwischen rund 230 Millionen US-Dollar beträgt -, machen diese Beträge deutlich, dass Geld für die Bezahlung von Redaktionen vorhanden wäre. Und gut möglich, dass die Spendenbereitschaft unter den Leser:innen sogar noch wüchse, wenn das Geld unmittelbarer als derzeit in die Verbesserung der Wikipedia zurückfließt.
Aber ist eine zwanzig- bis dreißigköpfige Redaktion nicht viel zu klein, um Millionen von Artikel zu pflegen?
Natürlich kann und sollen bezahlte Redakteur:innen nicht sämtliche Inhalte der Wikipedia beisteuern. Das würde in der Tat nicht funktionieren, ist aber auch gar nicht notwendig. Wie oben ausgeführt, ist es unwahrscheinlich, dass ein größerer Teil der Freiwilligen sofort die Arbeit einstellt, nur weil es auch ein paar bezahlte Redakteur:innen gibt.
Umgekehrt hätten die Redakteur:innen vor allem die Aufgabe, die Freiwilligen zu entlasten, indem sie ihnen als Ansprechpartner:innen dienen und sich um Dinge kümmern, für die sich keine Freiwilligen finden oder wo verlässliche Verfügbarkeit erforderlich ist, die mit Freiwilligen schwer herzustellen ist. Letzteres betrifft vor allem die oben erwähnten Artikel über lebende Personen.
Welche Aufgabenfelder von hauptamtlichen Redaktionen prioritär bearbeitet werden, sollte natürlich im Austausch mit der Freiwilligen-Community festgelegt werden. Denkbar wäre es, viel besuchte, aber länger nicht bearbeitete Artikel systematisch zu aktualisieren und zu überarbeiten.
Könnte verschärfte Haftung für Inhalte zu Problemen führen?
Schon heute ist es so, dass die Wikimedia Foundation für rechtswidrige Inhalte haftet, sofern sie Kenntnis davon besitzt. An dieser sogenannten „Forenhaftung“ für Beiträge von Freiwilligen würde sich durch bezahlte Redaktionen erst mal nichts verändern. In diesem Zusammenhang ist aber die radikale Transparenz der Wikipedia wieder hilfreich: Weil jede Änderung und Sichtung dauerhaft und transparent nachvollziehbar in der Versionsgeschichte von Wikipedia-Artikeln dokumentiert ist, wäre auch mit bezahlten Kräften keine umfassende Haftung für alle Inhalte in der Wikipedia verbunden.
Klarerweise würde die Wikimedia Foundation aber für Beiträge hauptamtlicher Redakteur:innen sowie für die von ihnen gesichteten Beiträge von Dritten haften. Das gilt aber auch für jedes andere Online-Medium und ist angesichts der Relevanz und Bedeutung der Wikipedia durchaus sinnvoll.
Fazit
Niemand will das Ehrenamt in der Wikipedia abschaffen. Im Gegenteil: Es ist das Fundament, auf dem Wikipedia ruht. Aber genau deshalb braucht es eine Debatte darüber, wie dieses Fundament auch in Zukunft tragfähig bleibt. Das bedeutet auch, darüber zu sprechen, wo gezielte Bezahlung sinnvoll sein kann – nicht als Ersatz, sondern als Ergänzung.
Natürlich wird auch eine Wikipedia mit bezahlten Redaktionen nie fehlerfrei, vollständig oder fertig sein. Das kann und soll auch nicht das Ziel sein. Aber mit bezahlten Kräften ließen sich die größten und seit Jahren ungelösten Probleme der Wikipedia zumindest ein wenig lindern.
Statt also jegliche Form von spendenfinanziertem Schreiben pauschal abzulehnen, wäre es sinnvoller, darüber zu diskutieren, auf welche Weise Spendengelder am effektivsten zur Verbesserung der Wikipedia investiert werden könnten – und wo auch weiterhin besser primär auf ehrenamtliche Mitarbeit gesetzt werden sollte. Pilot- und Testprojekte in einzelnen ausgewählten Sprachversionen würden sich dafür anbieten.
Eine ergebnisoffenere Diskussion der Frage von spendenfinanzierten Autor:innen würde der auf ihre Offenheit so stolzen Wikipedia-Community gut zu Gesicht stehen.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Im Verein „Computertruhe“ haben sich Leute zusammengetan, die Hardware-Spenden aufbereiten und die Computer dann an Bedürftige verschenken. Sie setzen dabei auf offene Software und Betriebssysteme. Annette Linder und Marco Rosenthal geben im Interview Einblicke in die Arbeit des Vereins und zeigen, wie man sich engagieren kann.

Der gemeinnützige Verein „Computertruhe“ arbeitet seit einem Jahrzehnt daran, gebrauchte Rechner wieder herzurichten und an bedürftige Menschen weiterzugeben. Dieses Jahr wurden bereits 960 Computer aufbereitet und ausgegeben. Es gibt mittlerweile Ableger in elf Städten und Regionen, wo sich die Mitglieder ehrenamtlich engagieren.
Der Verein hat Ende Juni seine Mitgliederversammlung veranstaltet und dabei seine lebendige Demokratie- und Transparenzkultur gezeigt. Wir sprechen mit Annette Linder, Physiotherapeutin und Beisitzerin im Vorstandsteam, und Marco Rosenthal, Informatiker und Vereinsvorsitzender. Sie sind beide seit der Gründung durchgehend im Vorstandsteam der „Computertruhe“ aktiv. Sie geben uns Einblicke in die Organisationsstruktur und Arbeitsweise des Vereins und erklären vor allem, wie man mitmachen kann.
In geordnete Bahnen leiten
netzpolitik.org: Liebe Annette, lieber Marco, ihr seid Vertreter des Vorstandsteams des Vereins Computertruhe. Erzählt mal: Wie kam es dazu?
Annette Linder: Eigentlich ging es schon 2015 los, hier bei uns im Breisgau. Es gab damals viele Flüchtlinge, die zu uns gekommen sind. Da stellten wir uns im Freundeskreis die Frage, wie wir unterstützen können. Wir sind alle berufstätig, haben zum Teil Familie, da fallen manche Dinge weg. Aber wir haben uns gesagt: Wir können technisch ganz gut mit Computern umgehen, damit können wir doch helfen.
Dann haben wir uns einem lokalen Netzwerk für Flüchtlinge in einer kleinen Stadt in der Nähe von Freiburg angeschlossen. Irgendwann stand in den lokalen Infobroschüren für Geflüchtete und Helferkreise dann für Computerprobleme immer der Name Marco Rosenthal mit seinen privaten Kontaktdaten. Da haben wir gemerkt: Das muss in geordnete Bahnen geleitet werden.
Zu dieser Zeit waren wir als Elzpiraten lokal bei der Piratenpartei aktiv. Zusammen haben wir uns überlegt, welche Struktur wir bräuchten, und angefangen, uns ein Logo und einen Namen zurechtzulegen.
Ein Jahr später, im Juni 2016, haben wir unseren Verein gegründet.
netzpolitik.org: Wie viele Menschen wart ihr bei der Gründung?
Annette Linder: Wir waren um die zwanzig Menschen. Aktuell haben wir 166 Mitglieder, aber sie sind nicht alle aktiv. Einige unterstützen uns einfach ideell mit regelmäßigen Beiträgen.
netzpolitik.org: Ihr seid beide aus dem Breisgau, da habt ihr den Verein auch gegründet. Jetzt seid ihr auch in größeren Städten und anderen Regionen aktiv, etwa Berlin, Chemnitz, Lemgo oder München. Was war anfangs der Kern eurer Aktivitäten?
Marco Rosenthal: Anfänglich waren wir Teil des Netzwerks für Geflüchtete und haben dort unsere Expertise angeboten. Wir wollten ursprünglich das Flüchtlingsnetzwerk mit technischer Infrastruktur wie einer Mailingliste oder Website unterstützen. Dann haben wir herausgefunden, dass die Flüchtenden auch andere Hilfe brauchen, beispielsweise für den DSL-Anschluss. Und den Leuten fehlten Endgeräte. Da kam die Idee mit den Computern und Smartphones auf.
Interviews
Wir kommen gern ins Gespräch. Unterstütze unsere Arbeit!
netzpolitik.org: Jetzt beschränkt ihr euch aber auf die Hardware?
Marco Rosenthal: Hardware ist jetzt der Kern, das steht auch in der Vereinssatzung als Hauptzweck. Es geht also um Bereitstellung von Hardware für diejenigen Leute, die bedürftig sind, oder für gemeinnützige Institutionen. Wir haben damals schon gesehen: Der Bedarf an Geräten war riesig, es gab viele Leute, die sich leider so ein Gerät nicht leisten können.
Es engagierten sich dann auch Menschen in Lemgo und ab 2019 in Berlin. Und dann kam die Pandemie. Wir mussten dezentral werden, haben von heute auf morgen unsere Vorstandssitzungen und unsere monatlichen Treffen direkt ab März 2020 online abgehalten.
netzpolitik.org: Ihr kommt also aus der Piratenpartei-Ecke, die damals, als ihr euch gegründet habt, noch in mehreren Parlamenten saß. Ihr habt aber auch das Mindset der Hacker- und Open-Source-Community. Ihr versucht beispielsweise, Software-Produkte zu nutzen, die frei und quelloffen. Stimmt das?
Annette Linder: Ja, wir versuchen, einfach auf offene Software und Plattformen und auf offene Dateiformate zu setzen. Wir hatten ganz am Anfang auch ein Twitter-Konto. Als dann Twitter unerträglich wurde, haben wir uns dort verabschiedet. Wir wehren uns bislang erfolgreich, andere Plattformen wie Instagram oder TikTok zu nutzen, das möchten wir aus Prinzip nicht. Da hätten wir vielleicht eine größere Reichweite, aber die möchten wir um diesen Preis nicht. Wir nutzen intern viel freie Software wie Linux. Ich selbst nutze gar keine Microsoft-Produkte. Dann war einfach klar, wir werden nicht auf Vereinskosten Lizenzen kaufen und Rechner mit Microsoft aufsetzen, also mit Software, die wir nicht möchten. Das hat sich aus Überzeugung so entwickelt.
Spaß daran, was Gutes zu tun
netzpolitik.org: Ist es auch ein Vereinsziel, immer größer zu werden und irgendwann in der ganzen Bundesrepublik präsent zu sein?
Annette Linder: Wenn wir beispielsweise auf eine Veranstaltung gehen, dann werben wir schon um neue Mitglieder, vielleicht sprechen wir auch über einen neuen Standort. Aber wir möchten, dass beispielsweise Neumitglieder uns in Ruhe kennenlernen und dann einschätzen können, ob das funktionieren kann. Wir trachten aber nicht danach, etwa pro Jahr fünf neue Standorte zu haben. Denn wir wollen die Leute nicht enttäuschen. Das heißt: Wir setzen lieber auf kleines Wachstum und auf Kontinuität. Es ist uns sehr wichtig, dass sich Spenderinnen und Empfängerinnen auf uns verlassen können.
Marco Rosenthal: Wir hatten während der Pandemie das Problem, dass die Anfragen irgendwann überhandgenommen haben. Denn zu dieser Zeit nahmen wir noch bundesweit Anfragen an. Wir wollen heute so wachsen, wie es allen Engagierten reinpasst. Wir möchten auch, dass Mitglieder Spaß haben an der ganzen Aktion und daran, was Gutes zu tun. Sie sollen sich nicht selbst unter Stress und Druck stellen, das ist uns auch sehr wichtig.
netzpolitik.org: Welche Städte und Regionen deckt ihr inzwischen ab?
Annette Linder: Wir sind in elf Städten und Regionen aktiv: Breisgau, Lemgo, Berlin, Chemnitz, Göttingen, Rhein-Neckar, München, Ortenau, Esslingen-Nürtingen und seit Mai 2025 auch in Karlsruhe. Außerdem gibt es das Team Nord für Hamburg, Lübeck, Flensburg und Umgebung.
netzpolitik.org: Ihr seid schon ein bisschen südlich orientiert, oder?
Marco Rosenthal: Ja, aber wir hätten es schon gern, dass es noch in weiteren Regionen Niederlassungen gäbe. Denn wir sehen, dass Anfragen von dort kommen, die wir momentan nicht abdecken können. Für solche Fälle bekommen die Leute, die sich bei uns melden, eine E-Mail zurück, dass wir leider nicht unterstützen können. Wir verweisen aber gleichzeitig auf andere Projekte, zum Beispiel das Computerwerk in Darmstadt oder auf Hey, Alter! oder auf Angestöpselt aus Würzburg.
Wir haben auch einige Shops zusammengesucht, die gebrauchte Hardware anbieten, die relativ günstig ist. Dort kann man für vielleicht 170 oder 150 Euro auch ein gutes Gerät bekommen. Vielleicht ist das für die eine oder andere Person doch möglich.
netzpolitik.org: Ihr versucht also, auch Alternativen aufzuzeigen, und seht euch nicht als Konkurrenz zu anderen Vereinen?
Annette Linder: Nein, gar nicht. Wir sind froh, wenn wir Kontakt haben oder auch mal zusammenarbeiten. Wir treten nicht in Konkurrenz, im Gegenteil.
Warum ein gemeinnütziger Verein?
netzpolitik.org: Ihr habt letztes Jahr ungefähr 1.800 Menschen und Organisationen geholfen. Die Organisationen sollen gemeinnützig sein, ist das ein Ausschlusskriterium?
Annette Linder: Ja, aufgrund unserer Satzung und unserem Vereinszweck dürfen wir nur Menschen unterstützen, die vor dem Gesetz als bedürftig gelten. Wir nehmen auch den Bedürftigkeitsnachweis entgegen. Das müssen wir dokumentieren. Ansonsten helfen wir Einrichtungen, die in Deutschland als gemeinnützig anerkannt sind. Es können zum Beispiel auch Hardware-Spenden in einen afrikanischen Staat oder vielleicht in ehemalige Ostblock-Staaten sein, aber es muss als Partner einen gemeinnützigen Verein nach deutschem Recht geben.
Marco Rosenthal: Es kann auch eine gemeinnützige GmbH oder Vergleichbares sein …
Annette Linder: … oder eine Kirche, wenn sie als mildtätig gilt.
Marco Rosenthal: Das sind Einschränkungen, die uns am Anfang ein Dorn im Auge waren. Wir haben vor der Vereinsgründung gar keine Prüfungen auf Bedürftigkeit oder Gemeinnützigkeit gemacht, weil wir das selbst gar nicht wollten. Wir wollten nicht wissen, was die Leute verdienen oder was sie an Leistungen vom Staat bekommen. Das war uns eigentlich zuwider. Aber wir haben gesehen: Wir bekommen wenig Sach- und Geldspenden, wenn wir kein gemeinnütziger Verein werden. Dann haben wir in den sauren Apfel beißen müssen und diese Prüfung eingeführt.
netzpolitik.org: Ihr habt das also trotz der Datenschutzbedenken als notwendig angesehen?
Marco Rosenthal: Genau. Das Problem waren Absagen von Unternehmen. Sie haben gesagt: Wir spenden Geräte, die ja noch teilweise einen hohen Wert haben, nur an gemeinnützige Einrichtungen. Das hat für uns den Ausschlag gegeben. Denn wir wollten den Menschen helfen, hatten aber keine Geräte. Wir brauchten mehr Hardware, also gingen wir diesen Schritt, die Gemeinnützigkeit beim Finanzamt anzustreben, um einfacher an Geld- und Sachspenden zu kommen.
netzpolitik.org: In eurem letzten Jahresbericht beschreibt ihr die Art der Spenden, die ihr entgegennehmt: Das sind natürlich Hardware-Spenden sowie Geldspenden, aber ihr nehmt auch Zeitspenden. Menschen können also ihre Zeit spenden. Wie ist das denn prozentual, was kommt am meisten an Spenden bei euch an?
Annette Linder: Zeit ist das Wertvollste. Wir haben um die 50 bis 60 wirklich aktive Mitglieder, die auch in der Hardware-Aufbereitung tätig sind. Was die leisten, das ist wirklich das Wichtigste und aber auch das, was uns aktuell am meisten fehlt. Wir stehen im Moment finanziell gut da. Wir haben – vielleicht auch durch das Ende von Windows 10 bedingt – gerade ein Hoch an Rechnerspenden. Das heißt: Es ist das erste Mal in unserer zehnjährigen Geschichte so, dass wir wirklich an den meisten Standorten genug Geräte haben. Es liegt nun eher an Menschen, die mithelfen. Zeitspenden sind also das Kostbarste.
Einfach dazukommen!
netzpolitik.org: Wenn ihr Leute zu Zeitspenden aufrufen würdet, was für Menschen sucht ihr? Ehrenämtler sind ja ein bestimmter Schlag Menschen, aber was sollten sie bei euch ungefähr an Kompetenzen mitbringen? Könntet ihr sie auch anlernen?
Marco Rosenthal: Wir lernen auch an. Als Team helfen und unterstützen wir, geben Wissen weiter. Wir haben eine zentrale Signal-Chatgruppe, in der Mitglieder drin sind, die aktiv sind. Wenn man ein Problem hat, kann man reinposten und dann wird einem relativ schnell geholfen. Dann gibt es auch noch die Gruppen für jeden Standort, wo man auch Hilfe anfordern kann.
Wir unterstützen auch Leute, die bisher vielleicht noch nie mit Linux gearbeitet haben oder noch nie einen Rechner auseinandergenommen haben. Denn wir haben ja auch einen Bildungsauftrag in der Vereinssatzung. Wichtig ist, dass die Leute Bock drauf haben, was Neues zu lernen und auch neue Bereiche in der Computertechnik kennenzulernen.
Annette Linder: Man braucht bei uns kein abgeschlossenes Informatikstudium, um mitmachen zu können. (lacht)
Ich bin zum Beispiel Physiotherapeutin von Beruf. Wenn man unsere Mitgliederstruktur anguckt, da sind das meistens schon Leute, die aus dem IT-Bereich kommen. Wenn neue Mitglieder dazukommen, dann natürlich gern an unseren schon bestehenden Standorten. Denn das hat Vorteile: Man stößt zu einem erprobten Team und kann sich auf kurzem Weg Unterstützung holen. Wir haben eine untere Grenze von drei neuen Mitgliedern, die wir brauchen, um einen neuen Standort zu gründen. Die neuen Mitglieder können sich so gegenseitig unterstützen und nicht überlasten, wenn sie mal beruflich oder privat längere Zeit ausfallen.
netzpolitik.org: Schreiben euch Leute, die mitmachen wollen, eine E-Mail oder pingen sie euch bei Mastodon an?
Annette Linder: In der Regel schreiben uns Interessierte über das Kontaktformular unserer Website an. Ab und zu pingen uns die Leute auch im Fediverse an. Wir laden dann zu unserem offenen Online-Treffen mit anschließender Vorstandssitzung ein. Die Termine finden sich auf der Website. Da können Leute einfach dazukommen und mal reden.
Kürzlich waren Mitglieder von uns beispielsweise auf der GPN in Karlsruhe. Wir stellen uns an Infoständen vor und versuchen, mit Leuten Kontakt zu bekommen. Veranstaltungen des Chaos Computer Clubs besuchen wir gern und laden die Leute ein, mal in eine Videokonferenz zu kommen. Wir suchen Leute, die Rechner aufbereiten. Aber nicht nur, denn natürlich brauchen wir auch Engagierte für die Vereinsorganisation, die unser Ticketsystem am Laufen halten, die Website vielleicht mal neu aufsetzen, sich mit Design auskennen oder Pressearbeit übernehmen. Es gibt also viele Möglichkeiten, sich bei uns einzubringen.
netzpolitik.org: Können sich zum Beispiel auch Jugendliche einbringen oder Rentner, die vielleicht mehr Zeit haben als Leute, die im Arbeitsleben stehen? Oder habt ihr sogar Kinder, die sich einbringen?
Annette Linder: Es gibt eigentlich keine Altersgrenzen, aber gerade wenn Kinder oder Jugendliche im Spiel sind, geht es darum, dass wir auch mit sensiblen Daten zu tun haben. Manchmal spenden Unternehmen, aber auch Privatpersonen Rechner, wo noch alle Daten drauf sind.
Personen, die etwas von uns erhalten möchten, weisen uns ihre Berechtigung mit entsprechenden Dokumenten nach. Da brauchen wir natürlich Regeln, die sicherstellen, dass diese personenbezogenen Daten gut gehandhabt werden. Wir haben keine genaue Altersgrenze nach unten, aber unter 14 Jahren wird es natürlich rechtlich schwierig.
Wir haben beispielsweise gerade eine Kooperationsanfrage einer Schule. Da würden sich dann die Erwachsenen um die Datenschutzrechte und um die ganze Kommunikation kümmern und die Jugendlichen und Kinder in der Rechneraufarbeitung beteiligt werden. Die rechtliche Sache muss geklärt sein. Nach oben gibt es keine Altersgrenzen: Wir haben auch Rentner in unserem Verein, die mithelfen.
netzpolitik.org: Heute sind bei euch die Mehrzahl der aufbereiteten Rechner Laptops, fast 1.000 im letzten Jahr. Es geht aber auch um Desktop-Rechner, auch in kleinem Rahmen um Smartphones und Tablets. Wo lagert ihr die Hardware-Spenden?
Marco Rosenthal: Das hängt von den Standorten ab. Beispielsweise in Chemnitz ist es so, dass die Mitglieder dort mit dem Repair-Café zusammenarbeiten und die Räumlichkeiten auch zum Lagern nutzen dürfen. Dort ist dann an bestimmten Tagen Ausgabe und Spendenannahme, also können die Leute direkt hinkommen und Spenden abgeben oder abholen. Dort wird auch gebastelt, es passiert alles mehr oder weniger in diesem Raum. Ähnlich ist es auch in Göttingen.
In Berlin oder auch hier in Breisgau ist es zum Beispiel komplett anders. Da sind die Distanzen zwischen den Mitgliedern so groß. Da bastelt jeder daheim und wir haben zentrale Lagerräume gemietet. Zum Teil stellen die Mitglieder auch privaten Lagerplatz zur Verfügung. Uns ist nur wichtig, dass die Hardware so gelagert ist, dass keine Dritten rankommen können. Denn gerade bei Privatpersonen sind oft doch noch persönliche Daten auf den Geräten. Wenn jemand wenig Platz daheim hat, dann nimmt er halt nur drei oder fünf Laptops zum Aufbereiten mit.
Die meisten Anfragen von Geflüchteten
netzpolitik.org: Ihr installiert auf den Rechnern das leicht zu bedienende Linux „Mint“. Erzählt mal, wie das abläuft.
Marco Rosenthal: Linux Mint haben wir deswegen ausgesucht, weil es doch Windows-ähnlich aussieht und den Leuten die Oberfläche so bekannter ist. Wir haben früher viel Ubuntu oder Lubuntu installiert, abhängig von den Leistungsklassen der Rechner. Das spielt aber heute keine Rolle mehr. Alles, was zehn Jahre oder jünger ist, geht mit dem aktuellen Linux Mint. Da haben wir keine Probleme festgestellt.
Wir machen seit etwa zwei Jahren Umfragen, nachdem wir eine Hardware-Spende rausgegeben haben. Darüber können uns die Leute anonym mitteilen, ob sie Probleme hatten. Die Umfragen hat eines unserer Mitglieder ausgewertet: Es ist tatsächlich so, dass viele Leute sagen, dass sie kein Problem mit Linux Mint hatten, dass sie vielleicht am Anfang ein bisschen skeptisch waren, aber mit dem System ganz gut klarkommen. Wir haben uns vor anderthalb Jahren im Verein entschlossen, dass wir keine Windows-Geräte mehr rausgeben.
netzpolitik.org: Ihr habt ja schon gesagt, dass ihr anfangs stark in der Flüchtlingshilfe aktiv wart. Ist es auch heute für euch noch ein Schwerpunkt oder ist es euch letztlich egal, wem ihr helft, wenn die Bedürftigkeit besteht?
Annette Linder: Ursprünglich ging es ja mit der Flüchtlingshilfe los, aber wir haben uns schon zu Projektbeginn für weitere hilfsbedürftige Zielgruppen geöffnet. Als die Ukraine-Krise losging und die geflüchteten Leute von dort kamen, war vor allem in Chemnitz und Berlin viel los. Die Flüchtlingshilfe und die Unterstützung von Menschen, die nicht hier gebürtig sind, nimmt schon noch einen großen Bereich ein.
Marco Rosenthal: Tatsächlich war es von Anfang an unsere Idee, nicht nur Geflüchtete zu unterstützen, sondern alle Bedürftigen. Im Moment sind die meisten Anfragen aber von Geflüchteten, sehr viele Leute aus der Ukraine, aber auch wieder vermehrt aus Afghanistan.
netzpolitik.org: Ihr seid eingefleischte Ehrenämtler, ihr engagiert euch viele Jahre. Ich möchte kurz auf ein Friedrich-Merz-Zitat zu sprechen kommen. In seiner Regierungserklärung sagte der frischgebackene Kanzler im Mai: „Wir müssen in diesem Land wieder mehr und vor allem effizienter arbeiten. Mit Viertagewoche und Work-Life-Balance werden wir den Wohlstand dieses Landes nicht erhalten können.“ Da scheint auch eine Form von Geringschätzung des Ehrenamts durch, weil Arbeit bei ihm offenbar nur bezahlte Arbeit ist. Was denkt ihr darüber als Menschen, die sich ehrenamtlich engagieren, langfristig und mit sehr viel Zeiteinsatz?
Annette Linder: Das trifft bei mir auf sehr viel Unverständnis, weil ich denke: Eigentlich wäre die Tätigkeit, die wir ehrenamtlich machen, nicht notwendig, wenn Geräte reparierbar wären und wenn wir keine gewollte Obsoleszenz hätten. Wenn die Politik ihre Arbeit machen würde, dann hätten wir das Problem nicht. Der Staat sollte eigentlich in der Lage sein, eine Gesellschaft aufzubauen, wo das nicht notwendig wäre.
Marco Rosenthal: Ich empfinde auch Unverständnis, es macht mich auch wütend. Weil wir eigentlich ehrenamtlich Dinge tun, die der Staat machen müsste. Wenn ich beispielsweise den Bundespräsidenten sehe, wie er die Tafeln für ihre gute Arbeit lobt, dann denke ich mir: Eigentlich sollten sie das gar nicht machen müssen. Bei uns ist es dasselbe: Ich helfe gerne den Menschen, aber der Grund, warum wir ihnen helfen, ist tatsächlich ein Versagen, weil es zum Beispiel der Staat nicht gebacken bekommt, dass in den Schulen für jedes Kind ein Rechner da ist.
Annette Linder: Ich denke, wir reden gerade viel davon, dass man die Demokratie stärken und verteidigen muss oder gesellschaftlichen Zusammenhalt verbessern soll. Doch das passiert eben nicht, wenn jeder statt acht Stunden oder bald zehn Stunden arbeitet und am Samstag auch noch und Feiertage gestrichen werden. Wenn es die Tage nicht mehr gibt, an denen noch Ressourcen für Ehrenamtliches frei ist, weil die Leute immer mehr arbeiten müssen und sich noch mehr sorgen müssen, dann bricht der gesellschaftliche Kitt weg. Dann hat man nur noch Arbeitnehmer, aber keine Menschen mehr.
netzpolitik.org: Das ist zwar nicht euer Vereinszweck, aber ihr könntet sicher mühelos politisch falsche Weichenstellungen nennen, die ihr im Rahmen eurer Vereinstätigkeit als fehlerhaft entdeckt habt, oder?
Marco Rosenthal: Wir bräuchten beispielsweise endlich Vereinfachungen, was das Steuerrecht angeht. Es ist immer noch für ein Unternehmen einfacher, einhundert Laptops zu verschrotten, als für uns zu spenden.
Wünsch dir was
netzpolitik.org: Wenn ihr ein paar Wünsche frei hättet: Was würdet ihr euch von unseren Lesern und Leserinnen wünschen, die vielleicht jetzt auch Bock haben, was zu tun und sich zu engagieren oder zu spenden.
Annette Linder: Wir wünschen uns am meisten Zeitspenderinnen und Zeitspender, also Menschen, die uns in unserer Arbeit unterstützen, sei es an den Standorten zur Hardware-Aufbereitung oder auch sonst dabei, unseren Verein mit Leben zu füllen.
Marco Rosenthal: Ich hätte auch gerne noch ein diverseres Team. Wir machen dafür auch Neumitglieder-Workshops. Und ich hätte auch gerne mehr Leute im Verein, die nicht nur an Rechnerinstandsetzungen arbeiten, sondern die uns bei anderen Arbeiten unterstützen, beispielsweise bei Fördergeldbewerbungen, beim Design, bei Pressearbeit oder beim Texteschreiben fürs Blog.
Annette Linder: Ein paar Wünsche gingen auch in die politische Richtung: Es sollte vereinfacht werden, Dinge weiterzunutzen, also etwa in Reparaturrechtsfragen, die ja langsam kommen, nur viel zu spät und viel zu langsam. Die Bürokratie für gemeinnützige Vereine könnte tatsächlich eine Entbürokratisierung vertragen, auch um es den Unternehmen zu erleichtern, Geld und Hardware zu spenden. Das wäre eine sehr coole Sache.
netzpolitik.org: Wie kann ein spendenwilliges Unternehmen mit euch am besten in Kontakt treten?
Annette Linder: Am besten einfach über unser Kontaktformular auf der Website, da gibt es auch die Möglichkeit, einen Standort direkt anzuschreiben. Wir können den Unternehmen die Spende natürlich bestätigen. Wir werben sogar auch auf Mastodon oder auf unserer Webseite dafür, dass ein Unternehmen XY uns gespendet hat, denn das dient denen und uns und es ist auch ein Beispiel für andere Unternehmen.
netzpolitik.org: Vielen Dank für das Gespräch, die vielfältigen Einblicke und dass ihr euch die Zeit genommen habt!
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Das erste Jahr des ersten Beirats des deutschen Digital Services Coordinators neigt sich dem Ende zu. Zeit für ein Zwischenfazit sowie einen Ausblick auf die Zukunft des Digital Services Act und die Rolle der Zivilgesellschaft.

Der DSC-Beirat ist ein Gremium aus Zivilgesellschaft, Forschung und Wirtschaft. Er soll in Deutschland die Durchsetzung des Digital Services Act begleiten und den zuständigen Digital Services Coordinator unterstützen. Svea Windwehr ist Mitglied des Beirats und berichtet in dieser Kolumne regelmäßig aus den Sitzungen.
Mitte Juli fand die fünfte – und vorerst letzte – Sitzung des ersten Beirats des deutschen Digital Services Coordinators (DSC) statt. Da die Amtszeit der Beiratsmitglieder an die Legislaturperiode des Deutschen Bundestages geknüpft ist, steht nun die Neubesetzung des Gremiums durch den Ausschuss für Digitales und Staatsmodernisierung bevor.
Damit bietet sich die Gelegenheit, ein erstes Fazit zu ziehen. Was hat der Beirat in den zurückliegenden Monaten erreicht? Und wie steht es aktuell um die Durchsetzung des Digital Services Acts (DSA)?
Eine erste Bilanz
In knapp elf Monaten fanden fünf Beiratssitzungen statt. In dieser Zeit hat sich der Beirat eine Geschäftsordnung gegeben, die eine Grundlage für die Zusammenarbeit bietet. Außerdem haben sich die Mitglieder untereinander und den DSC etwas näher kennengelernt sowie erste inhaltliche Themen beackert.
Das war nicht immer einfach. Die verschiedenen im Beirat vertretenen Interessen führten – quasi entlang von Sollbruchstellen – wiederholt zu inhaltlichen Spannungen. Insbesondere bei der Frage nach dem Selbstverständnis des Beirats gingen die Vorstellungen regelmäßig auseinander.
Einige sehen die Rolle des Gremiums darin, den DSC in Fragen der Durchsetzung des DSA auch hinsichtlich europäischer Aspekte zu beraten. Andere präferieren hingegen den Fokus auf deutsche Kontexte. Auch der Grad der Transparenz des Beirats, also welche Teile der Sitzungen öffentlich und welche nur hinter geschlossenen Türen stattfinden, musste immer wieder ausgehandelt werden.
Bei vielen inhaltlichen Themen arbeitete der Beirat dafür umso konstruktiver zusammen. Von einer gemeinsamen Stellungnahme zur Frage, wie Kinder und Jugendliche online besser geschützt werden können, ohne dass sie ihre Privatsphäre opfern müssen, bis zu internationalen Themen – die diverse Besetzung des Beirats hat sich bewährt, um den DSC möglichst umfangreich zu beraten.
Im besten Fall ist es also eine Stärke des Beirats, dass er so unterschiedliche Perspektiven aus Wissenschaft, Zivilgesellschaft und Industrie zusammenbringt.
Dabei muss festgehalten werden, dass sich die Besetzung des Beirats anders gestaltet hat als vorgesehen. Die Beiratsmitglieder werden auf Vorschlag der Fraktionen vom Plenum des Bundestags gewählt. In der zurückliegenden Legislaturperiode gingen zwei der vorgesehenen 16 Sitze aufgrund ihrer Fraktionsstärke an die AfD. Die AfD nominierte jedoch nur eine Person: den Blogger Hadmut Danisch. Aus ihrer Sicht ist er ein Vertreter der Zivilgesellschaft. Allerdings fällt Danisch regelmäßig mit misogynen und verschwörungserzählerischen Aussagen auf. Er wurde letztlich vom Plenum abgelehnt.
Die Zukunft des Beirats
Somit war der Beirat um zwei Personen kleiner als geplant, und die Zivilgesellschaft verfügte nur über acht Vertreter*innen – deutlich weniger als gesetzlich vorgesehen.
Dies wird wohl im nächsten Beirat ebenfalls so sein. Denn aufgrund des Rechtsrucks bei der vergangenen Bundestagswahl hat die AfD nun das Vorschlagsrecht für vier statt nur zwei Sitze. Nur die CDU/CSU darf mit sechs Sitzen mehr Beiratsmitglieder vorschlagen.
Und auch wenn die zivilgesellschaftliche Vertretung darunter leidet, ist zu hoffen, dass der nächste Beirat ebenfalls ohne die AfD auskommt. Denn seit Jahren verunglimpft die Partei den DSA als Zensurwerkzeug. Erst im vergangenen Juni hat sie dem DSC vorgeworfen, durch die Ernennung von sogenannten “trusted Flagger” die Meinungsfreiheit im Netz zu gefährden.
Damit unterminiert die AfD nicht nur gezielt ein Gesetz, das ihren eigenen Online-Aktivitäten einen Riegel vorschieben könnte. Sondern sie setzt auch zivilgesellschaftliche Organisationen, die zum Beispiel als trusted Flagger an der Durchsetzung des DSA beteiligt sind, Repression und Schmierkampagnen aus. Sehr wahrscheinlich würden die von der AfD vorgeschlagenen Beiratsmitglieder diese Politik auch aus dem Beirat heraus betreiben.
Die wichtige Rolle der Zivilgesellschaft
Tatsächlich gibt es ein durchschlagkräftiges zivilgesellschaftliches Ökosystem, das die Umsetzung des DSA auf deutscher und europäischer Ebene maßgeblich mitgestaltet. Viele der von der Europäischen Kommission eingeleiteten Verfahren gegen Big Tech basieren auf Belegen, die zivilgesellschaftliche Organisationen zusammengetragen haben.
Diese Organisationen verfügen über viel Expertise, mit der sie die Risikoberichte der größten Plattformen kritisch hinterfragen. Sie pochen auf die Rechte der Nutzer*innen. Und sie geben immer wieder Feedback, um Verbesserungen zu erzielen. Auch viele der wegweisenden gerichtlichen Verfahren gegen Plattformen unter dem DSA wurden und werden von NGOs ausgefochten.
Dass die Zivilgesellschaft stark im Beirat vertreten ist, erkennt somit ihre besondere Expertise an, die zu einer konsequenten Durchsetzung des DSA und dem Schutz von Grundrechten im Netz beiträgt.
Liegt die DSA-Durchsetzung auf Eis?
Wie es um die weitere Durchsetzung des DSA bestellt ist, steht derweil auf einem ganz anderen Blatt. Denn obwohl höchste Vertreter*innen der Europäischen Kommission über Monate immer wieder versicherten, dass der Druck der Trump-Regierung auf den DSA nichts an dessen Durchsetzung ändern wird, hat sich der Wind inzwischen gedreht.
So berichtet die Financial Times, dass die Europäische Union die Ermittlung gegen X wegen Verstößen gegen des DSA hinauszögert. Grund dafür seien die laufenden Zollverhandlungen mit der US-Regierung, die die Kommission angeblich nicht gefährden wolle.
Diese Entscheidung ist aus gleich mehreren Gründen kein gutes Signal. Einerseits ist die Ermittlung gegen X die am weitesten gediehene Durchsetzungsmaßnahme der Kommission, der Abschluss der Untersuchung wurde noch vor der Sommerpause erwartet. Und nur allzu deutlich zeigt Elon Musk, der Eigentümer von X, seine Verachtung gegenüber europäischen Regelwerken. Das ist, knapp drei Jahre nach Inkrafttreten des DSA, eine besorgniserregende Entwicklung – gerade auch weil die Kommission stets betont, dass eine starke Durchsetzung des DSA essenziell sei, um die europäischen Grundrechte im Netz zu schützen.
Andererseits erweckt Brüssel so öffentlich den Eindruck, den Argumenten Trumps und der Tech-CEOs zu folgen, wonach europäische Bußgelder US-amerikanische Firmen unfair bestrafen und nichttarifäre Handelshemmnisse darstellen würden. Tatsächlich aber gilt der DSA für alle Plattformen gleichermaßen, die ihre Dienste oder Produkte europäischen Nutzer*innen anbieten. Mit Handelspolitik hat das Regelwerk eigentlich nichts zu tun.
Umso fataler ist es, wenn die Kommission den DSA als Faustpfand im Handelsstreit mit den USA betrachtet. Das zeichnet ein falsches Bild von der Absicht, die das Regelwerk verfolgt. Vor allem aber sollte die Durchsetzung europäischen Rechts niemals als Verhandlungsmasse eingesetzt werden, insbesondere wenn Grundrechte auf dem Spiel stehen. Andernfalls ist es die Europäische Union selbst, die rechtsstaatliche Prinzipien aushöhlt, statt sie zu verteidigen.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Ausgerechnet der KI-Hype erzeugt Aufmerksamkeit für bildbasierte Gewalt. Als wäre das Problem nicht auch schon ernst gewesen, bevor es Deepfakes gab. Für Betroffene kann solche Trend-Politik gefährlich sein. Ein Kommentar.

Viele Jahre lang haben Betroffene und Verbände vor bildbasierter Gewalt gewarnt. So nennt man es, wenn Menschen sexualisierte Aufnahmen ohne Einverständnis der Gezeigten verbreiten. Viele Jahre lang haben Journalist*innen immer wieder alarmierende Fälle bildbasierter Gewalt enthüllt. Nun hat auch die große Politik das Thema für sich entdeckt. Endlich.
Bildbasierte Gewalt hat es in eine EU-Richtlinie geschafft, in den schwarz-roten Koalitionsvertrag, und auch der Bundesrat und die Justizminister*innen der Länder machen inzwischen Druck.
Ein entscheidender Faktor für die neue Aufmerksamkeit dürfte der KI-Hype sein, genauer gesagt: die Sorge vor sexualisierten Deepfakes, also künstlich generierten Nacktaufnahmen. Sie sind die neuste Erscheinungsform bildbasierter Gewalt. „Deepfake“ ist ein massenkompatibler, geradezu modischer Begriff. Er klingt nach Zukunft, Cyber und technologischem Fortschritt. Kurzum, das Wort ist attraktiv für Massenmedien und Politik.
Vor Jahren war vermehrt von „Rachepornos“ die Rede. Gemeint waren damit oftmals intime Aufnahmen, die während einer Beziehung entstanden sind und danach von Ex-Partner*innen verbreitet wurden. Viele Betroffene lehnen diesen Begriff aber ab. Sie wollen ihre Aufnahmen nicht als „Porno“ verstanden wissen; und das Wort „Rache“ kann den Anschein erwecken, die Täter*innen hätten ein legitimes Motiv. So etablierte sich stattdessen der Begriff bildbasierte, sexualisierte Gewalt.
Deepfakes machen Kampf gegen bildbasierte Gewalt attraktiv
Anscheinend war es jedoch schwer, mit diesem Begriff größere politische Aufmerksamkeit zu bekommen. Wahrscheinlich war (und ist) er für manche zu nüchtern-technisch oder zu feministisch. Immerhin geht es um die sexuelle Selbstbestimmung von Frauen, denn bildbasierte Gewalt ist oftmals geschlechtsspezifisch. In einer nach wie vor patriarchal geprägten Welt dürften manche allein schon deshalb einen Bogen um das Thema machen.
Mit Deepfakes hat sich die Situation verändert. Nicht-einvernehmliche Nacktfotos lassen sich inzwischen kostenlos im Browser generieren; als Vorlage genügt ein Foto aus sozialen Medien. Das ändert nicht nur die Verfügbarkeit bildbasierter Gewalt, sondern auch ihr Image. Auf einmal ist bildbasierte Gewalt eine der vielen Gefahren durch sogenannte generative Künstliche Intelligenz. Und KI ist das internationale Hype-Thema, befeuert durch Milliarden-Investitionen der reichsten Konzerne der Welt.
Es gibt noch einen Faktor, der den Kampf gegen Deepfakes für Politik und Medien attraktiv macht: Zum Ziel von nicht-einvernehmlichen, sexualisierten Deepfakes werden auch Promis wie Taylor Swift. Solche Fälle lösen Wellen an Solidarität aus. Zwar verdienen unbekannte Menschen ebenso Schutz wie weltbekannte Stars; dennoch dürfte dieser Promi-Faktor dazu beitragen, das Bewusstsein dafür zu pushen. Selbst die rechtsradikale Trump-Regierung, die für ein feministisch gelesenes Thema niemals den Finger rühren würde, setzt sich gegen nicht-einvernehmliche Deepfakes ein.
Die Gefahr von Trend-Politik
Nun könnte man sagen: Egal, wie oberflächlich die Gründe sind – Hauptsache, bildbasierte Gewalt bekommt endlich mehr Aufmerksamkeit. Da ist auch etwas dran. Andererseits tritt dabei auf verstörende Weise zutage, wie sehr sich politisches Momentum an Hypes orientiert statt an den tatsächlichen Bedürfnissen von Menschen.
Hinzu kommt eine weitere Gefahr: Der aktuelle Fokus auf Deepfakes kann andere Formen bildbasierter Gewalt in den Hintergrund drängen und damit die Anliegen der Betroffenen unsichtbar machen. Die Kopplung an den KI-Trend birgt zudem das Risiko, dass politische Bemühungen versanden, sobald der Hype verklingt.
Justizminister*innen fordern mehr Schutz gegen bildbasierte Gewalt
In ihrem jüngsten Beschluss schreiben die Justizminister*innen der Länder, bildbasierte Gewalt sei „nicht zuletzt durch den Einsatz künstlicher Intelligenz zu einem zunehmend relevanten Phänomen geworden“. Die Relevanz ist jedoch kein Ergebnis von KI-Einsatz. Bildbasierte Gewalt, bei der Täter*innen oftmals systematisch intime Aufnahmen ohne Einverständnis verbreiten, gibt es seit Jahren im Netz.
Während mit Pornhub und xHamster zwei der weltgrößten Pornoseiten inzwischen umfassend gegen anonyme Uploads vorgehen und das Problem auf ihren Seiten eindämmen, weichen Täter*innen auf weniger bekannte Plattformen aus.
Der Fall „D.“
Wie das konkret aussehen kann, zeigt das Beispiel von „D.“. Er war einer der besonders aktiven Nutzer auf einer Pornoseite, die laut Impressum auf Zypern registriert ist. Dort hat er rund 10 Millionen Bilder veröffentlicht, bevor sein Account eines Tages offline ging. In seiner öffentlichen Account-Beschreibung schrieb er auf Englisch, keine der Aufnahmen gehöre ihm. „Fühlt euch frei, JEGLICHE meiner Inhalte zu teilen“, schrieb er.
Die inzwischen gelöschten Uploads erweckten nicht den Anschein, aus professionellen Shootings zu stammen, sondern eher aus privater Quelle. Das ist typisch für online zur Schau gestellte Sammlungen bildbasierter Gewalt. Die Aufnahmen können etwa von gehackten Fotodiensten kommen; von versteckten Kameras aus Umkleidekabinen und öffentlichen Toiletten – oder von Ex-Partner*innen, die Fotos aus der ehemaligen Beziehung ins Netz gestellt haben.
D. hatte die Aufnahmen in durchnummerierten Ordnern sortiert: 45.465, 45.466 und so weiter. Auf Anfrage erklärte D., er habe alles händisch hochgeladen, es sei „eine Menge Arbeit“. Warum das alles? „Ich denke, es ist etwas, das mit der Zeit gewachsen ist, und man könnte sagen, es ist wirklich eine Herzensangelegenheit“. Unrechtsbewusstsein ließ er nicht erkennen, weitere Fragen beantwortete er nicht.
Untypisch am Fall D. ist allein die hohe Anzahl seiner Uploads. Abgesehen davon ist er nur einer von unzähligen Männern im Netz, die Nacktfotos als Beute und Sammelware betrachten; sie massenhaft horten und verbreiten. Für Betroffene lässt sich kaum nachverfolgen, wo ihre Aufnahmen kursieren.
KI-Fokus wird Problem nicht gerecht
Beispiele wie der Fall D. rücken die aktuellen Debatten um bildbasierte Gewalt in ein anderes Licht. Deepfakes verstärken bildbasierte Gewalt, aber auch ohne Deepfakes ist das Ausmaß bildbasierter Gewalt enorm. Der Fokus auf das Hype-Thema KI wird dem Problem nicht gerecht. Wer nahelegt, dass bildbasierte Gewalt erst durch Deepfakes ein alarmierendes Ausmaß annehme, könnte ungewollt die Marginalisierung der Betroffenen verstärken.
Strengere und passende Gesetze, wie sie derzeit diskutiert werden, können Betroffenen lange erwartete juristische Werkzeuge an die Hand geben. Die Flut an bildbasierter Gewalt können diese Gesetze aber auch nicht stoppen. Die Wurzel des Problems dürfte weitaus tiefer liegen, und zwar in der offenkundigen Entmenschlichung von Frauen durch oftmals männliche Täter. Und damit kommen wir zu einem Begriff, der leider nicht so massenkompatibel ist wie Deepfakes. Es ist der nach wie vor bitternötige Kampf gegen: Sexismus.
Rat und Hilfe für Betroffene sexualisierter Gewalt gibt es in Deutschland bei bundesweiten Frauenberatungsstellen und Frauennotrufen, in der Schweiz bei der Frauenberatung, in Österreich beim Frauennotruf.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Die 29. Kalenderwoche geht zu Ende. Wir haben 17 neue Texte mit insgesamt 119.146 Zeichen veröffentlicht. Willkommen zum netzpolitischen Wochenrückblick.

Liebe Leser*innen,
Lina rockt. Über die 18-jährige Abiturientin habe ich inzwischen sieben Texte geschrieben. Denn Lina legt sich mit den ganz Großen an. Mit der Musikverwertungsgesellschaft Gema, der Deutschen Fußball Liga, den sechs größten deutschen Internetprovidern, dem Bundesverband Musikindustrie, dem Verband der deutschen Games-Branche, dem Fernsehsender Sky und weiteren Unternehmen und Verbänden.
Die Clearingstelle Urheberrecht im Internet (CUII), in der sich die Genannten organisieren, beschloss seit 2021, welche Domains in Deutschland wegen Urheberrechtsverletzungen gesperrt werden sollen. Lina, Fan der Netzneutralität, fand es nicht gut, dass sie dies ohne richterliche Kontrolle tun durfte. Deswegen hat Lina immer wieder auf Missstände bei der CUII aufmerksam gemacht. Und sie hat wohl letztlich gesiegt.
Die CUII hat diese Woche verkündet, dass ihr die Bundesnetzagentur angetragen habe, „dass sie sich in Zukunft auf Ihre Pflichtaufgaben fokussieren möchte“. Das heißt, sich um gerichtlich angeordnete Sperren zu kümmern.
Lina feiert das hart. Und wir ehrlich gesagt auch. Denn selbst wenn die Bundesnetzagentur es mit der Konzentration aufs Kerngeschäft erklärte, so hat das Vorgehen vielleicht auch etwas mit der schlechten Presse zu tun, für die Lina immer wieder gesorgt hat.
Wie genau der Beschluss zustande kam, dazu werden wir hoffentlich bald Details erfahren – und natürlich werden wir das aufschreiben. Denn Lina hat eine Informationsfreiheitsanfrage zur Kommunikation zwischen Bundesnetzagentur und CUII gestellt. Lina lässt nicht locker. Und das beeindruckt mich. Ich hatte mit 18 Jahren ehrlich gesagt nur Quatsch im Kopf. Diese junge Frau dagegen stürzt sich mit vollem Engagement und Durchhaltevermögen in den Kampf zur Durchsetzung ihrer ethischen Prinzipien. Respekt.
Es ist mir eine Freude, Linas wichtige Recherchen bekannt zu machen. Und auch ihr könnt es unterstützen, dass wir immer wieder über Linas Tun berichten und für die Freiheitsrechte kämpfen. Gerade läuft eine Kampagne, mit der wir stabile Spender*innen suchen, also Menschen, die bereit sind, unsere Arbeit mit einem kleinen Betrag monatlich zu unterstützen. Unsere Hoffnung ist, dass 300 Leute mitmachen. Bist du dabei?
Es würde mich sehr freuen!
Martin
Degitalisierung: Bewusstsein
Die heutige Degitalisierung widmet sich einem tief menschlichen Thema, dem Bewusstsein. Oder genauer gesagt, dem immer wieder fehlenden Bewusstsein für das, das, was manch vermeintlich gut gemeinter Ansatz von Digitalisierung mit Menschen macht. Von Bianca Kastl –
Artikel lesen
Umgang mit psychischen Erkrankungen: Es muss etwas passieren
Nach mehreren Anschlägen und Amoktaten ist psychische Gesundheit zu einem Sicherheitsthema geworden. Aber mehr Datenaustausch hilft nicht bei der Genesung und Stabilisierung erkrankter Menschen. Betroffene, Angehörige und Fachleute fordern ein Umdenken. Von Anna Biselli –
Artikel lesen
Künstliche Intelligenz: Tech-Ideologien und der neue Faschismus
Was sind die ideologischen Ursprünge des neuen digitalen Faschismus? Was treibt den populären KI-Diskurs, was steht hinter der KI-Hype-Dynamik? Ein Auszug aus Rainer Mühlhoffs Buch „Künstliche Intelligenz und der neue Faschismus“, das am Mittwoch bei Reclam erscheint. Von Gastbeitrag, Rainer Mühlhoff –
Artikel lesen
Chatkontrolle: Schattentreffen unterläuft Position des EU-Parlaments
Der Chatkontrolle-Berichterstatter im EU-Parlament hat ein Schattentreffen angesetzt, dessen Agenda wir im Volltext veröffentlichen. Fast durchweg Befürworter der Massenüberwachung sind als Expert:innen geladen. Wollen die Konservativen jetzt die grundrechtsfreundliche Position des Parlaments aufweichen? Von Markus Reuter –
Artikel lesen
Öko-Interessierte ausgeschlossen: Elon Musks X soll sensible Daten von Nutzer:innen für Werbung missbraucht haben
Daten über die politische Einstellung oder den Gesundheitszustand dürfen in der EU nicht für Werbung genutzt werden. Trotzdem soll X Werbekunden wie Shein, McDonalds oder Total ermöglicht haben, anhand solcher Kriterien Zielgruppen auszuwählen. NGOs legen nun Beschwerde nach dem Digital Services Act ein. Von Ingo Dachwitz –
Artikel lesen
Paragon-Skandal: Staatstrojaner gegen Journalisten in Europa
Der Journalist Francesco Cancellato wurde mit einem Staatstrojaner von Paragon gehackt. Er berichtet in Brüssel über seinen Fall und das Mauern der italienischen Regierung. Wie reagieren die europäischen Institutionen auf die aktuellen Staatstrojaner-Fälle? Von Constanze –
Artikel lesen
Selbstbestimmungsgesetz: Dobrindt plant Zwangsouting per Verordnung
Mit einer neuen Verordnung zur Umsetzung des Selbstbestimmungsgesetzes will das Bundesinnenministerium frühere Geschlechtseinträge und Vornamen dauerhaft speichern und an andere Behörden übermitteln. Die Begründung bleibt vage – die Kritik von Verbänden ist dafür umso deutlicher. Von Chris Köver –
Artikel lesen
Digitalsteuer: EU im Zugzwang
Offenbar will die EU-Kommission nun doch keine Digitalsteuer für Techkonzerne einführen. Die einen sehen darin den Kotau vor Trump, der mit Zöllen droht. Andere sprechen sich für Alternativen zur Digitalsteuer aus. Von Tomas Rudl –
Artikel lesen
Versammlungsfreiheit: Stadt Kenzingen will Geld für Demonstration
Eine Demo gegen höhere Kinderbetreuungsgebühren könnte teuer für einen Familienvater werden. Weil er die Veranstaltung angemeldet hatte, soll er plötzlich die Kosten für die Verkehrsregelung tragen. Juristen halten das für eine Einschränkung der Versammlungsfreiheit, die abschreckt und einschüchtert. Von Markus Reuter –
Artikel lesen
Jugendschutz-Leitlinien: EU-Kommission gibt klares Jein zu Alterskontrollen
Neue EU-Leitlinien buchstabieren aus, wie Anbieter Minderjährige im Netz schützen sollen. Gerade an den Alterskontrollen wurde bis zuletzt gefeilt. Das Ergebnis ist widersprüchlich. Fans der Kontrollen werden bestärkt – und gebremst. Von Sebastian Meineck –
Artikel lesen
Die CUII gibt auf: Für Netzsperren braucht es jetzt einen Gerichtsentscheid
Die CUII, ein Zusammenschluss von Internetprovidern und Rechteinhabern, verzichtet nach einem Rüffel der Bundesnetzagentur darauf, nach eigenem Gutdünken Websites zu sperren. Das haben wir vermutlich der 18-jährigen Lina zu verdanken. Von Martin Schwarzbeck –
Artikel lesen
Kommentar: Es geht nicht um Messer
In Berlin gelten ab heute alle Nahverkehrsmittel und Bahnhöfe als Messerverbotszone. Das ist eine massive Ausweitung der Kontroll- und Durchsuchungsbefugnisse der Polizei. Der Sicherheitsgewinn steht nicht im Verhältnis zum Grundrechtseingriff. Ein Kommentar. Von Markus Reuter –
Artikel lesen
Starlink, Tesla und X: Deutschland zahlte über 21 Millionen Euro an Elon Musk
In den vergangenen Jahren hat die Bundesregierung zweistellige Millionenbeträge an Firmen gezahlt, die dem rechtsradikalen Unternehmer Elon Musk gehören. Dieses Jahr kommen weitere Posten hinzu. Wir haben uns die entsprechenden Haushaltstitel angeschaut. Von Martin Schwarzbeck –
Artikel lesen
Mangelnde Fehlerkultur, Racial Profiling: Polizeibeauftragter legt ersten Jahresbericht vor
Uli Grötsch arbeitet Missstände in den Polizeibehörden des Bundes auf. Jetzt zieht er erstmals Bilanz und berichtet, was schiefläuft. In seinem Bericht mahnt er Missstände bei Grenzkontrollen, Racial Profiling und der Kommunikation mit den Bürger*innen an. Von Karoline Tanck –
Artikel lesen
Suche nach geklauten Autos: Brandenburger Polizei scannte in über 8.000 Fällen Nummernschilder
2024 setzte die Polizei in Brandenburg 139 Mal Kennzeichenscanner zur Gefahrenabwehr ein, vor allem auf der Suche nach vermissten oder gefährdeten Personen. Eine andere, neue Zahl jedoch überrascht: Tausende Male kommen die Erfassungssysteme bei Autodiebstählen zum Einsatz. Von Anna Biselli –
Artikel lesen
Bundesländer machen Druck: Justizminister*innen fordern mehr Schutz gegen bildbasierte Gewalt
Die Justizminister*innen der Bundesländer wollen strengere Gesetze gegen nicht-einvernehmliche Nacktbilder. Fachleute finden: Das wird höchste Zeit. Die Bundesregierung denkt noch nach. Von Sebastian Meineck –
Artikel lesen
Positionspapier von Wirtschaft und Zivilgesellschaft: Die digitale Brieftasche als gesellschaftlicher Auftrag
Schon bald soll EU-weit eine digitale Brieftasche an den Start gehen. Damit sie erfolgreich ist und die Rechte der Nutzer:innen wahrt, müsse die Bundesregierung vorab grundlegende Voraussetzungen schaffen, fordern Verbände der Wirtschaft und der Zivilgesellschaft in einem gemeinsamen Positionspapier. Von Daniel Leisegang –
Artikel lesen
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Schon bald soll EU-weit eine digitale Brieftasche an den Start gehen. Damit sie erfolgreich ist und die Rechte der Nutzer:innen wahrt, müsse die Bundesregierung vorab grundlegende Voraussetzungen schaffen, fordern Verbände der Wirtschaft und der Zivilgesellschaft in einem gemeinsamen Positionspapier.

Personalausweis, Führerschein, Gesundheitskarte – diese Plastikkarten haben viele Menschen in ihrem Portemonnaie. Doch spätestens bis Anfang 2027 müssen EU-Länder eine EUDI-Wallet anbieten. Und dann sollen alle Bürger:innen statt der vielen Plastikkarten ihr Smartphone nutzen können.
Diese Möglichkeit habe das Potenzial, „unsere digitale Gesellschaft maßgeblich zu prägen“, heißt es einleitend in einem Positionspapier, das Verbände der Wirtschaft und der Zivilgesellschaft gemeinsam veröffentlicht haben. Unterzeichnet haben das Papier die Branchenverbände Bitkom, Deutsche Kreditwirtschaft und Gesamtverband der Versicherer. Außerdem sind die Interessenvertretungen Initiative D21 und buergerservice.org sowie die zivilgesellschaftliche Organisation epicenter.works mit von der Partie.
Die Verbände mahnen, dass die Ausgestaltung der Wallet kein Selbstläufer sei. Stattdessen müsse die Bundesregierung diese als gesellschaftlichen Auftrag begreifen. Und der könne nur dann erfolgreich sein, wenn die Politik in den kommenden Monaten fünf Weichenstellungen vornimmt.
Kompetenzen und Vertrauen schaffen
So brauche es erstens digitale Kompetenzen sowohl aufseiten der Nutzer:innen als auch in den Ministerien, den Aufsichtsbehörden und in der Verwaltung, „also im gesamten Staatsapparat“.
Andernfalls drohe ein ähnliches Fiasko wie bei der Einführung des elektronischen Personalausweises, der lediglich von gut einem Fünftel der Bürger:innen genutzt werde. „Wir haben in Deutschland erlebt, wie schleppend die Einführung der eID-Funktion des Personalausweises verlaufen ist“, sagt Susanne Dehmel, Mitglied der Bitkom-Geschäftsleitung. „Diesen Fehler dürfen wir nicht wiederholen.“
Zweitens brauche es verbindliche Rechtsvorschriften sowie technische Standards, damit sich alle Akteure in dem Identitätsökosystem untereinander vertrauen können. Der Staat müsse klar auf die EUDI-Wallet setzen und Doppelstrukturen oder Insellösungen vermeiden.
„Ein kluges Verbraucherschutzkonzept“
Daneben brauche es drittens „ein kluges Verbraucherschutzkonzept“, damit Nutzer:innen der digitalen Brieftasche selbstbestimmt entscheiden können, wem sie welche Daten übermitteln. Eine zentrale Stelle müsse prüfen, welche Unternehmen und Behörden als „vertrauenswürdige Parteien“ welche Daten aus der Wallet abfragen dürfen. Außerdem sollten Nutzer:innen standardmäßig ein Pseudonym nutzen können, um sich gegenüber diesen ausweisen zu können, wenn der amtliche Name nicht notwendig ist.
Außerdem sei viertens eine kontinuierliche Steuerung und Kontrolle auf ministerieller Ebene erforderlich. So brauche es „einen zentralen Ansprechpartner“ und themenspezifische Expertengremien innerhalb des Bundesministeriums für Digitalisierung und Staatsmodernisierung (BMDS), die das Thema innerhalb des Hauses vorantreiben und effizient weitergestalten.
Und fünftens müsse das BMDS Schlüssel-Anwendungsfälle für die EUDI-Wallet schaffen. Als Beispiele nennt das Bündnis hier – neben der digitalen Identifizierung und Authentifizierung – den digitalen Führerschein, digitale Reiseunterlagen und eine Lösung zur anonymen oder pseudonymen Altersverifikation.
Eine digitale Brieftasche für alle
Die EUDI-Wallet basiert auf einem EU-Gesetz, das im Mai 2024 in Kraft trat. Die novellierte eIDAS-Verordnung sieht vor, dass die Wallet freiwillig und kostenlos sowie interoperabel sein soll. Außerdem sollen die Nutzer:innen transparent darüber bestimmen können, welche Daten sie an wen weitergeben. Derzeit werden in Brüssel die technischen Anforderungen an die europäische digitale Brieftasche verhandelt.
Die jeweiligen EU-Mitgliedstaaten müssen die Verordnung in nationale Gesetze gießen. In Deutschland liegt diese Aufgabe auf dem Tisch der amtierenden Bundesregierung.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Die Justizminister*innen der Bundesländer wollen strengere Gesetze gegen nicht-einvernehmliche Nacktbilder. Fachleute finden: Das wird höchste Zeit. Die Bundesregierung denkt noch nach.

Bildbasierte, sexualisierte Gewalt ist auf der politischen Agenda in Deutschland weiter nach oben gerückt. Anfang Juni forderten die Justizminister*innen der Bundesländer, Betroffene besser zu schützen – passend zu einer Passage aus dem Koalitionsvertrag der Bundesregierung. Damit greifen die Länder auf, was Verbände und Betroffene schon seit Jahren verlangen.
Die Forderungen lassen sich auf vier Worte herunterbrechen: Meine Nacktfotos gehören mir. Das heißt, Menschen sollten selbst darüber entscheiden dürfen, ob es sexualisierte Aufnahmen von ihnen gibt und wer sie sehen darf.
Immer wieder teilen Täter*innen solche intimen Bilder ohne das Einverständnis der abgebildeten Personen. Ein bekannter, aber problematischer Begriff dafür ist „Racheporno“. Das Phänomen ist jedoch viel größer. Es geht etwa um heimliche Videos aus der Gruppendusche, um künstlich generierte Aufnahmen (sogenannte Deepfakes) oder um gehackte oder geleakte Bilder aus einer alten Beziehung.
In ihrem Beschluss verweisen die Justizminister*innen mit „Besorgnis“ auf die „unterschiedlichen Erscheinungsformen“ bildbasierter Gewalt. Das Phänomen hätte massiv an Bedeutung gewonnen und sei zunehmend relevant geworden.
Das Problem: Das derzeit geltende Recht kenne keinen Straftatbestand, der bildbasierte Gewalt ohne weitere Voraussetzungen unter Strafe stellt. Deshalb solle die Bundesregierung handeln und „adäquate Regelungen zur Schließung der Strafbarkeitslücken“ vorschlagen, so die Justizminister*innen.
Forscherin: Regelung „aus einem Guss“ fehlt
Über die Strafbarkeitslücken für Betroffene bildbasierter Gewalt haben wir bereits mehrfach berichtet. Für sie ist es oftmals verletzend und traumatisierend, wenn Nacktfotos gegen ihren Willen kursieren, beispielweise auf Internetseiten, in WhatsApp-Chats oder auf sozialen Medien. Es geht dabei unter anderem um das Recht auf sexuelle Selbstbestimmung und ums Recht am eigenen Bild. Häufig ist es geschlechtsspezifische Gewalt gegen Frauen.
Wer sich juristisch dagegen wehren will, muss sich durch gleich mehrere Gesetze wühlen, die in vielen Fällen nicht optimal passen. Zum Beispiel schützt Paragraf 201a aus dem Strafgesetzbuch nur Aufnahmen aus einem „gegen Einblick besonders geschützten Raum“, etwa dem Wohnzimmer. Übergriffige Fotos vom Strand fallen also nicht darunter. Im Zivilrecht wiederum bieten sich Urheberrecht oder Datenschutzrecht als dürftige Hilfsmittel an – ohne den Aspekt sexueller Selbstbestimmung zu würdigen.
„Es fehlt an einer Regelung ‚aus einem Guss‘, die spezifisch bildbasierte sexualisierte Gewalt gegenüber Erwachsenen adressiert“, fasst Juristin Anja Schmidt die Rechtslage zusammen. Derzeit forscht sie als Professorin an der Leuphana Universität Lüneburg im Bereich Strafrecht.
Für die Schwere des Problems komme der Beschluss der Justizminister*innen „recht spät“, findet Schmidt, auch wenn er „sehr wichtig“ sei. Außerdem brauche es dringend Ressourcen, um in solchen Fällen überhaupt zu ermitteln.
Bislang ist kaum erforscht, wie viele Menschen zum Ziel bildbasierter Gewalt werden. Erste Hinweise liefern Studien, demnach sind es jede*r Zwölfte bis jede*r Dritte.
bff: „Lage für Betroffene oft katastrophal“
„Die Lage ist für Betroffene oft katastrophal“, schreibt Elizabeth Ávila González auf Anfrage von netzpolitik.org. Sie engagiert sich beim Bundesverband Frauenberatungsstellen und Frauennotrufe (bff) für Betroffene digitaler Gewalt. Viele wüssten nicht einmal, dass strafbar sein könnte, was ihnen passiert, erklärt González.
Unwissen gibt es der Expertin zufolge auch bei denen, die helfen sollten. Häufig wisse die Polizei nicht, nach welchen Paragrafen vorzugehen sei. Auch nicht jede Anwältin kenne sich mit der Gemengelage aus. „Das Resultat: Ein Flickenteppich, der die Täter schützt und die Betroffenen im Regen stehen lässt.“
Die Forderung der Justizminister*innen nach einer Regelung sei deshalb längst überfällig, schreibt González. „Was es braucht, ist kein weiteres Herumdoktern an bestehenden Paragrafen, sondern eine klare, eigenständige Regelung im Sexualstrafrecht, die bildbasierte sexualisierte Gewalt als das behandelt, was sie ist: eine Form geschlechtsspezifischer Gewalt mit tiefgreifenden Folgen für die Betroffenen.“
Eine solche Regelung sei nicht nur symbolisch wichtig, sondern hätte konkrete Vorteile. „Dann müssten Betroffene nicht mehr mühsam erklären, warum intime Bilder ohne ihre Einwilligung sexualisierte Gewalt sind“, sagt González. „Es wäre gesetzlich klar geregelt, was bisher nur mühsam konstruiert werden kann.“
HateAid: Bundesregierung muss „nachsteuern“
Ähnlich sieht das Josephine Ballon, Juristin bei HateAid. Die Organisation unterstützt Betroffene digitaler Gewalt juristisch und setzt sich für strengere Gesetze ein. Sie schreibt auf Anfrage von netzpolitk.org: Es gebe aktuell „keinen Straftatbestand, der eindeutig und unmissverständlich die Erstellung und Verbreitung nicht einvernehmlicher sexualisierter Bilder“ unter Strafe stelle. Stattdessen gebe es „Ausweichtatbestände“ – also einen Flickenteppich.
Ein besonderes Augenmerk legt Ballon auf nicht-einvernehmliche Deepfakes. Das ist eine Erscheinungsform bildbasierter Gewalt, die sich gerade mit der Verbreitung von sogenannter generativer KI besonders ausbreitet. Es genügt ein bekleidetes Alltagsfoto, etwa ein Profilbild aus sozialen Medien, schon können Bildgeneratoren daraus ein realistisches Nacktbild berechnen. Ende 2024 haben wir darüber berichtet, wie Online-Shops mit sexualisierten Deepfakes abkassieren.
Deepfakes tauchen ausdrücklich in einer 2024 beschlossenen EU-Richtlinie auf, die Frauen vor Gewalt schützen soll. Der Richtlinie zufolge müssen EU-Mitgliedstaaten eigene Straftatbestände für bildbasierte Gewalt vorweisen, unter anderem für Deepfakes.
Genügt der deutsche Flickenteppich, um dieser EU-Richtlinie gerecht zu werden? Josephine Ballon findet: Nein. „Meiner Meinung nach wird die Bundesregierung nachsteuern müssen.“ Der Verweis auf andere Normen dürfe hier nicht ausreichen.
Bundesregierung verweist auf Koalitionsvertrag
Während sich Justizminister*innen und Fachleute schon eine Meinung gebildet haben, denkt die Bundesregierung noch nach. Auf Anfrage von netzpolitik.org teilt ein Sprecher des Bundesministeriums für Justiz und Verbraucherschutz mit, man nehme die Entwicklungen bei bildbasierter Gewalt „sehr ernst“. Mehr hat er inhaltlich jedoch nicht zu sagen. Der Sprecher verweist stattdessen auf den Koalitionsvertrag zwischen Union und SPD. Dort steht:
Wir reformieren […] Strafbarkeitslücken, zum Beispiel bei bildbasierter sexualisierter Gewalt. Dabei erfassen wir auch Deepfakes und schließen Lücken bei deren Zugänglichmachung gegenüber Dritten.
Wie genau das aussehen soll und was mit Blick auf die EU-Richtlinie geschehen muss, das werde noch geprüft.
Gründe zum Nachdenken gibt es durchaus. In Bezug auf nicht-einvernehmliche, sexualisierte Deepfakes hat die EU-Richtlinie zum Beispiel eine bedeutsame Einschränkung vorgenommen. So ist die Herstellung oder Manipulation des Bildmaterials erst dann strafbar, wenn es auch der Öffentlichkeit zugänglich gemacht wird. Wer also ein nicht-einvernehmliches, sexualisiertes Deepfake erstellt, würde sich zumindest mit Blick auf die EU-Richtlinie noch nicht strafbar machen.
Josephine Ballon geht das nicht weit genug. „Denn Inhalte auf einer Festplatte oder in der Cloud sind immer nur einen Knopfdruck, Hack oder eine Datenpanne von der Veröffentlichung entfernt“, schreibt sie. Allerdings müsse eine entsprechende Regelung verhältnismäßig sein. Klar erkennbare Satire müsse weiterhin möglich sein, so Ballon.
Gesetz müsste verschiedenen Gewaltformen gerecht werden
Erkennbarkeit – das ist ein Knackpunkt bei bildbasierter Gewalt. Denn sowohl sexualisierte Deepfakes als auch unmanipulierte Nacktfotos können mit Einverständnis entstehen. Und die Art des Einverständnisses kann sich mit der Zeit verändern.
Zum Beispiel teilen viele Menschen einvernehmlich Nacktaufnahmen miteinander, möchten aber nicht, dass Dritte das sehen. Vielleicht experimentieren sie auch einvernehmlich mit sexualisierten Deepfakes. Einige entwickeln nach dem Ende der Beziehung den Wunsch, dass Ex-Partner*innen diese Aufnahmen löschen. Wieder andere mögen es, sich nackt im Netz zu zeigen – wollen aber nicht, dass Fremde diese Bilder weiter veröffentlichen.
All das kann Unsicherheit über die mögliche Strafbarkeit von Aufnahmen schaffen. In den USA ist bei einem ähnlichen Gesetzesvorhaben, dem Take It Down Act, eine Debatte zu Overblocking entfacht. So nennt man es, wenn auch legitime Inhalte gelöscht werden.
Ein entsprechendes deutsches Gesetz müsste den verschiedenen Formen und Schattierungen bildbasierter Gewalt also gerecht werden. Sich noch lange damit gedulden wollen Fachleute allerdings nicht. Strafrechtlerin Anja Schmidt findet: „Eigentlich müsste längst ein konkreter Gesetzentwurf diskutiert werden.“
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
2024 setzte die Polizei in Brandenburg 139 Mal Kennzeichenscanner zur Gefahrenabwehr ein, vor allem auf der Suche nach vermissten oder gefährdeten Personen. Eine andere, neue Zahl jedoch überrascht: Tausende Male kommen die Erfassungssysteme bei Autodiebstählen zum Einsatz.

Soll es in Brandenburg ein Gesetz für die automatische Kennzeichenerfassung geben? Als die CDU den Innenminister im Bundesland stellte, war das der Plan, der damals jedoch keinen Konsens fand. In der aktuellen SPD-BSW-Koalition gibt es dazu noch keine abgeschlossene Meinung. Doch auch ohne extra Gesetz scannt die Brandenburger Polizei seit Jahren mit dem System namens „Kesy“ die Nummernschilder vorbeifahrender Kraftfahrzeuge an bestimmten Autobahnabschnitten.
Dabei gab es zunächst zwei verschiedene Modi: zur Fahndung und zur Aufzeichnung. Während die Geräte im Fahndungsmodus erfasste Nummernschilder mit einer Suchliste abglichen und alle anderen Aufnahmen löschten, speicherte die Polizei im Aufzeichnungsmodus alle erfassten Kennzeichen auf Vorrat. Doch diese Auto-Vorratsdatenspeicherung erklärte das Landgericht Frankfurt/Oder 2022 für illegal, Brandenburg stoppte die Speicherung bereits vor dem Urteil im Jahr 2021. Seitdem wird jedoch der Fahndungsmodus rege genutzt, wie aktuelle Zahlen aus der Antwort auf eine Kleine Anfrage aus dem Landtag zeigen.
Zur Gefahrenabwehr kam Kesy 2024 insgesamt 139 Mal zum Einsatz. 2022 waren es 112 Mal, ein Jahr später 172 Mal. In den meisten dieser Fälle geht es um die „Abwehr einer gegenwärtigen Gefahr für Leib oder Leben einer Person“. Das kann die Suche nach Vermissten oder auch einem mutmaßlich suizidgefährdeten Menschen sein. 105 Mal sei das im vergangenen Jahr der Fall gewesen, schreibt die Landesregierung.
Extrem hohe Zahlen bei der Strafverfolgung
Viel höher als die Einsatzzahlen bei der Gefahrenabwehr sind aber jene zur Strafverfolgung. Die kamen in den bisherigen jährlichen Berichten zum Kesy-Einsatz nicht zur Sprache. 8.417 Mal kam es zu sogenannten „Sofortmaßnahmen“, also quasi auf Zuruf von einer Staatsanwaltschaft bei Gefahr im Verzug. Das sind durchschnittlich 23 derartige Maßnahmen pro Tag. Im überwiegenden Teil der Fälle, bei 8.325 der Maßnahmen, ging es darum, nach gestohlenen Fahrzeugen zu fahnden. Auch hier erfolgte die Erfassung mehrheitlich – bei 7.585 Maßnahmen – in Amtshilfe. In nur 100 Ermittlungsverfahren scannte die Brandenburger Polizei Nummernschilder auf reguläre Anordnung einer Staatsanwaltschaft.
Dass diese Zahlen zuvor in den Kesy-Statistiken nicht auftauchten, lässt sich mit dem Fokus der jährlich veröffentlichten Statistik erklären. Während das Innenministerium regelmäßig über Maßnahmen in Zusammenhang mit dem brandenburgischen Polizeigesetz berichten muss, schließt das Einsätze nach der Strafprozessordnung nicht mit ein. Die aktuellen Zahlen stammen nicht aus diesem Bericht, sondern aus der Antwort auf die gesonderte Nachfrage des BSW-Abgeordneten Sven Hornauf.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Uli Grötsch arbeitet Missstände in den Polizeibehörden des Bundes auf. Jetzt zieht er erstmals Bilanz und berichtet, was schiefläuft. In seinem Bericht mahnt er Missstände bei Grenzkontrollen, Racial Profiling und der Kommunikation mit den Bürger*innen an.

Am 8. Juli hat der Polizeibeauftragte des Bundes seinen ersten Jahresbericht vorgelegt. Auf 57 Seiten fasst der Polizeibeauftragte Uli Grötsch zusammen, womit er sich seit dem 1. Juli 2024 beschäftigt hat. Insgesamt hat er 211 der 267 eingegangenen Fällen bearbeitet – sie können sowohl von Bürger*innen wie auch von Polizist*innen stammen.
Im Bericht arbeitet er einige Schwerpunkte heraus, die strukturell verbessert werden müssen. Diese stammen aus Einsendungen und Gesprächen mit beispielsweise Interessenvertreter*innen und Gewerkschaften und Besuchen an Einsatzorten. Der Bericht thematisiert unter anderem die Umsetzung der Grenzkontrollen an den deutschen Außengrenzen, Racial Profiling, die mangelnde Fehlerkultur sowie die ausbaufähige Kommunikation von Polizeibehörden.
Im September 2024 wurden Kontrollen an den deutschen Grenzen ausgeweitet. In diesem Zusammenhang besuchte der Polizeibeauftragte einige Grenzkontrollstellen und stellt in seinem Bericht fest, dass das vorgesehene Maß an Kontrollen auf Dauer nicht leistbar sei. Es fehle an Personal, an technischer Ausstattung und besonders, so Grötsch im Bericht, an einer „Perspektive, wie die jetzt weiter intensivierten und flächendeckenden Grenzkontrollen über einen zu erwartenden längeren Zeitraum angemessen und für die Einsatzkräfte leistbar durchgeführt werden können“. Außerdem würden sich die erweiterten Grenzkontrollen und die damit verbundene Mehrbelastung auch negativ auf die reguläre Polizeiarbeit auswirken.
Mehr Racial-Profiling-Vorwürfe
Auch die Zahlen der Vorwürfe des Racial Profilings seien gestiegen, so der Bericht. Viele Menschen wandten sich an den Polizeibeauftragten mit dem Vorwurf, sie seien alleinig wegen ihres physischen Erscheinungsbildes in Flughäfen, Zügen und an den Grenzen kontrolliert worden. Obwohl der Anstieg der Vorwürfe auf die verstärkten Grenzkontrollen zurückzuführen sei, seien sie „ein Alarmsignal und nicht hinzunehmen“.
In genaueren Schilderungen von Betroffenen sieht Grötsch den Verbesserungsbedarf besonders in der Kommunikation der Polizeibehörden. Polizeimaßnahmen müssten transparenter und empathischer kommuniziert werden, um das Vertrauen der Bevölkerung in die Polizei zu stärken. Ebenfalls in der Aufarbeitung von Kritik sieht der Polizeibeauftragte großes Verbesserungspotenzial. So sei Grötsch bei dem Aufarbeiten der Vorwürfe auf eine mangelnde Fehlerkultur und das Verweigern eines Lösungsweges bei Vorwürfen des Racial Profilings bei den Behörden gestoßen, heißt es im Bericht. Er schildert eine Situation, als ihm geantwortet wurde, es könne sich in dem Fall nicht um Racial Profiling gehandelt haben, da Racial Profiling nicht erlaubt sei.
Der Polizeibeauftragte fordert deswegen eine intensivere Auseinandersetzung mit dem Thema durch weitere Schulungen und sieht sein Amt in den kommenden Jahren als Unterstützung für diesen Prozess.
Verbesserungsbedarf bei Menschen in psychischen Ausnahmesituationen
Außerdem führt Grötsch in dem Jahresbericht auf, dass er vermehrt von Beschäftigten der Polizeibehörden auf den Umgang mit Menschen, die sich in psychischen Ausnahmesituationen befinden, angesprochen wurde. Es „besteht gerade bei den Polizeibeamt:innen selbst der Wunsch nach Vertiefung der Aus- und Fortbildungsmöglichkeiten“ zum Umgang mit Menschen in psychischen Ausnahmesituationen. Besonders weil oft reguläre Deeskalationsmaßnahmen die Situation nur weiter eskalieren würden, würden die Beamt:innen schneller zur Schusswaffe greifen. Diese Vorgehensweisen müssten hinterfragt und weiterentwickelt werden, so Grötsch im Bericht.
Ausdrücklich betont der Polizeibeauftragte in diesem Rahmen, dass von Menschen mit psychischen Erkrankungen kein erhöhtes Sicherheitsrisiko ausgeht und lehnt im Bericht auch ein bundesweites Register über Menschen mit psychischen Störungen ab.
Trotz CDU bleibt die Stelle vorerst
Der Bericht bringt konkrete Einsichten für die Politik in die Situation der Polizeibehörden des Bundes. Doch die Zukunft des Polizeibeauftragten ist nicht immer sicher gewesen. Nachdem sich die CDU in ihrem Wahlprogramm die Abschaffung des Polizeibeauftragten vorgenommen hatte, konnte sie dies in den Koalitionsverhandlungen nicht durchsetzen.
Dabei ist die Stelle darauf angelegt, mehr Transparenz über den Zustand der Polizeibehörden des Bundes und die Qualität ihrer Arbeit zu liefern. Sie bildet eine niedrigschwellige Anlaufstelle für Bedenken von Beschäftigten der Polizei und Bürger*innen zugleich.
Uli Grötsch wurde im März 2024 als erster Polizeibeauftragter überhaupt vom Deutschen Bundestag gewählt. Als ausgebildeter Polizeibeamter ist er dem Themengebiet nicht fremd. Zuvor war Grötsch lange Mitglied des Bundestages für die SPD und gehörte von 2014 bis 2023 dem Parlamentarischen Kontrollgremium an, das die Nachrichtendienste des Bundes kontrolliert.
Strukturelle Mängel und Fehlverhalten
Die Position des Polizeibeauftragten wurde im März 2024 vom Deutschen Bundestag eingerichtet, mit der Aufgabe, sowohl strukturelle Probleme als auch Fehlverhalten von Beschäftigten der Polizeibehörden des Bundes zu untersuchen. Dazu gehören die Bundespolizei, das Bundeskriminalamt (BKA) und die Polizei beim Deutschen Bundestag. Somit stellt der Polizeibeauftragte eine Anlaufstelle für beide Seiten dar: Bürger*innen und Beschäftigte der Polizeibehörden können sich gleichermaßen bei ihm melden. Einmal jährlich, jeweils zum 30. Juni muss über die Arbeit berichtet werden.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
In den vergangenen Jahren hat die Bundesregierung zweistellige Millionenbeträge an Firmen gezahlt, die dem rechtsradikalen Unternehmer Elon Musk gehören. Dieses Jahr kommen weitere Posten hinzu. Wir haben uns die entsprechenden Haushaltstitel angeschaut.

21.470.900 Millionen Euro zahlte die Bundesregierung von Anfang 2022 bis Ende 2024 an Firmen von Elon Musk. Dieses Jahr sollen mindestens weitere 155.200 Euro dazukommen. In der Summe sind das 21.626.100 Euro.
Aus welchen Ressorts stammt das Geld? Und was kaufen sie damit? Eine Kleine Anfrage der Fraktion Die Linke liefert Antworten.
Von Elon Musks Firmen erhält Starlink am meisten Geld von der Bundesrepublik. Den größten Teil davon, 19.610.000 Euro, gab das Auswärtige Amt im Rahmen der Ukraine-Hilfen aus. Es bezahlte einen Teil der Satelliteninternet-Rechnung des von Russland angegriffenen Landes. Die Ukraine steuert über Starlink beispielsweise ihre Kampfdrohnen.
Diese Ministerien haben Starlink-Internet gekauft
Auch Deutschland nutzt das Musksche Satelliteninternet. Das Auswärtige Amt hat in der Vergangenheit – abseits der Ukraine-Hilfen – 12.000 Euro für Starlink bezahlt, für das laufende Jahr sind weitere 4.000 Euro eingeplant. Das Innenministerium buchte für 10.000 Euro Starlink-Dienste, das BKA für 15.800 Euro, zum Teil zur Nutzung in Einsatzfahrzeugen, weitere 10.500 Euro sind für dieses Jahr vorgesehen. Das Verteidigungsministerium zahlte 700 Euro und hat für dieses Jahr weitere 500 Euro veranschlagt.
Und das ist vermutlich nicht alles. Denn wie viel Geld die Zentrale Stelle für Informationstechnik im Sicherheitsbereich und die Bundespolizei für Starlink ausgegeben haben, erklärt die Bundesregierung in der Antwort auf die Kleine Anfrage zur Verschlusssache.
Das BKA erstand zwei Teslas „zur Testung“
Die Musk-Firma, die am zweitstärksten von der Bundesregierung profitiert, ist Tesla. 1.815.000 Euro hat sie seit 2022 kassiert. Das BKA hat beispielsweise 123.000 Euro für zwei Teslas ausgegeben, unter anderem „zur Testung von herstellerseitigen Funktionalitäten“. Das Bundesministerium für Wirtschaft und Klimaschutz förderte zwei Projekte mit 870.000 Euro, eines zum kabellosen Laden, eines zu autonomen Fahrzeugen. Laut Bundesrechnungshof „bestehen erhebliche Zweifel am politisch gewünschten Erfolg der Sonderprogramme.“
Tesla erhielt noch weitere Gelder vom Bundeswirtschaftsministerium: 9.000 Euro als Förderung des Absatzes von elektrisch betriebenen Fahrzeugen (Umweltbonus) sowie 813.000 Euro als Förderung für energieeffiziente Gebäude. Dieses Jahr kommen weitere 140.000 Euro zur Förderung für Energie- und Ressourceneffizienz dazu.
Die dritte Musk-Firma, die in den vergangenen Jahren Geld von der Bundesrepublik erhielt, ist die Social-Media-Plattform X, wenn auch nur vergleichsweise magere 7.600 Euro. Das Statistische Bundesamt zahlte 200 Euro für einen Premium-Account, für dieses Jahr sind weitere 100 Euro verplant. Die Bundeszentrale für politische Bildung schaltete für 6.000 Euro Anzeigen auf der Plattform, das Bundesamt für Strahlenschutz für 1.000 Euro. Das Finanzministerium verbuchte 200 Euro für Accountverifizierung, dieses Jahr kommen 100 Euro für einen Premium-Account hinzu.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.