netzpolitik.org

Bitte aktualisieren Sie PHP auf Version 8.2.0 (zurzeit: 8.1.2-1ubuntu2.22). Info
Die 42. Kalenderwoche geht zu Ende. Wir haben 21 neue Texte mit insgesamt 182.164 Zeichen veröffentlicht. Willkommen zum netzpolitischen Wochenrückblick.

Liebe Leser*innen.
Fürs Erste ist es abgewendet. Eine Abstimmung im Bundesrat, der am Freitag eine Verordnung zur Umsetzung des Selbstbestimmungsgesetzes beschließen sollte, wurde von der Tagesordnung gestrichen.
Der Termin hatte vor allem unter den Menschen, für die das Gesetz geschaffen wurde, für große Unruhe gesorgt. Hätten die Länder den Plänen aus dem Hause von Alexander Dobrindt (CSU) zugestimmt, wären die Folgen für diese Menschen weitreichend gewesen. Ihr früherer Vorname und der alte Geschlechtseintrag sollten auf unbestimmte Zeit in ihren Meldedaten gespeichert werden – wo sie mit jedem Umzug mitumgezogen wären und Tausende von Behörden sie automatisch hätten abrufen können. Dass dieses Szenario vorerst aufgeschoben ist: ein Etappensieg.
Denn die Änderung der bisherigen Verfahren in den Ämtern wäre eine unnötige weitere Gefährdung von Menschen, die in Zeiten von Angriffen auf Pride-Demos und offener Transfeindlichkeit ohnehin schon gefährdet sind. Darauf hatten vom Bundesverband Trans* bis zum Chaos Computer Club alle hingewiesen, nachdem der Entwurf im Sommer bekannt wurde. Doch das Innenministerium hatte sich nicht beirren lassen.
Die Kraft des Gegners nutzen
Im Kampfsport gibt es das Prinzip, die Kraft des Gegners zu nutzen, um diesen mittels Schwungumkehr aufs Kreuz zu legen. Diese Kunst beherrscht man offenbar auch im BMI. Schon als das Selbstbestimmungsgesetz von der Ampel im vergangenen Jahr verabschiedet worden war, hatte das Haus vor allem eines im Sinn: Misstrauen. Wie könnte man verhindern, dass Kriminelle mit neuem Namen und Geschlechtseintrag vor der Justiz abtauchen? (🤡) Diese Sorge trieb die damalige Innenministerin Nancy Faeser (SPD) um. Sie forderte, eine Änderung der Daten müsse künftig allen Sicherheitsbehörden von Verfassungsschutz bis Bundespolizei mitgeteilt werden.
Die Datenweitergabe, in deren Visier ausschließlich Menschen geraten wären, welche die im Selbstbestimmungsgesetz festgelegten Rechte in Anspruch nahmen, konnte damals im Gesetzgebungsverfahren abgewendet werden. Jurist*innen machten den Abgeordneten klar, dass das wohl kaum mit dem Grundgesetz zu vereinbaren sei. Der Passus wurde wieder gestrichen.
Im BMI ließ man sich von solchen Rückschlägen aber offenbar nicht entmutigen. Die Kraft des Selbstbestimmungsgesetzes nutzend, sollte dann eben eine neue Meldeverordnung dafür sorgen, dass die alten Vornamen und Geschlechtseinträge doch noch möglichst einfach und automatisiert auf die Reise gehen können zwischen den Ämtern.
Wir setzen doch nur das Gesetz um, heißt es aus dem Ministerium. Als sei man sich dort der Zerstörungskraft nicht bewusst, die in dieser Verordnung liegt. Sie würde, kurz gesagt, zunichtemachen, was das Selbstbestimmungsgesetz im Kern ausmacht: Schutz, Würde und ein Leben ohne ständige Angst vor Outings. Sie würde aus einem Gesetz, das eine Befreiung bringen sollte, eines machen, das wieder Angst schürt.
„Es war von vornherein völlig klar, dass die Union durch die Hintertür versuchen wird, das Gesetz auszuhöhlen“, sagt dazu auch die Autorin Julia Monro im Interview mit netzpolitik.org. Abschaffen können sie es nicht, aber mit der Verordnung torpedieren, das können sie schon.
Ruhe vorm Rematch
Dass die Abstimmung im Rat verschoben wurde, ist erst einmal ein gutes Zeichen. Es deutet darauf hin, dass sich womöglich keine Mehrheit für das Vorhaben gefunden hätte – und dass die Aufklärungskampagnen der Verbände aus der vergangenen Woche Erfolg hatten. Wahrscheinlich wird sich aber auch das BMI in dieser Sache nicht einfach so auf die Matte legen lassen. Das nächste Mal tritt die Länderkammer in einem Monat zusammen.
Falls ihr euch fragt, was ihr bis dahin tun könnt: Unterstützt doch die Arbeit jener Organisationen mit einer Spende, die so beharrlich und kenntnisreich gegen die Verordnung arbeiten: den Bundesverband Trans*, den dgti oder auch den LSVD.
Mir fällt jetzt auch nichts mehr ein, als diesen Rückblick mit einem Haiku zu beenden.
Kraft umkehrt den Schwung,
das Ministerium taumelt –
Ruhe vorm Rematch.
In diesem Sinne und bis nächste Woche
Chris
Degitalisierung: Wut
Wenn Menschen sehr wütend sind, gehen sie oft irrationale Wege. Das ist aber nicht immer hilfreich, wenn es darum geht, Probleme gut zu lösen. Was diese Dynamik mit der Diskussion um Chatkontrolle zu tun hat, erklärt unsere Kolumnistin Bianca Kastl. Von Bianca Kastl –
Artikel lesen
Digital Networks Act: Entscheidender Herbst für Netzneutralität
Teile der Netzneutralität könnten demnächst auf den Prüfstand kommen. Mit dem anstehenden Digital Networks Act will die EU-Kommission den Markt für Telekommunikation neu aufstellen. Dabei könnten die Vorgaben für bezahlte Überholspuren gelockert werden – und womöglich eine Datenmaut eingeführt werden. Von Tomas Rudl –
Artikel lesen
Big Brother Awards: Überwachungs-Oscar geht an Innenminister Dobrindt
Zum 25. Mal wurden die alljährlichen Big Brother Awards vergeben. Negativpreise gehen in diesem Jahr an Bundesinnenminister Alexander Dobrindt, an TikTok sowie an Google. Erstmals gibt es auch Auszeichnungen in der Kategorie „jung und überwacht“. Von Paula Clamor –
Artikel lesen
Von Windows 10 auf Linux: Was tun, wenn der Computer nicht für Windows 11 geeignet ist?
Microsoft beendet den Support für sein Betriebssystem Windows 10. Das ist die Gelegenheit, sich dabei helfen zu lassen, Linux auszuprobieren. Wie läuft so ein Workshop ab? Und wie kriegt man seine Daten auf den neuen Linux-Rechner? Wir fragen Harald Reingruber, der sich bei der Initiative „End of 10“ engagiert und solche Workshops anbietet. Von Constanze –
Artikel lesen
Erklärung zu Alterskontrollen: 25 EU-Staaten wählen den billigen Weg
Mit der sogenannten Jütland-Erklärung stellt die Mehrheit der EU-Staaten ihre Beratungsresistenz unter Beweis. Gemeinsam fordern Regierungsvertreter*innen vor allem strengere Alterskontrollen zum Schutz von Jugendlichen. Fachleute haben das längst als Scheinlösung entlarvt. Ein Kommentar. Von Sebastian Meineck –
Artikel lesen
Geschichten aus dem DSC-Beirat: Die Krux der Perspektive
Ist die Durchsetzung des Digital Services Act ein Erfolg? Die Antwort auf diese Frage hängt maßgeblich davon ab, worauf man schaut und wen man fragt. Aspekte gibt es im Dickicht der Plattformen viele: von Jugendschutz bis Forschungsdatenzugang. Von Svea Windwehr –
Artikel lesen
Selbstbestimmungsgesetz: Wie eine neue Verordnung zur Bedrohung für Betroffene wird
Das Bundesinnenministerium will frühere Vornamen und Geschlechtseinträge zeitlich unbegrenzt im Melderegister speichern. Fachverbände schlagen Alarm: Für Menschen, die ihre Daten ändern ließen, steige damit das Risiko, auch in Zukunft diskriminiert zu werden. Sie sehen das Ziel des Selbstbestimmungsgesetzes in Gefahr. Von Chris Köver –
Artikel lesen
Britisches Gericht zu Clearview AI: Datenschutz gilt auch für biometrische Überwachung aus dem Ausland
In mehreren europäischen Ländern hat sich die US-Überwachungsfirma Clearview AI Millionenbußen eingehandelt, weil sie den Datenschutz verletzte. Im Vereinigten Königreich entschied nun ein Gericht, dass heimische Aufsichtsbehörden für solche Rechtsbrüche zuständig sind – selbst wenn das betreffende Unternehmen im Ausland tätig ist. Von Tomas Rudl –
Artikel lesen
Selbstbestimmungsgesetz: Vom Versprechen zur Gefahr
Die Pläne des Bundesinnenministerium verletzen den Kern dessen, wofür das Selbstbestimmungsgesetz steht: Schutz, Würde und ein Leben ohne ständige Angst vor Outings. Sie verwandeln den Fortschritt in eine existenzielle Bedrohung. Ein Kommentar. Von Chris Köver –
Artikel lesen
Biometrische Überwachung: „Körperdaten sind keine freie Verfügungsmasse“
Ein Abgleich biometrischer Daten mit Bildern aus dem Internet für Ermittlungsbehörden? Europa- und Verfassungsrecht würden das verbieten, sagen mehrere Bürgerrechtler:innen und Datenschützer auf einer Pressekonferenz in Berlin. Ein Gutachten aus technischer Sicht stützt ihre Einschätzung. Von Anna Biselli –
Artikel lesen
Adenauer-Protestbus: Ermittlungen mit Schlagseite
Nachdem die sächsische Polizei den Protestbus beschlagnahmt hatte, hagelte es Kritik an der Maßnahme. Jetzt ermittelt die Polizei wegen Hassrede gegen Unterstützer:innen der Aktionskünstler. Gleichzeitig wurden offenbar interne Details der TÜV-Prüfung des Busses an einen rechten Youtuber weitergegeben. Von Markus Reuter –
Artikel lesen
„Absurd und respektlos“: Dänischer Justizminister diskreditiert Chatkontrolle-Proteste
Der dänische Justizminister versucht, mit wolkigen Anschuldigungen den Eindruck zu erwecken, dass die Proteste gegen die geplante Chatkontrolle von Big-Tech gekauft seien. Verschiedene zivilgesellschaftliche Organisationen weisen dies empört zurück – und erinnern an die Lobbynähe der EU-Kommission. Von Markus Reuter –
Artikel lesen
Angebliche Online-Investments: Eine automatisierte Betrugsmaschine
Werbeanzeigen auf Facebook und Co. versprechen sichere Online-Investments, aber am Ende verlieren Menschen ihr ganzes Geld. Solche betrügerische Werbung verbietet der Digital Services Act, Plattformen müssen sie löschen. Doch der Flut an immer neuen KI-generierten Anzeigen ist schwer beizukommen. Von Gastbeitrag, Mei-Ling McNamara, Nico Schmidt, Pascal Hansens, Lorenzo Buzzoni, Paula Zwolenski –
Artikel lesen
Deutschland-Stack: Was ist drin, im Baukausten für die digitale Verwaltung?
Der Deutschland-Stack soll der lahmenden Verwaltungsdigitalisierung auf die Sprünge helfen. Doch was genau ist die Technologie-Plattform, wie kann sie dabei helfen und wer ist wofür verantwortlich? Eine Übersicht. Von Timur Vorkul –
Artikel lesen
Parlamentarisches Kontrollgremium: Mehr Daten für die Geheimdienste, weniger Debatte
Die Chefs der drei Bundes-Geheimdienste fordern im Bundestag mehr Befugnisse, mehr Daten und mehr Künstliche Intelligenz. Die öffentliche Anhörung des Kontrollgremiums war ein Resultat aus den Snowden-Enthüllungen. Trotzdem fehlte jede Debatte über Grundrechte und unabhängige Kontrolle der Geheimdienste. Von Gastbeitrag, Corbinian Ruckerbauer –
Artikel lesen
Verordnung zum Selbstbestimmungsgesetz: „Wie per Trump-Dekret“
Das Innenministerium will den früheren Geschlechtseintrag einer Person dauerhaft im Melderegister festschreiben – trotz massiver Kritik. Wir haben mit Autorin Julia Monro über die ideologische Agenda der Union, den autoritären Regierungsstil des Innenministeriums und die Hoffnung gesprochen, dass der Bundesrat standhaft bleibt. Von Timur Vorkul –
Artikel lesen
KI-Suchmaschinen: Chatbots fressen Klicks und Quellen auf
Die Suche im Netz verschiebt sich zunehmend in Richtung Chatbots. Dabei könnte sich drastisch ändern, wie wir an Informationen gelangen – und wie viel am Ende von der Angebotsvielfalt im Netz übrig bleibt. Eine Studie hat das neue Phänomen nun untersucht. Von Tomas Rudl –
Artikel lesen
National-Once-Only-Technical-System: Bundestag macht Weg frei für „Datenautobahn“
Künftig sollen Behörden von Bund, Ländern und Kommunen Daten der öffentlichen Verwaltungen leichter elektronisch austauschen können. Einem Staatsvertrag, der dem den Weg ebnen soll, stimmte der Bundestag gestern mehrheitlich zu. Kritik gab es vor allem von der Linksfraktion, die Datenabfluss und Datenmissbrauch befürchtet. Von Esther Menhard –
Artikel lesen
Social Media ab 16: EU-Abgeordnete fordern strengere Regeln für Jugendschutz
Der Ausschuss für Verbraucherschutz im EU-Parlament fordert Nachbesserung beim Jugendschutz im Netz. So soll die EU süchtig machende Designs für Minderjährige generell verbieten und soziale Medien erst ab 16 Jahren erlauben. Bei schweren Verstößen sollten zudem Plattform-Manager persönlich haften. Von Anna Ströbele Romero –
Artikel lesen
Bundestagsdebatte: Was ist bei der Chatkontrolle unter „anlassbezogen“ zu verstehen?
Es steht zwar aktuell keine Abstimmung zur Chatkontrolle an, aber der Bundestag diskutierte heute dennoch über den EU-Plan zur Massenüberwachung von Chats. Die drei Vertreter der Regierungsparteien CDU, CSU und SPD fanden in ihren Reden immerhin deutliche Worte gegen eine verpflichtende Chatkontrolle. Von Constanze –
Artikel lesen
Verhaltensscanner im Mannheim: Hier wird die Überwachung getestet, die so viele Städte wollen
Viele deutsche Städte wünschen sich Videoüberwachung mit KI-gestützter Verhaltenserkennung. Die wird seit sieben Jahren in Mannheim getestet. Ein Besuch der überwachten Orte zeigt, was diese Form der Überwachung mit den Menschen in einer Stadt macht – und wie schlecht die Technologie funktioniert. Von Martin Schwarzbeck –
Artikel lesen
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Viele deutsche Städte wünschen sich Videoüberwachung mit KI-gestützter Verhaltenserkennung. Die wird seit sieben Jahren in Mannheim getestet. Ein Besuch der überwachten Orte zeigt, was diese Form der Überwachung mit den Menschen in einer Stadt macht – und wie schlecht die Technologie funktioniert.

„Popeln würde ich hier lieber nicht“, sagt Svenja. Die Enddreißigerin steht auf dem Mannheimer Marktplatz und beäugt argwöhnisch eine Dachkante. Dort sind sechs Kameras installiert. Fünf davon zeigen ungefähr in ihre Richtung. Die sechste ist eine dreh-, kipp- und zoomfähige Kuppelkamera, bei der nur die kameraführende Person in der Polizei-Leitstelle weiß, was sie gerade filmt. Svenja dreht sich um und sieht eine weitere Kuppelkamera. „Das ist ja überhaupt nicht gruselig“, sagt sie und lacht trocken.
Svenja wusste bis eben nicht, dass sie gefilmt wird. Und auch nicht, dass eine Software ihr Verhalten analysiert und bei bestimmten Bewegungen Alarm auslöst. Ein Reporter von netzpolitik.org hat sie darauf aufmerksam gemacht. Es ist nicht so, dass sie regelmäßig in der Nase popeln würde, wie sie beteuert. Aber als sie die Kameras sieht, spürt sie direkt den Drang zur Selbstbeschränkung. Dass ihr erster Gedanke dabei der Nasenreinigung galt, ist ihr unangenehm. Sie bittet uns, für diesen Artikel ihren Vornamen zu ändern.
70 Kameras filmen den öffentlichen Raum in Mannheim. Bei 46 dieser Kameras untersucht eine Software die Bewegungsmuster der überwachten Menschen. Dafür verwandelt sie die Personen in Strichmännchen mit Knotenpunkten an den Gelenken und erfasst, wie sich die Gliedmaßen bewegen. So soll die Software vor allem Schläge, Tritte, Schubse, Rempler und Würgegriffe erkennen, aber auch andere Bewegungen wie Stehen, Gehen, Rennen, Rad- und Rollerfahren, Taumeln, Tanzen, Sitzen, etwas Tragen und jemanden Umarmen. Auch aggressive oder defensive Körperhaltungen soll die Software detektieren, so die Mannheimer Polizei.
„Mannheimer Modell“ haben die Verantwortlichen das Projekt genannt, das seit 2018 im Einsatz ist. Die Software soll dabei nicht nur Bewegungsmuster von mutmaßlich kriminellen Handlungen erfassen, sondern auch „Normalsituationen“, so die Mannheimer Polizei. Das sei erforderlich, „um diese von den polizeilich relevanten Sachverhalten abzugrenzen.“
Eine sogenannte KI schaut also mit 46 Augen permanent zu, was Menschen in Mannheim so treiben. Die Stadt ist ein Reallabor – und Passant*innen wie Svenja sind so etwas wie Labormäuse.

So arbeiten die Überwachenden
Die Aufnahmen der Mannheimer Kameras laufen im Führungs- und Lagezentrum des Polizeipräsidiums Mannheim zusammen. Dort beobachten Polizist*innen das Geschehen in der Stadt permanent auf einer Vielzahl von Bildschirmen. Wenn die Software ein verdächtiges Bewegungsmuster erkennt, ertönt ein Alarm. Auf einem der Bildschirme erscheint ein Hinweisfenster. In diesem sehen die Beamt*innen die Situation, die den Alarm ausgelöst hat, umrahmt von einem gelben Rechteck; daneben das Livebild der entsprechenden Überwachungskamera. Die zuständige Person entscheidet dann, ob die Polizei einschreitet, erklärt die Mannheimer Polizei weiter.
Mindestens 72 Stunden, also drei Tage lang, werden die Bilder gespeichert. Bei polizeilicher Relevanz bleiben sie sogar bis zu 28 Tage im System; bei Verwendung als Beweismittel noch länger. Die Mannheimer Polizei will mit der Software ihre Einsatzbelastung senken und Effizienz steigern.
Die gruselige Anziehungskraft der KI-Überwachung
Das Mannheimer Modell löst bei vielen Sicherheitsbehörden und -politiker*innen Begehrlichkeiten aus. Seit dem ersten September 2025 läuft es auch hinter Hamburger Kameras. Laut dem Fraunhofer-Institut für Optronik, Systemtechnik und Bildauswertung (Fraunhofer IOSB), das die Technologie entwickelt, haben weitere Städte und Kommunen Interesse bekundet. In Berlin wollen die Regierungsparteien das Polizeigesetz ändern, um den Einsatz der Technologie zu erlauben. In Hessen liegt diese Erlaubnis bereits vor; Innenminister Roman Poseck (CDU) nennt das Mannheimer Modell „vorbildhaft“. In Baden-Württemberg hat die grün-schwarze Landesregierung angekündigt, es ausweiten zu wollen, das nächste Testgelände ist Heidelberg.
Thomas Strobl (CDU), Innenminister des grün-schwarz regierten Baden-Württemberg, nannte das Mannheimer Modell im Mai 2025 einen „nationalen Leuchtturm“. Anlässlich der Verlängerung der Trainingsphase im Jahr 2023 sagte er, es sei „Vorbild für Maßnahmen an Kriminalitätsschwerpunkten im ganzen Land, wenn nicht europaweit.“ Christian Specht (CDU), heute Mannheims Oberbürgermeister, hat die KI-Überwachung im Jahr 2018 als Sicherheitsdezernent auf den Weg gebracht. Er fügte hinzu: „Viele sicherheitspolitische Augen sind gespannt auf uns gerichtet.“
Zu Beginn der automatisierten Verhaltenskontrolle in Mannheim gab es einigen Protest. Eine Gruppe namens „George-Orwell-Ultras“ riet in einem satirischen Video dazu, sich hinter Frachtcontainern auf dem Alten Messplatz vor der Erfassung durch die Kameras zu schützen. Ein Bündnis linker Gruppen lud zum Silent Dance gegen Überwachung; die lokalen Grünen unterstützten eine Petition dagegen. Heute sagt die Grünen-Kreisvorsitzende Tamara Beckh: „Mehr Kameras sollen es nicht werden“. Die Videoüberwachung könne ergänzend sinnvoll sein, „wir wollen aber eher auf eine personelle Stärkung der Polizei setzen“. Sie kritisiert, dass die KI-Überwachung bislang nicht evaluiert wurde und diskriminierend wirken könne.
Die Gefahr der Ausweitung

Jackenwetter, Dauerregen. Die Mannheimer Innenstadt ist dennoch sehr belebt an diesem Mittwochvormittag im September 2025. Menschen, die Kapuzen tragen, eilen mit gesenkten Köpfen über den Bahnhofsvorplatz. Tobias Roser steht zwischen ihnen unter seinem Regenschirm und zeigt um sich. „Da, da, da und da“, sagt er. Roser weiß genau, wo die Kameras hängen. Er lebt hier in der Gegend um den Hauptbahnhof und muss sie täglich passieren.
Roser ist Mitglied der Linksjugend solid, der Jugendorganisation der Partei Die Linke. Er fürchtet, dass die automatisierte Verhaltensanalyse ein großer Schritt hin zu einem Überwachungsstaat ist, „den man dann schlüsselfertig übergibt, wenn die Radikalen an die Macht kommen“. Wenn man einmal mit KI-gestützter Überwachung angefangen habe, läge es nahe, weiter aufzurüsten: etwa mit Technologie, die Gesichter erkennt, Lippen liest oder Menschen am Gang identifiziert.
Zwei Erweiterungen des Mannheimer Modells sind bereits geplant: Die Software soll in Zukunft bestimmte Gegenstände, etwa Waffen, erkennen. Und wenn sie eine mutmaßliche Straftat entdeckt, können die gefilmten Gesichter bald vom Landeskriminalamt durch eine Gesichtersuchmaschine gejagt werden. Im September 2024 hat die Landesregierung beschlossen, Lizenzen für eine solche Software zu kaufen.
Die Polizei hat auch nach sieben Jahren keine Ahnung, was die Verhaltenskontrolle bringt
Das Mannheimer Modell ist auch nach sieben Jahren weit von einem evidenzbasierten Betrieb entfernt. Die Vision seiner Fans sind schwarze Bildschirme, die nur anspringen, wenn die Software einen Alarm generiert. Tatsächlich wird dieses Konzept in der Mannheimer Videoüberwachungszentrale bisher nur auf einem einzelnen Bildschirm erprobt. Daneben gibt es zahlreiche weitere Monitore, auf denen weiter Beamt*innen das Geschehen in der Stadt beobachten. Der versprochene Vorteil für die Privatsphäre ist in der Praxis also nicht gegeben.
Die Mannheimer Polizei kann oder will auf Anfrage zudem nicht sagen, wie oft die Software angeschlagen hat und wie oft dadurch eine strafbare Handlung entdeckt wurde. „Der für das Projekt ablesbare Erfolg besteht in der stetigen Weiterentwicklung des Systems und kann zum derzeitigen Projektstand nicht mit Kennzahlen dargestellt werden“, schreibt sie.
Zu Beginn des Projekts hoffte die Mannheimer Polizei noch, das System könne irgendwann auch die Bewegungen bei einem Drogendeal oder Taschendiebstahl erkennen. Das zeigt die auf dem Kanal der Filmakademie Baden-Württemberg veröffentlichte Dokumentation „all eyes on you“. Heute schreibt die Polizei: „Ob das Ziel der Detektion von feinmotorischen Handlungsweisen erreicht werden kann, kann derzeit nicht beantwortet werden.“
Nach aktuellem Stand läuft das Projekt bis 2026. Eine unabhängige Evaluation ist nicht geplant. Nur das Landespolizeipräsidium im Innenministerium soll das Projekt nach seinem Abschluss begutachten. Der Landesdatenschutzbeauftragte Baden-Württemberg schreibt auf Anfrage von netzpolitik.org, dass die Maßnahme wegen der hohen Eingriffsintensität in Grundrechte eigentlich regelmäßig evaluiert werden müsse.
Noch steht die Überwachung rechtlich auf dünnem Eis

Die softwarebasierte Verhaltenserkennung begann mit Kameras am Willy-Brandt-Platz vor dem Mannheimer Hauptbahnhof und am Paradeplatz und wurde dann auf die Kurpfalzstraße – meist Breite Straße genannt –, den Marktplatz und zuletzt den Alten Messplatz ausgedehnt. Die Verwaltung hatte zudem geprüft, ob es nach dem aktuellen Polizeigesetz erlaubt ist, auch am Plankenkopf und auf dem südlichen Bahnhofsvorplatz Kameras aufzustellen, musste die Pläne jedoch verwerfen. „Bei beiden Bereichen konnte kein Kriminalitätsbrennpunkt begründet werden, weshalb die rechtlichen Möglichkeiten für einen Videoschutz nicht vorliegen“, schreibt die Mannheimer Polizei auf Anfrage von netzpolitik.org.
Rechtliche Voraussetzung für die Überwachung ist ein im Vergleich zum restlichen Stadtgebiet erhöhtes Aufkommen von Straftaten. Sinkt die relative Kriminalitätsbelastung deutlich, müssen die KI-Kameras nach baden-württembergischem Polizeigesetz wieder abgebaut werden. Deshalb musste die Stadt auch die Kameras, die sie ab 2001 aufgestellt hatte, im Jahr 2007 wieder entfernen. Nur der nördliche Bahnhofsvorplatz ist bis heute durchgängig videoüberwacht.
Die von der Polizei erfasste Straßenkriminalität in den überwachten Gebieten liegt nach einem zwischenzeitlichen Tief wieder auf der Höhe des Jahres vor der Einführung der Videoüberwachung. Die Drogendelikte sind nach Angaben der Polizei zum Teil deutlich zurückgegangen; das entspricht dem Trend in der gesamten Stadt. Besonders aussagekräftig ist die Kriminalitätsbelastung allerdings nicht. Denn die Zahl der erfassten Straftaten steigt automatisch dort, wo die Polizei genauer hinschaut.
Videoüberwachung nach Gefühl
Künftig will sich die Polizei in Mannheim bei der Überwachung des öffentlichen Raums durch Kameras nicht einmal mehr an den eigenen Kennzahlen orientieren müssen, sondern sie von der Kriminalitätsentwicklung entkoppeln. Laut Polizei soll ein Rechtsgutachten untersuchen, ob auch „strukturelle Kriminalitätsbrennpunkte“ per Video überwacht werden dürfen. Gemeint sind Orte, die aus Sicht der Polizei durch soziale, wirtschaftliche und infrastrukturelle Faktoren eine „erhöhte Tatgelegenheitsstruktur“ aufweisen – unabhängig davon, ob dort tatsächlich solche Taten erfasst wurden. Das würde der Polizei viel Spielraum geben, um Überwachung an immer mehr Orten zu legitimieren.
Laut einer Antwort der Stadt Mannheim auf eine Anfrage der Grünen aus dem Jahr 2024 arbeitet die Stadt an einer Novellierung des Polizeigesetzes von Baden-Württemberg mit, um solche „strukturellen Kriminalitätsbrennpunkte“ auch landesweit einzuführen. Somit wäre Videoüberwachung selbst dann möglich, wenn die Zahl der erfassten Straftaten sinkt.
Dieser Ansatz erinnert an das hessische Polizeigesetz. Dort ist die Rede von„Angsträumen“ und „gefühlten Kriminalitätsschwerpunkten“. Sie zeichnen sich ebenfalls durch „Tatgelegenheitsstrukturen“ aus und würden von der Bevölkerung gemieden, so die Begründung der entsprechenden Änderung des Polizeigesetzes, die im Dezember 2024 verabschiedet wurde.
Der baden-württembergische Datenschutzbeauftragte warnt davor, Gesetze zu verabschieden, die Gefühle zur Grundlage polizeilicher Maßnahmen machen. Die Aufsichtsbehörde verstehe zwar den Drang, das Sicherheitsgefühl der Bürger*innen ernst zu nehmen. Sie sehe aber Gefahren, wenn der Staat Maßnahmen mit hoher Eingriffsintensität für die Grundrechte mit Gefühlen begründe. „Der Staat muss für seine Bürger_innen berechenbar und sein Handeln nachvollziehbar und vorhersehbar sein. Vor diesem Hintergrund erschließt sich uns nicht, wie man mit der Intention in Freiheitsrechte einzugreifen, Gefühle oder Eindrücke objektivieren und rationalisieren könnte.“
Worauf die Kameras zielen, will die Polizei geheimhalten

Während die Polizei in Mannheim den öffentlichen Raum zunehmend durchleuchten möchte, will sie sich selbst nicht in die Karten schauen lassen. Eine Karte mit den genauen Positionen und Ausrichtungen der Kameras will die Behörde auf Anfrage nicht herausgeben – aus „polizeitaktischen Gründen“. Es gibt zwar eine Karte mit rot markierten Überwachungszonen auf der Website der Stadt und eine leicht abweichende mit blau markierten Überwachungszonen auf der Website der Polizei, aber beide weichen von der Realität ab.
So ist dort beispielsweise die Kurpfalzbrücke nicht markiert. Dabei wurde diese mindestens zeitweise von einer Kamera überwacht. Das hat der Prozess eines Mannes gezeigt, der mit Hilfe der Überwachungsbilder eine Verurteilung wegen Widerstand gegen Vollstreckungsbeamte abwehren konnte. Wieso die Kamera einen Bereich abgebildet hat, der nicht entsprechend gekennzeichnet ist, hat die Polizei bis Redaktionsschluss nicht beantwortet.
Die Kurpfalzstraße auf Höhe des Paradeplatzes ist auf der Karte der Stadt ebenfalls nicht als überwacht markiert, dabei zeigen mehrere Kameras deutlich darauf. Die Karte der Polizei zählt dieses Areal zur überwachten Zone; ebenso das südliche Ende des Alten Messplatzes. Laut der Karte der Stadt Mannheim ist dieser Bereich von der Überwachung ausgenommen; dabei sagte ein Polizist 2024, dass er zumindest teilweise von Kameras erfasst wird. Eine Sprecherin der Stadt schreibt auf Anfrage, die Karte solle nur einen „groben Überblick“ geben.
Eine detaillierte Karte mit den Kamera-Ausrichtungen und erfassten Arealen hätte vermutlich auch nur eine kurze Gültigkeit. Im Zuge von Optimierungen komme es gelegentlich vor, dass Kameras nachjustiert werden, schreibt die Polizei auf netzpolitik.org-Anfrage. Protokolle dazu gebe es nicht. Private Immobilien, sowie Areale „die nicht in den videogeschützten Bereich fallen“, würden aber verpixelt.
Die Software braucht viele Schlägereien
Eine Hürde bei der Entwicklung der Verhaltenserkennung ist der Mangel an Beispielen für reale Straftaten. Die Software kann nur dann einen Schlag von einem Fistbump unterscheiden, wenn sie beides häufig zu sehen bekommt.
In der Praxis gibt es in deutschen Innenstädten viel weniger Schlägereien als für KI-Forschende wünschenswert wäre. „Wie sich im Verlauf des Projektes zeigte, stehen leider nur sehr begrenzt öffentliche Daten zur Verfügung“, schreibt die Mannheimer Polizei. Wohl auch deshalb haben Polizist*innen Schlägereien zum KI-Training simuliert. Gestellte Situationen spielen „eine wichtige Rolle“, schreibt das Fraunhofer IOSB, das die Software entwickelt.

Der Datenwissenschaftler Heiko Paulheim von der Universität Mannheim sieht das kritisch. Wenn die Datengrundlage der Software zum großen Teil aus inszenierten Kämpfen zwischen meist weißen und männlich gelesenen Polizisten bestünde, könne das darauf hinauslaufen, dass die KI bei Frauen und BIPoC weniger zuverlässig funktioniert und öfter zu Unrecht anschlägt.
Auch auf anderem Wege können marginalisierte Gruppen vermehrt ins Visier der KI-basierten Überwachung geraten. Die Mannheimer Software erkennt beispielsweise auch liegende Menschen – und wer in der Öffentlichkeit liegt, ist oft obdachlos. Bislang darf die Software nur bei Hinweisen auf eine Straftat Alarm schlagen. Die Landesregierung plant aber, den Einsatz der Verhaltenserkennung auch gegen Menschen in einer mutmaßlich hilflosen Lage zu erlauben.
Wer das Mannheimer Modell zahlt – und wem die Software gehört
In der Kooperation zwischen Stadt und Polizei Mannheim und dem Fraunhofer IOSB teilen sich die Parteien die Kosten. Die Polizei zahlte 190.000 Euro für Videoarbeitsplätze und Videomanagementsoftware, Speicher- und Serverstruktur. „Personalkosten wurden nicht erhoben“, schreibt sie. Die Stadt zahlte 860.000 Euro für Erwerb, Montage und Verkabelung der Kameras. Das Fraunhofer IOSB finanziert die Software-Entwicklung.
Die Software des Mannheimer Modells gehört dem Fraunhofer IOSB. Es habe sich vertraglich verpflichtet, auf eine kommerzielle Verwertung „vorerst zu verzichten“, schreibt das Institut an netzpolitik.org. Die Polizei Baden-Württemberg könne die Software, wenn sie marktreif werden sollte, kostenfrei nutzen, schreibt die Mannheimer Polizei.
Die Trainingsdaten für das Mannheimer Modell liefern Menschen in Mannheim – oftmals nichtsahnend – kostenlos.
Drogendeals knapp außerhalb des Videobilds

Der Wilde Wein, der die Fassade der Alten Feuerwache am Alten Messplatz erobert hat, umrankt acht Kameras. Vor ihren Linsen springen und gleiten Skateboarder über selbstgebaute Rampen und Rails, Kinder planschen in den Fontänen eines Brunnens, Menschen konsumieren offen Cannabis und Lachgas – und den Spritzen auf dem Boden zufolge wohl auch mehr.
So berichtet es der Journalist Manuel Schülke bei einem Spaziergang über den Platz. Er ist Redakteur beim hyperlokalen Nachrichtenportal Neckarstadtblog und hat sich ausgiebig mit der Mannheimer Videoüberwachung beschäftigt. Schülke sagt: „Ich habe meine Zweifel, dass die bringt, was sie soll.“ Zu häufig lese er im Polizeibericht von Straftaten im Überwachungsbereich, bei denen keine Streife rechtzeitig vor Ort war und trotz Videoaufzeichnung Zeug*innen gesucht werden. „Da hat die Abschreckung nicht funktioniert und die anschließende Strafverfolgung ist auch mau“, sagt er.
Damit die Kameras potenzielle Kriminelle nicht einfach in die Nebenstraßen verdrängen, sind bestimmte Polizist*innen dazu abgestellt, um die videoüberwachten Areale zu patrouillieren. Sie sollen auch eingreifen, wenn eine Kamera eine Straftat filmt.
Schülke zufolge spielen sich Drogendelikte auf dem Platz oftmals knapp außerhalb des überwachten Bereichs ab, etwa in einem anliegenden Parkhaus oder dort, wo der Platz an die Neckarwiese grenzt. Im November 2024 hat die Polizei in diesem Teilareal eine Razzia gegen Drogenhändler*innen durchgeführt.
Schülke hatte zur Einführung der Kameras versucht, Beispielbilder zu bekommen, die zeigen, welche Bereiche die Kameras am Platz aufnehmen; die Polizei habe die Antwort aus ermittlungstaktischen Gründen verweigert. „Es gibt da uneinsehbare Areale und die wollen nicht, dass das jemand weiß“, sagt der Journalist.
Gut einsehbar für die Kameras seien dagegen die Eingänge zu sensitiven Einrichtungen aus dem Gesundheitsbereich, darunter Praxen für Psychotherapie, ein Zentrum für sexuelle Gesundheit und eine psychologische Beratungsstelle für queere Menschen.
Das denken die Mannheimer*innen über die Überwachung
Nino (56) steht auf der Kurpfalzstraße nahe des Marktplatzes und meint, die Mannheimer Kameras gut zu kennen. Dann kreist sein Zeigefinger aber doch erst einmal orientierungslos, während er mit der anderen Hand sein Bier festhält. „Ah da“, sagt Nino nach einer Weile und deutet auf eines der Geräte. „Ich finds scheiße“, sagt er. Da ist Nino nicht allein. Fünf Prozent der Mannheimer*innen versuchen laut einer Untersuchung von 2022/23, die überwachten Areale möglichst zu vermeiden.
Manuela (52) und Karin (77) wollen gerade den Marktplatz überqueren. Manuela sagt, als “Monnemerinnen“ seien sie inzwischen an die Überwachung gewöhnt, aber für sie sei sie nicht nötig. Sie und Karin fühlten sich hier sicher, auch nachts. „Und wenn die noch 1.000 Kameras aufhängen, macht das die Welt auch nicht besser“, sagt Karin. Manuela erinnert an den Polizisten Rouven Laur, der 2024 hier auf dem Marktplatz erstochen wurde. „Wer was machen will, der macht das auch mit Kameras“, sagt sie.
Manuela, Karin und Nino sind drei von insgesamt zwölf Passant*innen, die wir in Mannheim auf die Kameras angesprochen haben. Die drei wussten von den Kameras, die sie beobachten – die anderen neun aber nicht.

Das könnte auch an der zurückhaltenden Beschilderung liegen. Die weißen Warntafeln sind so groß wie ein DIN-A3-Papier und hängen ziemlich hoch. Sie sind unauffällig gefärbt und mit viel Text in kleiner Schriftgröße bestückt. Dort stehen Kontaktdaten der Polizei, ihres Datenschutzbeauftragten und der zuständigen Aufsichtsbehörde; Zweck und Rechtsgrundlage der Datenverarbeitung, Betroffenenrechte und Speicherdauer. Daneben ist ein Kamerasymbol im Bierdeckelformat zu sehen. Kein Wort von softwarebasierter Verhaltenskontrolle.
Interessant ist der Kontrast zu den Schildern „Richtiges Verhalten bei aggressivem Betteln“, die Passant*innen dazu aufrufen, bettelnde Menschen dem Ordnungsamt zu melden. Diese Schilder sind doppelt so groß wie die Kamera-Warnschilder und knallrot.

Update, 20.10.2025, 10.28 Uhr: Zitat von Tamara Beckh erweitert.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Es steht zwar aktuell keine Abstimmung zur Chatkontrolle an, aber der Bundestag diskutierte heute dennoch über den EU-Plan zur Massenüberwachung von Chats. Die drei Vertreter der Regierungsparteien CDU, CSU und SPD fanden in ihren Reden immerhin deutliche Worte gegen eine verpflichtende Chatkontrolle.

Es war keine Sternstunde des deutschen Parlaments: Obwohl die Chatkontrolle-Abstimmung im Rat der EU längst von der Tagesordnung genommen worden war, musste sich der Bundestag heute mit einem Antrag der AfD befassen. Die Partei beantragte darin (pdf), dass die Bundesregierung „bei der bevorstehenden Abstimmung“ über die Chatkontrolle „mit Nein“ stimmen solle. Doch die Abstimmung ist auf Dezember vertagt.
Durch die Tatsache, dass also gar keine Abstimmung akut bevorsteht, war der AfD der Spott der Redner aus dem anderen Parteien für den Antrag sicher. Konrad Körner von der CSU nannte ihn einen bloßen „Schaufensterantrag“. Es stehe nicht nur keine Abstimmung an, es gäbe ja nicht mal einen neuen Entwurf, über den man streiten könne.
Mit dem Begriff Chatkontrolle ist ein EU-Vorhaben gemeint, dass die Anbieter von Messaging- und anderen Kommunikationsdiensten verpflichten soll, in den Nachrichten der Nutzer nach Missbrauchsfotos und -videos (CSAM) zu scannen. Dagegen hat sich eine ganze Phalanx an Kritikern ausgesprochen.
Die Fraktionen des Deutschen Bundestages hatten sich letzte Woche auf Antrag von Grünen und Linken schon allesamt gegen den dänischen Vorschlag zur Chatkontrolle ausgesprochen. Genauer gesagt gegen eine „anlasslose Chatkontrolle“, wie die Regierungsparteien auch diesmal nicht müde wurden zu spezifizieren. Jeanne Dillschneider von den Grünen pochte in ihrem heutigen Statement daher auf eine inhaltliche Klärung. Man warte bisher „vergeblich“ auf eine klare Ablehnung durch das Bundesinnenministerium (BMI) und auch auf eine Klärung, was mit einer „anlassbezogenen“ Chatkontrolle technisch gemeint sein könnte.
Das wollte auch Sonja Lemke (Linke) wissen und wies darauf hin, dass die Bundesregierung in ihrem Formulierungen „jedesmal ein ‚anlasslos‘“ einfüge. Dabei bliebe bewußt offen, „was ein Anlass sein kann“ und ob technisch auch das Client-Side-Scanning abgelehnt werde.
Nur nicht „anlasslos“
Die Aussagen der drei Vertreter der Regierungsparteien, die in der kurzen Debatte sprachen, brachten wenige neue Erkenntnisse, aber immerhin ein paar deutliche Worte. Zuletzt war von der dänischen Regierung eine verpflichtende Chatkontrolle und Client-Side-Scanning befürwortet worden.
Katja Strauss-Köster von der CDU betonte, dass erfreulich viele Dienste-Anbieter freiwillig Missbrauchsmaterial aufdecken und an die Behörden melden würden. Aber diese freiwilligen Maßnahmen laufen im April 2026 aus, daher drohe „eine gefährliche Lücke“, wenn man nun nicht handele. Sie wolle eine „solide rechtliche Grundlage“, um den „Status Quo“ zu sichern, also das dauerhafte freiwillige Scannen. Eine solche EU-Verordnung sei anzustreben.
Verpflichtende Maßnahme hingegen solle es „nur im Einzelfall“ geben, so Strauss-Köster. „Ohne konkreten Verdacht“ dürfe private Kommunikation „nicht eingesehen werden“. Sie sagte außerdem, dass „Ende-zu-Ende-Verschlüsselung zentral für unsere Sicherheit“ sei, daher dürfe sie „nicht geschwächt werden“.
Da gab es Applaus aus der CDU/CSU-Fraktion. Doch Strauss-Köster war noch nicht ganz fertig mit ihren Ausführungen: Denn „gleichzeitig dürfen wir verschlüsselte Kommunikation nicht völlig ausnehmen“, fuhr sie fort. Man müsse das „Dunkelfeld“ in den Blick nehmen können. Wie dieser Spagat technisch zu meistern wäre, ließ sie allerdings offen.
Der dänische Vorschlag sei eine Verbesserung gewesen. Es sei dennoch richtig, „dass die Bundesregierung dem nicht zugestimmt hat“. Sie sei für „starke Garantien für Datenschutz und Privatsphäre“, das hätte auch das europäische Parlament vorgegeben. Insgesamt war die kurze Rede Strauss-Kösters eher ein Plädoyer für das freiwillige Scannen.
Carolin Wagner von der SPD betonte, dass im deutschen Parlament Einigkeit bestanden habe: Eine „anlasslose Überwachung privater Inhalte“ sei bereits abgelehnt worden. Es solle auch „keinen Zwang zum Client-Side-Scanning und keinen Zwang in der Aufweichung von Ende-zu-Ende-Verschlüsselung“ geben.
Da war es wieder, das Wörtchen „anlasslos“. Dennoch positionierte sich Wagner am deutlichsten gegen die verschiedenen vorstellbaren technischen Optionen.
CSAM
Wir berichten seit Jahren unter dem Stichwort CSAM (Child Sexual Abuse Material) über politische Vorhaben im Kampf gegen Missbrauchsdarstellungen von Kindern. Unterstütze unsere Arbeit!
Konrad Körner (CSU) war der dritte und letzte der Regierungsparteivertreter und betonte pflichtschuldig, man verteidige die Grundrechte und wolle „keine anlasslose Chatkontrolle“. Man setze sich hingegen für „anlassbezogene Maßnahmen“ ein. Dieser Begriff sei nicht in einer „aufgebauschten Debatte“ zu skandalisieren, schließlich wolle der Bürger, dass sowohl seine Chats als auch seine Kinder sicher seien. Es gehe dabei nämlich um „Ermittlungsbefugnisse“, wenn es einen „Anlass oder Verdacht“ gäbe, dass jemand solches strafbare Material verschicke.
Es gehe hier um „wichtige technische Details“, so Körner. Diese Details würden darüber entscheiden, ob „wir mit einem Gesetz eine Büchse der Pandora öffnen“ könnten. „Glauben Sie mir“, sagte der Abgeordnete, „auch wir haben da große Bedenken“. Denn mit Blick zur AfD sagte Körner: „Wenn Sie an der Macht wären, würde jede inkorrekte Äußerung in der Stammtischgruppe zum Hassverbrechen stilisiert, oder wenn die anderen reden, würde jeder depperte Genderstern noch zum Vaterlandsverrat.“
Das Niveau der Debatte hatte er damit wohl nicht erhöht, aber doch klargestellt, was die CDU/CSU-Fraktion unter „anlassbezogen“ versteht.
Der Schutz von Kindern
Die Abgeordneten betonten, dass nicht vergessen werden dürfe, dass es in der EU-Verordnung um den Schutz von Kindern gehe. Doch der Deutsche Kinderschutzbund und andere Kinderschützer stellten sich mehrfach und deutlich gegen die EU-Pläne einer Chatkontrolle.
Lemke von den Linken beklagte, dass immer wieder „sexuelle Gewalt an Kinder vorgeschoben“ werde. Es gäbe doch zahlreiche Maßnahmen, die man sofort dagegen ergreifen könne, etwa in den Ausstattungen von Jugendämtern, Schulen, Kitas und in der Jugendhilfe, bei Erziehern und Sozialarbeitern. „Keinem Kind ist durch Chatkontrolle geholfen“, betonte sie.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Der Ausschuss für Verbraucherschutz im EU-Parlament fordert Nachbesserung beim Jugendschutz im Netz. So soll die EU süchtig machende Designs für Minderjährige generell verbieten und soziale Medien erst ab 16 Jahren erlauben. Bei schweren Verstößen sollten zudem Plattform-Manager persönlich haften.

Online-Plattformen tun nicht genug, um Minderjährige vor Risiken im Netz zu schützen, finden die Abgeordneten aus dem Ausschuss für Binnenmarkt und Verbraucherschutz (IMCO) im EU-Parlament. Am gestrigen Donnerstag haben sie auf 26 Seiten Forderungen nach Verschärfungen und teils neuen Maßnahmen vorgelegt. Die Themen reichen von Videospielen über süchtig machende Designs und KI bis zum Umgang von Plattformen mit minderjährigen Influencern.
Eine der brisantesten Forderungen in dem Papier ist ein EU-weites einheitliches Mindestalter von 16 Jahren für die Nutzung sozialer Netzwerke, Video-Plattformen und sogenannter “AI Companions” (KI-Begleiter). Mit Zustimmung der Eltern könnte die Altersgrenze demnach auf 13 Jahre sinken.
Australien hat sich auf eine solche Altersgrenze bereits geeinigt, die Umsetzung ist für Dezember geplant. Umsetzbar ist eine solche Grenze in der Regel nur durch strenge Alterskontrollen. Dafür haben sich etwa die Digitalminister der EU-Staaten kürzlich ausgesprochen. Unter anderem EDRi, der Dachverband von Organisationen für digitale Freiheitsrechte, lehnt diesen Ansatz allerdings ab.
Hohe Hürden für Alterskontrollen
Bereits heute ist die Nutzung von Instagram und TikTok erst ab 13 Jahren erlaubt, doch es gibt derzeit keine strengen Kontrollen des Mindestalters. Für eine feste und pauschale Altersschranke müsste wohl ein neues Gesetz geschaffen werden, denn das Gesetz über digitale Dienste (DSA) sieht Altersbegrenzungen nur als eine von mehreren Maßnahmen vor, die Dienste ergreifen können, um Risiken für Nutzende zu minimieren. Im Rahmen der DSA-Umsetzung diskutiert die EU-Kommission gerade, in welchen Fällen welche Form von Alterskontrollen angemessen sind.
Die Parlamentarier sprechen sich in ihrem Papier dafür aus, Alterskontrollen möglichst einfach, sicher und „datenschutzfreundlich“ zu gestalten. Sie sind der Ansicht, dass etwa die geplante digitale Brieftasche (EUDI-Wallet) diese Ziele erfüllen könnte. Ausdrücklich befürworten sie die derzeit laufende Entwicklung einer App zur Altersüberprüfung im Auftrag der EU-Kommission, deren Funktion später in der EUDI-Wallet aufgehen soll. Sie empfehlen, dafür sogenannte “Zero-Knowledge-Proof”-Protokolle zu nutzen. Online-Dienste sollen dadurch nur eine Ja/Nein-Antwort erhalten, also erfahren, ob eine Person alt genug ist, ohne sie identifizieren zu können.
Wie auch andere Befürworter solcher Maßnahmen blendet der Ausschuss aus, dass sich Alterskontrollen leicht umgehen lassen und zahlreiche neue Probleme schaffen, etwa mit Blick auf Teilhabe und Overblocking. Die Abgeordneten fordern zumindest, dass alle Maßnahmen im Zusammenhang mit Alterskontrollen „gründlich auf ihre Auswirkungen auf die Grundrechte geprüft werden, um die Verankerung von Überwachungspraktiken zu vermeiden“. Zudem sollten Regelungen nur dann geschaffen werden, „wenn sie unbedingt notwendig und verhältnismäßig sind“.
Weitreichende Verbote zum Schutz von Minderjährigen
Weiter betont der Ausschuss in seinem Papier, dass Alterskontrollen kein Wundermittel („silver bullet“) seien. Sie entbinden demnach Plattformen nicht von der Verantwortung, ihre Produkte von Beginn an sicher zu gestalten („safe by design“). Die Abgeordneten fordern deshalb, dass Designelemente mit dem „größten Suchtpotenzial“ für Minderjährige gänzlich abgestellt werden sollen. Dazu gehören Empfehlungsalgorithmen, die basierend auf dem Verhalten der Nutzenden weitere Inhalte vorschlagen – und damit eine immense Sogwirkung entfalten.
Ebenso soll das „Profiling“ von Minderjährigen verboten werden, also die Erstellung von Profilen der Nutzenden mithilfe ihrer Daten, die sich ebenfalls für die Empfehlung von Inhalten und für Werbung nutzen lassen. In Online-Spielen, auf die Minderjährige Zugriff haben, sollen „Glücksspiel-Mechanismen“ wie Lootboxen verboten werden. Das sind virtuelle Produkte, deren Inhalt man erst nach dem Öffnen sieht.
Teils lassen sich solche Missstände bereits auf Grundlage des DSA bearbeiten, allerdings lediglich von Fall zu Fall, je nach Risiko eines betroffenen Dienstes. Die Forderungen des Ausschusses nach grundsätzlichen Verboten gehen darüber hinaus. Ein Gelegenheitsfenster für derart strengere Gesetze wäre der geplante Digital Fairness Act der Europäischen Union, den der Ausschuss in seinem Papier mehrfach erwähnt. Aktuell läuft noch eine öffentliche Konsultation zu dem Vorhaben, das für das letzte Quartal 2026 geplant ist.
Plattform-Manager sollen persönlich haften
Der Ausschuss fordert die EU-Kommission weiter dazu auf, den DSA und die KI-Verordnung (AI Act) konsequent durchzusetzen. Die Kommission solle es demnach in Erwägung ziehen, bei ernsten und dauerhaften Regelverstößen Führungskräfte eines Konzerns persönlich haften zu lassen. Ähnlich handhabt es der britische Online Safety Act.
Die Abgeordneten wollen zudem, dass Plattformen aufhören, minderjährige Influencer („Kidfluencer“) zu unterstützen. Ihre Inhalte sollen demnach nicht mehr monetarisiert werden, und Kinder sollten auch keine anderen finanziellen oder materiellen Anreize von Plattformen erhalten. Nicht davon berührt wären wohl Werbe-Deals mit Privatunternehmen, eine der größten Einnahmequellen von Influencern. Oftmals werden Kidfluencer von ihren Eltern begleitet und gemanagt; das Publikum wiederum ist oftmals selbst minderjährig.
Die Entschließung der Vorschläge hat der Ausschuss mit breiter Mehrheit (32 von 46 Stimmen) angenommen. Es gab fünf Stimmen dagegen und neun Enthaltungen. Ende November sollen dann das Plenum über den Vorschlag abstimmen. Die Diskussion der Vorschläge aus der Sitzung vom 24. September 2025 kann man sich hier als Video ansehen.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Künftig sollen Behörden von Bund, Ländern und Kommunen Daten der öffentlichen Verwaltungen leichter elektronisch austauschen können. Einem Staatsvertrag, der dem den Weg ebnen soll, stimmte der Bundestag gestern mehrheitlich zu. Kritik gab es vor allem von der Linksfraktion, die Datenabfluss und Datenmissbrauch befürchtet.

Um Verwaltungsleistungen zu beantragen, müssen Bürger*innen den Behörden Nachweise vorlegen – etwa den Reisepass oder die Kopie eines Mietvertrags. Die Daten halten Behörden des Bundes, der Länder und Kommunen in eigenen Registern vor.
Diese Register bestehen derzeit getrennt voneinander und sind im Laufe der vergangenen Jahrzehnte deutlich angewachsen. Denn das Grundgesetz sieht weder eine Mischverwaltung noch einen registerübergreifenden Datenaustausch unter den Behörden vor. Das soll der Staatsvertrag zum National-Once-Only-Technical-System (NOOTS) nun ändern. Dem Staatsvertrag stimmte der Bundestag gestern mit großer Mehrheit zu.
Einmal für alle
NOOTS ist Teil des übergeordneten Vorhabens von Bund und Ländern, die Registerlandschaft in Deutschland zu modernisieren. Das Ziel ist, den Datenaustausch zwischen Behörden zu erleichtern. Dazu gibt es mehrere Einzelprojekte, etwa ein Identifikationsmanagement für das einheitliche Personenkennzeichen oder ein Datenschutzcockpit. Auf die gemeinsame Infrastruktur für den Datenaustausch hatten sich der damalige Bundeskanzler Olaf Scholz (SPD) und die Regierungschef*innen der Länder bereits im vergangenen Dezember geeinigt.
Konkret sollen öffentliche Stellen elektronische Nachweise aus verschiedenen Registern künftig rechtssicher abrufen können. Im Namen von NOOTS steckt das sogenannte Once-Only-Prinzip. Die Idee dahinter: Bürger*innen und Unternehmen geben ihre Daten nur ein einziges Mal an die Verwaltung weiter. Anschließend tauschen Behörden benötigte Daten untereinander aus, ohne Bürger*innen und Unternehmen – deren grundsätzliches Einverständnis vorausgesetzt – dafür erneut um Erlaubnis bitten zu müssen.
Laut Staatsvertrag soll das Once-Only-Prinzip zunächst für Verwaltungsleistungen gemäß Onlinezugangsgesetz (OZG) umgesetzt werden. Damit wäre es dann Teil der Leistungsverwaltung; die weitere Implementierung und Nutzung soll der IT-Planungsrat steuern.
Warnung vor Missbrauch
Markus Reichel (CDU) pries das Vorhaben in der gestrigen Debatte als „Datenautobahn“, die die digitale Verwaltung schneller und effizienter machen werde. Er versprach, dass der Datenaustausch zwischen öffentlichen Stellen künftig „automatisiert, schnell, kostengünstig und bürokratiearm“ erfolgen könne, weil nicht mehr „die Bürger wandern, sondern die Daten“.
Als einzige Fraktion stimmte Die Linke gegen den Gesetzentwurf. Bereits bei der ersten Lesung Ende Juni hatte deren Digitalpolitikerin Sonja Lemke davor gewarnt, dass das System in die Eingriffsverwaltung ausgeweitet werden könnte. Außerdem befürchtet sie Datenabfluss und Datenmissbrauch. Es drohe ein Szenario, bei dem auch Sicherheitsbehörden Daten zusammenführen, so Lemke.
Der Begriff Eingriffsverwaltung ist ein Gegenbegriff zur Leistungsverwaltung. Bei letzterer geht es darum, dass Ämter etwa auf einen Antrag hin Elterngeld bewilligen oder eine Geburtsurkunde ausstellen. Die Leistungsverwaltung gewährt den Bürger*innen also vor allem Vorteile oder Unterstützung. Die Eingriffsverwaltung beschränkt hingegen autoritativ die Rechte von Bürger*innen, indem sie ihnen Vorgaben macht oder Sanktionen auferlegt und damit tendenziell stärker in ihre Grundrechte eingreift.
Das Anliegen der Registermodernisierung sei zwar grundsätzlich legitim, sagte Lemke, der Schutzbedarf personenbezogener Daten stehe jedoch nicht im Vordergrund. Vielmehr werde die Steuer-ID als einheitliches Personenkennzeichen eingesetzt. „Was passiert, wenn der Zugang zu Verwaltungsdaten in die falschen Hände kommt, sehen wir gerade auf der anderen Seite des Atlantiks“, so Lemke, „und wir wissen das auch aus unserer Geschichte.“
So geht’s weiter
Der Staatsvertrag gibt den rechtlichen Rahmen für das NOOTS vor. Etliche Fragen etwa zur technischen Umsetzung oder zur IT-Sicherheit der Infrastruktur sind bislang noch ungeklärt.
Für den Aufbau, den Betrieb und die Weiterentwicklung des NOOTS zeichnet sich das Bundesverwaltungsamt (BVA) verantwortlich. Die Kosten tragen Bund und Länder gemeinsam; sie nutzen dafür die Haushaltsmittel der Föderalen IT-Kooperation (FITKO). Ab 2027 soll die FITKO 53,4 Prozent der Kosten tragen, der Bund übernimmt 46,6 Prozent. Laut Bundesregierung entstehe beim BVA ein „dauerhafter finanzieller und stellenmäßiger Mehrbedarf in Höhe von 2,8 Millionen Euro“.
Bis Ende 2025 soll der IT-Planungsrat einen Prototyp für NOOTS entwickeln und vorstellen, so Reichel. Er betonte gestern zudem, dass die EUDI-Wallet hier „als europäische Brücken- und Ergänzungstechnologie“ eine zentrale Rolle einnehmen werde.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Die Suche im Netz verschiebt sich zunehmend in Richtung Chatbots. Dabei könnte sich drastisch ändern, wie wir an Informationen gelangen – und wie viel am Ende von der Angebotsvielfalt im Netz übrig bleibt. Eine Studie hat das neue Phänomen nun untersucht.

Der gegenwärtige Trend, Künstliche Intelligenz (KI) zunehmend in Online-Suchmaschinen einzubauen, dürfte weitreichende Folgen für die Informationsvielfalt im Internet haben. Unabhängig von der Qualität automatisiert generierter KI-Antworten droht, dass sich viele Nutzer:innen mit ihnen zufrieden geben und nicht mehr auf die eigentlichen Quellen klicken – sofern sie diese überhaupt zu Gesicht bekommen. Der wegbrechende Traffic könnte wiederum das bestehende Geschäftsmodell vieler Medien gefährden, die sich bislang über Werbung auf ihren Online-Auftritten finanzieren.
Das sind die Kernaussagen eines aktuellen Gutachtens des Informationswissenschaftlers Dirk Lewandowski von der Hochschule für Angewandte Wissenschaften Hamburg (HAW), erstellt im Auftrag der Direktorenkonferenz der Landesmedienanstalten. Näher untersucht hat der Wissenschaftler die Angebote von Google und Bing, die inzwischen KI-Suchergebnisse prominent einblenden, sowie die KI-Chatbots ChatGPT und Perplexity. Die Datenerhebung fand im Mai 2025 statt und stellt eine „Momentaufnahme in einem sich schnell entwickelnden Feld“ dar, betont Lewandowski.
Einbrechende Klick-Zahlen
Dass sich die Informationslandschaft im Netz drastisch verändern dürfte, hatte sich bereits abgezeichnet, seit generative KI vor rund drei Jahren im großen Stil im Massenmarkt ausgerollt wurde. Seitdem verzeichnen viele Verlage teils erhebliche Einbrüche in den Klickzahlen und warnen vor dem „Ende des Internets, wie wir es kennen“, titelte etwa ein Kommentar auf heise online. Erste Studien zu diesen Effekten bestätigen den Eindruck: Dem US-amerikanischen Pew Research Center zufolge würden Nutzer:innen nur etwa halb so oft auf die Links zu den dazu gehörigen Suchergebnissen klicken, wenn ihnen KI-Zusammenfassungen angezeigt würden. Der bisherige Deal, Inhalte gegen Reichweite zu tauschen, wackelt beträchtlich.
Dabei starten die KI-Firmen von unterschiedlichen Ausgangspunkten. Alphabet und Microsoft, denen Google respektive Bing gehören, integrieren ihren KI-Ansatz in ihre etablierten Suchmaschinen und blenden die Ergebnisse von Anfragen dort ein. Chatbots wie ChatGPT setzen hingegen auf Konversationen mit ihren Nutzer:innen. KI-generierte Antworten stehen entsprechend im Mittelpunkt ihrer Produkte. Diese Richtung schlagen nun offenbar auch traditionelle Suchmaschinen ein. Zuletzt hat etwa Google damit begonnen, Nachfragen und Unterhaltungen mit den Suchergebnissen zu erlauben. Einfließen konnte dies in das aktuelle Gutachten allerdings nicht mehr.
Mehr Chats, weniger Quellenbesuche
Ein stärkerer Fokus auf chatbasierte Systeme dürfte die „Bedeutung der Quellen noch weiter einschränken“, heißt es in der Studie. Quellen dienten dann nur noch der vertiefenden Beschäftigung mit einem Thema, während sich viele Nutzer:innen mit den KI-Antworten zufriedengeben und allenfalls beim Bot weiter nachfragen.
Zugleich würden KI-basierte Systeme jedoch die sogenannte „Task Frontier“ erweitern. Hier fallen die Suche nach Informationen und deren anschließende Nutzung nahtlos zusammen. Solche Systeme könnten die Bearbeitung komplexer Aufgaben übernehmen, die sich mit bisherigen Suchsystemen nicht bearbeiten ließen, versprechen zumindest die KI-Anbieter. Wer braucht da noch Quellen?
Insgesamt verändere sich damit die Rolle von Suchmaschinen, die sich zunehmend von ihrer bisherigen Vermittlungsrolle verabschieden und „eigenständige Informationsobjekte“ erstellen würden. Daraus dürften sich medienrechtliche Fragen nach einem passenden Regulierungsansatz ergeben, was „juristisch zu betrachten und zu beantworten sein“ werde, schreibt Lewandowski.
Im Fluß ist auch die Frage, unter welchen Bedingungen und aus welchen Informationen diese Wissenshäppchen erstellt werden. Anfangs haben die KI-Firmen erst einmal ohne Rücksicht auf Urheberrecht oder Privatsphäre alles aus dem Netz abgezogen, was nicht niet- und nagelfest war, um damit ihre Systeme zu trainieren. Klagen folgten prompt. Zwar ist bis heute nicht endgültig geklärt, ob und in welchem Ausmaß sie dabei tatsächlich Recht gebrochen haben – aber neben außergerichtlichen Einigungen musste etwas Tragfähiges her.
Lizenzmodelle im Aufwind
In den vergangenen Jahren haben viele Verlage, aber auch Online-Dienste wie Reddit Verträge mit KI-Anbietern geschlossen. Gegen Bezahlung liefern sie mal mehr, mal weniger qualitativ hochwertiges Traningsmaterial. In Deutschland hat der Springer Verlag, der unter anderem die Bild, Welt und Politico herausgibt, eine Vorreiterrolle eingenommen. Seit Ende 2023 soll die Partnerschaft mit OpenAI „das Nutzungserlebnis mit ChatGPT um aktuelle und verlässliche Inhalte zu einer Vielzahl von Themen bereichern“, bewirbt der Verlag die Zusammenarbeit.

Das schlägt sich entsprechend auf der inhaltlichen Ebene nieder, wie das KI-Gutachten am Rande illustriert. Bisweilen blendet ChatGPT unterhalb der Antworten weiterführende Links ein, wenn es um besonders „aktualitätsrelevante Inhalte“ geht. Erwartungsgemäß handelt es sich im deutschsprachigen Raum sehr häufig um Angebote des Axel-Springer-Verlags. Die Folge: Interessierte Nutzer:innen können sich dann vor allem bei Bild oder Welt weiter darüber informieren, wie die Merz-Regierung etwa mit Themen wie Migration umgeht.
Generell bestehe bei solchen Lizenzvereinbarungen die Gefahr, schreibt Lewandowski, dass Suchsysteme nur die Inhalte eines oder weniger Anbieter in einem Themenfeld für die Generierung ihrer KI-Antworten verwenden. Letztlich könnte sich auch das negativ auf die Angebotsvielfalt im Netz auswirken und den Trend der abnehmenden Zugriffszahlen und rückläufigen Werbeeinnahmen verstärken.
Dabei sei es fraglich, ob neue Geschäftsmodelle wie die Lizenzierung der Inhalte an KI-Anbieter die geringeren Einnahmen durch den Traffic-Einbruch ausgleichen könnten. „Sofern dies nicht gelingt, wird die Menge und/oder Qualität der produzierten Inhalte zurückgehen“, heißt es im Gutachten.
Untergejubelte Informationen
Im Datenbestand der KI-Firmen zunehmen dürfte hingegen der Anteil von Inhalte-Lieferanten, die nicht auf eine direkte Refinanzierung ihrer Inhalte angewiesen sind. Das können Nichtregierungsorganisationen, Verbände und ohnehin alle sein, die die öffentliche Meinung beeinflussen wollen. Gerne auch verdeckt: PR-Agenturen, Unternehmen, Lobby-Firmen, Parteien und Staaten wie Russland, die groß angelegte Desinformationsnetzwerke mit massenhaft produzierten Inhalten betreiben.
In jedem Fall sei mehr Forschung notwendig, betont das Gutachten mehrfach, etwa im Hinblick auf das Nutzerverhalten und die langfristigen Traffic-Auswirkungen von KI-Antworten auf die Refinanzierung von Online-Inhalten. Zumindest ein rechtliches Folgegutachten befinde sich bereits in der Vergabephase, sagte Eva Flecken, Direktorin der Medienanstalt Berlin-Brandenburg und Vorsitzende der Direktorenkonferenz der Landesmedienanstalten, gegenüber Tagesspiegel Background (€).
Dieses Folgegutachten solle untersuchen, welche Rolle Intermediäre bei der Vielfaltssicherung spielen müssen; insbesondere stellten sich Fragen rund um Transparenz und Haftung. Außerdem habe der Digital Services Coordinator um eine Stellungnahme gebeten; also jene Stelle, die in Deutschland die Umsetzung des EU-Gesetzes über digitale Dienste (DSA) überwacht. Das Thema könnte bei der EU-Kommission landen.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Das Innenministerium will den früheren Geschlechtseintrag einer Person dauerhaft im Melderegister festschreiben – trotz massiver Kritik. Wir haben mit Autorin Julia Monro über die ideologische Agenda der Union, den autoritären Regierungsstil des Innenministeriums und die Hoffnung gesprochen, dass der Bundesrat standhaft bleibt.

Früher, wenn eine Person ihren Vornamen und Geschlechtseintrag dem gelebten Geschlecht angepasst hat, wurde ein neuer Datensatz mit den korrekten Daten angelegt. Der alte wurde mit einem Sperrvermerk versehen, sodass er nur bei einem rechtlichen Interesse im Einzelfall eingesehen werden konnte.
Das Selbstbestimmungsgesetz nimmt das Innenministerium aber nun zum Anlass, das Melderegister an sich umzugestalten. Das Melderegister soll um eine Reihe neuer Datenblätter erweitert werden: der alte Geschlechtseintrag, der alte Vorname sowie jeweils das Datum und die ändernde Behörde nebst Aktenzeichen. Bei Menschen, die das Selbstbestimmungsgesetz in Anspruch nehmen, werden diese Datenfelder gefüllt. Bei allen anderen bleiben sie leer.
Nach dem Willen des Ministeriums von Alexander Dobrindt sollen diese sensiblen Daten außerdem breiter mit anderen Behörden geteilt werden und beispielsweise bei jedem Umzug mitwandern.
Trotz massiver Kritik versucht das Innenministerium, das eigene Vorhaben durchzudrücken. Am Freitag wird der Bundesrat über diese Meldeverordnung abstimmen.
Wir haben mit Julia Monro über die geplante Verschärfung des Selbstbestimmungsgesetzes und die Folgen für die Betroffenen gesprochen. Sie ist Autorin und Journalistin und seit vielen Jahren in der Aufklärungsarbeit zu geschlechtlicher Vielfalt aktiv. Julia Monro ist eine der bekanntesten Stimmen für die Rechte von trans Menschen in Deutschland.
Fremdbestimmt statt selbstbestimmt
netzpolitik.org: Was ist das Problem, wenn der alte Name und Geschlechtseintrag nach einer Änderung in den behördlichen Datensatz aufgenommen und an andere Behörden übermittelt werden sollen?
Julia Monro: Zunächst einmal ist das ein datenschutzrechtliches Problem. Denn bis jetzt hatten betroffene Personen nie die Möglichkeit, in diese neue Datenerfassung einzuwilligen. Das Zweite sind die Menschenrechte. Die meisten trans Personen wollen ihre alten Daten hinter sich lassen, etwa den Vornamen und das Geschlecht, die ihnen fremdbestimmt bei der Geburt zugewiesen wurden.
Für einige stellt das vielleicht kein Problem dar. Aber viele wollen, dass ihr sogenannter Deadname nirgendwo mehr auftaucht. Sie wollen mit dem neuen Namen und Geschlecht angesprochen werden und wünschen sich Akzeptanz aus der Gesellschaft.
Wenn der alte Vorname, das falsche Pronomen oder die falsche Anrede benutzt wird, ist das für viele sehr verletzend. Das wurde in zahlreichen Studien gezeigt. Wenn du also per Verordnung immer wieder mit den alten Daten konfrontiert wirst, kann das retraumatisierend sein.
Diese Verordnung will den alten Namen und Geschlechtseintrag zwangsweise erheben. Bei jedem behördlichen Kontakt sieht die Mitarbeiter*in automatisch, dass die Person vor ihr früher einen anderen Namen und einen anderen Geschlechtseintrag hatte. Sie sieht: Diese Person ist trans.
Das bedeutet: Egal wo du hingest, erlebst du immer wieder ein Zwangsouting. Und das fühlt sich an wie eine Art Markierung und ruft die große Sorge hervor, dass man per Knopfdruck ein Register mit trans Personen erstellen kann. Einige erinnert das fast an die Rosa Listen aus der Zeit des Nationalsozialismus, mit denen queere Menschen verfolgt wurden.
netzpolitik.org: Das Bundesinnenministerium hat nach zahlreichen Einwänden von Betroffenen und Verbänden einen Satz in die Verordnung hinzugefügt. „Eine Suche zur Erstellung einer Ergebnisliste, die ausschließlich Personen anzeigt, die ihren Geschlechtseintrag geändert haben, ist ausgeschlossen.“
Julia Monro: Nach Gesprächen mit IT-Expert*innen glaube ich dennoch, dass man so eine Liste leicht erstellen kann. Solange das Innenministerium nicht klarstellt, wie es den Datenschutz der Betroffenen gewährleisten will, habe ich kein Vertrauen.
netzpolitik.org: Nehmen wir an, die Verordnung wird in dieser Form im Bundesrat angenommen und tritt im November 2026 in Kraft. Was ist dann aus dem Selbstbestimmungsgesetz geworden?
Julia Monro: Der Kern des Selbstbestimmungsgesetzes ist ja, dass man ohne Begutachtung und fremde Bewertung den eigenen Geschlechtseintrag und den eigenen Vornamen anpassen kann. Das Selbstbestimmungsgesetz beinhaltet aber auch das sogenannte Offenbarungsverbot. Und dieses Offenbarungsverbot wird mit der neuen Verordnung vollständig ausgehöhlt.
In über vierzig Jahren Praxis nach dem sogenannten Transsexuellengesetz war es nicht erforderlich, Änderungen am Melderegister vorzunehmen. Dieses Gesetz und das Selbstbestimmungsgesetz haben exakt dasselbe juristische Ergebnis: ein neuer Vorname und ein neuer Geschlechtseintrag. Das Bundesinnenministerium tut jetzt aber so, als ob es mit dem Selbstbestimmungsgesetz etwas Neues gäbe und der frühere Name plötzlich erfasst werden müsste. Das ist ein vorgeschobenes Argument. Es ist ungeheuerlich, dass man das Argument der Identifizierbarkeit oder Nachverfolgbarkeit vorschiebt. Das widerspricht dem Offenbarungsverbot, das es auch schon im Transsexuellengesetz gab, und markiert trans Personen ein Leben lang.
Das Menschenbild der Union
netzpolitik.org: Das Ministerium argumentiert, dass diese Datenerfassung aber gerade aufgrund des Offenbarungsverbotes notwendig ist. Wie kann es sein, dass das Verständnis des Offenbarungsverbots des Innenministeriums dem der Betroffenen so diametral entgegensteht? Das ist ja geradezu absurd.
Julia Monro: Dafür lohnt sich ein Blick in die Historie der CDU/CSU. Grundrechte, insbesondere queere Menschenrechte, mussten bisher gegen den Widerstand der Union durchgesetzt werden. Sowohl gerichtlich als auch durch Protest oder beispielsweise Gesetzesinitiativen durch den Bundesrat. Die Union hat das nie von sich aus angepackt.
Denn in der Union hat man grundsätzlich ein anderes Verständnis von queeren Personen. Ein Referent in der Parteizentrale sagte vor einigen Jahren zu mir: „Wir vertreten das christliche Menschenbild und lehnen alles ab, was dem widerspricht.“ Diese Aussage spricht Bände. Sie haben eine bestimmte Vorstellung davon, wie Menschen sein müssen. Sobald etwas von dieser Vorstellung abweicht, versuchen sie das aufzuhalten. So ist es auch aktuell mit dem Offenbarungsverbot.
Sie glauben an eine totale Realität, dass trans Menschen eine biologische Wahrheit haben und diese unveränderlich ist. Das ist die Messgröße, an der sie sich orientieren. Mit dieser Verordnung wollen sie sich das Recht herausnehmen, diese vermeintliche biologische Wahrheit weiterhin so zu benennen. Den neuen Namen und das neue Geschlecht tun sie lediglich als eine unbedeutende Änderung ab. Da fehlt die Akzeptanz für das Individuum. Das beobachte ich schon sehr lange.
Das sind zwei Weltanschauungen, die total aufeinanderprallen. Deshalb glaube ich nicht, dass die Union in puncto trans Rechte jemals ihre Meinung ändern wird. Jedenfalls nicht freiwillig.
„Das Innenministerium macht einfach, was es will“
netzpolitik.org: Was das Bundesinnenministerium als Vorhaben ankündigt, ist längst umgesetzt. Die neuen Datenblätter wurden mit Wirkung zum 1. April bereits eingerichtet, obwohl die Verordnung noch gar nicht beschlossen ist. Wie siehst du das?
Julia Monro: Bis heute habe ich nicht verstanden, warum die technische Umsetzung früher stattfindet als die Verordnung in Kraft treten soll. Das konnte mir bisher niemand erklären. Und das irritiert mich sehr. Es zeigt die Vorgehensweise des BMI – wie per Trump-Dekret. Sie machen einfach, was sie wollen. Ganz nach dem Motto: Wenn Menschen damit ein Problem haben, sollen sie den Rechtsweg beschreiten.
Das Innenministerium unter Nancy Faeser hatte schon während des Gesetzgebungsverfahrens der Ampel versucht, dass sämtliche Strafverfolgungsbehörden über die Änderung des Geschlechtseintrags automatisch informiert werden. Der Bundesdatenschutzbeauftragte hatte das schwer kritisiert. Diese automatische Datenerfassung und Datenweitergabe wäre sehr wahrscheinlich verfassungs- und europarechtswidrig. Daraufhin wurde diese Passage gestrichen.
Nun versucht das Ministerium, Verschärfungen über andere Wege einzubringen. Anstatt einen neuen Gesetzesentwurf vorzulegen und die Punkte nachzufordern, erlässt es Änderungen per Verordnung – einfach am Parlament vorbei. Gerade bei solchen sensiblen Daten am Bundestag vorbei zu agieren, hinterlässt verfassungsrechtlich einen bitteren Beigeschmack.
Was die Union angeht: Es war von vornherein völlig klar, dass die Union durch die Hintertür versuchen wird, das Gesetz auszuhöhlen. Abschaffen können sie es nicht, also werden sie alles Mögliche versuchen, um es weiter zu verschärfen. Hauptsache, eigene Ideen durchsetzen, um doch noch das Gefühl zu haben, wir haben für Ordnung gesorgt. Das ist dieses autoritäre Regieren, was ich bei der Union ganz problematisch finde.
„Der Bundesrat sollte die Menschenrechte in den Fokus nehmen“
netzpolitik.org: Was würdest du dem Bundesrat im Vorfeld der Abstimmung gern mitgeben?
Julia Monro: Der Bundesrat sollte sich seiner demokratischen Verantwortung bewusst sein und die Menschenrechte in den Fokus nehmen. Gerade die trans Community ist eine der vulnerabelsten Gruppen in der Gesellschaft. Die queere Community insgesamt steht massiv unter Druck und wird immer häufiger von rechts angegriffen. Die CSDs werden angegriffen, es gibt Übergriffe gegen trans Personen. Der Bundesrat sollte berücksichtigen, dass gerade diese vulnerable Minderheit besonders schützenswert ist. Dazu zählt auch der Schutz der Privatsphäre und der informationellen Selbstbestimmung, um weitere Verletzungen und Demütigung durch das Misgendern zu unterbinden.
Der Bundesrat sollte sich an Menschenrechte halten und keine parteipolitischen Spielchen mitmachen.
netzpolitik.org: Für wie wahrscheinlich hältst du es, dass der Bundesrat der Verordnung zustimmen wird?
Julia Monro: In den letzten Wochen habe ich viele Gespräche und Telefonate geführt, um das herauszufinden. Nach meinen aktuellen Berechnungen komme ich auf insgesamt 42 Stimmen, die sich enthalten oder gegen die Verordnung stimmen. Damit wäre die Verordnung abgelehnt. Ich bin also ein wenig optimistisch.
Am Vorabend der Sitzung gibt es noch ein sogenanntes Kamin-Gespräch. Da wird besprochen, wie sich die einzelnen Länderregierungen in der Abstimmung verhalten werden. Ob das am Ende auch so eintritt, entscheidet also mit hoher Wahrscheinlichkeit auch dieses Kamin-Gespräch. Da kann es Änderungen in letzter Sekunde geben.
Auch das Bundesinnenministerium hat wohl verstanden, dass viele Bundesländer dagegen stimmen oder sich enthalten wollen. Deshalb schickt es in letzter Minute noch das Dokument „Folgen einer Ablehnung der Verordnung“ herum, um noch Einfluss zu nehmen. Bundestag und Bundesrat sind nicht umsonst separate Verfassungsorgane und hier wird meines Erachtens die Neutralität nicht gewahrt. Es zeigt auch, wie sehr sie es ohne Rücksicht durchbringen wollen und jegliche Kritik ignorieren. Von der Bundesregierung erwarte ich, dass sie sich an Fakten und nicht an irgendwelchen Meinungen oder Gefühlen orientiert.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Die Chefs der drei Bundes-Geheimdienste fordern im Bundestag mehr Befugnisse, mehr Daten und mehr Künstliche Intelligenz. Die öffentliche Anhörung des Kontrollgremiums war ein Resultat aus den Snowden-Enthüllungen. Trotzdem fehlte jede Debatte über Grundrechte und unabhängige Kontrolle der Geheimdienste.

Wenn Deutschlands Geheimdienste öffentlich Rede und Antwort stehen müssen, ist das ein seltener Moment. Einmal im Jahr lädt das Parlamentarische Kontrollgremium – zuständig für die Aufsicht über Bundesnachrichtendienst (BND), Verfassungsschutz und Militärischer Abschirmdienst (MAD) – zu einer öffentlichen Anhörung ein.
In diesem Jahr war das Interesse besonders groß: Zum ersten Mal befragte das neu zusammengesetzte, derzeit auf sechs Abgeordnete geschrumpfte Gremium die Dienste in einer öffentlichen Sitzung. Und für die zwei frisch ernannten Präsidenten des Bundesamtes für Verfassungsschutz, Sinan Selen, und des Bundesnachrichtendienstes, Martin Jäger, war die Anhörung ebenso eine Premiere.
Wunschliste der Dienste
Wer den Verlauf der Sitzung verfolgte, bemerkte schnell, dass sich die Mitglieder des Kontrollgremiums darauf beschränkten, Fragen zur Bedrohungslage zu stellen und sich nach den Wünschen der Präsident:innen für zukünftige Befugnisse zu erkundigen. Die Präsident:innen nutzten die Gelegenheit, um einen ganzen Katalog an Erweiterungsvorschlägen zu präsentieren, begründet mit der komplexen Bedrohungslage, der sich die Bundesrepublik derzeit zweifellos ausgesetzt sieht.
Eine echte Debatte blieb leider fast vollständig aus. Dabei wäre gerade dieser öffentliche Austausch zwischen gewählten Fachpolitiker:innen, die mit der alltäglichen Arbeitsweise der Dienste bestens vertraut sind, und den Geheimdienstpräsident:innen der richtige Ort dafür.
Mehr Daten, mehr KI
Die Behördenvertreter:innen zeigten sich einig in ihrer Forderung nach mehr Befugnissen und Fähigkeiten. Ein Beispiel: Der bereits praktizierte Einsatz sogenannter Künstlicher Intelligenz soll ausgeweitet werden. Die Erkenntnisse, die sich durch automatisierte Datenverarbeitung gewinnen lassen, sind dabei immer abhängig von der Datenbasis.
Der neue BND-Präsident Martin Jäger verlangte deshalb nach einem größeren Datenvorrat. Er wünschte sich, dass die Fristen, innerhalb derer der BND Überwachungsdaten wieder löschen muss, wenn sie nicht benötigt werden, verlängert werden. Das solle insbesondere auch für Daten gelten, die der BND von ausländischen Partnerbehörden erhält.
Grundrechte kein Thema
Für die Öffentlichkeit wäre eine Diskussion darüber, wie sich solche automatisierten Überwachungsvorgänge grundrechtssicher gestalten lassen, besonders interessant gewesen. Die Sicherheitsbehörden müssen ihre Arbeitsweise stetig weiterentwickeln, um ihrem Auftrag gerecht zu werden.
Werden aber neue Technologien eingesetzt, wirkt die Arbeit der Dienste auf neue Weise auf Grundrechte. Diese Auswirkungen im Blick zu haben und über notwendige Begrenzungen nachzudenken, ist Teil des Auftrags sowohl der Präsident:innen als auch der PKGr-Mitglieder. Ein Austausch darüber hätte deshalb seinen Platz in dieser Anhörung verdient.
Ebenso spannend wäre es gewesen zu erfahren, wie in den zuständigen Kontrollbehörden die notwendige Expertise aufgebaut werden kann. Denn damit unabhängige Kontrollorgane überhaupt überprüfen können, ob algorithmenbasierte Überwachungsmaßnahmen zweck- und verhältnismäßig sind, müssen sie über Know-how und Ressourcen verfügen, um die Eingriffe zu analysieren.
Ergebnisse statt Prozesse
Der BND-Chef erklärte im Zuge der Anhörung auch, dass ihn Ergebnisse interessieren und nicht so sehr die Prozesse, die zu diesen Ergebnissen führen. Das klingt zupackend, wirft aber Fragen auf. Denn die Art und Weise, wie geheimdienstliche Arbeit organisiert ist, entscheidet darüber, ob sie sich innerhalb der gesetzlichen Grenzen bewegt.
Deshalb ist es so wichtig, wie die Prozesse und Regeln ausgestaltet sind, die das Parlament den Diensten vorgibt – besonders dann, wenn sie in Grundrechte der Menschen eingreifen, die sie eigentlich schützen sollen. Diese demokratisch festgelegten Regeln sichern nicht nur die Legitimität der Dienste, sondern beeinflussen auch, wie effektiv sie ihren Auftrag erfüllen können.
Vor diesem Hintergrund hätte man sich hier gewünscht, dass die Mitglieder des Kontrollgremiums solche Argumente aus gesetzgeberischer Perspektive in die Diskussion einbringen. Es ist genauso wichtig, der Öffentlichkeit das Selbstverständnis des Parlaments zu vermitteln wie sie für die bestehende Bedrohungslagen zu sensibilisieren.
Konstruktive Kritik notwendig
Solche kritischen und konstruktiven Fragen, wie sie das parlamentarische Kontrollgremium in den nicht-öffentlichen Sitzungen den Sicherheitsbehörden im Rahmen des Möglichen sicherlich stellt, gehören – unter Wahrung des Geheimschutzes – dringend auch in die jährliche öffentliche Anhörung.
Eine ausgewogene Debatte über neue Befugnisse macht die Arbeit der Sicherheitsbehörden besser. Sie ist zudem keineswegs Ausdruck von übermäßigem Misstrauen gegenüber diesen Behörden – sie ist Ausdruck intakter demokratischer Prozesse. Sie liegt nicht zuletzt im ureigenen Interesse dieser Behörden, weil sie deren Glaubwürdigkeit und Legitimation stärkt.
Dass Geheimdienste grundsätzlich Regeln brauchen, die von Volksvertreter:innen aufgestellt werden, darüber waren sich die Anwesenden bei der Anhörung einig. Ebenso galt das für die Notwendigkeit, die Urteile des Bundesverfassungsgerichts bei der Ausgestaltung und Umsetzung zu respektieren.
Reform der Geheimdienst-Gesetze
Diese Regeln wird die Bundesregierung nun, wie im Koalitionsvertrag angekündigt, überarbeiten. Der Anspruch für diese Novelle muss sein, die zahlreichen bestehenden verfassungsrechtlichen Mängel zu beheben – und sicherzustellen, keine neuen unausgereiften oder gar verfassungswidrigen Regelungen zu schaffen.
Für die Reform sollten alle politischen Akteure den Mut haben, komplexe Fragen auch öffentlich anzusprechen. Ein offener und ehrlicher Austausch während des Gesetzgebungsprozesses unterstützt die Ziele der Novelle. Wer vielfältige Stimmen berücksichtigt, stärkt nicht nur die Qualität des Gesetzes, sondern auch die Legitimation der Dienste. Eine vielstimmige Debatte bietet zudem einen Schutz vor schlechten Entscheidungen.
Denn eines sollte man unbedingt vermeiden: Normen, die das Verfassungsgericht später aufhebt, würden den Geheimdiensten in ihrem Einsatz gegen die vielfältigen Bedrohungen einen Bärendienst erweisen.
Corbinian Ruckerbauer arbeitet als Senior Policy Researcher für den Berliner Think Tank interface. Im Programm Digitale Grundrechte, Überwachung und Demokratie beschäftigt er sich mit der rechtsstaatlichen Kontrolle von Geheimdiensten.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Der Deutschland-Stack soll der lahmenden Verwaltungsdigitalisierung auf die Sprünge helfen. Doch was genau ist die Technologie-Plattform, wie kann sie dabei helfen und wer ist wofür verantwortlich? Eine Übersicht.

Wer ein Unternehmen gründen will, soll dies laut den Plänen des Digitalministeriums in Zukunft innerhalb von nur 24 Stunden online erledigen können. In einem Webportal, ganz bequem von zu Hause aus. Dafür soll es ein einheitliches digitales Verfahren geben, ganz egal in welcher Kommune das Unternehmen sitzt. Auch Steuer- und Handelsregisternummern sollen über Schnittstellen zu den zuständigen Behörden im selben Portal erstellt werden.
Die Grundlage dafür soll künftig der Deutschland-Stack bilden, kurz: D-Stack. Es ist eines der Prestigeprojekte des neu gegründeten Ministeriums für Digitales und Staatsmodernisierung und soll eines der zentralen Versprechen der Bundesregierung einlösen: den Staat und die Verwaltung zu modernisieren und zu digitalisieren. Und zwar indem der Deutschland-Stack eine einheitliche digitale Infrastruktur für die öffentliche Verwaltung in Bund, Ländern und Kommunen bereitstellt.
Die Erwartungen an den D-Stack sind dementsprechend riesig. Sein Aufbau wird aus dem Sondervermögen Infrastruktur bezahlt. Allein für das laufende Jahr wurden knapp 40 Millionen Euro eingeplant, wie das Digitalministerium auf Anfrage mitteilte.
Was ist der Deutschland-Stack?
In einem kürzlich von der Bundesregierung beschlossenen Reformen-Fahrplan, der sogenannten Modernisierungsagenda, wird der Deutschland-Stack als „eine sichere, interoperable, europäisch anschlussfähige und souveräne Technologie-Plattform zur Digitalisierung der gesamten Verwaltung“ beschrieben. Er soll in den nächsten Jahren schrittweise aufgebaut werden. Ab 2028 sollen Bund, Länder und Kommunen den Stack nutzen können.
In einem Stack sind üblicherweise bestimmte aufeinander aufbauende Softwarekomponenten wie Programmiersprachen, Front- und Backend, Datenbanken, Bibliotheken, Schnittstellen und Entwicklungswerkzeuge gebündelt. Mit ihrer Hilfe werden dann Anwendungen entwickelt und betrieben. Der Deutschland-Stack wird demnach aus einer einheitlichen IT-Infrastruktur mit festgelegten technischen Standards und Diensten, wie der digitalen Legitimation, der Bezahlfunktion, dem Once-Only-Prinzip, einem vom Bund kuratierten Marktplatz sowie einer KI-gestützten Planungs- und Genehmigungsplattform bestehen.
Diese grundlegenden Dienste nennt der Bund „Basiskomponenten“ und will sie erstmals selbst bereitstellen, damit Verwaltungen der Länder und Kommunen sie nachnutzen können. Das sei zielführender als die Digitalisierung der Verwaltung über Rechtsvorschriften, teilt Jörg Kremer von der Föderalen IT-Kooperation (Fitko) gegenüber netzpolitik.org mit. Die Fitko koordiniert die Digitalisierung der öffentlichen Verwaltung von Bund und Ländern. Mit den Bausteinen werde ein deutlicher Weg hin zu einer Zentralisierung der digitalen Infrastruktur der öffentlichen Verwaltung eingeschlagen, sagt der Leiter der Abteilung Föderales IT-Architektur- und Standardisierungsmanagement und Cybersicherheit. Das IT-Architekturmanagement der FITKO hat an den Grundlagen des Stacks mitgearbeitet.
Was sind die zentralen Basiskomponenten?
Die Basiskomponenten stehen bereits fest. Laufende Projekte wie die geplante EUDI-Wallet fügen sich laut BMDS in den Deutschland-Stack ein. Die EUDI-Wallet soll künftig eine Art digitale Brieftasche für alle EU-Bürger*innen sein, mit der sie sich online ausweisen und Verträge unterzeichnen können. Bis Ende 2026 muss jeder EU-Mitgliedsstaat eine Wallet anbieten, ihre Implementierung auf dem D-Stack ist innerhalb von drei Jahren geplant.
Für Markus Richter, Staatssekretär im Bundesdigitalministerium, bildet die „KI-gestützte Planungs- und Genehmigungsplattform H2-Plattform“ den „Nukleus“ des Stacks. Dabei handelt es sich um eine Plattform zur beschleunigten Planung von Wasserstoffleitungen, die bis 2032 in Betrieb gehen sollen. Ein etwa 9.000 Kilometer langes Netz aus Leitungen wird klimaneutralen Wasserstoff zu Industrie und Kraftwerken transportieren.
Die Genehmigungsprozesse für Wasserstoffleitungen sind lediglich ein erster Anwendungsfall. Später sollen weitere Antragsverfahren über die Plattform laufen, beispielsweise für den Bau von Windkraftanlagen, Biogas-Raffinerien sowie Energie- und Verkehrsinfrastrukturen.
Die KI-Komponente soll die Daten, die bei solchen Verfahren anfallen, verarbeiten und Teile der Prüfung automatisieren. Der erste Pilot der Plattform soll laut Richter am 15. November in Betrieb gehen, die KI-Komponente wird später angebunden. Derzeit läuft ein Vergabeverfahren für ihre Entwicklung.
Auch die deutsche Verwaltungscloud, ein Marktplatz für Cloud-Dienste für die öffentliche Verwaltung, und das National-Once-Only-Technical-System (NOOTS) sollen über den D-Stack laufen. Letzteres ist eine „Datenautobahn“ von Bund und Ländern, über die Behörden ebenenübergreifend miteinander Daten austauschen sollen. Ziel ist, dass Menschen ihre Daten bei verschiedenen Behörden nicht mehrmals eingeben müssen.
Im August hatte das Digitalministerium außerdem noch andere Missionen vorgestellt, in denen es weitere Kernkomponenten für den D-Stack erarbeitet. Dazu gehören das Identitäts- und Zugangsmanagement (Identity and Access Management, IAM), eine Low-Code-Plattform und Kipitz.
Mit IAM lässt sich regulieren, welche Personen Zugriff auf bestimmte Daten und Systeme in einer Organisation haben dürfen. Die Low-Code-Plattform ist eine Entwicklungsumgebung, die eher grafisch-visuell funktioniert und weniger Kenntnisse in klassischen Programmiersprachen erfordert. Kipitz ist ein bereits existierendes KI-Portal des ITZBund, des IT-Dienstleisters des Bundes, auf dem die Bundesverwaltung verschiedene KI-Modelle benutzt.
Konsultation eröffnet: Zweifel über die Umsetzung bleiben
Nach monatelanger Definitionsphase hat das Digitalministerium mittlerweile die Online-Konsultation für den Deutschland-Stack gestartet. Die Öffentlichkeit ist eingeladen, bis Ende November an der Konzeption des Stacks mitzuwirken. Eine neue Landing Page des Projekts ist auf der Open-Source-Plattform der öffentlichen Verwaltung OpenCode online gegangen.
Diese Seite hat beim Fachpublikum jedoch mehr Fragen aufgeworfen, als Antworten geliefert. Es gebe keine Klarheit darüber, wie der Deutschland-Stack genau ausgestaltet sein soll. „Es gibt weiterhin nicht ansatzweise ein Konzept, wie dieser Stack technisch, organisatorisch oder föderal überhaupt funktionieren soll“, schreibt beispielsweise Thomas Bönig, Leiter des Stuttgarter Amts für Digitalisierung, auf LinkedIn. Das Projekt wirke oberflächlich, unprofessionell und planlos. Wesentliche Aspekte wie Architektur, Roadmap oder klare Verantwortlichkeiten fehlen laut Bönig.
Auch der zivilgesellschaftliche Digitalverein D64 bemängelt gegenüber netzpolitik.org, dass entscheidende Fragen offen bleiben: Wer betreibt, finanziert und haftet für den Deutschland-Stack? Die Webseite beschreibe vor allem technische Ziele und liefere Allgemeinplätze. Es fehle an Substanz und einem belastbaren Konzept.
„Die größten Hemmnisse der Verwaltungsdigitalisierung sind nicht primär fehlende Technik, sondern fehlende Verbindlichkeit, föderale Koordination, nachhaltige Betriebsverantwortung, Nutzenden-Orientierung und Wiederverwendbarkeit von Komponenten“, sagt Bendix Sältz von D64. Technologie ohne klare organisatorische und rechtliche Verankerung werde diese Probleme nicht beseitigen.
Auch Kremer von der Fitko wünscht sich klare und eindeutige Absprachen darüber, wer welche Aufgaben beim Deutschland-Stack übernimmt. Der Stack muss sich in erster Linie daran orientieren, was Kommunen und Länder tatsächlich benötigen. Wenn eine konkrete Lösung entwickelt, gut dokumentiert und die Schnittstellen klar beschrieben sind, könnten etwa die Länder dafür verantwortlich sein, sie für ihre Fachverfahren zu nutzen.
„Die Vereinbarungen können auch anders gestaltet sein. Wichtig ist, dass sie im Vorfeld einheitlich geregelt werden“, betont der Abteilungsleiter bei der Fitko, um nicht die gleichen Fehler wie beim Onlinezugangsgesetz zu wiederholen. Der Plattformkern, der Basiskomponenten für alle föderalen Ebenen zur Verfügung stellt, sollte seiner Meinung nach idealerweise föderal gesteuert werden.
Digitale Souveränität: Wirtschaftsförderung oder Gemeinwohl?
„Digitale Infrastruktur entscheidet darüber, wer Zugang zu Informationen, Verwaltung und gesellschaftlicher Teilhabe hat“, teilt das Bündnis F5 auf unsere Anfrage mit, das aus fünf digitalpolitischen Vereinen besteht. Ähnlich wie D64 betont das Bündnis, dass der D-Stack sich nicht allein an Effizienz und Wirtschaftsförderung orientieren darf.
Öffentliche Infrastrukturmaßnahmen können sinnvoll sein, um die Abhängigkeit von Big Tech zu vermindern, so Sältz von D64 weiter. „Aber Souveränität darf weder als Rechtfertigung für nationale Abschottung dienen, noch als Subventionsprogramm für deutsche oder europäische Unternehmen, die die Geschäftsmodelle von Big Tech nachahmen.“
Sowohl F5 als auch D64 fordern daher, den Deutschland-Stack stärker am gesellschaftlichen Nutzen auszurichten. D64 fordert, dass Open-Source-First, interoperable Schnittstellen sowie die Zusammenarbeit auf internationaler und europäischer Ebene verbindlich vorgeschrieben werden.
Nicht zuletzt fehle es bei dem bisherigen Konzept an echter Einbindung der Zivilgesellschaft. Das offizielle Beteiligungsverfahren sieht vor allem Workshops mit Unternehmen, Wirtschaftsverbänden und IT-Dienstleistern der öffentlichen Verwaltung vor. Für die Zivilgesellschaft bleibt bisher das Feedback-Formular auf der Seite. Für eine echte Beteiligung von Kommunen, Ländern und Zivilgesellschaft brauche es aber Ressourcen wie beispielsweise Budget und Personalkapazität, sagt Bendix Sältz von D64.
Personalwechsel in der Abteilung „Deutschland-Stack“
Parallel zum Konsultationsstart gab es im Digitalministerium einen Personalwechsel: Digitalminister Karsten Wildberger setzte Anfang Oktober Martin von Simson von der Leitung der gleichnamigen Abteilung „Deutschland-Stack“ ab. Als Grund dafür wird vermutet, dass das Projekt bislang nicht von der Stelle gekommen war. Nach Informationen von Tagesspiegel Background habe die Abteilung mit „Chaos“ sowie fehlendem strategischen Handeln und Unklarheiten über den Kern des Projekts gekämpft. Auch die verzögerte Bereitstellung der H2KI-Plattform soll zu diesem frühen Wechsel der Leitung beigetragen haben.
An Simsons Stelle tritt Christina Decker, die bislang die Abteilung Zukunftstechnologien im Bundeswirtschaftsministerium leitete. Sie wird ab jetzt die größte Abteilung des Digitalministeriums mit 13 Referaten und einer Arbeitsgruppe führen.
Hinweis: In der alten Version stand, dass Jörg Kremer an den Grundlagen des Stacks mitgearbeitet hat. Das war nicht korrekt. Wir haben das korrigiert.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Werbeanzeigen auf Facebook und Co. versprechen sichere Online-Investments, aber am Ende verlieren Menschen ihr ganzes Geld. Solche betrügerische Werbung verbietet der Digital Services Act, Plattformen müssen sie löschen. Doch der Flut an immer neuen KI-generierten Anzeigen ist schwer beizukommen.

Boris Pistorius blickt direkt in die Kamera. Der deutsche Verteidigungsminister richtet sich an die Nation, spricht von „rasantem Wandel, neuen Arbeitsplätzen und fortschrittlichen Technologien“. Sie sollen Deutschland an die Spitze der Weltwirtschaft bringen. Am Ende des Clips verspricht er dem Facebook-Publikum, ein neues Regierungsprogramm werde „Gewinne für jeden Bürger sichern“.
Auch die derzeitige Präsidentschaftskandidatin Irlands, Heather Humphreys, spricht in einem vielgeklickten Facebook-Video zu ihren potenziellen Wählern: „Ich freue mich, Ihnen Quantum AI vorzustellen“, sagt sie. Eine Plattform, die irischen Familien den Weg in die finanzielle Unabhängigkeit ebnen würde. Wer dort einen kleinen Betrag investiere, könne „wöchentliche Zahlungen von bis 4.500 Euro erhalten.“ Humphreys versichert, die irische Regierung habe gemeinsam mit Finanzinstitutionen des Landes das Programm „zugänglich und sicher gemacht“.
Der Weg in den Investment-Betrug
Humphreys und Pistorius haben all das nie gesagt. Die Clips sind täuschend echte Fälschungen, die mit KI-Tools erstellt wurden. Über Plattformen wie Facebook, Instagram oder TikTok verbreiten sich die Deepfakes mit den prominenten Finanztipps als bezahlte Werbeanzeigen. Von den Videos führt ein Link zu einer Plattform, auf denen Nutzer ihre Kontaktdaten hinterlassen. Es folgen Anrufe eines vermeintlichen Finanzberaters, der um eine kleine erste Einzahlung bittet. Der Investment-Betrug beginnt.
Geschulte Callcenter-Agenten führen ihren Opfern auf angeblichen Investment-Plattformen vor, wie sich deren Einzahlungen rasant vermehren. Darauf hoffend ihre Gewinne zu steigern, investieren manche Menschen Tausende oder gar Zehntausende Euro. Bis sie versuchen, sich das Geld auszahlen zu lassen. Erst dann erkennen sie meist: Es gab nie eine echte Investition. Sie stecken tief in einem System, das von Anfang an gegen sie gerichtet war.
Europäische Ermittler sowie Computerkriminalitätsfachtleute warnen zunehmend vor dem enormen Ausmaß der Betrugsmasche, die meist mit einem Social-Media-Inserat beginnt. Im September erklärte die EU-Digitalkommissarin Henna Virkkunen, dass Europäerinnen und Europäer durch Werbung für Finanzbetrug jährlich mehr als vier Milliarden Euro verlieren würden.
Befeuert durch KI-Tools
Investigate Europe kann nun zeigen, wie sich der Betrug mit vermeintlichen Online-Investments nahezu ungehemmt in Europa ausbreitet, betrieben in mutmaßlich illegalen Callcentern und nun potenziert durch den Einsatz von KI-Systemen. Die Auswertung privater E-Mails und Chatnachrichten zwischen Betrügern und ihren Opfern sowie Interviews mit Dutzenden Betroffenen zeigen, wie zahllose Europäerinnen und Europäer unablässig mit täuschenden Annoncen für Anlageoptionen überzogen werden, die sich in den sozialen Netzwerken rasant verbreiten.
Reporterinnen und Reporter führten mehr als hundert Gespräche mit Staatsanwälten, Content-Moderatoren, EU-Beamten, Cybercrime-Experten und Bankangestellten. Sie zeigen, wie Europas Institutionen es nicht schaffen, Bürgerinnen und Bürger vor dem Risiko des finanziellen Ruins zu schützen.
Meldestellen für betrügerische Anzeigen
Valentine Auer kennt das Drehbuch der Betrüger in- und auswendig. Sie leitet beim Wiener Institut für angewandte Telekommunikation (ÖIAT) ein Team zur Betrugserkennung. Seit vergangenem Jahr ist das ÖIAT ein sogenannter Trusted Flagger. Die Europäische Kommission führte den Begriff im Rahmen ihres wegweisenden Gesetzes zur Regulierung digitaler Inhalte, dem Digital Services Act (DSA), ein.
Zu den Trusted Flaggern zählen Finanzinstitute, NGOs oder Unternehmen, die von den nationalen Behörden aufgrund ihrer Expertise zugelassen werden, etwa in den Bereichen Kinderschutz, Hassrede oder Betrug. Meldungen dieser Stellen sollen von den großen Plattformen wie Facebook oder Instagram mit besonderer Priorität bearbeitet werden. Trusted Flagger arbeiten unabhängig von den internen Moderationsteams der Plattformen. Bisher gibt es 46 solcher Stellen in 17 der 27 EU-Mitgliedstaaten.
In Österreich durchforstet Auer gemeinsam mit drei Kolleginnen und Kollegen große Plattformen und Suchmaschinen wie Facebook, Instagram und Google. Ihr Team spürt gezielt illegale Inhalte auf, von betrügerischen Finanzanzeigen über Darstellungen sexualisierter Gewalt an Kindern bis hin zu Hassrede, und beantragt deren Löschung bei den Plattformen.
Wenige Menschen gegen eine Flut von Inhalten
Ein Blick in die Werbebibliothek von Meta, das Archiv des Konzerns für alle Anzeigen auf seinen Plattformen wie Facebook und Instagram, zeigt: Mit nur wenigen Dutzend Suchbegriffen stoßen Auer und ihr Team auf eine Flut betrügerischer Finanzanzeigen. Viele Annoncen ähneln sich sehr. Veränderungen sind nur minimal, um automatischen Filtern zu entgehen.
„Wir sehen immer wieder dieselben Tricks: Videos, die nur für ein paar Stunden geschaltet werden, gehackte Promi-Accounts, die für Anzeigen missbraucht werden“, sagt Auer. „In kurzer Zeit haben wir Zehntausende solcher Anzeigen gefunden, darunter das Video mit Boris Pistorius, offensichtlich KI-generiert.“
Auers Recherchen zeigen, wie einfach es ist, solche Anzeigen zu finden, und wie schwer es ist, Meta dazu zu bewegen, sie zu löschen. „Wenn wir nur eine Handvoll Anzeigen melden, werden sie oft innerhalb weniger Tage entfernt“, sagt sie. „Doch sobald wir größere Mengen einreichen, reagiert Meta plötzlich nicht mehr oder behauptet, das Material sei derzeit nicht verfügbar, obwohl wir wissen, dass es noch online ist.“
Neben dem DSA sind betrügerische Anzeigen auch laut Metas Werberichtlinien verboten. Denn die schließen ausdrücklich Inhalte aus, die Personen oder Organisationen falsch darstellen, ebenso wie „irreführende oder täuschende Behauptungen“ zu Finanzprodukten. Als Werbebotschafter fungieren häufig Deepfakes von Prominenten und Politikern. Die sind laut Metas Regeln ebenfalls untersagt.
Betrügerische Anzeigen und der Digital Services Act
Die EU-Kommission bezeichnete betrügerische Investmentanzeigen unlängst als „systemisches Risiko“ für den Verbraucherschutz und forderte die Plattformen zu besseren Schutzmaßnahmen auf. Europol warnte in einem Lagebericht aus diesem Frühjahr, Online-Finanzbetrug habe „durch Fortschritte in Automatisierung und Künstlicher Intelligenz ein beispielloses Ausmaß erreicht, und dürfte weiter zunehmen“. Allein die Anzeigen aus dem Netz zu nehmen – selbst wenn das gelingen würde – ändert nichts an den kriminellen Strukturen dahinter.
Als Reaktion starteten Polizeibehörden in Deutschland, Großbritannien, Serbien, Bulgarien, Rumänien, Georgien und Israel groß angelegte Einsätze. Sie zerschlugen Netzwerke, die mit aufwendigen Betrugssystemen über den gesamten Kontinent hinweg operierten, mit Opfern in Europa und weit darüber hinaus.
Angesichts von Metas globaler Reichweite und der Leichtigkeit, mit der Anzeigen geschaltet werden können, sind Facebook und Instagram zu bevorzugten Plattformen für Betrüger geworden, die Nutzer ausnehmen wollen. Auf den Plattformen haben EU-Bürgerinnen und Bürger knapp 530 Millionen Accounts. Unlängst warb der Konzern damit, dass sein Geschäft mit personalisierter Werbung in Zusammenhang mit einem Wirtschaftsertrag von 213 Milliarden Euro und 1,44 Millionen Jobs stünde.
Wer zahlt für die Betrugsanzeigen?
Laut mehreren Trusted Flaggern ist in der Werbebibliothek von Meta bei Anzeigen häufig nicht klar ersichtlich, wer sie tatsächlich veröffentlicht und bezahlt hat, obwohl der Digital Services Act genau das vorschreibt. „Eigentlich ist es verpflichtend anzugeben, wer die Anzeige bezahlt hat“, sagt Auer. „Aber meist steht dort nur ein bedeutungsloser Name.“
Auch betrügerische Werbekunden können die automatischen Erkennungssysteme der Plattformen leicht umgehen, erklärt der Leiter der Sicherheitsabteilung der Bank of Ireland, Paul O’Brien. „Man klickt auf eine Anzeige für eine Irlandreise durch Connemara und in Wahrheit ist es eine Finanzbetrugsanzeige.“ Solche Anzeigen herauszufiltern, sei eine Vollzeitaufgabe.
Im Vergleich zum rasanten Anstieg des Finanzbetrugs in Europa verläuft der Aufbau der Trusted-Flagger-Strukturen schleppend. Von den derzeit 46 offiziell anerkannten Organisationen hat nur knapp ein Drittel als Fachgebiet auch „Betrug“ angegeben.
Im Mai dieses Jahres erhielt auch die litauische Organisation Debunk EU den Trusted-Flagger-Status. In einem Videogespräch zeigt der Chef der Organisation Viktoras Daukšas die Software, die sein Team nutzt, um Betrugsnetzwerke auf Facebook nachzuzeichnen. „Wir beobachten, dass in immer mehr Anzeigen Deepfakes und KI-generierte Inhalte verwendet werden“, sagt er. Ende September hatte seine kleine Organisation bereits mehr als eine Million Anzeigen gemeldet, die von etwa 1,4 Milliarden Nutzern angesehen worden waren. Er schätzt, dass die Personen hinter den Anzeigen mehr als 20 Millionen Euro an Meta für die Werbeplatzierung gezahlt haben dürften.
Wie seine österreichische Kollegin Auer kann auch Daukšas nur 20 URLs pro Bericht an Meta melden. Es variiere stark, wie lange die Plattformen benötigen, um die Inhalte zu löschen. So habe Meta mitunter Monate und schriftliche Erinnerungen benötigt, bevor eine Anzeige verschwand. Häufig würden Inhalte aber deutlich schneller gelöscht, bestätigen auch Trusted Flagger aus anderen EU-Staaten wie Italien und Griechenland.
Meta ließ Anfragen nach einer Stellungnahme zu den Ergebnissen dieser Recherche unbeantwortet.
Das ungleiche Verhältnis zwischen den Betrügern und den Plattformbeobachtern wird nun durch den Einsatz von Künstlicher Intelligenz weiter potenziert.
Wenige Stunden Werbung, mehrere Jahre Ermittlungen
Der Sicherheitsexperte der Bank of Ireland, Paul O’Brien, beobachtet, dass KI-generierte Anlagebetrügereien von Woche zu Woche raffinierter werden. „Innerhalb einer einzigen Anzeige gibt es inzwischen oft über 50 verschiedene Varianten desselben Werbetreibenden, leicht verändert, aber im Kern identisch oder mit demselben Ziel“, sagt er. Die mutmaßlichen Betrüger würden ihre Anzeigen bewusst nur für wenige Stunden schalten. Hat er die erste Version deaktiviert, aktiviert er eine neue Anzeige. „Sie nutzen die Funktionen der Plattformen einzig dazu, an die Kontaktdaten der Nutzer zu kommen, danach verlagert sich alles auf außerhalb der Plattform.“
Vom nordbayerischen Bamberg aus jagt der deutsche Staatsanwalt Nino Goldbeck die Betreiber hinter betrügerischen Online-Handelsplattformen. Als die Zentralstelle Cybercrime Bayern 2018 eine eigene Abteilung für Wirtschaftskriminalität gründete, ahnte er nicht, welches Ausmaß das Problem annehmen würde. Pro Jahr, schätzt er, würden Menschen in Deutschland mittels vermeintlicher Online-Investmentplattformen um mehr als eine Milliarde Euro gebracht.
Heute leitet Goldbeck gemeinsam mit einem Kollegen zwei Abteilungen, mit insgesamt einem Dutzend Staatsanwälten, die täglich bis zu 40 neue Anzeigen erhalten. Doch einen Fall vor Gericht zu bringen, dauere mitunter viele Jahre.
„Wir konzentrieren uns auf bestimmte Personen, bei denen die Beweislage stark ist. In diesen Fällen sind die nachweisbaren Schäden besonders hoch – da haben wir wirklich belastbares Material.“ Gemeinsam mit seinem Team hat Goldbeck bereits zahlreiche Netzwerke zerschlagen.
Ähnlich klingt es aus Norwegen und Irland: Die Zahl digitaler Finanzdelikte wächst rasant, Ermittler sprechen von Hunderten Fällen pro Woche. Der norwegische Staatsanwalt Andre Hvoslef-Eide berichtet, dass er inzwischen davon ausgehe, dass in kriminellen Netzwerken inzwischen „die Einnahmen aus Betrugsdelikten jene aus Drogenverkäufen“ ersetzen. In Irland berichtet der leitende Kriminalbeamte Michael Cryan: „Wir melden betrügerische Anzeigen jeden Tag, doch von Meta gibt es keinerlei Kooperation.“
Ein Kampf an vielen Fronten
Irland schlug im Frühjahr dieses Jahres deshalb vor, mittels der sogenannten Payment Service Regulation, große Plattformen gesetzlich zu verpflichten, die Identität ihrer Werbekunden vor der Veröffentlichung von Annoncen zu prüfen. Doch der Vorschlag erhielt in einer Arbeitsgruppe des EU-Rats keine Mehrheit. Google etwa führt solche Überprüfungen bereits durch. Doch wer auf den Meta-Plattformen in der EU für Finanzprodukte werben möchte, muss sich vorher nicht verifizieren.
Der Konzern bleibt im Fokus. Die EU-Kommission eröffnete im April 2024 ein Verfahren, um zu prüfen, ob Meta gegen den Digital Services Act verstoßen habe, unter anderem gegen die Vorgaben im Zusammenhang mit irreführender Werbung. Eine abschließende Entscheidung steht noch aus.
Während Ermittler in Bamberg Aktenordner wälzen und in Brüssel über Vertragsstrafen beraten wird, spielt sich ein entscheidender Kampf gegen den Betrug mit vermeintlichen Online-Investments längst woanders ab: in einem Büroraum im dritten Wiener Bezirk.
Dort sitzt Valentine Auer vor drei Bildschirmen, umgeben vom Summen der Computerlüfter. Seit einem Jahr durchforstet sie das Internet nach betrügerischen Anzeigen, Videos, Deepfakes, falschen Versprechen. Seit Meta sein System externer Faktenprüfer eingestellt hat, sei das Problem astronomisch, sagt sie. Trusted Flagger allein können es nicht richten, aber was macht Meta? Auer lächelt kurz und sagt fast resigniert: „Am Ende ist klar, was zählt: das Geschäft.“
Dieser Artikel ist der zweite Teil der Recherche „Scam Europe“, die vom Balkan Investigative Network (BIRN) geleitet wurde sowie von Investigate Europe, einem Journalistenteam, das länderübergreifend arbeitet. Diese Geschichte wird mit Medienpartnern in acht Ländern veröffentlicht, darunter Der Standard, Altreconomia, Balkan Insight, EU Observer, The Irish Times, La Libre, netzpolitik.org und Público. Die Recherche wurde unterstützt von IJ4EU (Investigative Journalism for Europe).
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Der dänische Justizminister versucht, mit wolkigen Anschuldigungen den Eindruck zu erwecken, dass die Proteste gegen die geplante Chatkontrolle von Big-Tech gekauft seien. Verschiedene zivilgesellschaftliche Organisationen weisen dies empört zurück – und erinnern an die Lobbynähe der EU-Kommission.

Der dänische Justizminister Peter Hummelgaard hat in einer Pressekonferenz nach der abgesagten Chatkontrolle-Abstimmung im Rat der EU Journalist:innen empfohlen, sie sollten „dem Geld folgen“ (Video), um herauszufinden, wie die Chatkontrolle-Debatte entstanden sei. Damit streut er Gerüchte, dass die Gegner:innen der anlasslosen Überwachung letztlich gekauft seien.
Der Sozialdemokrat Hummelgaard wiederholt damit Vorwürfe, die er schon im September dieses Jahres im dänischen Rundfunk DR erhoben hatte. Dort äußerte er die Meinung, dass es in dieser Debatte einige falsche Narrative gäbe, und er verstehe auch gut, woher sie kämen. Weiter behauptete er: „Sie stammen zum großen Teil aus sehr, sehr starkem und heftigem Lobbyismus seitens der Tech-Unternehmen.“
Die Aussagen wirken alleine angesichts der Breite des Widerspruches gegen die Chatkontrolle schon aus der Luft gegriffen. Seit Jahren reden sich Hunderte von IT-Expertinnen und Sicherheitsforschern, Juristinnen, Datenschützern, Digitalorganisationen, Tech-Unternehmen, Messengern, UN-Vertretern, Kinderschützern, Wächterinnen der Internetstandards, Wissenschaftlerinnen weltweit den Mund gegen die Chatkontrolle fusselig, weil sie diese für ein grundrechtsfeindliches und gefährliches Überwachungsprojekt halten.
Absurd, verzweifelt, respektlos
Dementsprechend empört fallen auch Reaktionen aus der Zivilgesellschaft aus. „Die Beschuldigung, die netzpolitische Zivilgesellschaft sei gekauft, übertrifft in Absurdität und Respektlosigkeit noch Axel Voss Vorwürfe in der Urheberrechtsdebatte“, sagt Elina Eickstädt, Sprecherin des Chaos Computer Clubs. Der Europaabgeordnete raunte damals, die Proteste seien von Bots gesteuert.
Die „Arbeit an der Chatkontrolle“ würde zu großen Teilen von vollständig ehrenamtlichen Akteurinnen wie dem CCC gemacht, so Eickstädt weiter. „Wir sind hauptberufliche Techniker:innen, die es sich in ihrer Freizeit zur Aufgabe gemacht haben digitale Menschenrechte zu schützen.“
Auch Konstantin Macher von der Digitalen Gesellschaft hält die Aussagen des dänischen Justizministers für absurd: „Sie zeugen vom verzweifelten Versuch, die Chatkontrolle notfalls auch mit unlauteren Methoden durchzudrücken. So ein Verhalten haben wir schon einmal von der ehemaligen EU-Innenkommissarin gesehen, die wegen ihrer Nähe zur Pro-Chatkontrolle-Lobby massiv in der Kritik stand.“
In eine ähnliche Kerbe haut auch Jesper Lund, Vorsitzender der dänischen Digitalorganisation IT-Pol: „Es werden keine Beweise vorgelegt, und das genaue Gegenteil ist der Fall: die Proteste werden von Menschen organisiert.“ Tatsächlich seien ja Journalisten „dem Geld gefolgt” und hätten damals erhebliche versteckte Finanzmittel hinter der Unterstützung für die Chatkontrolle aufgedeckt. „Ich kann hinter Hummelgaards Aussagen nur einen einzigen Zweck erkennen: er will die öffentlichen Proteste diskreditieren, die mehr EU-Regierungen dazu bewegen könnten, sich im Rat gegen Chatkontrolle auszusprechen“, so Lund weiter.
EU-Kommission beim Lobbyismus aufgefallen
Im Verlauf der mittlerweile vier Jahre anhaltenden Chatkontrolle-Debatte war vor allem die EU-Kommission durch Empfänglichkeit für Lobbyismus und eigene Lobbytätigkeiten aufgefallen. So konnten die Überwachungsbefürworter von der Lobbyorganisation Thorn innerhalb von 37 Minuten einen Termin mit der damaligen EU-Innenkommissarin Johansson organisieren.
Verschiedene europäische Medien hatten zudem aufgedeckt, dass ein breites und millionenschweres Netzwerk aus Tech-Firmen, Stiftungen, Sicherheitsbehörden und PR-Agenturen auf höchster EU-Ebene für die Chatkontrolle lobbyiert hatte. Die EU-Kommission hatte im Jahr 2023 darüber hinaus zu politischem Targeting gegriffen und zielgerichtete Werbung auf Twitter in Ländern geschaltet, die kritisch gegen die Chatkontrolle eingestellt waren.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Nachdem die sächsische Polizei den Protestbus beschlagnahmt hatte, hagelte es Kritik an der Maßnahme. Jetzt ermittelt die Polizei wegen Hassrede gegen Unterstützer:innen der Aktionskünstler. Gleichzeitig wurden offenbar interne Details der TÜV-Prüfung des Busses an einen rechten Youtuber weitergegeben.

Der mittlerweile bundesweit bekannte Protestbus „Adenauer SRP+“ der Künstlergruppe Zentrum für politische Schönheit, der auch das Sommerinterview von Alice Weidel öffentlichkeitswirksam gestört hatte, steht weiter im Fokus der Polizei. Die Künstler:innen beklagen fortlaufende Schikanen – nun durch die sächsische Polizei.
Im Bundesland Sachsen war der Bus am 20. September eigentlich als Lautsprecherwagen beim Christopher Street Day in Döbeln vorgesehen. Er wurde dann aber von der Polizei gestoppt und wegen angeblicher Sicherheitsmängel aus dem Verkehr gezogen und beschlagnahmt.
Seit das Fahrzeug auf der Straße ist, scheint es ein Lieblings- bzw. Hassobjekt von Polizeien aller Art zu sein. Es ist nicht das erste Mal, dass der Bus von der Polizei durchsucht, beschlagnahmt, beschädigt, technisch überprüft oder mit besonderen Auflagen belegt wird.
Ärger mit dem TÜV
Im neusten Fall in Sachsen ließ die Polizei das Fahrzeug in Folge der Beschlagnahme bei der Dekra in Chemnitz am 26. und 29. September technisch untersuchen. Die Dekra erklärte das Fahrzeug für verkehrsunsicher, die Aktionskünstler ließen es deshalb per Tieflader zurück nach Berlin holen. Laut dem Zentrum für politische Schönheit liegt der Künstlergruppe allerdings bis heute kein schriftliches Gutachten der Dekra vor.
Ein Pressesprecher der Dekra sagt auf Anfrage, dass nur der Auftraggeber des Gutachtens, also die Polizei, etwas dazu sagen könne. Die Polizei hat eine entsprechende Anfrage von netzpolitik.org nicht beantwortet. Gegenüber der Freien Presse (€) heißt es hingegen seitens der Polizei, dass nur eine Kurzinfo vorliege und die Dekra das Gutachten noch nicht fertiggestellt habe.
Bislang ist der Bus nach technischen Prüfungen jedes Mal wieder auf die Straße zurückgekehrt. Die Aktionskünstler sprechen vom „am meisten geprüften Fahrzeug des Landes“. In Folge stand die Polizei mehrfach so da, als habe sie nicht wegen Sicherheitsaspekten, sondern aus politischen Beweggründen gehandelt.
Ermittlungen gegen Künstlergruppe und deren Unterstützer:innen
Das ist nicht unbemerkt geblieben. In sozialen Medien machten manche Nutzer:innen ihrem Ärger Luft – und könnten deshalb nun Probleme mit der sächsischen Polizei bekommen. Die hat inzwischen eigens eine beim Staatsschutz angesiedelte vierköpfige Ermittlungsgruppe aus der Taufe gehoben, um gezielt gegen Beleidigungen und Ähnliches in sozialen Medien vorzugehen.
Mehr als 200 Kommentare soll die Polizei nach der sächsischen Beschlagnahme des Busses laut eigenen Angaben aufgespürt haben, bei denen der Anfangsverdacht einer Straftat bestehe. In dutzenden Verfahren ermittelt sie nun unter anderem wegen Beleidigung, Bedrohung, übler Nachrede, der Androhung von Straftaten oder auch wegen Verstößen gegen das Kunsturhebergesetz. Auf die Frage, welche der Delikte wie häufig vorgekommen wären, hat die Polizei Chemnitz nicht geantwortet.

Im Visier dieser mutmaßlichen Straftaten steht ein Polizeihauptkommissar, der die Verkehrskontrolle geleitet hatte – und der aus Funk und Fernsehen schon vorher bekannt war. Diesen nahm das Zentrum für politische Schönheit in Instagram-Posts und in ihrer Kommunikation besonders aufs Korn, veröffentlichte auf Instagram und in anderen sozialen Medien Ausschnitte von Videos, die während der Verkehrskontrolle aufgenommen wurden.
Die Ermittlungen wegen des mutmaßlichen Verstoßes gegen das Kunsturheberrecht und wegen Verletzung der Vertraulichkeit des Wortes dürften sich deswegen gegen das Zentrum für politische Schönheit richten. Die Polizei Chemnitz hat auf eine entsprechende Presseanfrage, ob diese Straftaten die Videos der Aktionskünstler betreffen, nicht geantwortet.
In der Regel darf die Polizei in der Öffentlichkeit gefilmt werden, nur müssen Gesichter von Polizist:innen bei einer Veröffentlichung in vielen Fällen unkenntlich gemacht und der Ton ausgeblendet werden – außer, es besteht ein besonderes öffentliches Interesse.
Interne Ergebnisse an rechten Youtuber weitergegeben?
Doch nicht nur die bemerkenswert aufwändigen Ermittlungen gegen die Aktionskünstler und ihr Umfeld verwundern in diesem Fall. Es steht auch der Verdacht im Raum, dass Informationen aus der Dekra-Untersuchung an den rechten Youtuber und TikToker Maurice Klag mit seinen 230.000 Abonnent:innen weitergegeben wurden.
In einem Video auf seinem YouTube-Kanal „Politik mit Kopf“ trifft er Aussagen zu der Dekra-Untersuchung des Protest-Busses, die weder von der Polizei noch von der Dekra offiziell öffentlich verbreitet wurden – und die der rechte Influencer eigentlich nicht haben kann. Hierbei handelt es sich um eine Information über die maximale Dachlast des Protest-Busses. Ein Sprecher des Zentrums für politische Schönheit bestätigte, dass die Dachlast in der Dekra-Untersuchung am 29. September Thema war. Sie wurde allerdings nirgendwo öffentlich kommuniziert.
Die Aktionskünstler gehen deshalb davon aus, dass jemand von Dekra oder der Polizei dem Youtuber interne Informationen weitergeleitet hat. Die Polizei Chemnitz dementiert das: „Seitens der Polizei wurden keine weiteren Veröffentlichungen über die bekannten Medieninformationen hinaus getätigt“, so die Jana Ulbricht, Sprecherin der Polizei Chemnitz. Gegenüber der Freien Presse (€) sagte sie zudem: „Es scheint sich durch den ganzen Beitrag zu ziehen, dass man hier und da etwas aufgeschnappt und offensichtlich zusammengeschnitten hat. Die angeblichen Fakten seien falsch, ihre Herkunft unklar.“ Auch die Dekra sagt auf Anfrage von netzpolitik.org, keine Details nach außen gegeben zu haben.
Aufrufe zu Straftaten gegen die Aktionskünstler
Während die Polizei in Chemnitz gegen vermeintliche Unterstützer:innen des Protestbusses ermittelt, wird unter dem Video von Maurice Klag zu Straftaten gegen das Zentrum für politische Schönheit aufgefordert. „Warum habt ihr die Dreckskarre nicht längst abgefackelt?“ fragt da einer, während ein anderer dazu auffordert „Redet nicht so viel, bei nächster Gelegenheit eine Drohne mit 10 kg Semptex [sic!] und der Bus schläft mit seinen Terroristen“. Unter einem anderen Video zur Beschlagnahme des Busses schreibt jemand unter Klarnamen: „Nehmt einen Kanister Benzin. Und der Bus hat sich erledigt ich geb auch noch ein Feuerzeug.“
Es sind nur einige Beispiele von vielen, die netzpolitik.org nach kurzer Recherche gefunden hat. Ein Sprecher des ZPS sagt: „Die Polizei Chemnitz hat mit ihren Presseinformationen eine Welle von Hass und Gewaltdrohungen gegen uns ausgelöst. Da traut sich jetzt jeder Nazi aus seinem Loch. Wir bezweifeln, dass die Polizei dagegen eifrig ermittelt.“
Auf die Presseanfrage von netzpolitik.org, ob auch gegen diese mutmaßlichen Straftaten im Zusammenhang mit dem Adenauer-Bus ermittelt wird, antwortet die Polizei: Im Rahmen der Ermittlungen seien zahlreiche Kommentare und Posts im Zusammenhang mit verschiedenen Veröffentlichungen, die sich in der Hauptsache gegen den die Kontrolle durchführenden Polizeibeamten richteten, gesichert worden. Gleichwohl hätten sich nicht alle Posts auf den Beamten bezogen. Aus „ermittlungstaktischen Gründen“ könne man nicht mehr sagen.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Ein Abgleich biometrischer Daten mit Bildern aus dem Internet für Ermittlungsbehörden? Europa- und Verfassungsrecht würden das verbieten, sagen mehrere Bürgerrechtler:innen und Datenschützer auf einer Pressekonferenz in Berlin. Ein Gutachten aus technischer Sicht stützt ihre Einschätzung.

Spätestens nachdem Journalist:innen mit einer Gesichtersuchmaschine fast das Ex-RAF-Mitglied Daniela Klette aufgespürt hatten, forderten Sicherheitspolitiker:innen und Polizeiangehörige: Auch die Ermittlungsbehörden sollen entsprechende Software nutzen dürfen. Ihr Ruf blieb nicht ungehört: Mit dem sogenannten Sicherheitspaket wollte die Ampel-Regierung im vergangenen Jahr dem Bundeskriminalamt erlauben, biometrische Daten wie Fotos im Internet zu nutzen, um damit Verdächtige oder Opfer schwerer Straftaten zu suchen. Damit kam sie im Bundesrat letztlich nicht durch, weil den Ländern einige der anderen Überwachungsbefugnisse im Paket nicht weit genug gingen.
Doch die amtierende schwarz-rote Regierung hat bereits eine Neuauflage des tiefgreifenden Befugnisbündels in Vorbereitung. Das stand heute auf der Tagesordnung für das Bundeskabinett, von der es dann aber wie schon zuvor wieder gestrichen wurde. Nichtsdestotrotz legten heute die Grundrechtsorganisationen AlgorithmWatch und Amnesty International, der Chaos Computer Club, die Gesellschaft für Freiheitsrechte sowie der ehemalige Bundesdatenschutzbeauftragte Ulrich Kelber bei einer Pressekonferenz dar, warum der bislang bekannte und von netzpolitik.org veröffentlichte Entwurf in dieser Form verfassungs- und europarechtswidrig sei.
„Rechtswidrig, egal wer es betreibt“
„Biometrische Massenüberwachung ist rechtswidrig, egal wer sie betreibt“, sagte dabei Matthias Marx vom Chaos Computer Club. Der IT-Sicherheitsexperte erklärte eindringlich, dass keine Person sich biometrischer Überwachung entziehen könne. Biometrische Merkmale seien nun mal einmalig für eine Person und konstant. „Die Körperdaten von Menschen sind keine freie Verfügungsmasse, weder für Staat noch für kommerzielle Stalking-Dienstleister wie PimEyes oder Clearview“, so Marx. Die letzteren beiden sind die wohl bekanntesten kommerziellen Gesichtersuchmaschinen. Marx selbst wehrte sich bereits dagegen, dass etwa Clearview Daten zu seinem Gesicht gespeichert hatte.
Während bei den privaten Anbietern Konflikte mit der Datenschutzgrundverordnung offenkundig sind, stehen bei der polizeilichen Nutzung von biometrischen Daten aus Internetquellen andere Hindernisse im Weg. Allen voran die KI-Verordnung der EU. Sie verbietet es in Artikel 5, „Datenbanken zur Gesichtserkennung durch das ungezielte Auslesen von Gesichtsbildern aus dem Internet oder von Überwachungsaufnahmen“ zu erstellen oder zu erweitern. Matthias Spielkamp, Geschäftsführer von AlgorithmWatch, berichtete, dass immer wieder darauf verwiesen worden sei, die Suche könne auch ohne Datenbank funktionieren.
Dazu hat AlgorithmWatch ein Gutachten von dem Suchmaschinen-Experten Dirk Lewandowski anfertigten lassen, der Professor für Information Research & Information Retrieval an der Hochschule für Angewandte Wissenschaften Hamburg ist. Lewandowski kommt darin zum Ergebnis, dass es technisch nicht umsetzbar sei, frei verfügbare Bilder aus dem Netz „für einen Abgleich praktikabel durchsuchbar zu machen, ohne eine Datenbank“ zu erstellen. Etwa weil Anfragen sehr lange dauern würden, wenn die notwendige Verarbeitung der Bilder immer erst ad hoc erfolge.
Aus Sicht von Spielkamp bestätigt das Gutachten damit die Bedenken von Menschenrechtsverteidiger:innen: „Die angestrebten biometrischen Erkennungsverfahren würden zwangsläufig gegen EU-Recht verstoßen, weil sie ohne den Einsatz von Datenbanken nicht umsetzbar sind. Diese Bundesregierung kann diese Tatsache nicht länger bestreiten und sollte ihre Gesichtserkennungspläne endgültig begraben.“
Nicht nur europarechtliche Probleme
Doch selbst wenn es dieses rechtliche Problem nicht gäbe, stünden den Biometrieplänen im Gesetzentwurf weitere im Wege. Die Juristin Simone Ruf von der Gesellschaft für Freiheitsrechte sieht auch verfassungsrechtlich hohe Hürden, denn das Vorhaben greife tief in die informationelle Selbstbestimmung von Menschen ein. „Es wären biometrische Daten von Milliarden von Menschen betroffen“, so Ruf. Am Ende ließe sich fast jede Person überall identifizieren, es ergäbe sich das Potenzial für Massenüberwachung. Aus Rufs Perspektive sei es „sehr wahrscheinlich“, dass ein derartiger biometrischer Abgleich vor dem Bundesverfassungsgericht keinen Bestand haben würde.
Dem pflichtete auch Ulrich Kelber bei: „Immer wieder musste das Bundesverfassungsgericht aufgrund von Klagen aus der Zivilgesellschaft überschießende Überwachungs- und Fahndungsgesetzgebung stoppen“, so der ehemalige Bundesdatenschutzbeauftragte. „Das Bundesinnenministerium hat daraus nichts gelernt und will erneut gesetzliche Regelungen, die erkennbar gegen Vorgaben der Verfassung, des Datenschutzes und der KI-Regulierung verstoßen.“
Abschreckung und Diskriminierung
Lena Rohrbach von Amnesty International ging zusätzlich auf die gesellschaftlichen Folgen des geplanten Gesetzes ein. Es käme zu Abschreckungseffekten, sich im öffentlichen Raum zu bewegen. „Für die Bevölkerung ist gar nicht nachvollziehbar, welche Datenspuren korreliert werden und was verdächtig ist“, so die Referentin für Menschenrechte im digitalen Zeitalter. Das könne Personen davon abhalten, sich politisch zu engagieren und an Demonstrationen teilzunehmen. Und das wäre ein Problem, besonders heute: „Demokratie braucht eine aktive Zivilgesellschaft und keine eingeschüchterte“, so Rohrbach.
Überdies gebe es im Gesetzentwurf keinerlei Vorkehrungen, um Auswirkungen potenziell diskriminierender Technologien zu verhindern. Das kann beispielsweise der Fall sein, wenn bestimmte Personen häufiger falsch erkannt und eventuell damit vermehrt zu Unrecht verdächtigt werden.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Die Pläne des Bundesinnenministerium verletzen den Kern dessen, wofür das Selbstbestimmungsgesetz steht: Schutz, Würde und ein Leben ohne ständige Angst vor Outings. Sie verwandeln den Fortschritt in eine existenzielle Bedrohung. Ein Kommentar.

Alles in Ordnung, es gibt nichts zu sehen, nur ein normaler Verwaltungsakt. So klingt es, wenn das Bundesinnenministerium über seine Pläne spricht, die früheren Vornamen und Geschlechtseinträge von Personen dauerhaft im Melderegister zu speichern. Doch damit verschleiert das Haus von Alexander Dobrindt, welche Zerstörungskraft in diesem Vorhaben steckt. Würde diese Verordnung am Freitag vom Bundesrat beschlossen, wäre das nicht die Umsetzung des Selbstbestimmungsgesetzes – es wäre seine Demontage.
Als das Gesetz im vergangenen Jahr verabschiedet wurde, hatte es ein klares Ziel: Das Leben für Menschen, die trans, intergeschlechtlich oder nichtbinär sind, sich also weder ausschließlich als weiblich oder männlich verstehen, sollte einfacher und sicherer werden. Diskriminierung, Blicke, Anfeindungen sollten ihnen, wo möglich, erspart bleiben. Unfreiwillige Outings sollten der Vergangenheit angehören. Mit der Bankkarte an der Supermarktkasse. Mit dem Personalausweis am Flughafen. Das alte Ich, das für viele nie passte, sollte zur Vergangenheit werden. Das neue Ich, das richtige, sollte gelten.
Die Pläne aus dem Innenministerium höhlen dieses Ziel aus und verkehren es ins Gegenteil. Die alten Daten würden dauerhaft in den Meldedaten gespeichert bleiben und mit jedem Umzug weitergereicht. Unzählige Behörden könnten sie mit wenigen Klicks abrufen.
Betroffenen hängt das Ministerium so ein Schild um den Hals, sichtbar für jede Behörde. Und dieses Schild signalisiert: Diese Person entspricht nicht der Geschlechternorm.
Mutlosigkeit mit Ansage
Schon während der Beratungen zum Selbstbestimmungsgesetz zeigte sich die Ampelregierung mutlos. Der damalige Justizminister Marco Buschmann ist eingeknickt, ließ sich von einer radikalen Splittergruppe treiben, die in trans Menschen eine Bedrohung sieht. Dabei ist es genau umgekehrt. Trans Menschen werden bedroht. Sie sind einem ungleich höheren Risiko von Beleidigung, Angriffen und Gewalt ausgesetzt – besonders, wenn sie nicht weiß sind.
Die Transfeindlichkeit hat dennoch Einzug ins Gesetz gehalten, mit allerlei Klauseln, die dieses gesellschaftliche Misstrauen und den politischen Gegenwind abbilden, geht es nun um den Besuch im Fitnessstudio oder den Wehrdienst.
Das ist ärgerlich. Und trotzdem war es ein Meilenstein, dass dieses Gesetz endlich kam und für so viele ein selbstbestimmteres Leben mit der eigenen Identität ermöglichte.
Zwangsouting bei jedem Behördenkontakt
Wenn das Bundesinnenministerium diese neue Freiheit jetzt mit einer Meldeverordnung wieder zunichtemacht, wären all die Hoffnungen verfrüht gewesen. Statt einer Befreiung würde das Selbstbestimmungsgesetz für Betroffene vor allem neue Probleme schaffen, Unsicherheit säen und sie neuen Gefahren aussetzen.
Zum einen bliebe die Frage, ob die Person, mit der man es in Behördendeutschland gerade zu tun hat, den “Deadname”, den alten Geschlechtseintrag, kennt. Beim Bafög-Antrag, auf dem Arbeitsamt oder einfach, weil man ein geklautes Fahrrad anzeigen will. In all diesen Szenarien käme es immer wieder zu Zwangsoutings und damit auch zur Möglichkeit, immer wieder falsch angesprochen oder angefeindet zu werden. Auch 20, 30, 40 Jahre später noch.
Zum anderen ist da die berechtigte Angst, dass die neu geschaffene technische Infrastruktur – automatisierter Abruf von früheren Geschlechtseinträgen für unzählige Behörden – nur allzu gerne von jenen genutzt werden wird, die trans Menschen in Zukunft oder heute schon als Feinde sehen.
Trump macht es gerade vor
Wer kann verhindern, dass unter so vielen Behördenmitarbeitenden nicht die eine oder andere sitzt, die Listen erstellen wollte von all den Personen, die das Selbstbestimmungsgesetz in Anspruch genommen haben. Oder dass eine künftige Regierung die Möglichkeiten, die hier geschaffen werden, nutzt, um Personen zu verfolgen. Welche beängstigenden Formen das annehmen kann, sieht man derzeit in den USA, wo Donald Trumps Regierung kaum eine Möglichkeit auslässt, um trans Menschen zu schikanieren.
Dass das Bundesinnenministerium meint, dieser Sorge mit einem einzelnen Satz Rechnung tragen zu können, der nun formaljuristisch verbietet, was technisch mit wenigen Mausklicks möglich sein wird, zeugt nur von weiterer Gleichgültigkeit.
Die geplante Verordnung verletzt den Kern dessen, wofür das Selbstbestimmungsgesetz steht: Schutz, Würde und ein Leben ohne ständige Angst vor Outings. Es zeugt von einer beispiellosen Ignoranz für die Lebensrealität von trans Menschen. Wer das Innenministerium auf diese Weise agieren lässt, verwandelt den Fortschritt in eine existenzielle Bedrohung.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
In mehreren europäischen Ländern hat sich die US-Überwachungsfirma Clearview AI Millionenbußen eingehandelt, weil sie den Datenschutz verletzte. Im Vereinigten Königreich entschied nun ein Gericht, dass heimische Aufsichtsbehörden für solche Rechtsbrüche zuständig sind – selbst wenn das betreffende Unternehmen im Ausland tätig ist.

Die auf biometrische Massenüberwachung spezialisierte US-Firma Clearview AI hat vor einem britischen Gericht eine empfindliche Niederlage erlitten. Demnach gelten britische Datenschutzgesetze auch für Unternehmen, die nicht in Großbritannien ansässig sind und die ihre Dienste vorrangig ausländischen Behörden oder Unternehmen anbieten. Entsprechend ist die britische Aufsichtsbehörde ICO (Information Commissioner’s Office) zuständig und kann gegebenenfalls Strafen verhängen, urteilte das Berufungsgericht Upper Tribunal in der vergangenen Woche.
Das erst vor wenigen Jahren gegründete IT-Unternehmen hat laut eigener Aussage inzwischen mehr als 60 Milliarden Bilder von Gesichtern in eine durchsuchbare Datenbank gepackt. Dabei greift Clearview AI Quellen aus dem offenen Internet ab, darunter soziale Medien. Hinzu kommt sonstiges öffentlich zugängliches Bildmaterial, etwa Fahndungsfotos. Den Zugang zu der Gesichtserkennungsdatenbank bietet die Firma vor allem US-amerikanischen Behörden an, etwa lokalen Polizeien oder der Abschiebebehörde ICE. Für viele dieser Behörden gehört der Abgleich mit solchen Datenbanken inzwischen zum Alltag.
In Europa ist die Gesichtersuchmaschine hingegen unter starken Druck geraten. Unter anderem Italien und Frankreich haben Clearview AI wegen Datenschutzverletzungen zu millionenschweren Geldbußen verdonnert. Auch in Großbritannien hat ICO dem Anbieter im Jahr 2022 eine Buße von umgerechnet rund 8 Millionen Euro aufgebrummt und zudem angeordnet, Daten britischer Bürger:innen aus der Datenbank zu löschen. Der Anbieter habe ihre Daten ohne deren Wissen und Zustimmung massenhaft abgezogen, ausgewertet und kommerziell ausgeschlachtet, führte ICO damals aus.
Streit um Geltungsbereich von Datenschutzgesetzen
Gegen den Bescheid hatte sich Clearview AI juristisch gewehrt und konnte sich zumindest anfangs durchsetzen. So hatte die erste Instanz, das sogenannte First-tier Tribunal (FTT), der ICO-Behörde grundsätzlich das Recht abgesprochen, solche Urteile zu fällen. Zwar seien britische Bürger:innen womöglich der Überwachung ihres Lebens und ihres Verhaltens ausgesetzt. Jedoch falle die Datenverarbeitung des US-Unternehmens nicht in den Geltungsbereich des an die DSGVO der EU angelehnten britischen Datenschutzgesetzes, so das FTT.
Dieser Argumentation ist das Berufungsgericht nicht gefolgt und gab der Aufsichtsbehörde ICO in den relevanten Punkten recht. Dem Urteil zufolge steht die Verarbeitung personenbezogener Daten durch Clearview AI im Zusammenhang mit der Überwachung des Verhaltens von Einwohner:innen des Vereinigten Königreichs. Somit fällt dies in den Anwendungsbereich des britischen Datenschutzrechts, selbst wenn das Unternehmen seine Dienste für ausländische Strafverfolgungs- und Regierungsbehörden erbringt.
Das Urteil hat Präzedenzwirkung, allerdings kann Clearview AI noch in Berufung gehen. Derweil überwies das Upper Tribunal den Fall wieder zurück an das untergeordnete Gericht. Dieses muss den Fall erneut aufrollen und dabei berücksichtigen, dass die ICO-Aufsicht Geldbußen verhängen und sonstige Auflagen wie Löschanordnungen erteilen kann.
Unklare Lage in der EU
Der Klage gegen Clearview AI hatte sich die britische Menschenrechtsorganisation Privacy International angeschlossen. Der Programmdirektor Tom West begrüßt das Urteil: Nur weil ein Unternehmen mit ausländischen Strafverfolgungsbehörden oder nationalen Sicherheitsbehörden zusammenarbeite, könne es sich nicht dem Datenschutzrecht entziehen. „Es wäre ein massives Problem, wenn diese Behörden aufdringliche Datenverarbeitungen an private Akteure auslagern könnten, die nicht unter das Gesetz fallen“, so West.
Auseinandersetzungen rund um den Einsatz biometrischer Massenüberwachung könnten durchaus auch in der EU bevorstehen. Die im Vorjahr in Kraft getretene KI-Verordnung enthält zwar eine Reihe an Schutzvorkehrungen, räumt aber Ermittlungsbehörden Ausnahmen bei der biometrischen Identifikation ein. Sogar die als besonders gefährlich geltende Echtzeit-Überwachung ist nicht komplett verboten. Wie groß der Spielraum für EU-Behörden tatsächlich ist, bleibt allerdings noch unklar.
Genau das loten derzeit eine Reihe an EU-Ländern aus, darunter auch Deutschland. So will das Bundesinnenministerium die Hürden für den Einsatz von Gesichter-Suchmaschinen im Asylverfahren weiter senken. Zugleich sollen Bundeskriminalamt und Bundespolizei künftig kommerzielle Gesichtersuchmaschinen wie Clearview oder PimEyes im Polizeialltag nutzen können, geht es nach Innenminister Alexander Dobrindt (CSU). Auf der Wunschliste stehen zudem weitere Datenanalysetools, etwa Palantir aus dem Hause des Trump-Verbündeten Peter Thiel.
Gegen die Pläne regt sich zunehmend Widerstand aus der Zivilgesellschaft. Erst heute haben die Nichtregierungsorganisationen AlgorithmWatch, Amnesty International, der Chaos Computer Club und die Gesellschaft für Freiheitsrechte gemeinsam mit dem ehemaligen Bundesbeauftragten für den Datenschutz und die Informationsfreiheit, Ulrich Kelber, ihre Zweifel an deren Rechtmäßigkeit deutlich gemacht. In der vorliegenden Form wären die Gesetzentwürfe nicht mit EU-Recht vereinbar, so die Expert:innen.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Das Bundesinnenministerium will frühere Vornamen und Geschlechtseinträge zeitlich unbegrenzt im Melderegister speichern. Fachverbände schlagen Alarm: Für Menschen, die ihre Daten ändern ließen, steige damit das Risiko, auch in Zukunft diskriminiert zu werden. Sie sehen das Ziel des Selbstbestimmungsgesetzes in Gefahr.

Es ist das Jahr 2045 und Dennis meldet sich nach einem Umzug in der neuen Stadt an. Laut Personalausweis ist Dennis ein Mann. Die Person auf dem Amt sieht allerdings mit einem Blick in seine Meldedaten, dass Dennis früher anders hieß und auch einen anderen Geschlechtseintrag hatte. Sie sieht, dass er zwanzig Jahre zuvor seine Daten nach dem Selbstbestimmungsgesetz hat ändern lassen. Sie sieht: Dennis ist trans.
So würde es in Zukunft ablaufen, wenn eine Verordnung aus dem Bundesinnenministerium an diesem Freitag verabschiedet wird. Sie soll die praktische Umsetzung des Selbstbestimmungsgesetzes im Meldewesen regeln. Also: Wie und wo wird in amtlichen Registern festgehalten, dass eine Person ihren Vornamen und Geschlechtseintrag geändert hat?
Bislang gilt: Ein neuer Datensatz wird angelegt, der alte mit einem Sperrvermerk versehen. Laut den Plänen aus dem Haus von Alexander Dobrindt (CSU) soll sich das ändern. Der alte Vorname, das frühere Geschlecht, das Datum der Änderung – all das soll jetzt in eigenen Datenfeldern im aktuellen Datensatz gespeichert werden.
Noch dazu für immer, denn die Daten sollen außerdem bei jedem Umzug automatisch mit auf die Reise gehen. Sie könnten von unzähligen weiteren Behörden jederzeit automatisiert abgerufen werden. Die Folgen für die Betroffenen wären weitreichend.
Ministerium nennt es notwendig, Verbände nennen es absurd
Das Bundesinnenministerium argumentiert, die Änderungen seien notwendig, um Menschen eindeutig identifizieren zu können. Außerdem würden die Informationen gebraucht, um das sogenannte Offenbarungsverbot einhalten zu können. Es soll Menschen vor unfreiwilligen Outings schützen, etwa am Arbeitsplatz oder im Sportverein.
Unter den Menschen, für deren Wohlergehen und Rechte das Selbstbestimmungsgesetz gedacht war, sorgen die Pläne hingegen für große Unruhe. Alle Verbände, die sich zum Entwurf geäußert haben, sind sich einig in ihrer Kritik. Das eigentliche Ziel des Gesetzes – ein Leben mit weniger Diskriminierung in der neuen Identität – wäre damit torpediert. Das sagt der Bundesverband Trans*, davor warnt auch die Deutsche Gesellschaft für Trans*- und Inter*geschlechtlichkeit.
Die Argumente des Ministeriums nennen sie fadenscheinig. Seit den 1980er-Jahren kann man in Deutschland den eigenen Geschlechtseintrag ändern. Nie sei es dabei zu Schwierigkeiten bei der Identifikation gekommen.
Was als Befreiung gedacht war, könnte zur Datenspur fürs Leben werden
„Aus unserer Sicht wäre die Einführung dieser Verordnung ein Bruch des Offenbarungsverbots“, sagt Gabriel_Nox Koenig vom Bundesverband Trans*. Dass die Daten laut der Begründung aus dem Innenministerium mitgeführt werden sollen, um das Offenbarungsverbot achten zu können, findet er unlogisch. „Personen können mich ja dann allein deswegen misgendern und mit meinem alten Namen ansprechen, weil diese dauerhaft in meinem Meldedaten sichtbar sind.“ Egal wie oft man dann innerhalb Deutschlands umziehe, diese Daten würden einen auf ewig verfolgen.
Auch der LSVD Verband Queere Vielfalt nennt die Begründung paradox. „Dadurch entsteht faktisch ein Mechanismus, der das ‚alte Geschlecht‘ dauerhaft mitführt, obwohl das SBGG gerade darauf abzielt, dass Menschen nach einer Änderung nicht mehr an ihren früheren Geschlechtseintrag gebunden sind.“
„Altes Ich zementiert“: Familienausschuss übt scharfe Kritik
Trotz der Kritik aus den Verbänden hat das Ministerium die Verordnung nahezu unverändert zur Abstimmung in den Bundesrat geschickt. Die Länderkammer muss zustimmen, weil die Umsetzung im Meldewesen Sache der Länder ist. Eine Abstimmung steht für diesen Freitag auf der Tagesordnung, Ausgang: ungewiss.
Zumindest der Familienausschuss hat jedoch bereits empfohlen, der Verordnung nicht zuzustimmen. Die Begründung deckt sich mit der vernichtenden Kritik aus den Verbänden. Um Menschen zu identifizieren und das Offenbarungsverbot einzuhalten, sei die Verordnung nicht erforderlich. „Vielmehr missachtet sie den besonderen Schutzbedarf der betroffenen Personengruppe und setzt sie einem erhöhten Diskriminierungsrisiko aus.“
Die Regelung zementiere faktisch ein „altes Ich“, das dauerhaft mitgeführt werden müsse. Personen blieben in zentralen amtlichen Registern „technisch und datenseitig mit ihrer früheren geschlechtlichen Identität verbunden“ – ohne dass dies ein konkreter Verwaltungszweck rechtfertige. Die Anerkennung der neuen Geschlechtsidentität werde dadurch dauerhaft erschwert, das Ziel des Selbstbestimmungsgesetzes konterkariert.
Kritisch sieht der Ausschuss auch, wie viele öffentlichen Stellen in Zukunft automatisiert Zugang zu den sensiblen Informationen haben werden. „In der Praxis bedeutet dies, dass Betroffene keinen Überblick mehr darüber haben, welche Stellen von der Änderung ihres Geschlechtseintrags Kenntnis erlangen.“
Wie leicht sensible Daten künftig zugänglich werden
Was dieser automatisierte Abruf in der Praxis bedeutet, dazu kann Rhandos Auskunft geben. Die Verwaltungsjuristin ist aktiv im Chaos Computer Club Hamburg und hat Einblick in das Handeln von Behörden. Wer bislang aus einer Behörde Zugriff auf Informationen wie den früheren Namen oder Geschlechtseintrag haben wollte, sagt sie, musste dafür beantragen, den Sperrvermerk zu umgehen. Solche Anfragen wurden von der Meldebehörde für jeden Einzelfall geprüft.
In Zukunft würde es hingegen ausreichen, das entsprechende Datenfeld „Geschlechtseintrag vor Änderung“ oder „Vornamen vor Änderung“ anzuklicken. Schon könne man sich diese Information anzeigen lassen – oder etwa eine Liste aller Personen in den Kommunen des eigenen Bundeslandes erstellen, bei denen dieses Feld befüllt ist.
„Aus eigener Erfahrung weiß ich, wie leicht dieser Zugriff theoretisch ist“, sagt Rhandos. Behörden dürften auf alle Daten aus dem Melderegister zugreifen, wenn es „erforderlich ist für die Erfüllung ihrer Aufgaben“. Das ließe sich weit auslegen. In der Suchmaske könnten alle im Datensatz für das Meldewesen vorhandenen Datenfelder einfach ausgewählt werden. Als Begründung müsse man nur einen beliebigen Text in ein Freitextfeld eingeben.
Zwar besteht eine Protokollierungspflicht, eine regelmäßige Kontrolle dieser Protokolle schreibt das Gesetz aber nicht vor. „Das ist ein Scheunentor“, sagt Rhandos, „Das ist die Büchse der Pandora, die hier geöffnet wird.“
Innenministerium ergänzt nur einen Satz
All diese Bedenken hatten Fachleute schon geäußert, nachdem der Entwurf Mitte Juli bekannt wurde. Im Bundesinnenministerium fanden sie damit kaum Gehör. Einen einzigen Satz hat man dort hinzugefügt, bevor der Entwurf an den Bundesrat ging. Im Teil, der den automatisierten Abruf der Daten zwischen Behörden regelt, steht nun: „Eine Suche zur Erstellung einer Ergebnisliste, die ausschließlich Personen anzeigt, die ihren Geschlechtseintrag geändert haben, ist ausgeschlossen.“
Diese „Klarstellung“ solle den Bedenken aus den Verbänden Rechnung tragen, heißt es auf Nachfrage, „insbesondere um die gezielte Suche in den Melderegistern durch Behörden oder öffentliche Stellen nach allen Personen, die ihren Geschlechtseintrag und ihre Vornamen nach den Vorschriften des SBGG, geändert haben, auszuschließen.“
Auf die Frage, wie das Verbot technisch umgesetzt werden soll, antwortet das Innenministerium nur ausweichend: Es bestehe bereits heute Erfahrung im Meldewesen im Umgang mit besonders schutzbedürftigen Daten.
Der Staat sollte Betroffene schützen, nicht ihre sensiblen Daten breiter teilen
Verbände hatten gewarnt, dass mit der neuen Verordnung faktisch jene Personen im Register markiert werden, für die das Selbstbestimmungsgesetz eigentlich Diskriminierung abbauen soll.
Trans-, intergeschlechtliche und nicht binäre Menschen würden dadurch einem höheren Risiko von Diskriminierung ausgesetzt, zu einer Zeit, in der queer- und transfeindliche Straftaten zunehmen. „In dieser Lage ist der Staat verpflichtet, die Betroffenen zu schützen – nicht, ihre sensibelsten Daten breiter zu verteilen“, schreibt etwa der Bundesverband Trans*.
Auch Rhandos sieht als betroffene Person zwei Bedrohungsszenarien: Mitarbeitende bei Behörden könnten die Daten einzelner für rechtsextreme und transfeindliche Organisationen abfragen. Technisch wäre mit der Verordnung zudem vorbereitet, dass eine künftige autoritäre Regierung Menschen anhand der Daten aus dem Melderegister verfolgen könnte.
Betroffen wären alle, die das Selbstbestimmungsgesetz in Anspruch nehmen
Welche Behörden jeweils automatisierten Zugriff auf die Daten bekommen, das legen die einzelnen Bundesländer fest. Auch deswegen herrscht weiter große Verwirrung in der Frage, wer nun was zu sehen bekäme. Was sieht die Person beim Jobcenter, was der Sachbearbeiter auf dem Bürgeramt, was die Polizistin, bei der man eine Zeugenaussage macht?
Das BMI zeigt sich auf diese Fragen wortkarg: Ein Abruf der Daten sei nur dann zulässig, soweit sie der jeweiligen Stelle „zur Erfüllung ihrer Aufgaben bekannt sein müssen“.
Verwirrung herrschte auch zur Frage, wer genau von den neuen Regeln betroffen wäre: Greifen sie erst mit dem Inkrafttreten der Verordnung ab November 2026 oder auch rückwirkend für all jene, die bereits vorher ihre Daten ändern lassen? Hier macht das Ministerium eine klare Aussage: Die neue Verordnung zeichne lediglich die Entscheidungen technisch nach, die mit der Verabschiedung des Selbstbestimmungsgesetzes schon getroffen wurden. Die Regelung würde somit alle Menschen betreffen, die das Selbstbestimmungsgesetz seit seinem Inkrafttreten im November 2024 in Anspruch genommen haben – egal zu welchem Zeitpunkt.
Wer hingegen nach dem alten „Transsexuellengesetz“ seit 1981 seinen Vornamen und Geschlechtseintrag hat ändern lassen, für den gelten weiterhin die Auskunftssperren.
Chaos Computer Club Hamburg warnt vor “Kartei”
Mit offenen und persönlichen Briefen an die Minister*innen im Rat versuchen Aktivist*innen und Organisationen die Änderungen noch abzuwenden. So fordert etwa der Chaos Computer Club Hamburg die dortige Landesregierung dazu auf, den Entwurf abzulehnen.
Eine Kartei von Personen, die das Selbstbestimmungsgesetz in Anspruch genommen hätten, stelle trans* Personen unter Generalverdacht, heißt es dort. Dass Informationen zu vorherigen Namen und Geschlechtseinträgen praktisch sämtlichen Mitarbeitenden aller Behörden mit Zugriff auf das Melderegister zugänglich würden, verstoße gegen jedes Verständnis von Datenschutz.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Ist die Durchsetzung des Digital Services Act ein Erfolg? Die Antwort auf diese Frage hängt maßgeblich davon ab, worauf man schaut und wen man fragt. Aspekte gibt es im Dickicht der Plattformen viele: von Jugendschutz bis Forschungsdatenzugang.

Der DSC-Beirat ist ein Gremium aus Zivilgesellschaft, Forschung und Wirtschaft. Er soll in Deutschland die Durchsetzung des Digital Services Act begleiten und den zuständigen Digital Services Coordinator unterstützen. Svea Windwehr ist Mitglied des Beirats und berichtet in dieser Kolumne regelmäßig aus den Sitzungen.
Eigentlich sollte die Sitzung im Juli die letzte für die bisherige Besetzung des DSC-Beirats gewesen sein. Denn es stand eine Neubesetzung an, für die der Ausschuss für Digitales und Staatsmodernisierung im Bundestag zuständig ist. Doch die verzögert sich voraussichtlich auf den 16. Oktober. Dann steht das Thema auf der Tagesordnung des Bundestages. Die Wahlvorschläge der Fraktionen sind bislang unbekannt, es bleibt also spannend.
Das alles führt dazu, dass ich ein weiteres Mal Einblicke aus der sechsten Beiratssitzung teilen kann. Sie hat wie wenig andere Sitzungen die Potenziale des DSC-Beirats gezeigt, aber auch die Krux der Durchsetzung des Digital Services Act (DSA).
Seltene Transparenz
Der wohl interessanteste Tagungspunkt der Sitzung war ein ausführlicher Austausch mit Prabhat Argawal. Argawal ist zuständiger Abteilungsleiter in der DG Connect, also der Generaldirektion der EU, die für die Durchsetzung des DSA gegenüber den allergrößten Plattformen verantwortlich ist. Der Austausch mit Argawal fand öffentlich statt und bot auch Menschen und Organisationen außerhalb des Beirats seltene Einblicke in den Brüsseler Maschinenraum.
Diese Offenheit war nicht immer selbstverständlich, ist inzwischen aber insbesondere dank des Engagements der zivilgesellschaftlichen Mitglieder so etwas wie eine etablierte Praxis. Man kann nur hoffen, dass der Beirat auch in seiner neuen Konstellation an dieser Praxis festhalten wird – gerade in Zeiten abnehmender Transparenz wie beim Digitalausschuss, der mittlerweile noch weniger öffentlich tagt als früher.
Prabhat Argawal gab ein Update zur internen Organisation seiner Abteilung, die zur Durchsetzung des DSA einige Referate dazugewonnen hat – unter anderem ein Referat, das sich ausschließlich auf Online-Marktplätze fokussiert. Ebenfalls noch recht jung ist ein eigenes Referat, das sich mit dem Schutz von Minderjährigen im Kontext des DSA auseinandersetzt.
Im Dickicht des Jugendschutzes
Zur Erinnerung: Der DSA regelt Fragen des Kinder- und Jugendmedienschutzes in Artikel 28. Dieser Artikel enthält, gelinde gesagt, einige Spannungen: So dürfen Diensteanbieter Minderjährigen keine personalisierte Werbung ausspielen. Sie sollen aber auch keine zusätzlichen Daten erheben, um herauszufinden, welche ihrer Nutzenden denn nun minderjährig sind. Verwirrendes Kernstück des Artikels ist die Verpflichtung, dass Diensteanbieter “geeignete und verhältnismäßige Maßnahmen” ergreifen sollen, um für ein “hohes Maß an Privatsphäre, Sicherheit und Schutz von Minderjährigen” auf ihren Diensten zu sorgen.
Wer sich fragt, was das genau heißen soll, kann seit Juli die Leitlinien zu Artikel 28 konsultieren, in der die EU-Kommission ihre Vorstellungen einer gelungenen Umsetzung aufschreibt. Dazu gehören eine ganze Reihe sinnvoller Vorschläge, darunter: bessere Defaulteinstellungen, um die Privatsphäre zu schützen; das Abstellen von Designfeatures wie nie endenden Feeds, die süchtigmachende Effekte haben können; Maßnahmen, um Minderjährige von Lootboxen fernzuhalten.
Prabhat Argawal hat die Umsetzung genau jener Leitlinien als bisher enttäuschend eingestuft. Die Kommission prüfe noch, welche Änderungen Plattformen vorgenommen hätten, aber „in der Realität“ scheinen die Leitlinien bislang nicht angekommen zu sein.
Das mag auch mit der ungelösten Frage von Altersüberprüfungen zu tun haben. Inmitten lauter werdender Forderungen nach einem Social-Media-Verbot für Teenager sollte den Leitlinien eigentlich eine wichtige Rolle dabei zukommen, zu beantworten, wie sich Europa denn nun die Zukunft des Internets vorstellt.
Die Leitlinien zeichnen ein dementsprechend deutliches Bild: Altersüberprüfungen werden als Voraussetzung für erfolgreichen Kinder- und Jugendschutz gesehen und als geeignet und verhältnismäßig eingestuft. Das wirft Fragen auf: Altersbestimmungstechnologien können grundsätzlich umgangen werden, meist reicht dafür ein simples VPN. Ob sie also wirklich geeignete Instrumente sind, kann dahingestellt werden.
Schwerer wiegt aber ein Blick auf die Verhältnismäßigkeit ihres Einsatzes. Alle bekannten Altersbestimmungstechnologien basieren entweder auf öffentlichen Dokumenten wie Personalausweisen oder e-IDs oder der Verarbeitung anderer Daten der Nutzenden. Etwa indem ihr Nutzungsverhalten analysiert oder ihre biometrischen Daten verarbeitet werden, um ihr Alter zu schätzen. Beide Varianten bringen signifikante Datenschutzrisiken mit sich. Dazu kommt, dass nicht alle Menschen Zugang zu Ausweisdokumenten haben (eine nennenswerte Gruppe wären Kinder und Jugendliche unter 16). Sie könnten so massenhaft Zugang zu Informationen und Inhalten verlieren.
Studien zeigen zudem, dass KI-basierte Systeme, die das Alter von Nutzenden schätzen sollen, regelmäßig höhere Fehlerraten für Frauen und Menschen mit dunkleren Hauttönen haben.
Unbeachtet dieser negativen Implikationen von Altersbestimmungstechnologien stellen sie aber einen zentralen Aspekt der Leitlinien dar. Dazu kommt, dass die Leitlinien Mitgliedstaaten dazu ermächtigen, selber zu entscheiden, ob sie Zugangsverbote für bestimmte Dienste und Alterskohorten festlegen möchten. Mit Blick auf jüngste Äußerungen dänischer, französischer oder griechischer Regierungschef:innen, die sich ausnahmslos für Social-Media-Zugangsbeschränkungen für unter 15- beziehungsweise 16-Jährige einsetzen, scheint es also nur eine Frage der Zeit, bis Social-Media-Verbote zumindest in einigen EU-Ländern Alltag werden.
Je nach Sichtweise gibt es also noch jede Menge unbeantwortete Fragen dazu, was Plattformen genau tun sollen, um Kinder und Jugendliche auf ihren Diensten zu schützen.
Wirkt der DSA?
Trotz der Enttäuschungen beim Kinder- und Jugendschutz hebt Prabhat Agarwal aber die Wirksamkeit des DSA hervor. Er berichtet, dass die Plattformen bereits viel geändert, manche ihre Systeme sogar “komplett neu aufgestellt” haben, auch wenn es von außen nicht immer sichtbar sei. Die Zusammenarbeit mit der Kommission laufe gut: Von hunderten versandten Auskunftsersuchen habe bis jetzt kein Anbieter die Antwortfrist versäumt. Es ist erfreulich zu hören, dass Kommission und Plattformen einen Modus Operandi gefunden haben. Knapp drei Jahre nach seinem Inkrafttreten scheint die Frage, ob die Durchsetzung des DSA funktioniert, aber immer mehr zu einer Frage der Perspektive zu werden.
Eine aktuelle Studie von Das NETTZ kommt zu dem Schluss, dass die Meldewege auf großen Onlineplattformen selten genutzt werden – Nutzer:innen möchten zwar problematische Inhalte melden, fühlen sich aber von unbekannten rechtlichen Kategorien, mangelndem Feedback und komplexen Verfahren abgeschreckt: Jede vierte DSA-Meldung werde demnach abgebrochen.
In Amsterdam urteilte ein Gericht kürzlich, dass Meta gegen den DSA verstößt: Der Konzern hat die Auflage, chronologische Feeds anzubieten, die nicht auf Profiling basieren, nicht richtig umgesetzt. Das sind nur zwei Beispiele für absolute DSA-Grundlagen, bei denen es auch nach drei Jahren selbst bei den größten Plattformen noch hapert. Das ist insofern erstaunlich, als dass die Kommission eine ganze Abteilung und ein Budget von über 50 Millionen Euro zur Beaufsichtigung von sehr großen Online-Plattformen zur Verfügung hat. Auf den Abschluss eines Verfahrens durch die Kommission wartet man währenddessen nach wie vor.
Auch der Forschungsdatenzugang existiert aktuell nur in der Theorie. Er ist ein Kernstück des DSA und soll es unabhängigen Forschenden ermöglichen, systemische Risiken mit Plattformdaten zu erforschen.
All diese Themen sind sehr komplex: Es ist kein Leichtes, den DSA mit Leben zu füllen. Doch angesichts der immer stärker werdenden Kritik an europäischen Ansätzen der Plattformregulierung müssen Aufsichtsbehörden entweder schlagkräftiger auftreten – oder an der Kommunikation ihrer Erfolge arbeiten.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Mit der sogenannten Jütland-Erklärung stellt die Mehrheit der EU-Staaten ihre Beratungsresistenz unter Beweis. Gemeinsam fordern Regierungsvertreter*innen vor allem strengere Alterskontrollen zum Schutz von Jugendlichen. Fachleute haben das längst als Scheinlösung entlarvt. Ein Kommentar.

Vertreter*innen von 25 EU-Staaten sowie Norwegen und Island haben eine gemeinsame Erklärung unterzeichnet. Es geht um Maßnahmen zum Schutz von Minderjährigen im Netz. Nur von Estland und Belgien fehlt eine Unterschrift. Angestoßen hat die sogenannte Jütland-Erklärung die dänische Ratspräsidentschaft. Im Mittelpunkt stehen Forderungen nach neuen EU-Regeln. Sie sollen mehr strenge Alterskontrollen und ein Mindestalter für sozialen Medien vorschreiben.
Für die deutsche Regierung haben Digitalminister Karsten Wildberger (CDU) und Familienministerin Karin Prien (CDU) unterschrieben. Das irritiert, schließlich hatte sich das Kabinett im September darauf geeinigt, dass zunächst eine eigens eingesetzte Kommission aus Expert*innen ein Jahr lang Lösungen erarbeiten soll. Die Unterschriften der deutschen Minister*innen nehmen das Ergebnis der Kommission zwar nicht vorweg. Sie werfen aber die Frage auf, wie sehr sich die Regierung für die Arbeit der Kommission interessiert.
Die Illusion wirksamer Alterskontrollen
Die Jütland-Erklärung fügt sich ein in internationale Bestrebungen nach strengeren Alterskontrollen im Netz. Inhaltlich bringt sie die Debatte um Jugendmedienschutz jedoch nicht weiter, im Gegenteil. Der Fokus auf Alterskontrollen senkt das Niveau der Debatte. So heißt es in der Erklärung, aus dem Englischen übersetzt:
Es besteht die Notwendigkeit nach wirksamer und datenschutzfreundlicher Altersverifikation in sozialen Medien und anderen relevanten digitalen Diensten, die ein erhebliches Risiko für Minderjährige darstellen.
Mit diesen Worten beweisen die Unterzeichner*innen, das sie weiterhin einer Illusion erliegen. Es existiert nämlich keine Technologie, die Alterskontrollen wirksam und datenschutzfreundlich möglich macht. Um solche Kontrollen auszutricksen, genügen kostenlose Werkzeuge für digitale Selbstverteidigung, darunter VPN-Dienste, der Tor-Browser oder alternative DNS-Server. Das zeigt etwa der sprunghafte Anstieg der VPN-Nutzung in Großbritannien, wo Alterskontrollen jüngst auf Grundlage des Online Safety Acts verschärft wurden.
Datenschutzfreundliche Alterskontrollen sind zwar technisch denkbar, in der Praxis können sie aber nicht überzeugen. Selbst der als internationales Vorbild entworfene Prototyp der EU-Kommission setzt aktuell noch immer auf pseudonyme statt anonyme Kontrollen, und steht damit nicht im Dienst von Datenschutz und Privatsphäre. Bis Ende des Jahres will die Kommission allerdings nachbessern.
Zudem zeigt der jüngste Hack auf geschätzt 70.000 Ausweisdaten von Discord-Nutzer*innen, wie Alterskontrollen in der Praxis zum Datenschutz-Albtraum werden können. Ein frisches Gutachten aus Australien zeigt: Das ist kein Einzelfall. Wie sollen Nutzer*innen wissen, ob sie es gerade mit einem vertrauenswürdigen Kontrollsystem zu tun haben oder nicht?
Fachleute: Alterskontrollen kein Wundermittel
Hinzu kommt: Derzeit gibt es im EU-Recht kaum Spielraum für pauschale Alterskontrollen, wie sie den EU-Mitgliedstaaten offenbar vorschweben. Stattdessen bieten einschlägige Gesetze wie das Gesetz über digitale Dienste (DSA) und die Richtlinie über audiovisuelle Mediendienste (AVMD-RL) differenzierte Ansätze, je nach Art des Dienstes und des Risikos für Minderjährige.
Die Unterzeichner*innen der Jütland-Erklärung fordern deshalb neue und strengere EU-Gesetze. Konkret heißt es: „Es besteht Notwendigkeit zu prüfen, ob weitere Maßnahmen erforderlich sind, um den DSA zu ergänzen.“
Für das exakte Gegenteil argumentiert eine jüngst veröffentlichte Analyse der gemeinnützigen Denkfabrik Interface. „Denken Sie zweimal darüber nach, bevor Sie Alterskontrollen in verbindliches Recht auf EU-Ebene aufnehmen“, warnt darin Analystin Jessica Galissaire. Ihr Papier stellt die in der Jütland-Erklärung behauptete Notwendigkeit solcher Regeln in Frage.
Was Kinder im Netz erleben, und was Politik daraus lernen kann
Ausführlich beschreibt sie, dass selbst sehr große Plattformen wie Instagram, TikTok, Roblox oder YouTube bereits existierende Regeln schleifen lassen. Aufsichtsbehörden fehle es an Mitteln zur Durchsetzung, Zuständigkeiten seien unklar. Plattformen wiederum würden die rechtlichen Unschärfen ausnutzen, um weiter ihr eigenes Süppchen zu kochen. Alterskontrollen, warnt Interface, können und sollten nicht als Wundermittel („silver bullet“) behandelt werden.
Heiße Luft statt Argumente
Tatsächlich sind die Risiken für Kinder und Jugendliche zu vielfältig, um sie mit einer Maßnahme aus dem Weg räumen zu können. Zu nennen sind nicht nur potenziell verstörende Inhalte, sondern auch manipulative und süchtig machende Designs, Kontaktaufnahme durch böswillige Fremde oder Cybermobbing. Für diese und weitere Risiken braucht es spezifische Maßnahmen – und dafür wurden schon Grundlagen geschaffen.
So sieht das relativ junge Gesetz über digitale Dienste (DSA) vor, dass Dienste ihre jeweiligen Risiken einschätzen und eindämmen müssen, sonst drohen Strafen. Wie Maßnahmen aussehen können, hat die EU jüngst in DSA-Leitlinien ausbuchstabiert. Es geht etwa um Einschränkungen von unendlichem Scrollen und von Push-Benachrichtigungen und um sichere Voreinstellungen für Kontaktaufnahmen.
Diese Vielfalt der Risiken versucht die Jütland-Erklärung einzufangen, argumentiert jedoch unschlüssig. So seien „wirksame“ Alterskontrollen (die es wohlgemerkt nicht gibt) ein essentielles Werkzeug, „um die negativen Auswirkungen von illegalen und nicht altersgerechten Inhalten, schädlichen Geschäftspraktiken, süchtig machenden oder manipulativen Designs sowie übermäßiger Datenerhebung – insbesondere bei Minderjährigen – zu verringern.“
Das Zitat erweckt den Anschein einer Argumentation, entpuppt sich bei näherer Betrachtung jedoch als heiße Luft. So schützen Alterskontrollen nicht „insbesondere“ Minderjährige, nein, sie schützen, wenn überhaupt, ausschließlich Minderjährige. Denn wer eine Alterskontrolle überwindet, wird vor den aufgezählten Risiken ganz und gar nicht geschützt.
„Illegale“ Inhalte sind, wie das Wort es schon sagt, bereits illegal. Warum sollten Plattformen, die nicht konsequent gegen illegale Inhalte vorgehen, konsequent gegen Zugriff durch Minderjährige vorgehen? Ebenso sind Risiken wie süchtig machende und manipulative Designs und übermäßige Datenerhebung auf Grundlage anderer EU-Gesetze wie etwa dem DSA oder der DSGVO bereits reguliert.
Forderung ist Zeichen politischer Schwäche
Es scheint, als wollten die Mitgliedstaaten einmal großzügig Alterskontrollen über allerlei Missstände bügeln, gegen die es bereits Regeln gibt. Das ist weder angemessen noch erforderlich – und damit keine seriöse Grundlage für Gesetzgebung. Zugleich ist die Forderung nach Alterskontrollen ein Zeichen politischer Schwäche. Es ist teuer und mühsam, die Einhaltung bereits bestehender Gesetze durchzusetzen. Es ist dagegen bequem und billig, sich neue Gesetze auszudenken.
Behörden müssen oftmals vor Gericht ziehen, weil sich betroffene Unternehmen mit aller Macht gegen gesetzliche Einschränkungen wehren; vor allem, wenn sie deren Einnahmen schmälern könnten. Gerade bei Verbraucher- und Datenschutz müssen Aufsichtsbehörden oftmals für die Grundrechte der EU-Bürger*innen kämpfen.
Von echtem Kampfgeist ist in der Jütland-Erklärung jedoch keine Spur. Eher symbolisch merken die Vertreter*innen an, es sei „notwendig“, dass süchtig machende und manipulativen Designs „adressiert“ werden. Wie und von wem auch immer. Eltern solle man der Erklärung zufolge informieren, aber auch nicht in die Verantwortung nehmen. Dabei hätte niemand mehr Einfluss auf das Wohlbefinden von Kindern als Eltern und Aufsichtspersonen.
Strengere Regeln zu Alterskontrollen sollen es also richten, noch bevor die gerade erst geschaffenen Instrumente des DSA ihre Wirkung entfalten konnten. So sieht das aus, wenn Politiker*innen einen bequemen und billigen Weg einschlagen.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Microsoft beendet den Support für sein Betriebssystem Windows 10. Das ist die Gelegenheit, sich dabei helfen zu lassen, Linux auszuprobieren. Wie läuft so ein Workshop ab? Und wie kriegt man seine Daten auf den neuen Linux-Rechner? Wir fragen Harald Reingruber, der sich bei der Initiative „End of 10“ engagiert und solche Workshops anbietet.

Heute ist der letzte Tag des Supports für das Betriebssystem Windows 10. Der Anbieter Microsoft empfiehlt einen Umstieg auf Windows 11. Eine Gnadenfrist gibt es für Windows-10-Geräte noch, wenn man sich für das Programm Extended Security Updates (ESU) registriert. Aber auch dieses Programm endet unweigerlich, nämlich am 13. Oktober 2026.
Windows-10-Nutzer stehen vor einem Problem: Nach Ablauf des Software-Supports durch Microsoft erhalten sie keine Sicherheitsupdates mehr und werden dadurch mit erheblichen Sicherheitsproblemen konfrontiert. Denn längst nicht jeder Computer ist für ein Update auf Windows 11 tauglich. Millionen Menschen müssen daher eigentlich voll funktionsfähige Computer ersetzen, wenn sie die hohen Anforderungen des Updates nicht erfüllen.
Aber Microsoft ist nicht alternativlos. Wer sich von Windows verabschieden und dem Open-Source-System Linux schon immer mal eine Chance geben und es ausprobieren wollte, hat gerade viele Möglichkeiten, sich dabei helfen zu lassen. Denn weil das zeitliche Ende von Windows 10 gekommen ist, bieten sich mehr Gelegenheiten als sonst, dabei praktische Hilfe zu bekommen.
Das liegt an Menschen wie Harald Reingruber. Er hat Informatik an der TU Wien studiert und kümmert sich beruflich um die Entwicklung von 3D-Visualisierungsmodulen für Krankenhaussoftware. Er hilft außerdem dabei, ältere Hardware wieder benutzbar zu machen, und organisiert mit weiteren Helfern ein Repair-Café in Oberösterreich. Und er engagiert sich bei der Kampagne „End of 10“, die Umstiegswillige unterstützt, wenn sie ihren Computern mit Linux eine erste oder zweite Chance geben wollen.
Wir haben mit Harald Reingruber über den Umstieg auf Linux und über die Initiative „End of 10“ gesprochen. Er erzählt, wie er solche Veranstaltungen zur Umstiegshilfe gestaltet und was typische Fragen sind. Wie fragen ihn auch, was die Motivationen der Menschen sind, die Windows hinter sich lassen wollen.
Was ist „End of 10“?
netzpolitik.org: Harald Reingruber, wie kamst Du zu der Initiative „End of 10“ und was machst Du dabei?
Harald Reingruber: Ich bin dazugestoßen über ein Reparatur-Initiativen-Netzwerk in Deutschland. Dort war ein Webinar darüber ausgeschrieben worden, wie man mit Linux das Windows-10-Update-Problem lösen kann für die Computer, die Windows 11 nicht unterstützen. Das war speziell für Repair-Cafés, denn das ist deswegen ein Thema, weil mit Ende von Windows 10 viel Elektroschrott auf uns zukommt.
So bin ich dazugestoßen und habe gesehen, wie man mitmachen kann, und mich in den Community-Chat reingehängt. Ich habe angefangen, Workshops für Repair-Cafés zu planen, und bin dann gefragt worden, ob ich mitmachen will. So bin ich da reingewachsen, das hat super gepasst.

netzpolitik.org: Wer steckt hinter der Initiative „End of 10“?
Harald Reingruber: Angestoßen wurde sie von KDE Eco, einer Gemeinschaft von Leuten, die Freie Software unterstützen. „End of 10“ ist Distro-unabhängig, also offen für verschiedene Linux-Varianten. Es ist der Versuch, aus dem ganzen Free-Software- und Linux-Umfeld die Kräfte zusammenzuziehen. Wir geben keine speziellen Distro-Empfehlungen ab.
netzpolitik.org: Wenn Du in einem Repair-Café Leuten Hilfe zum Umstieg auf Linux anbietest, wie gehst Du vor?
Harald Reingruber: Meistens erkläre ich ihnen, wenn sie es nicht ohnehin schon wissen, dass und warum ihr Computer nicht für Windows 11 geeignet ist. Manche interessieren sich aber einfach nur für Linux, das kommt auch manchmal vor. Ich versuche dann auch, schnell einmal ein Linux vom USB-Stick zu booten. Das ist ja das Geniale, dass man das schnell zeigen kann.
Das Erklären ist sonst oft abstrakt. Viele haben schon mal von Linux gehört, aber können sich nicht wirklich was darunter vorstellen. Man kann es in ein paar Minuten einfach direkt am Laptop sehen, dann bekommt das eine ganz andere Dimension.
netzpolitik.org: Wie vielen Leuten gleichzeitig kannst Du Hilfe anbieten?
Harald Reingruber: Wir schauen, dass es immer nur so eine Handvoll Teilnehmer sind. Je nachdem, wie die Gruppe drauf ist, schauen wir uns zwei oder drei verschiedene Distros an, also Linux-Varianten. Manche Distros haben sich schon herauskristallisiert, weil sie speziell für Windows-Umsteiger praktisch sind und auch gut funktionieren auf verbreiteter Hardware.
Ich versuche meistens, gleich einen Eindruck davon zu geben. Das hat für viele einen Wow-Effekt, dass man einfach einen USB-Stick ansteckt und dann läuft das auf ihren Rechnern und hat nichts mit dem Windows zu tun, was dort installiert ist. Manche sind überrascht, dass die Unterschiede weniger krass sind, als sie erwartet haben. Es gibt ja viele Mythen um Linux. Viele sind auch positiv überrascht, dass auch LibreOffice ziemlich vertraut wirkt.
„Fast nur Linux Mint“
netzpolitik.org: Welche Distros, also Varianten von Linux, empfiehlst Du Menschen, die gewöhnt sind, Windows zu benutzen?
Harald Reingruber: Wir haben in meinem Repair-Café fast nur Linux Mint installiert. Das hat einige Vorteile, denn es ist stark verbreitet. Das heißt, man findet leicht jemanden, der Erfahrung damit hat. Und die Oberfläche ist sehr intuitiv, die Installationsprozesse sind relativ einfach.
Linux Mint läuft auch auf älteren Geräten überraschend gut. Wenn nicht, würde ich eine MX-Linux-Variante ausprobieren. Nach dem Booten vom USB-Stick kann man einen Browser mit einer etwas anspruchsvolleren Website öffnen. Dann hat man normalerweise schon einen guten Eindruck.
netzpolitik.org: Wenn die Leute dann einen Blick auf Linux Mint oder eine andere Linux-Variante geworfen haben, was sind die typischen Fragen, die kommen?
Harald Reingruber: Die erste Frage ist oft: Wie kriegt man die Daten drauf? Da hat sich bei uns bewährt, dass wir ein paar Festplatten auf Vorrat gekauft haben. Wir bieten meistens an, gegen Selbstkosten die Festplatte zu tauschen und in ein externes Gehäuse zu geben.
Das ist relativ preiswert: Eine 250-Gigabyte-Festplatte, was für die meisten Leute reicht, kostet um die zwanzig Euro, plus etwa zehn Euro für das Gehäuse. Da kann man auch mit geringem finanziellen Aufwand ein paar Festplatten auf Vorrat kaufen. Das hat auch noch folgenden Vorteil: Falls irgendwas nicht klappt, kann man relativ rasch auch wieder die alte Festplatte benutzen.
Digitale Unabhängigkeit
Wir berichten seit Jahren unter dem Stichwort Digitale Souveränität über Abhängigkeiten von Technologien, vor allem aus dem Nicht-EU-Ausland. Unterstütze unsere Arbeit!
Wie viel Zeit braucht man?
netzpolitik.org: Wie lange dauert so ein Workshop zum Umstieg auf Linux?
Harald Reingruber: Unsere Veranstaltungen dauern drei bis vier Stunden. Meistens ist die Datenmigration der aufwendigste Teil. Die Installation auf der Festplatte geht relativ flott. Falls unerwartete Probleme auftreten, etwa ein Gerät oder ein Treiber nicht unterstützt wird, kann man wieder zurückgehen. Wir geben auch dem Benutzer die Festplatte mit. Das heißt, er hat auch drei Wochen später noch die Möglichkeit, auf sein altes System zurückzugehen, wenn er das will. Bis jetzt ist das zum Glück noch nicht vorgekommen.
netzpolitik.org: Wer kreuzt bei solchen Veranstaltungen auf, was sind das für Menschen?
Harald Reingruber: Das ist wirklich ganz unterschiedlich. Altersmäßig kommen viele Ältere, weil ihnen wichtig ist, Geräte zu reparieren und lange zu nutzen. Das sind Werte, die ihnen wichtig sind, sie brauchen oft nicht immer die neuesten Gadgets. Aber Dreißigjährige kommen genauso.
Manche kommen mit einem neuen Laptop und sagen, dass sie sich sowieso schon länger für Linux interessieren und entschieden haben, es einfach auf dem neuen Gerät auszuprobieren, weil da noch keine Daten drauf sind. Einige kommen dann bei einem zweiten Termin auch noch mit einem zweiten Rechner, weil der erste Eindruck sehr gut war.
Wie kommt man auf die Website von „End of 10“?
netzpolitik.org: Auf der Website von „End of 10“ findet man eine Menge verschiedener Veranstaltungen, europaweit, eigentlich sogar weltweit, aber mit einem Fokus auf Europa. Wollte man jetzt selbst so eine Veranstaltung anbieten und Leuten helfen, auf Linux umzusteigen: Wie kommt man auf die Liste auf der Website?
Harald Reingruber: Man kann das direkt über einen Pull-Request machen, es gibt eine Anleitung dazu im Repo. Aber es gibt auch eine E-Mail-Adresse. Wer jetzt mit Git und Pull- und Merge-Requests nicht so vertraut ist, der schreibt die Daten von der Veranstaltung in eine E-Mail. Das wird innerhalb von ein paar Tagen auf die Website gestellt.
netzpolitik.org: Gibt es irgendwelche Einschränkungen? Welche Veranstaltungen sind nicht für eure Liste geeignet?
Harald Reingruber: Ein Individuum allein kann sich nicht anmelden. Man sollte sich als eine Gruppe anmelden, also etwa ein Repair-Café oder eine Linux User Group oder ein Verein. Wenn man ein Business betreibt, kann man das auch angeben.
Die Website unterscheidet zwischen „Events“, also Veranstaltungen , und „Places“, also Orten. Je nachdem, ob man einmalig spezielle Veranstaltungen anbietet oder ob man das regelmäßig anbietet, mit regelmäßigen Öffnungszeiten, kann man sich auch als Ort registrieren.
Auf Vertrauensbasis
netzpolitik.org: Generell gesprochen: Wer also dabei hilft, von Windows 10 umzusteigen, der ist bei euch richtig?
Harald Reingruber: Ja. Wir machen aber keine Qualitätssicherung, sondern setzen auf eine Vertrauensbasis. Wenn eine Veranstaltung nicht hilfreich war oder jemand unerwartet schlecht oder falsch beraten hat, dann kann man das natürlich auf der Website melden. Aber bisher gab es solche Probleme nicht.
netzpolitik.org: In den letzten Tagen gab es die Nachricht darüber, dass sich der Stichtag für das Windows-10-Ende insofern verschiebt, dass bei einer Registrierung für das Microsoft-ESU-Programm (alternative Aktivierung) bis zum 13. Oktober 2026 nun doch noch Support für Windows 10 angeboten wird. Denkst Du, Microsoft reagiert damit auch auf solche Initiativen wie eure? Was könnte der Hintergrund sein für die Entscheidung, das Ende ein bisschen hinauszuschieben?
Harald Reingruber: Darüber kann ich natürlich nur spekulieren. Die europäischen Verbraucherschutzorganisationen haben auch Druck gemacht, was wahrscheinlich etwas bewirkt hat. Vielleicht bemerkt Microsoft, dass sich viele Leute nach Alternativen umschauen.
Wir wollen klar sagen: Ein Jahr ist es nur aufgeschoben. Man muss auch seinen Windows-10-Rechner mit dem Microsoft-Konto verknüpfen, damit man den „Gratis Extended Support“ bekommen kann. Die Frage ist, warum man warten sollte, denn ein Jahr später kommt das Problem ja wieder. Es lohnt sich also, auf eine mittelfristige oder langfristige Lösung hinzuarbeiten. Aber es nimmt vielleicht ein bisschen den Druck raus. Man kann sich ein bisschen Zeit nehmen, wenn man die Möglichkeit mit dem Microsoft-Konto nutzen will, und sich Linux einmal genau anschauen und ausprobieren.
Sehr viele Geräte müsste man aus dem Verkehr ziehen
netzpolitik.org: Hat die Verschiebung durch Microsoft auch eine Auswirkung auf Leute, die beim Umstieg auf Linux helfen wollen?
Harald Reingruber: Diejenigen, die sich jetzt auch engagieren wollen in ihrem Hackspace oder in ihrem Repair-Café oder vielleicht auch an der Uni, wenn sie dafür Räume haben, um sowas anzubieten, könnten natürlich jetzt die Chance nutzen. Denn die Frist ist verlängert, ich sehe das jetzt mal positiv.
Das Windows-10-Problem verschwindet nicht mit dem 14. Oktober von der Bildfläche. Es ergibt auch im nächsten Jahr noch Sinn, Umstiegsveranstaltungen anzubieten, wahrscheinlich auch darüber hinaus.
netzpolitik.org: Du hast vorhin Elektroschrott erwähnt. Siehst Du darin das größte Problem durch das Support-Ende von Windows 10 oder was ist aus Deiner Sicht das Übelste daran?
Harald Reingruber: Bei jeder Windows-Version wurde nach einigen Jahren der Support eingestellt. Das größte Problem ist diesmal eigentlich, dass die neuen Windows-Anforderungen so hoch gesetzt sind und Rechner, die gerade mal fünf Jahre alt sind, diese Anforderungen schon nicht mehr erfüllen. Das ist Elektroschrott quasi, denn sehr viele Geräte müsste man einfach aus dem Verkehr ziehen. Der größte CO²-Verbrauch entsteht ja in der Produktion und nicht in der Nutzung von einem Laptop. Kollegen von unserer „End of 10“-Kampagne haben herausgefunden, dass man ein Gerät eigentlich zwanzig oder dreißig Jahre nutzen müsste.
IT-Sicherheit als Argument zum Umstieg
netzpolitik.org: Ich würde jetzt vermuten: Du bist ein langjähriger Linux-Nutzer, nicht wahr?
Harald Reingruber: Ja, ich bin aber berufsbedingt und teilweise auch privat noch viel mit Windows unterwegs. Ich bin ein bisschen wie ein Raucher, der eigentlich schon weiß, dass er aufhören will.
netzpolitik.org: Das heißt aber auch: Du kennst auch beide Systeme. Das ist ja vielleicht ein Vorteil bei der Umstiegshilfe, oder?
Harald Reingruber: Ja, das ist schon ein Vorteil. Ich bin auch nicht „religiös“, was Linux oder Windows angeht, ich finde die Open-Source-Vorteile aber sehr groß. Auch aus politischer Sicht ist in öffentlichen Institutionen Open-Source-Software zu bevorzugen, auch mit Blick auf die Lizenzkosten. Würde man diese Gelder in die Weiterentwicklung von offener Software investieren, dann würde auch viel mehr Wertschöpfung in Europa bleiben.
netzpolitik.org: Hast Du den Eindruck, dass die Leute, die zu Dir kommen und denen Du hilfst, auch ein ökonomisches Problem lösen wollen, weil die Kosten eines Neugeräts oder generell die Kosten, die mit Windows und dem Update verbunden sind, ihnen zu hoch sind? Kommen sie auch, weil sie es einfach nicht bezahlen können oder wollen?
Harald Reingruber: Den Eindruck habe ich nicht, die Motivation ist schon eher politisch oder ökologisch. Ich beobachte, dass die Leute es oft so sehen: Das Gerät funktioniert ja noch, das will ich eigentlich nicht wegwerfen. Teilweise wissen sie auch noch gar nicht, ob sie es dann selber weiternutzen oder andere Verwendungszwecke dafür finden, sei es jetzt für Kinder oder Bekannte oder als Zweitgerät.
netzpolitik.org: Ist IT-Sicherheit auch ein Argument für die Leute?
Harald Reingruber: Die Fragen nach IT-Sicherheit kommen, das können Laien aber nicht so gut einschätzen. Dass Linux sicherheitsmäßig Vorteile hat und eine sehr sichere Umgebung ist, das ist den meisten vorher nicht klar. Ich glaube, das ist schon ein starkes Argument.
netzpolitik.org: Vielen Dank für das Gespräch!
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Zum 25. Mal wurden die alljährlichen Big Brother Awards vergeben. Negativpreise gehen in diesem Jahr an Bundesinnenminister Alexander Dobrindt, an TikTok sowie an Google. Erstmals gibt es auch Auszeichnungen in der Kategorie „jung und überwacht“.

Am vergangenen Freitag verlieh der Verein Digitalcourage die deutschen Big Brother Awards. Der Datenschutz-Negativpreis geht an Unternehmen, Organisationen, Behörden und Einzelpersonen, die in besonderem Maße Datenschutz und Privatsphäre aushöhlen.
In insgesamt sechs Kategorien vergab die fünfköpfige, erstmals überwiegend weibliche Jury den sogenannten „Oscar der Überwachung“. Im Vorfeld konnten Interessierte Nominierungen einreichen. Zu den diesjährigen Preisträgern zählen unter anderem Google, das Verwaltungsgericht Hannover und das Bundesarbeitsgericht sowie die Videoplattform TikTok.
Neue Kategorie „jung und überwacht“
Erstmals gab es in diesem Jahr Auszeichnungen in der Kategorie „jung und überwacht“. Kinder und Jugendliche des Vereins Teckids stellten in multimedialen Beiträgen zwei ausgewählte Datenschutzprobleme junger Menschen vor. Die Beiträge veranschaulichen soziale Ausgrenzung am Beispiel von iPads im Schulunterricht sowie im Zusammenhang mit dem Messenger-Dienst WhatsApp.
Laut einer Umfrage im Auftrag der DEVK Versicherungen von Mitte 2024 verwendet in Deutschland mehr als die Hälfte aller Kinder und Jugendlichen im Unterricht ein Tablet. In vielen Schulen ist deren Einsatz sogar verpflichtend. Die Kinder von Teckids kritisieren die fehlende Selbstbestimmung und den eingeschränkten Datenschutz, die mit dem Einsatz einhergehen.
Innenminister Dobrindt für „Sicherheitspaket“ ausgezeichnet
Der „unglückliche Gewinner“ der Kategorie „Behörden und Verwaltung“ ist Bundesinnenminister Alexander Dobrindt (CSU). Zur Begründung verwies die Rechtsanwältin Elisabeth Niekrenz vom Verein Digitale Gesellschaft in ihrer Laudatio auf das sogenannte Sicherheitspaket des Ministers. Es sieht unter anderem den Einsatz biometrischer Datensuche per Gesichtserkennung im Internet vor. Der Einsatz von Gesichtersuchmaschinen verstößt Niekrenz zufolge gegen die Datenschutz-Grundverordnung.
Außerdem hat Dobrindt die Prüfung veranlasst, ob die Analysesoftware des US-Unternehmens Palantir bundesweit vom Bundeskriminalamt eingesetzt werden kann. Das Vorhaben verletzt aus Sicht von Bundes- und Landesdatenschützer:innen verfassungsrechtliche Vorgaben des Bundesverfassungsgerichts.
Wir haben beim Bundesinnenministerium nachgefragt, wie es die Auszeichnung bewertet. Eine Sprecherin verwies in ihrer Antwort auf den Koalitionsvertrag, der vorsieht, „dass die Sicherheitsbehörden zeitgemäße digitale Befugnisse erhalten.“ Dabei kämen „selbstverständlich nur Lösungen in Betracht, die den für sie geltenden Rechtsrahmen einhalten“, so die Sprecherin.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Teile der Netzneutralität könnten demnächst auf den Prüfstand kommen. Mit dem anstehenden Digital Networks Act will die EU-Kommission den Markt für Telekommunikation neu aufstellen. Dabei könnten die Vorgaben für bezahlte Überholspuren gelockert werden – und womöglich eine Datenmaut eingeführt werden.

Lange Zeit war es üblich, im Mobilfunk Telefonie über das Internet (VoIP) zu blockieren. Manche Betreiber sperrten Chat-Dienste wie WhatsApp in ihren Netzen. Andere unterbanden den Zugriff auf VPN-Dienste oder sogar E-Mail-Postfächer – meist, um eigene Produkte wie den Goldesel SMS oder Auslandstelefonie zu schützen. Denn über das offene Internet erreichbare Online-Dienste haben ihnen das Wasser abgegraben. Das ist Vergangenheit: Heutzutage ist kaum noch vorstellbar, wie die meisten Mobilfunkbetreiber ihre Kund:innen gegängelt haben.
Vor zehn Jahren hat die EU das Prinzip der Netzneutralität gesetzlich festgeschrieben. Netzbetreiber, ob für Festnetz oder Mobilfunk, können seitdem nicht mehr willkürlich Online-Dienste, Websites oder Endgeräte ausschließen oder anderweitig diskriminieren. Die Netzneutralität soll sicherstellen, dass das Internet offen bleibt und nicht zu einer Spielart von Kabel-TV verkommt, bei dem jedes Stückchen des Netzes in zubuchbare Pakete verpackt und vermarktet wird.
Nun sollen nach dem Willen der EU-Kommission zumindest Teile dieser Regeln zur Netzneutralität auf den Prüfstand. Die Kommission bereitet dafür derzeit ein umfassendes Gesetz rund um Telekommunikation vor. Präsentieren will sie ihren Entwurf des sogenannten Digital Network Act (DNA) noch in diesem Jahr. Als Teil des Gesetzgebungsverfahrens hat sie im Sommer grobe Vorstellungen skizziert und um Stellungnahmen gebeten, die netzpolitik.org ausgewertet hat.
Wiedergänger Datenmaut
Für Debatten sorgen vor allem zwei Aspekte: Zum einen verweist die Kommission ausdrücklich auf mutmaßliche Rechtsunsicherheiten rund um sogenannte Spezialdienste. Damit sind besonders anspruchsvolle Online-Dienste gemeint, die sich über das offene Internet nicht realisieren lassen, bespielsweise garantiert ruckelfreie medizinische Eingriffe übers Internet. Manchen Netzbetreibern sind die Vorgaben aus Brüssel zu streng oder nicht detailliert genug, Verbraucherschutzorganisationen hingegen warnen vor bezahlten Überholspuren zu Lasten des freien Netzes.
Dieses Internet der Zukunft wünschen sich die mächtigen Telekom-Konzerne
Zum anderen wirkt offenkundig der Vorschlag einer Datenmaut weiterhin nach. Vor Jahren hatte der inzwischen aus der Kommission ausgeschiedene Thierry Breton in den Raum gestellt, große Online-Dienste wie Netflix oder Meta für den Zugang in europäische Netze extra bezahlen zu lassen. Damals hat sich Breton zwar eine Abfuhr eingehandelt, den aktuellen DNA-Stellungnahmen zufolge scheint das Thema aber noch nicht restlos erledigt zu sein.
Branche springt auf Zeitgeist auf
Das hat einen einfachen Grund: Politisch fällt es immer schwerer zu vertreten, meist aus dem US-amerikanischen Silicon Valley stammende IT-Megakonzerne regulatorisch und steuerrechtlich mit Samthandschuhen anzufassen, während deren Milliardengewinne in den Taschen der Unternehmen und Aktionäre verschwinden. In den vergangenen Jahren verabschiedete EU-Gesetze wie der Digital Services Act und der Digital Markets Act zählen zu den ersten Anläufen, die Macht der großen Online-Dienste zumindest teilweise einzudämmen.
Die letzten derartigen Versuche dürften das nicht bleiben, schließlich gibt es bei Alphabet & Co. noch viel zu holen. Nicht nur die Kommission sieht das so: Seit Jahren finden sich in Beschlüssen des EU-Rats oder des Parlaments regelmäßig Forderungen danach, dass alle Akteure im digitalen Raum „einen fairen und angemessenen Beitrag zu den Kosten öffentlicher Güter, Dienstleistungen und Infrastrukturen zu leisten“ haben, heißt es etwa in der europäischen Erklärung digitaler Grundrechte.
Auf eine Datenmaut muss das nicht zwangsläufig hinauslaufen, in Frage käme etwa auch eine Digitalsteuer, mit der sich mehr Gerechtigkeit versuchen ließe. Doch an dem scheinbar naheliegenden Instrument hat sich die EU bislang die Zähne ausgebissen. Zu groß war der Widerstand aus der Industrie und manchen EU-Ländern, die etwa Großkonzerne mit Steuervorteilen locken – oder auch verhindern wollen, dass eine mit Eigenmitteln ausgestattete EU-Kommission zu mächtig würde.
Diese Situation haben vor allem große Netzbetreiber auszunutzen versucht. Um den EU-Verantwortlichen die Idee so schmackhaft wie möglich zu machen, zettelten sie unter dem Schlagwort „Fair Share“ besagte Debatte über eine Datenmaut an: Im Tausch gegen eine abgeschwächte Netzneutralität sollen Online-Dienste einen „fairen“ Beitrag für die Nutzung europäischer Infrastruktur leisten, so das Kernargument.
Letzter Versuch „Streitbeilegungsstelle“
Bislang sind sie damit abgeblitzt. Große Netzbetreiber wittern mit dem DNA jedoch ihre vorerst letzte Chance, einen Mechanismus zur Kostenbeteiligung gesetzlich verankern zu lassen. Die europäischen Ex-Monopolisten scheinen sich darauf geeinigt zu haben, sich gemeinsam für eine Vermittlungsstelle einzusetzen. Offenbar an Gerichten vorbei, die solche bisher seltenen Streitigkeiten aufgelöst haben, soll dieser auf den ersten Blick unverfängliche „dispute resolution mechanism“ etwaige Auseinandersetzungen rund um Zusammenschaltungsentgelte zwischen Netzbetreibern und Inhalteanbietern auflösen.
Entsprechend nehmen viele aktuelle Stellungnahmen zum DNA die Debatte wieder auf – mit weitgehend den gleichen Argumenten, die bereits bei einer vorherigen Konsultation ausgetauscht wurden. So verweist etwa die Nichtregierungsorganisation Internet Society (ISOC) auf Untersuchungen des EU-Gremiums GEREK, in dem sich europäische Telekom-Regulierungsbehörden koordinieren. Wiederholt haben dort die Regulierer in Untersuchungen festgestellt, dass der sogenannte Interconnection-Markt funktioniere und falsche Regulierung das offene Internet gefährden könnte.
„Der vorgeschlagene Mechanismus zur Streitbeilegung bei Vereinbarungen zur IP-Zusammenschaltung – der dem diskreditierten ‚Fair Share‘-Modell entspricht – sollte abgelehnt werden, da es keine Hinweise auf ein Marktversagen oder die Notwendigkeit regulatorischer Eingriffe gibt“, fasst ISOC, welche maßgeblich an der derzeitigen Internet-Governance beteiligt ist, den unveränderten Stand der Debatte zusammen.
Solche Debatten musste ISOC seit seiner Gründung Anfang der 1990er-Jahre schon mehrfach führen. Es dürfte auch nicht das letzte Mal sein, dass große Netzbetreiber einstige Pfründe wie das sogenannte Terminisierungsmonopol wieder aufleben lassen wollen.
Internet lebt von „Autonomie und Innovation“
Etwas grundsätzlicher erklärt ISOC, warum dies ein Rückschritt wäre: Die Einführung formaler Mechanismen wie eines Streitbeilegungsmechanismus oder „erleichterte Zusammenarbeit“ würde das Erfolgsmodell des Internets untergraben, warnt die Organisation. Damit würde „die Grenze zwischen freiwilliger Optimierung und vorgeschriebener Leistung verwischt“, was zu Reibungsverlusten in einem System führen würde, das von Autonomie und Innovation lebe.
Netzbetreiber und Online-Diensteanbieter mögen zwar ein gemeinsames Interesse an einer guten Endnutzererfahrung haben. Doch es sei ein grundlegender Fehler, dies mit einer gemeinsamen Verantwortung gleichzusetzen, die regulatorischer Durchsetzung bedürfe, so ISOC: „Der Erfolg des Internets beweist dies, da es auf einem dezentralen Modell beruht, in dem jeder Akteur seine eigenen Abläufe unabhängig optimiert, ohne vorgeschriebene Koordination oder gemeinsame Leistungsgarantien.“
Vor unerwünschten Effekten warnt auch die Menschenrechtsorganisation Article 19, die sich für Meinungs- und Informationsfreiheit einsetzt. Ein Mechanismus zur Streitbeilegung „würde großen Netzbetreibern Verfahrensinstrumente an die Hand geben, um unter dem Vorwand der Streitbeilegung Gebühren von Online-Diensten zu verlangen.“ In die selbe Kerbe schlagen europäische Verbraucherschutzorganisationen wie BEUC oder Euroconsumers sowie nationale Organisationen, etwa der deutsche Verbraucherzentrale Bundesverband oder die österreichische Arbeiterkammer Wien.
Außer großen Ex-Monopolisten wie Telekom Deutschland oder Orange scheint ohnehin kaum jemand Gefallen an der Streitbelegungsidee zu finden. So weist etwa der kleine italienische Netzbetreiber UGL Telecomunicazioni auf die Gefahren von Überregulierung hin und fügt hinzu: „Die Lösung ist einfacher, und es ist ziemlich seltsam, dass sie noch nicht umgesetzt wurde: Online-Dienste sollten verpflichtet werden, in allen Mitgliedstaaten, in denen sie präsent sind, Steuern zu zahlen, ohne auf Strategien wie sogenannte Steueroasen zurückzugreifen“.
Angeblich unklare Spezialdienste
Tatsächlich scheinen sich viele Akteure auf dem Markt präzisere Regeln zu wünschen, etwa der Industrieverband DigitalEurope. Der vertritt praktisch das Who-is-who der internationalen IT-Branche, von Apple über Nintendo bis hin zu Red Hat. „Unsicherheit hält Anbieter davon ab, innovative Dienste wie 5G-Slicing oder vertikale Anwendungen mit extrem niedriger Latenz einzuführen“, klagt der Verband in seiner Stellungnahme. „Um Anwendungsfälle der nächsten Generation zu ermöglichen, ist es wichtig zu klären, ob solche Dienste mit der Netzneutralität vereinbar sind.“
Bislang ist allerdings völlig unklar, an welchen Stellen genau nachgeschärft werden sollte. Sowohl die EU-Regeln aus dem Gesetz als auch die begleitenden Leitlinien, in denen GEREK akribisch genau erläutert, unter welchen Bedingungen solche Spezialdienste erlaubt sind, sollten eigentlich einen recht genau abgesteckten Rahmen vorgeben. Solange solche Überholspuren technisch objektiv notwendig sind und dabei das offene Internet nicht untergraben, können Netzbetreiber ihrer Fantasie freien Lauf lassen.
In Deutschland wäre dies etwa die Telekom, die im Vorjahr mit einem speziellen Gaming-Paket sehr wohl ein Produkt mit „5G-Slicing (…) mit extrem niedriger Latenz“ eingeführt hat. So groß scheint die Verunsicherung, anders als es so manche Stellungnahme aus der Branche behauptet, also nicht zu sein.
Zumindest dem deutschen Digitalministerium waren im vergangenen Sommer keine Fälle bekannt, in denen „innovative Geschäftsmodelle im Zusammenhang mit Network Slicing“ untersagt wurden, teilte damals ein Sprecher des Ministeriums mit. „Wir halten die Vorgaben der EU-Verordnung und die diese erläuternden Leitlinien des GEREK auch grundsätzlich für klar und sachgerecht“, so der Sprecher.
Sollte die EU-Kommission diesen Bereich verändern, dürfe es keine unerwünschten Nebenwirkungen geben, mahnt ISOC: „Soweit die Rolle von Spezialdiensten im Rahmen der EU-Regeln für Netzneutralität geklärt werden muss, halten wir es für wichtig, dass ein solcher Prozess die Offenheit des Internets verteidigt und es vermeidet, ‚Innovation‘ als Rechtfertigung für diskriminierende Behandlung oder geschlossene Ökosysteme zu verwenden.“
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Wenn Menschen sehr wütend sind, gehen sie oft irrationale Wege. Das ist aber nicht immer hilfreich, wenn es darum geht, Probleme gut zu lösen. Was diese Dynamik mit der Diskussion um Chatkontrolle zu tun hat, erklärt unsere Kolumnistin Bianca Kastl.

Die heutige Degitalisierung wird sich mit der Wirkung von Wut beschäftigen müssen, mit Furor. Denn Wut ist ein Momentum, das uns immer wieder dazu bringt, dass vermeintlich gut gemeinte Ideen katastrophale Folgen haben können. Um das Konzept mit der Wut und seine Wirkung besser zu verstehen, hilft es vielleicht, einen Blick in die Filmgeschichte zu werfen.
Im Jahr 1936 erzählte der zuvor aus Nazideutschland emigrierte Filmregisseur Fritz Lang in „Blinde Wut“ die Geschichte des unschuldig verhafteten Joe Wilson, gespielt von Spencer Tracy. Wegen der vermeintlichen Entführung eines Kindes wird er beinahe von einem aufgebrachten Lynchmob ermordet. Die Menge stürmt das Gefängnis, in dem Joe inhaftiert ist, setzt es in Brand und am Ende kann Joe nur um ein Haar lebend entkommen. Für tot gehalten, schmiedet Joe Rachepläne – und irgendwo gegen kurz vor Schluss wäre es fast ein brillanter Film geworden, hätte Hollywood nicht noch ein typisch kitschiges Ende anfügen müssen.
Fritz Langs Film kann uns dabei helfen, zu verstehen, aus welchen Motiven Menschen durch starke Gefühle wie Wut oft irrationale Wege gehen. Dass kann sogar so weit gehen, dass es ihnen nach Rache oder sogar Lynchmord gelüstet. Gleichzeitig sollte uns der Film aber auch genau deshalb eine Lehre sein, gerade nach besonders schrecklichen Ereignissen unsere Entscheidungen und die Abwägung ihrer Folgen nicht von starken Emotionen leiten zu lassen.
Zerfetzte Seelen
Oftmals fällt es leichter, den eigenen Irrweg im Hier und Heute neutraler zu betrachten, wenn dazu Beispiele verwendet werden, die doch etwas aus der Zeit gefallen sind. Das kann ein Film in Schwarz-Weiß von 1936 sein oder eben ein netzpolitisches Beispiel aus dem Jahr 2009. Ursula von der Leyen, heute Präsidentin der Europäischen Kommission, damals Familienministerin, versuchte ein digitalpolitisches Ungetüm namens „Gesetz zur Erschwerung des Zugangs zu kinderpornographischen Inhalten in Kommunikationsnetzen“ (oder etwas kürzer Zugangserschwerungsgesetz) voranzutreiben.
Das Konzept des Gesetzes war mehr oder weniger: Es sollte eine vom BKA verwaltete Sperrliste mit Webseiten geben, auf denen Darstellungen von sexualisierter Gewalt gegen Kinder zu finden sind. Webseiten auf der Sperrliste würden dann von Internetanbietern geblockt, sofern das Material nicht entfernt werden konnte. Ein Stoppschild für Webseiten, ernsthaft.
Im Vorfeld des Gesetzes wurde an der ein oder anderen Stelle versucht, eine Art wütender Gruppendynamik zu schaffen. Von der Leyen sprach in Interviews von „zerfetzten Seelen“, zeigte Journalist*innen Missbrauchsdarstellungen als Ausdruck der Dringlichkeit und Schwere des Problems und warf Kritikern Zynismus vor. Karl Theodor zu Guttenberg, damals noch nicht mit vollstem Vertrauen versehen, zeigte sich auch schwer betroffen und stellte den Protest gegen Internetsperren gleich auf eine Stufe mit der Ablehnung des Kampfes gegen Darstellungen sexualisierter Gewalt.
Letztlich alles ein Versuch, Wut gegenüber andere Handlungsweisen zu erregen. Wer nicht voll für uns ist, kann nur mit den Menschen sein, die etwas so absolut Inakzeptables wie Kindesmissbrauch betreiben. Jede Maßnahme zur Durchsetzung ist recht, um so etwas Schreckliches durch genau den einen von vielen möglichen Wegen zu verhindern. Seid wütend gegenüber anderen Lösungsvorschlägen, auch wenn andere Lösungen genauso Sicherheit und Gerechtigkeit für alle erreichen wollen.
Die damaligen Methoden von DNS-Sperren waren vergleichsweise minimalinvasiv. Die Anpassung eines DNS-Servers, um Blockierungen durch Internetprovider zu umgehen, war eher Grundkurs Internettechnik und wäre schwerlich zu irgendeiner Art von Zugangserschwerung gut gewesen. Speziell für Menschen, die mit der Verbreitung und Erstellung von Darstellungen sexuellem Missbrauchs klare Straftaten in oftmals voller bösartiger Absicht begehen. Wohl aber hätte es die Basis einer Infrastruktur für Zensur im Internet sein können.
Das Zugangserschwerungsgesetz trat letztlich zwar formal Anfang 2010 in Kraft, so wirklich angewendet wurde es aber nicht und verschwand Ende 2011 wieder still und heimlich.
Was zumindest aber in der Geschichte der deutschen Digitalpolitik blieb: „Zensursula“ und ein erster netzpolitischer Erfolg gegen unsinnige technische Beeinflussung von Internetinfrastruktur.
Schauspielerei
In der Genese des Regelungsvorschlags einer Verordnung zur Festlegung von Vorschriften zur Prävention und Bekämpfung des sexuellen Missbrauchs von Kindern, besser bekannt als die heutige Chatkontrolle, wurden dann seit 2022 ebenfalls nicht weniger starke Emotionen gezeigt. Klar, wenn ein Schauspieler wie Ashton Kutcher für Organisationen wie Thorn die löblichen Absichten im Kampf gegen Missbrauchsdarstellungen als oberster Lobbyist bewirbt, dann sind da große Emotionen im Spiel, aber auch seltsame Lobbyverbindungen. Am Ende ging es möglicherweise um weit mehr als das Erkennen von entsprechenden Inhalten.
Für die Erkennung von Missbrauchsdarstellungen wurde Client-Side-Scanning (CSS) vorgeschlagen. Dabei werden bereits auf dem jeweiligen Endgerät Inhalte wie Fotos oder Videos in Messengern oder bei Maildiensten automatisch gegen eine Datenbank bekannter Inhalte abgeglichen. Immer wieder wurde von Befürwortern von Techniken wie dieser große Emotionen geschürt, dass das jetzt notwendig sei und dass wir das unseren Kindern quasi schulden würden. Gerade bei einem so sensiblen und emotionalen Thema wie Kindesmissbrauch müssen wir uns da immer die Frage stellen, ob das, was von diesen Gruppen auch mit viel Emotion getrieben wurde, auch wirklich hilfreich ist.
Viele wiesen in der langen politischen Diskussion um die Chatkontrolle auf Probleme hin. Seien es Hunderte von IT-Expert*innen und Sicherheitsforschenden, Jurist*innen, Datenschützer, Digitalorganisationen, Tech-Unternehmen, Messenger, UN-Vertreter, Kinderschützer, Wächter*innen der Internetstandards, Wissenschaftler*innen weltweit sowie eine unglaubliche Breite der Zivilgesellschaft. Immer. Wieder.
Auch jüngst wurde wieder sachlich vorgetragen von Internetunternehmen, Wirtschaftsverbänden, dem Kinderschutzbund und Herstellern von Messengern: Der geplante Weg der Chatkontrolle ist falsch und schädlich.
Es wirkt gerade so, als würde eine kleine politische Gruppe gegen alle Rationalität und wider besseren Wissens das mühsam aufgebaute Gebäude unserer freiheitlich-demokratischen Grundrechte stürmen und in Brand setzen wollen. Bei aller Wut, die dabei bei uns entstehen kann, ist aber die Sachlichkeit des Protests das, was uns zumindest für diese Etappe im Widerstand gegen die Chatkontrolle gut zu Gesicht stand. Oder um es mit Markus zu sagen: Das war ein guter Tag für Grund- und Freiheitsrechte.
Memento
Nach der Wut und ihrem Abklingen zeigte sich diese Woche im Bundestag aber ein durchaus bemerkenswertes Momentum Memento. Die zur Chatkontrolle angesetzte Aktuelle Stunde in dieser Woche war eine Ansammlung diverser Sonderbarkeiten: Eine gesichert rechtsextremistische Partei, die perfiderweise so tut, als wäre das Scheitern der Zustimmung Deutschlands zur Chatkontrolle ihr Erfolg, und Regierungsparteien, die ja schon immer dagegen waren, im Besonderen ausgerechnet der Innenminister mit seinen eigenen Überwachungsfantasien.
Einig war man sich darin, dass es mehr zu tun gibt für den Kinderschutz. Immerhin. Allerdings ist die digitalpolitische Erkenntnis aus der aktuellen Episode um die Chatkontrolle vielleicht etwas arg sanft in der Debatte ausgefallen.
Speziell konservative Parteien wie die Union, aber leider auch die SPD, leben gedanklich immer noch in einer Welt des Internets als Neuland. Eine virtuelle Welt, die von der realen Welt irgendwie losgelöst ist, in der die Durchsetzung der öffentlichen Ordnung aber immer wieder mit falsch analog gedachten Mitteln versucht wird.
Stoppschilder im Internet? Funktionieren nicht. Weiterhin vertrauliche Kommunikation, wenn in jedem digitalen Endgerät mit erratischen Techniken wie Client-Side-Scanning mitgelesen wird? Gibt es nicht. Und wenn wir schon dabei sind: Es gibt keine Sicherheitslücken oder Überwachungsinfrastrukturen, die bis in alle Ewigkeit nur von den Guten genutzt werden können.
Am Ende bleibt auch auf EU-Ebene leider der Eindruck, dass bei einem so wichtigen Thema wie dem Kampf gegen die Verbreitung von Darstellungen sexuellen Missbrauchs von EU-Politiker*innen wie Ursula von der Leyen oder Ylva Johansson zur Lösung schwieriger digitalpolitischer Probleme nur starke Emotionen vorhanden sind und daraus resultierende digitalpolitische Übersprungshandlungen. Es entsteht der Eindruck, dass diese Lücke der Umsetzungskompetenz von Lobbyorganisationen wie Thorn bösartig ausgenutzt wird.
In der aktuellen Diskussion um die Chatkontrolle war die konservative Kraft – also eine, die sich für die Erhaltung von Grundrechten auch im digitalen Raum einsetzt – keine rein politische. Es war ein eher ungewöhnliches Bündnis aus Zivilgesellschaft, Wirtschaft, Wissenschaft und Betroffenenverbänden. Ein Bündnis, das das Thema Chatkontrolle aus der Digitalbubble heraus erst medial zu dem gesamtgesellschaftlichen Problem erhoben hat, das es nun mal ist. Weil die Regierungsparteien selbst keine klare Haltung finden konnten und ihr – zumindest in der Wahrnehmung nach außen – keine Kompetenzen zugeordnet werden können, Digitalpolitik nach dem eigenen Wertekanon gestalten zu können.
Dieser Mangel an klarer Haltung zu digitalpolitischen Themen und eigener Kompetenz zur adäquaten Problemlösung ist für Parteien in Regierungsverantwortung komplett aus der Zeit gefallen.
Dabei war die Chance eigentlich relativ gut: Ein klares Nein zur Chatkontrolle von Seiten Deutschlands hätte genügt, die fachlichen Begründungen wurden Jahre vorher ja schon massenhaft servierfertig geliefert. Gegen diese momentan vielleicht aufkommende Wut hilft am Ende vor allem eines: eine weiterhin klare Haltung für Grundrechte, auch in der digitalen Welt.
Denn diese klare Haltung für digitale Grundrechte bei der Lösungsfindung digitalpolitischer Problemfelder werden wir weiterhin brauchen, ganz ohne Wut.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Die 41. Kalenderwoche geht zu Ende. Wir haben 17 neue Texte mit insgesamt 103.332 Zeichen veröffentlicht. Willkommen zum netzpolitischen Wochenrückblick.

Liebe Leser:innen,
vor genau einer Woche stand im Wochenrückblick, dass die Bundesregierung im EU-Rat am 14. Oktober für die Chatkontrolle stimmen könnte. Auf Anfragen von uns hatte sie keine Position gegen die Überwachungspläne bezogen.
Jetzt, nur eine Woche später hat sich der Wind gedreht: Die Abstimmung im EU-Rat ist erstmal abgesagt, wohl auch weil sich die Bundesregierung am vergangenen Mittwoch gegen eine „anlasslose Chatkontrolle“ positioniert hat und es so keine Mehrheit geben würde. Das wohl gefährlichste Überwachungsprojekt Europas ist vorerst wieder abgewehrt.
Im letzten Wochenrückblick stand auch, dass es nicht zu spät für Proteste sei. Und genau das hat sich bewahrheitet: Es war nicht zu spät. Aus verschiedenen Ecken der Gesellschaft gab es Gegenwind, von Bitkom über den Kinderschutzbund bis zum Messenger-Platzhirsch WhatsApp. Aber auch jede Menge wütende Menschen, die massenweise E-Mails schrieben oder anriefen, um ihren Unmut zu äußern. Eine Petition sammelte in 48 Stunden mehr als 300.000 Unterschriften. Auf unserer Startseite gab es zwischenzeitlich kein anderes Thema mehr.
Am Ende lenkte die schwarz-rote Bundesregierung ein, nicht ohne frech zu behaupten, dass sie ja schon immer gegen die anlasslose Chatkontrolle gewesen sei.
Dieser Etappensieg der Zivilgesellschaft ist ein toller Erfolg. Er zeigt, dass es sich lohnt zu protestieren. Aber das Thema Chatkontrolle ist noch lange nicht vom Tisch. Einerseits müssen wir hierzulande ganz genau schauen, was die Bundesregierung eigentlich unter der Ablehnung einer anlasslosen Chatkontrolle versteht. Meint das auch Überwachungstools wie Client-Side-Scanning? Wie sieht es mit Zugriff bei einem „Anlass“ aus? Es darf keine Technologien auf unseren Smartphones und Computern geben, die Ende-zu-Ende-Verschlüsselung in irgendeiner Form umgehen oder schwächen. Dazu muss die Bundesregierung deutlich stehen.
Auf der anderen Seite steht im EU-Rat nur ein Teil der Mitgliedsländer gegen die Chatkontrolle. Wenn da einzelne Länder kippen, könnte die Chatkontrolle trotz des Widerstands aus Deutschland doch noch kommen. Es ist also wichtig, dass auch EU-weit Bewusstsein geschaffen wird, wie gefährlich das ist – und dass Chatkontrolle nicht zur Demokratie passt. Es bleibt also viel zu tun, wir berichten natürlich weiterhin.
Dennoch können wir uns jetzt erstmal ein Gläschen Crémant gönnen und uns freuen, dass es auch noch gute Nachrichten in dieser sonst so turbulenten Welt gibt.
Herzliche Grüße
Markus Reuter
Trugbild: Die neue Einsamkeit
Eigentlich sollten Unterhaltung und Erotik Menschen verbinden. Stattdessen weisen die Venus und die IFA, Leitmessen ihrer Branchen, einen anderen Weg. Von Vincent Först –
Artikel lesen
Geplante Massenüberwachung: WhatsApp und Threema sind strikt gegen Chatkontrolle
Immer mehr Messenger sprechen sich gegen die Chatkontrolle aus. Neben Signal haben sich nun auch die Messenger WhatsApp und Threema geäußert. Chatkontrolle untergrabe die Ende-zu-Ende-Verschlüsselung und gefährde die Privatsphäre, Freiheit und digitale Sicherheit aller. Von Markus Reuter –
Artikel lesen
Gesetzentwurf: Dänemark pocht auf Entscheidung zur Chatkontrolle
Morgen entscheiden Innenminister Dobrindt und Justizministerin Hubig die deutsche Position zur Chatkontrolle. Am Mittwoch bereiten die EU-Staaten ihre Abstimmung vor, die nächste Woche stattfinden soll. Wir veröffentlichen den aktuellen Gesetzentwurf der dänischen Ratspräsidentschaft. Von Andre Meister –
Artikel lesen
Chatkontrolle: „Total unausgegoren und technisch nicht tragfähig“
Klaus Landefeld, Vorstand des IT-Branchenverbandes eco, stellt sich im Interview gegen die EU-Pläne zur Chatkontrolle. Neben den massiven Grundrechtseinschränkungen kritisiert er auch die technischen Probleme. Die Qualität der Software, die verdächtige Inhalte erkennen soll, sei nicht ausreichend und zentrale technische Fragen ungeklärt. Von Constanze –
Artikel lesen
EU-Überwachungspläne: Last-Minute-Petition gegen Chatkontrolle gestartet
Private Chat-Nachrichten müssen auch künftig privat bleiben, fordern zivilgesellschaftliche Organisationen in einer Online-Petition. Gerichtet an die Bundesregierung soll sie dazu beitragen, dass die im EU-Rat die Chatkontrolle ablehnt. Die deutsche Position zu den Überwachungsplänen ist maßgeblich, ob diese angenommen werden. Von Markus Reuter –
Artikel lesen
EU-Überwachungsgesetz: Kinderschutzbund stellt sich gegen Chatkontrolle
Der Deutsche Kinderschutzbund lehnt die Chatkontrolle ab und fordert von der Bundesregierung „zielgerichtete Maßnahmen statt anlassloser Massenüberwachung“ im Kampf gegen sexualisierte Gewalt. Die Bundesregierung müsse sich dafür einsetzen, dass Kinderschutz mit Kinder- und Grundrechten vereinbar bleibe. Von Markus Reuter –
Artikel lesen
EU-Überwachungspläne in der Kritik: Wirtschaftsverbände Bitkom und eco klar gegen Chatkontrolle
Die Stimmen gegen die Chatkontrolle werden mehr und lauter. Nun hagelt es deutliche Kritik aus der Wirtschaft. Zudem warnen der Deutsche Journalistenverband und der Anwaltverein vor einer Überwachungsinfrastruktur, die schnell ausgebaut werden könnte. Von Markus Reuter –
Artikel lesen
EU-Überwachungspläne: Internetunternehmen fürchten, dass Chatkontrolle Innovation erstickt
Mehr als 40 europäische Internetfirmen und ein großer digitaler Unternehmensverband schlagen Alarm wegen der Chatkontrolle. Sie sehen durch die Überwachungspläne Nachteile für den Standort Europa. Von Markus Reuter –
Artikel lesen
Googles Gedächtnislücke: Wie das Löschen des Werbearchivs die demokratische Kontrolle untergräbt
Mit dem kommentarlosen Abschalten des Archivs hat Google nicht nur eine signifikante Datenquelle für zivilgesellschaftliche und wissenschaftliche Analysen von politischen Kampagnen zerstört. Die Löschung der eigenen Werbebibliothek durch Google erschwert auch die Arbeit von Aufsichtsbehörden. Ein Kommentar. Von Svea Windwehr –
Artikel lesen
EU-Überwachungspläne: Unionsfraktion jetzt gegen Chatkontrolle, Innenministerium will sich nicht äußern
Überraschend kündigte am Dienstagnachmittag der Fraktionsvorsitzende der CDU/CSU an, dass es eine anlasslose Kontrolle von Chats mit der Union nicht geben würde. Das Innenministerium sagt, die Abstimmung sei noch nicht abgeschlossen. Von Markus Reuter –
Artikel lesen
Digital Services Act: Wie Wikimedia es schafft, die Vorgaben der EU zu erfüllen
Die Vorgaben der EU für sehr große Online-Plattformen zu erfüllen, ist eine Herausforderung für die unkommerzielle Online-Enzyklopädie Wikipedia. Immerhin hat die viel weniger Ressourcen und ganz andere Strukturen als Digitalkonzerne. Doch es ist gelungen, findet die Wikimedia-Stiftung. Von Anna Ströbele Romero –
Artikel lesen
Protest wirkt: Bundesregierung ist gegen „anlasslose Chatkontrolle“
Die breite zivilgesellschaftliche Ablehnung der Chatkontrolle und der Protest der letzten Tage haben offenbar Wirkung gezeigt. Die Bundesregierung stimmt auch unter Schwarz-Rot einer anlasslosen Chatkontrolle in der EU nicht zu. Vom Tisch ist das Thema damit noch nicht. Von Markus Reuter –
Artikel lesen
Protest gegen die Chatkontrolle: So geht Demokratie
Der Etappensieg bei der Chatkontrolle ist das Verdienst einer quicklebendigen Zivilgesellschaft, die es geschafft hat, in klugen und unerwarteten Bündnissen die Wichtigkeit des Themas allen vor Augen zu führen. Zeit, dafür Danke zu sagen. Von Markus Reuter –
Artikel lesen
Bundestag: Grüne und Linke wollen klares Bekenntnis gegen Chatkontrolle
Nach langem Bangen hat sich die Bundesregierung gegen eine „anlasslose Chatkontrolle“ positioniert. Doch die Diskussion ist damit nicht beendet. Grüne und Linke im Bundestag wollen eine klare Positionierung für Verschlüsselung und gegen fragwürdige Überwachungsmaßnahmen. Von Anna Biselli –
Artikel lesen
Bundestag zu Chatkontrolle: „Anlasslose Überwachung ist ein Tabu in einem Rechtsstaat“
Aus einer Diskussion im Bundestag wird deutlich, dass es auch im Parlament eine breite Ablehnung der Chatkontrolle gibt. Viele Abgeordnete warfen der Regierung ihr langes Schweigen vor. Von Anna Biselli –
Artikel lesen
Genomische Daten von Neugeborenen: „Das würde ganz neue Begehrlichkeiten wecken“
Forschende und Mediziner:innen wollen das Erbgut von Neugeborenen analysieren. Die Molekularbiologin Isabelle Bartram warnt im Interview vor Diskriminierung durch Gen-Daten und dem Aufbau einer nationalen DNA-Datenbank. Von Leonhard Pitz –
Artikel lesen
#301 Off The Record: Chatkontrolle und fünf neue Kolleg:innen
Was überrascht am meisten, wenn man neu ins Team bei netzpolitik.org kommt? Und warum dauert der Kampf gegen die Chatkontrolle so lange? Das und mehr besprechen wir in der neusten Folge unseres Podcasts Off/On. Von Anna Biselli –
Artikel lesen
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Was überrascht am meisten, wenn man neu ins Team bei netzpolitik.org kommt? Und warum dauert der Kampf gegen die Chatkontrolle so lange? Das und mehr besprechen wir in der neusten Folge unseres Podcasts Off/On.

Seit der vorigen Folge sind viele neue Leute ins Team gekommen. Eine dieser Personen könnt ihr in diesem Podcast kennenlernen: unser neuer – und erster – Volontär Timur. Er erzählt über sich und das, was ihn in seinen ersten Wochen bei netzpolitik.org überrascht hat.
Außerdem sprechen wir über das Thema, das uns diese Woche am meisten beschäftigt hat: die Chatkontrolle. Zwei Jahre nach der letzten Folge mit diesem Schwerpunkt berichtet Markus, wo wir heute stehen, und wie er es weiter aushält, beständig über diesen netzpolitischen Dauerbrenner zu berichten.
In dieser Folge: Timur Vorkul, Markus Reuter und Anna Biselli.
Produktion: Serafin Dinges.
Titelmusik: Trummerschlunk.
Hier ist die MP3 zum Download. Wie gewohnt gibt es den Podcast auch im offenen ogg-Format. Ein maschinell erstelltes Transkript gibt es im txt-Format.
Unseren Podcast könnt ihr auf vielen Wegen hören. Der einfachste: in dem Player hier auf der Seite auf Play drücken. Ihr findet uns aber ebenso bei Apple Podcasts, Spotify und Deezer oder mit dem Podcatcher eures Vertrauens, die URL lautet dann netzpolitik.org/podcast.
Wir freuen uns auch über Kritik, Lob, Ideen und Fragen entweder hier in den Kommentaren oder per E-Mail an podcast@netzpolitik.org.
Links und Infos
Hausmitteilungen
- Unser Instagram-Account
- Erster Text unserer neuen Kollegin in Brüssel
Thema des Monats
- Die Podcast-Folge vor zwei Jahren zum „Beruf: Chatkontrolle“
- Alle unsere Texte zur Chatkontrolle
- Warum ist Chatkontrolle so ein Problem?
Aus dem Maschinenraum
- Timurs Text zu einem vietnamesichen Exilmedium
Blattkritik
- Interview zu Charlie Kirk mit Berit Glanz
- BAMF liest viel weniger Smartphones aus
- Ausländerbehörden lesen dafür sehr viele Smartphones aus
- Alaa Abd el-Fattah kommt endlich frei
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Forschende und Mediziner:innen wollen das Erbgut von Neugeborenen analysieren. Die Molekularbiologin Isabelle Bartram warnt im Interview vor Diskriminierung durch Gen-Daten und dem Aufbau einer nationalen DNA-Datenbank.

Sollte das Erbgut von Babys direkt nach der Geburt analysiert werden? Diese Frage stellen sich Wissenschaftler:innen und Gesundheitspolitiker:innen rund um den Globus. Einige versprechen sich davon eine bessere Gesundheitsvorsorge. Krankheiten könnten früher entdeckt und therapiert werden, noch bevor Symptome auftreten.

Doch was sind die Risiken eines solchen Programms? Was macht Genom-Daten so sensibel? Und wo stehen wir in Deutschland? Das haben wir Isabelle Bartram gefragt. Sie ist promovierte Molekularbiologin und arbeitet seit 2017 beim Gen-ethischen Netzwerk. Der Verein will über die gesellschaftlichen Auswirkungen von Gen-Technologien aufklären und eine differenzierte Debatte ermöglichen.
Isabelle Bartram beschäftigt sich mit Gen-Technolgien im medizinischen Bereich und genetischem Datenschutz. Zuletzt hielt sie bei der Konferenz „Datenspuren“ in Dresden einen Vortrag mit dem Titel: „Das gläserne Baby? Unbeabsichtigte und unvorhergesehen Effekte der Speicherung genomischer Daten von Neugeborenen“. Wir haben mit ihr nach dem Vortrag gesprochen.
netzpolitik.org: Wenn heute in Deutschland ein Kind auf die Welt kommt, wie „gläsern“ ist das Baby schon bei der Geburt?
Isabelle Bartram: Aktuell bekommen Eltern ein erweitertes Neugeborenen-Screening angeboten. Dabei wird das Baby in die Ferse gepiekst und der Blutstropfen wird im Labor auf momentan 17 angeborene Erkrankungen analysiert. Das sind alles Krankheiten, die früh auftreten, sehr schwerwiegend und behandelbar sind. Ich nehme an, die meisten Eltern stimmen dem zu, weil sie das Beste möchten für ihr Kind. Bei den Screenings kann man meines Wissens nach oft ankreuzen, ob das abgenommene Blut weiter für die Forschung verwendet werden darf. Das kann aber je nach Klinik variieren.
Der Großteil dieser Tests ist rein biochemisch, es wird also auf Stoffwechselprodukte im Blut geschaut. Aber es sind inzwischen auch zwei oder drei genetische Tests dabei, zum Beispiel auf spinale Muskelatrophie. Das ist eine Muskelschwäche, die schon bei Babys auftritt und die unbehandelt tödlich sein kann. Bei diesem Test sucht man nach einer bestimmten Genvariante. Dabei schaut sich das Labor aber nur dieses eine Gen an und nicht das gesamte Genom, wie es beim genomischen Neugeborenen-Screening diskutiert wird. Das wäre dann eine ganz andere Qualität.
Deutschland steht noch am Anfang
netzpolitik.org: Wie weit sind die Pläne für ein genomisches Neugeborenen-Screening denn in Deutschland?
Isabelle Bartram: Wir stehen in Deutschland eher noch am Anfang, anders als in Großbritannien, wo das Genom-Screening für alle Neugeborenen bereits beschlossen ist. In Deutschland gibt es das Projekt „New_Lives“ an der Uni Heidelberg und Uni Mannheim, gefördert vom Bundesministerium für Forschung. „New_Lives“ wollte die Rahmenbedingungen für das Genom-Screening bei Neugeborenen schaffen. Das Projektteam hatte vor Kurzem ein Abschlusssymposium und hat ein Rahmenpapier mit Empfehlungen veröffentlicht.
Dort steht zum Beispiel, dass die Daten nicht automatisch für die Forschung verwendet werden sollten, sondern nur mit der separaten Einwilligung der Eltern. Da stelle ich mir aber die Frage, wie das praktisch aussehen soll. Die Geburt und die Zeit danach sind sehr stressig für Eltern, Menschen können da auch unter Schock stehen. Daher zweifle ich an, wie informiert Leute in dieser Krisensituation eine Entscheidung treffen können, vor allem wenn es vielleicht nur ein Kreuzchen mehr auf einem Formular ist.
Da sind also noch sehr viele Fragezeichen und es wären wahrscheinlich einige Gesetzesänderungen notwendig. Wir sind in Deutschland aktuell noch ganz am Anfang. Aber es ist jetzt wichtig, die Tragweite zu verstehen und sich da einzumischen.
„DNA gilt zum Teil als Wahrheitsmaschine“
netzpolitik.org: Was macht denn genetische Daten so sensibel?
Isabelle Bartram: Sie beinhalten ein großes Diskriminierungspotenzial. Es gibt viel Forschung zum Zusammenhang von Genetik und Erkrankungsrisiken, Behinderungen und auch Verhalten. Es besteht also die Gefahr, dass man aufgrund der Genetik einer bestimmten Gruppe zugeordnet und deshalb diskriminiert wird.
DNA gilt in unserer Gesellschaft zum Teil auch als Wahrheitsmaschine: Alles, was wir sind, stecke in unser DNA. Das ist natürlich nicht so. Die DNA ist zwar ein Bauplan, aber wie er umgesetzt wird, entscheidet sich in ständiger Interaktion mit der Umwelt und Gesellschaft. Doch nur weil die Zuordnung vielleicht nicht stimmt oder unsicher ist, kann man natürlich trotzdem diskriminiert werden.
netzpolitik.org: Sie warnen auch vor dem Aufbau einer nationalen DNA-Datenbank. Warum?
Isabelle Bartram: Meine Befürchtung ist, dass man die sequenzierten Genome der Neugeborenen zusammenführt und speichert, um einen großen Datenschatz für die öffentliche und privatwirtschaftliche Forschung zu erhalten. Aber eine wichtige Eigenschaft von DNA ist, dass man 50 Prozent immer an die nächste Generation weitergibt und dadurch nah verwandte Menschen eine große genetische Übereinstimmung haben. Das ist für die Polizei natürlich wahnsinnig nützlich, wenn sie nach Personen sucht.
Laut dem Gendiagnostikgesetz dürfen Ermittler*innen zwar nicht auf medizinische Datenbanken zugreifen, aber nach Freigabe für die Forschung ist diese Beschränkung nicht mehr da. Denn dann steht es nicht mehr unter der ärztlichen Schweigepflicht und das ist hochproblematisch. Bis jetzt ist mir zwar kein Fall bekannt, bei dem die Polizei auf eine Biobank oder auf eine medizinische Forschungsdatenbank zugegriffen hat. Aber das liegt vielleicht auch daran, dass alle bisherigen Datenbanken eher klein waren und voneinander getrennt sind.
Wenn es nun eine große Datenbank mit Neugeborenen gäbe, würde das ganz neue Begehrlichkeiten wecken. Und dann bräuchte es nur noch einen spektakulären Kriminalfall, um zu rechtfertigen, dass die Polizei darauf zugreift. Das gab es in der Geschichte kontroverser DNA-Technologien immer wieder, etwa bei der Einführung der DNA-Phänotypisierung 2019.
„Was macht das mit Leuten?“
netzpolitik.org: Ist das genomische Neugeborenen-Screening nicht aber trotzdem sinnvoll, um vererbbare Krankheiten frühzeitig zu erkennen und dann auch entsprechend gegensteuern zu können durch Prävention oder Vorsorge?
Isabelle Bartram: Wie sinnvoll das ist, wird auch medizinisch diskutiert. Bei vielen Erkrankungen ist es etwa so, dass man immer wieder bei gesunden Menschen vermeintlich pathologische Genvarianten für schwere Erkrankungen findet. Es kann also passieren, dass Kinder Medikamente gegen etwas nehmen müssen, obwohl sie vielleicht nie erkranken werden.
Und dann gibt es die Frage: Was macht das mit Leuten, wenn sie wissen, dass sie ein hohes Risiko für Krebs haben? Sie würden damit aufwachsen und immer Kontrolluntersuchungen machen müssen für etwas, das vielleicht nie auftritt.
Ich glaube, da muss noch viel diskutiert und abgewogen werden, statt das einfach einzuführen. Zudem bleibt die oben angesprochene Grundproblematik: Die Eltern entscheiden kurz nach der Geburt über die genomischen Daten ihres Kindes. Das Kind kann das nicht selbst entscheiden, ob seine Daten erhoben und gespeichert werden.
netzpolitik.org: Gibt es Bedingungen, unter denen ein genomisches Neugeborenen-Screening für Sie akzeptabel wäre?
Isabelle Bartram: Es sollten nur die Genvarianten betrachtet werden, die bekannte Auslöser für ein begrenztes Set an Krankheiten sind, nicht das ganze Genom. Zudem muss klar sein, dass die Genom-Daten sofort nach der Analyse gelöscht werden. Auf keinen Fall sollten diese Daten in der elektronischen Patientenakte oder dem European Health Data Space gespeichert werden. Meine Sorge ist aber, dass die Forschung und Industrie diesen „Datenschatz“ auf jeden Fall heben wollen.
Wenn das Genom-Screening erst einmal da ist, werden sich manche fragen: Das hat so viel Geld gekostet, diese Daten zu generieren – warum sollten wir die jetzt löschen?
netzpolitik.org: Zum Schluss vielleicht nochmal ein Blick auf die individuelle Ebene: Worauf sollten künftige Eltern in Bezug auf genetischen Datenschutz achten?
Isabelle Bartram: Ich habe damals bei meinem eigenen Kind das erweiterte Neugeborenen-Screening gemacht, aber eben nicht angekreuzt, dass die Daten weiter für die Forschung verwendet werden dürfen. Ich habe auf Nachfrage von Bekannten auch davon abgeraten, Nabelschnur-Blut zu spenden. Das wird von der DKMS für die Stammzellenspende oder die Forschung verwendet. Das sind löbliche Zwecke. Aber ich finde, es ist was anderes, ob man das für sich selbst oder einen anderen Menschen entscheidet.
Das Kind kann ja später immer noch selber entscheiden: Ich will Knochenmark und meine genetischen Daten spenden. Ich finde medizinische Forschung an sich sehr wertvoll, aber mir ist das zu intransparent. Es wird im Biologie- und Medizin-Sektor auch zu wenig über weitreichende Konsequenzen nachgedacht. Was passiert nach einem Rechtsruck mit genetischen Daten? Was machen autoritäre Systeme mit genetischen Daten? Für solche Fragen muss auch im Studium stärker sensibilisiert werden.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.