netzpolitik.org
Die 37. Kalenderwoche geht zu Ende. Wir haben 11 neue Texte mit insgesamt 106.013 Zeichen veröffentlicht. Willkommen zum netzpolitischen Wochenrückblick.
Liebe Leser*innen,
wenn ihr diesen Wochenrückblick vor euch habt, dann haben wir etwas Großes hinter uns. Nämlich unseren Konferenztag „Bildet Netze!“ zum 20-jährigen Bestehen von netzpolitik.org. Falls ihr am Freitag die Vorträge und Panels vor Ort oder im Stream verfolgt habt: Vielen Dank! Und falls ihr etwas davon nachholen möchtet: Die Aufzeichnungen findet ihr (in Kürze) online.
Während wir Ende der Woche Stühle, Kisten und Tische stapelten und durch Berlin transportieren, wanderten unsere Gedanken auch immer wieder Richtung Bundestag, wo ein beispielloses Überwachungspaket über Fraktionen hinweg Zuspruch bekam. Vor lauter Angst, dass die AfD im Nachgang des Solingen-Attentats die Debatte dominiert, machen die Ampel-Parteien plötzlich selbst Politik in AfD-Manier, und das mit Rückenwind der Union. Das Motto: Grundrechte stutzen, mehr Überwachung gegen alle, Ausländer raus.
Wenn ich das in zwei Worten kommentieren müsste, würde ich sagen: Zum Kotzen. Weniger krude und dennoch in angemessener Schärfe kommentiert das mein Kollege Markus Reuter: „Grundrechte-Totalverlust bei Grünen und FDP“ und fasst in einem weiteren Artikel nicht minder scharfe Stimmen aus der Zivilgesellschaft zusammen.
Allem Frust zum Trotz ist es wichtig, als (nicht nur digitale) Zivilgesellschaft kämpferisch zu bleiben und sich unermüdlich gegen die Erosion der Grundrechte stark zu machen. Das klappt zum Beispiel, indem man Netze bildet. Ganz ehrlich, ich würde auch lieber weniger große Worte im Rückblick schwingen. Vielleicht nächste Woche.
Euch ein gutes Wochenende
Sebastian
Degitalisierung: Das elfte Gebot
Angesichts einer möglichen faschistischen Zukunft dürfen wir vor allem eines nicht tun: gleichgültig sein. Speziell auch dann, wenn es um technologische Entwicklungen und Überwachung geht. Und wenn wir nicht gleichgültig sind, dann sind wir auch nicht allein. Von Bianca Kastl –
Artikel lesen
Monopolmacht: Warum Google jetzt zerschlagen werden sollte
Nach einem historischen Urteil im August beginnt heute in den USA ein weiteres Monopolverfahren gegen Google. In einem Gastbeitrag erklärt der Monopolexperte Ulrich Müller, was auf Google zukommen könnte – und warum auch Europa mehr Entflechtung wagen sollte. Von Gastbeitrag, Ulrich Müller –
Artikel lesen
UN-Cybercrime-Konvention: Staatstrojaner sind außen vor
Die geplante UN-Cybercrime-Konvention droht, das globale Geschäft mit Staatstrojanern zu fördern. Sie gefährdet damit Menschenrechtsverteidiger, Journalisten und politische Dissidenten weltweit. Von Gastbeitrag, Kate Robertson –
Artikel lesen
„Sicherheitspaket“: So will die Bundesregierung Asyl- und Polizeigesetze verschärfen
Leichtere Abschiebungen, härtere Regeln im Asylverfahren und mehr Befugnisse für die Polizei: Die Ampelfraktionen haben Gesetzentwürfe für die Verschärfungen nach Solingen eingebracht. Das steht darin zu biometrischer Gesichtserkennung und polizeilichen Big-Data-Analysen. Von Chris Köver –
Artikel lesen
Grundrechte-Abbau: Massive Kritik am Sicherheitspaket der Ampel
Zivilgesellschaftliche Organisationen kritisieren das Sicherheitspaket der Ampel in scharfen Worten. Sie warnen vor radikalem Abbau von Grundrechten und flächendeckender biometrischer Überwachung. Der Bundestag darf diese Gesetze so nicht beschließen. Wenn doch, braucht es eine aktivistische Zeitenwende. Von Markus Reuter –
Artikel lesen
Letzte Generation: Verfassungsbeschwerde gegen Abhören des Pressetelefons
Als die bayerische Polizei das Pressetelefon der Protestgruppe Letzte Generation abhörte, habe sie das Grundrecht auf Pressefreiheit missachtet, kritisieren die Gesellschaft für Freiheitsrechte, Reporter ohne Grenzen und der Bayerische Journalisten-Verband. Im Namen von drei betroffenen Journalist*innen haben sie Verfassungsbeschwerden eingereicht. Von Martin Schwarzbeck –
Artikel lesen
Sicherheitspaket der Ampel: Grundrechte-Totalverlust bei Grünen und FDP
Grüne und FDP geben Grund- und Freiheitsrechte auf. Mit dieser Innen- und Asylpolitik bauen sie zusammen mit der SPD ein autoritäres Fundament, das die AfD schlüsselfertig übernehmen könnte. Dabei braucht es gerade jetzt klare Kante für Freiheit und Menschenrechte statt der dummbatzigen Ratlosigkeit, die beständig auf autoritäre Lösungen setzt. Ein Kommentar. Von Markus Reuter –
Artikel lesen
Digitale Selbstverteidigung: Biometrische Gesichtserkennung abwehren
Wer Kameras entgehen will, hat es zunehmend schwer. Dabei genügt ein Schnappschuss, um einen Menschen zu identifizieren. Wir erkunden die faszinierende Welt des Widerstands gegen biometrische Erkennung. Von Martin Schwarzbeck –
Artikel lesen
CUII: Viele Netzsperren wirken länger als erlaubt
Der 17-jährige Damian hat nachgewiesen, dass deutsche Internetprovider zahlreiche Websites viel länger sperren, als sie dürfen. Dabei müssen die Provider eigentlich regelmäßig prüfen, ob eine Netzsperre noch berechtigt ist. Besonders fragwürdig ist die Sperrung einer Seite, die erklärt, wie man die Sperren umgeht. Von Martin Schwarzbeck –
Artikel lesen
Big Data bei den Geheimdiensten: Die Ampel muss automatisierte Analysen begrenzen
Über den Einsatz automatisierter Datenanalysesoftware durch Bundespolizei und BKA wird intensiv gestritten. Die Nachrichtendienste bleiben bei dieser Debatte außen vor. Dabei nutzen sie solche Werkzeuge seit vielen Jahren ohne ausreichende rechtliche Beschränkungen – mit potenziell schweren Folgen für unsere Grundrechte. Von Gastbeitrag, Corbinian Ruckerbauer und Lilly Goll –
Artikel lesen
Bildet Netze!: Die Streams zu unserer Konferenz
Wir machen heute in Berlin eine Konferenz. Wer nicht vor Ort ist, kann trotzdem dabei sein. Hier sind die Streams. Von Anna Biselli –
Artikel lesen
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Wir machen heute in Berlin eine Konferenz. Wer nicht vor Ort ist, kann trotzdem dabei sein. Hier sind die Streams.
Wie verteidigen wir digitale Freiheitsrechte? Wie stellen wir technologischen Wandel in den Dienst der Gesellschaft? Welche Netze müssen wir spannen, um das Netz gemeinsam voranzubringen? Diesen Fragen gehen wir heute – 20 Jahre nach Gründung von netzpolitik.org – auf einer eintägigen Konferenz nach.
Auch wer heute nicht live dabei ist, kann die Inhalte auf den zwei Vortragsbühnen im Stream verfolgen. Fragen stellen könnt ihr via Mastodon und Bluesky mit dem Hashtag #bildetnetze. Das Programm findet ihr hier.
Stream für die Prägehalle
https://www.youtube.com/live/CK6pE4-8kCg
Stream für die Zählhalle
https://www.youtube.com/live/bOmuCthlwrI
Im Anschluss werden wir die Recordings auch direkt ohne große Tech-Plattform im Rücken zum Anschauen und Runterladen zur Verfügung stellen.
Wir danken Wikimedia Deutschland, dem Chaos Computer Club und dem Kongressfond für nachhaltiges Tagen des Landes Berlin für die Unterstützung der Konferenz.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Über den Einsatz automatisierter Datenanalysesoftware durch Bundespolizei und BKA wird intensiv gestritten. Die Nachrichtendienste bleiben bei dieser Debatte außen vor. Dabei nutzen sie solche Werkzeuge seit vielen Jahren ohne ausreichende rechtliche Beschränkungen – mit potenziell schweren Folgen für unsere Grundrechte.
Corbinian Ruckerbauer und Lilly Goll arbeiten für den Berliner Think Tank interface (ehemals Stiftung Neue Verantwortung). Im Programm Digitale Grundrechte, Überwachung und Demokratie beschäftigen sie sich mit der rechtsstaatlichen Kontrolle von Nachrichtendiensten. Im Rahmen einer Impulsreihe zur anstehenden Reform des Nachrichtendienstrechts, haben sie kürzlich ein Papier zur Nutzung von Big Data durch Geheimdienste erstellt.
Die Ampelkoalition will BKA und Bundespolizei zukünftig erlauben, Programme zur automatisierten Datenanalyse einzusetzen. Der wahrscheinlich bekannteste Anbieter für solche Software, die von Sicherheitsbehörden zur Auswertung großer Datenmengen genutzt wird, ist das US-Unternehmen Palantir. Mehrere Bundesländer nutzen Software dieses Unternehmens – für die Bundesebene soll Berichten zufolge eine andere Lösung bevorzugt werden.
Aber nicht nur Polizeibehörden nutzen in Deutschland solche Tools. Auch deutsche Nachrichtendienste setzen sie ein, um aus großen Datenmengen relevante Informationen herauszufiltern. Warum sie das tun, ist erst einmal einleuchtend: Ihre Arbeit kann dadurch effektiver werden, bisher verborgene Informationen über Gefährdungslagen sind im Zweifelsfall schneller sichtbar.
Doch der Einsatz hochpotenter Analysetools hat seinen Preis. Wer sie einsetzt, kann sensible Informationen zu Tage fördern, die tiefe Einblicke in die Privatsphäre von Menschen erlauben. Ein Grundsatz unseres demokratischen Rechtsstaats lautet: Solche schwerwiegenden Eingriffe in unsere Privatsphäre und in andere Grundrechte sind nur dann rechtens, wenn sie in einem angemessenen Verhältnis zum verfolgten Ziel stehen. Es ist Aufgabe des Gesetzgebers, hierfür die notwendigen Sicherungsmaßnahmen zu schaffen.
Deutsche Nachrichtendienste arbeiten seit 2014 mit solchen Werkzeugen
Der Gesetzesentwurf über den Einsatz solcher Analysetools bei der Polizei ist umstritten. Kritische Stimmen bemängeln unter anderem die weit gefasste Befugnis, die viele Anwendungsfälle und immense Datensammlungen umfasst, die niedrigen Eingriffsschwellen, sowie die mangelhafte datenschutzrechtliche Kontrolle. So umstritten dieser Gesetzesentwurf ist: Er erkennt zumindest grundsätzlich an, dass solche schweren Grundrechtseingriffe eine gesetzliche Grundlage und bestimmte Sicherungsmaßnahmen benötigen.
Blickt man auf die Nachrichtendienste, ergibt sich ein völlig anderes Bild. Der Gesetzgeber verschließt die Augen vor der Tatsache, dass die Anwendung solcher Analysetools tief in Grundrechte eingreift. Und das, obwohl deutsche Dienste schon mindestens seit 2014 mit solchen Werkzeugen arbeiten.
Im Jahr 2015 berichtete netzpolitik.org über interne Haushaltspläne des Bundesverfassungsschutzes. Demnach richtete der Dienst Referate ein, die diese Fähigkeiten aufbauen sollten. Beispielsweise sollte ermöglicht werden, anhand von Verkehrsdaten aus der Fernmeldeaufklärung detaillierte Kommunikations- und Beziehungsnetzwerke zu erstellen.
Verkehrsdaten ermöglichen Bewegungs-, Persönlichkeits-, und Verhaltensprofile
Solche Verkehrsdaten genießen einen deutlich geringeren rechtlichen Schutz als die Inhalte der erfassten Kommunikationsvorgänge. Sie enthalten aber mitunter genauso sensible Informationen – vor allem wenn die Behörden leistungsfähige Technologien einsetzen, mit denen sie aus großen Datenmengen neue personenbezogene Informationen generieren können.
Die Nachrichtendienste können solche Technologien nicht nur zum Erstellen von Kommunikations- und Beziehungsnetzwerken, sondern auch für andere Zwecke nutzen. Abhängig von den vorhandenen Daten können die Dienste beispielsweise auch Bewegungs-, Persönlichkeits- oder Verhaltensprofile erstellen. Auch könnten solche Anwendungen eingesetzt werden, um statistische Besonderheiten zu erkennen oder Prognosen über das Verhalten von Personen zu treffen.
Zur Veranschaulichung: Kaufen Nachrichtendienste große Mengen von Bewegungsdaten, wie sie von Datenhändlern angeboten werden, können Sie mit der geeigneten Software sensible Informationen daraus generieren. Welche Menschen hat die beobachtete Person getroffen, an welchen Demonstrationen nimmt sie teil und welche Ärzt:innen sucht sie auf. Betroffen sind meist nicht nur einzelne Personen. Wegen der großen Datenmengen, die moderne Analysetools bewältigen können, ist eine große Anzahl von Menschen berührt, deren Verhalten dazu keinerlei Anlass gegeben hat. Damit erhöht sich der Überwachungsdruck.
Potenzielle Einschüchterung
Das kann einschüchternd wirken – so sehr, dass Menschen möglicherweise davor zurückschrecken, ihre Freiheitsrechte wahrzunehmen. Es liegt auf der Hand, dass ein solches Gefühl allgegenwärtig möglicher Überwachung sich negativ auf demokratische Prozesse und das Vertrauen der Bürger:innen in den Staat auswirkt.
Zudem wächst die Menge an verfügbaren Daten immer weiter, je mehr digitale Technologien in alle Lebensbereiche vordringen. Und die Nachrichtendienste erschließen neue Quellen zur Beschaffung großer Datenmengen.
Blackbox selbstlernende Algorithmen
So kaufen sie zum Beispiel Daten aus dem Werbemarkt oder erfassen systematisch öffentlich zugängliche Daten – ohne dass die gleichen Voraussetzungen gelten wie für traditionelle Erhebungsmethoden wie die Fernmeldeaufklärung. Außerdem steigt auch die Leistungsfähigkeit der Datenanalysetools und die verfügbare Rechenkraft.
Und noch etwas kommt beim Einsatz automatisierten Datenanalysetools hinzu: Je komplexer die Analyse, desto schwerer lässt sich nachvollziehen, was da eigentlich wie analysiert wurde. Das gilt insbesondere dann, wenn selbstlernende Algorithmen zum Einsatz kommen. Dieser Blackbox-Effekt erschwert die Kontrolle durch unabhängige Stellen und den Zugang zu effektivem Rechtsschutz gegen den missbräuchlichen Einsatz für die Betroffenen.
All diese Faktoren verschärfen die Grundrechtseingriffe, die mit dem Einsatz solcher Technologien verbunden sind. So sah es im vergangenen Jahr auch das Bundesverfassungsgericht in seinem Urteil zum Einsatz von Big Data durch Landespolizeien. Damit der Einsatz dennoch mit dem Grundgesetz vereinbar ist, sind zwei Dinge nötig: Zunächst einmal braucht es eine spezifische gesetzliche Ermächtigungsgrundlage. Darüber hinaus müssen Vorkehrungen getroffen werden, die sicherstellen, dass der Eingriff verhältnismäßig bleibt.
Es braucht eine verfassungskonforme rechtliche Grundlage
Dass die Nachrichtendienste danach streben, ihre Fähigkeiten zur Informationsbeschaffung immer weiter zu verbessern, ist nachvollziehbar. Es ist gewissermaßen Teil ihres Arbeitsauftrags. Doch auch dem Gesetzgeber kommt in diesem Zusammenhang ein Auftrag zu: Er muss den gesetzlichen Rahmen weiterentwickeln, um zu gewährleisten, dass die Arbeit der Nachrichtendienste mit dem Grundgesetz vereinbar ist.
Genau das ist der Gesetzgeber den Bürger:innen aber bisher schuldig geblieben. Das Recht hinkt der Realität des Einsatzes hinterher. Hier muss die Ampelkoalition deshalb dringend handeln: Sie sollte die anstehende Reform des Nachrichtendienstrechts nutzen und die Praxis der automatisierten Datenanalyse endlich auf eine verfassungskonforme rechtliche Grundlage stellen.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Der 17-jährige Damian hat nachgewiesen, dass deutsche Internetprovider zahlreiche Websites viel länger sperren, als sie dürfen. Dabei müssen die Provider eigentlich regelmäßig prüfen, ob eine Netzsperre noch berechtigt ist. Besonders fragwürdig ist die Sperrung einer Seite, die erklärt, wie man die Sperren umgeht.
Es war damals der erste Fall für Deutschlands neue private Internetsperr-Agentur. Im Februar 2021 beschloss die Clearingstelle Urheberrecht im Internet (CUII), eine Allianz aus Internetprovidern und Rechteinhabern, ihren Mitgliedern zu empfehlen, S.to zu sperren. Die Seite macht bis heute urheberrechtlich geschützte Serien kostenlos zugänglich.
Um die Nutzung des Angebotes weiterhin auch Menschen zu ermöglichen, die die DNS-Sperre nicht umgehen können oder wollen, etablierten die Betreiber*innen zahlreiche Alternativdomains. Diese wurden von der CUII ohne erneuten Beschluss gesperrt. Eine dieser Seiten ist Serien.sx.
Irgendwann zwischen 5. März und 12. April 2022 haben die Urheberrechts-Piraten, wie netzpolitik.org auf Archive.org nachvollziehen konnte, Serien.sx aufgegeben. Die Seite geht offline und leitet auf Serien.domains weiter. Dort verlinken die Betreiber*innen die nicht sperrbare IP-Adresse ihres Angebots.
Website zwei Jahre lang unrechtmäßig blockiert
Spätestens ab dem 14. Mai steht dort zudem eine Anleitung, wie man Netzsperren umgeht. Die Seite Serien.domains wird in Deutschland nicht gesperrt.
Das heißt, spätestens seit dem 12. April 2022 ist die Sperrung von Serien.sx, die auf Serien.domains verweist, offensichtlich unrechtmäßig. Gesperrt werden dürfen nur Websites, deren Inhalt strukturell urheberrechtsverletzend ist, so der Verhaltenskodex der CUII und auch deren Verabredung mit der Bundesnetzagentur.
Damian, nach eigenen Angaben ein 17-jähriger Schüler, fragte Ende August dieses Jahres bei der CUII nach der Rechtsgrundlage der Sperrung von Serien.sx. Eine Antwort bekam er nicht. 13 Tage später wurde aber Serien.sx vom ersten Provider von der Sperre befreit, noch einmal vier Tage später vom zweiten, am Tag danach von Nummer drei. Damian sagt gegenüber netzpolitik.org:
Damit ist bestätigt, dass die CUII nicht im Recht war, diese Domain zu sperren, und diese dennoch für über zwei Jahre gesperrt blieb.
Weitreichender Eingriff in die Informationsfreiheit
Eine DNS-Sperre ist ein weitreichender Eingriff in die Informationsfreiheit, deshalb müssen die Internetprovider, die solche Sperren einrichten, ein regelmäßiges Monitoring betreiben, das sicherstellt, dass die Sperrvoraussetzung – die strukturelle Urheberrechtsverletzung – weiterhin vorliegt, so lange gesperrt wird. Das schreibt sowohl der Verhaltenskodex als auch die Bundesnetzagentur vor. Doch das Monitoring ist, so es denn überhaupt stattfindet, offenbar unzureichend. Aus den Augen, aus dem Sinn, so scheint es.
Jan Bernd Nordemann, Vorsitzender des Steuerungskreises der CUII, schreibt auf Anfrage von netzpolitik.org, dass CUII-Rechteinhaber, die DNS-Sperren für strukturell urheberrechtsverletzende Webseiten veranlasst haben, verpflichtet seien, mit geeigneten Maßnahmen zu überwachen, ob die rechtlichen Voraussetzungen für eine DNS-Sperre der betreffenden Domains weiter vorliegen. „Ergibt dieses Monitoring, dass die Voraussetzungen für eine Sperre nicht mehr vorliegen, teilen die betreffenden CUII-Rechteinhaber der CUII-Geschäftsstelle mit, dass die DNS-Sperre entfallen kann. Die CUII-Geschäftsstelle unterrichtet wiederum unverzüglich die CUII-Zugangsanbieter, damit sie die DNS-Sperre aufheben“, schreibt er weiter.
Bis heute seien für über 130 Domains eingerichtete DNS-Sperren auf Initiative von CUII-Rechteinhabern wieder aufgehoben worden, weil die Domains nicht mehr für das kriminelle Geschäftsmodell genutzt würden. „In allen Fällen erfolgte die Aufhebung der DNS-Sperren durch die CUII-Zugangsanbieter unverzüglich und fehlerfrei.“
Damian hat jedoch zahlreiche weitere Seiten gefunden, die von der CUII schon seit über einem Jahr zu Unrecht gesperrt werden. Burningseries.tw hat seit mindestens dem 29. Juli 2023 als einzigen Seiteninhalt ein Banner: „Buy this Domain“. Newalbumreleases.unblockit.dev wird mindestens seit dem 8. Dezember 2022 nicht mehr genutzt, Newalbumreleases.unblockit.onl mindestens seit dem 9. Februar 2023. Und es gibt noch viele weitere Fälle gesperrter Websites, in denen die Sperre bereits seit Monaten obsolet ist.
Ein Drittel der Domains zu Unrecht gesperrt
„Das stellt die Kompetenz der CUII klar in Frage“, sagt Damian. Der 17-jährige Schüler hat auf seiner Seite cuiiliste.de eine Anleitung zur Umgehung von Netzsperren online gestellt, ähnlich wie die Seite Serien.domain, daneben eine Liste der in Deutschland wegen Urheberrechtsverletzungen gesperrten Websites. Wir haben im August bereits darüber berichtet, wie sich Damian mit der Unterhaltungsindustrie anlegt.
Damian ist nun alle Websites aus der Liste auf seiner Seite einzeln durchgegangen und hat nachgeschaut, ob noch Urheberrechtsverletzungen auf der Domain stattfinden. Mit Stand 23. August waren 41 von 122 von der CUII gesperrten Domains nicht mehr erreichbar oder leiteten die Anfrage auf Websites um, die nicht von CUII-Sperren betroffen sind, so Damian. Ziemlich genau ein Drittel der Domains wäre demnach zu Unrecht gesperrt.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Wer Kameras entgehen will, hat es zunehmend schwer. Dabei genügt ein Schnappschuss, um einen Menschen zu identifizieren. Wir erkunden die faszinierende Welt des Widerstands gegen biometrische Erkennung.
Wenn Menschen in Deutschland feiern, werden sie vielleicht bald genau beobachtet. Kameras sollen aufzeichnen, wer wo tanzt, quatscht, knutscht oder kotzt. Laut der SPD-Bundestagsfraktion „brauchen wir Videoüberwachung an Kriminalitätsschwerpunkten und bei großen Menschenansammlungen wie Volksfesten oder Konzerten.“ Dazu soll der Einsatz von Biometrie geprüft werden.
Mit ihren Koalitionspartnern hat die Fraktion des Kanzlers bereits den Plan formuliert, dass Polizei und Ausländerbehörden künftig auch Inhalte aus dem Netz mittels biometrischer Gesichtserkennung durchsuchen sollen. In mehreren Bundesländern nutzt die Polizei bereits automatisierte Gesichtserkennung mit mobilen Kameras, Fachleuten zufolge ohne rechtliche Grundlage. Das Gesichtserkennungssystem des Bundeskriminalamts arbeitet mit polizeilich erstellten Bildern von rund fünf Millionen Menschen, vergangenes Jahr wurden damit etwa 3.800 Personen identifiziert.
Die Zahl der Kameras wächst. Die visuellen Datenkollektoren arbeiten im öffentlichen Nahverkehr, bei der polizeilichen Überwachung von Demonstrationen, in Geschäften, auf bestimmten Plätzen und in jedem Mobiltelefon. Und die Systeme zur biometrischen Erkennung von Amazon, Microsoft oder anderen Anbietern werden zunehmend besser. Gesichtserkennung, dieses dystopische Überwachungsinstrument, mit dem man auch Handys entsperren, Grenzkontrollen vornehmen, Fluggäste abfertigen und Menschen stalken kann, ist auf dem Weg zur Omnipräsenz.
In China ist sie besonders weit. Dort machen die hunderttausenden Kameras im öffentlichen Straßenland ausgewählte Menschen verfolgbar und warnen die Behörden automatisch vor unerwünschten Unterschriftensammlungen oder Demonstrationen. Auch das Scheinparlament wird mit Gesichtserkennung überwacht. Es gibt Berichte von Toiletten, die per Gesichtserkennung jeder Person eine Ration von 60 Zentimeter Klopapier zuweisen sollen. Eine Stadt outete mittels Gesichtserkennung Menschen, die in der Öffentlichkeit Pyjamas trugen wegen „unzivilisierte Verhaltens“. Ampeln prangern Menschen an, die bei Rot die Straße kreuzen und ziehen automatisch Punkte vom Social Score ab.
Der persönlichkeitsrechtliche Wert von Atemschutzmasken
Wer angesichts der vielen Linsen und Erkennungssysteme im öffentlichen Raum seine Privatsphäre schützen will, kann etwa sein Gesicht für die Geräte unkenntlich machen. Denn: „Jedes Gesicht ist einmalig. Und wie ein Auto das Nummernschild tragen wir es zur ständigen Identifizierung offen mit uns herum“, sagt der Bildwissenschaftler Roland Meyer, der ein Buch über Gesichtserkennung und Gegenmaßnahmen geschrieben hat, das 2021 veröffentlicht wurde.
In den vergangenen Jahren entstanden zahlreiche Versuche, das eigene Gesicht vor der biometrischen Erfassung zu schützen. Sie machen anschaulich, wie kreativ und experimentierfreudig der Widerstand gegen die Technologie ist – und wie sehr dahinter ein Katz- und Mausspiel steckt.
Einen gewissen Schutz vor automatisierter Identifizierung biete, so Meyer, das Tragen einer FFP2-Maske. Eine Studie des US-amerikanischen National Institute of Standards and Technology (NIST) von Juli 2020 zeigte, dass die getesteten Gesichtserkennungssysteme anhand von Mund-Nase-Bedeckungen Fehlerraten von bis zu 50 Prozent aufwiesen. Schwarze Masken verhinderten dabei die Gesichtserkennung noch gründlicher als hellblaue.
Eine weitere NIST-Studie aus dem November 2020 zeigte allerdings, dass die Programme zur Gesichtserkennung zunehmend besser im Erkennen von maskierten Gesichtern wurden. Raul Vicente Garcia vom Fraunhofer-Institut für Produktionsanlagen und Konstruktionstechnik, Abteilung Maschinelles Sehen, sagt: „Masken sind kein großes Problem, weil moderne Gesichtserkennung die obere Gesichtshälfte stärker zur Identifikation heranzieht.“
Ein iPhone 14 lässt sich auch mit Maske problemlos per Gesichtserkennung entsperren. Das Mobiltelefon im netzpolitik.org-Test gibt allerdings auf, wenn die zu erkennende Person neben der FFP2-Maske auch noch eine Sonnenbrille trägt. Sonnenbrille oder Maske allein: Sofort erkannt. Trägt die Person beides auf einmal, kann das Gerät sie offensichtlich nicht mehr mit ausreichender Sicherheit identifizieren.
Problem Vermummungsverbot
Auf jeden Fall gilt: Ist auf einem Bild oder in einer Videosequenz der bedeckte Teil des Gesichts groß genug, scheitert naturgemäß auch die ausgefeilteste Gesichtserkennungstechnologie. Der Bildwissenschaftler Roland Meyer sagt: „Da ist dann nur die Frage, inwieweit meine Mitmenschen die Maskerade akzeptieren.“
Während man beim Bahnfahren mit Sturmhaube vermutlich nur komisch angeschaut wird, kann der entsprechend maskierte Besuch einer Demonstrationen mit bis zu einem Jahr Haft bestraft werden. Seit 1985 ist die Vermummung bei Versammlungen oder Veranstaltungen unter freiem Himmel – mit Ausnahme traditioneller Feste wie Fasching – in den meisten Bundesländern eine Straftat, allein das Mitführen von Vermummungsutensilien kann eine Geldbuße von bis zu 500 Euro nach sich ziehen.
Amnesty International kritisiert das Vermummungsverbot. Es gäbe für Protestierende eine ganze Reihe legitimer Gründe, ihr Gesicht zu verhüllen: Zum Schutz vor Identifizierung durch die ständig wachsende, auch biometrische, Überwachung von Demonstrationen, gegen Tränengas, oder auch – zum Beispiel mit Politikermasken – als Protestform.
Naturgetreue Latexmasken gegen Gesichtserkennung
Es gibt auch ohne Vermummung Wege, das eigene Gesicht für automatisierte Gesichtserkennung unkenntlich zu machen. Man muss nur die Form ausreichend verändern. Idealerweise so, dass die Veränderung anderen Menschen gar nicht auffällt. Florian Berkowsky, Geschäftsführer der Maskenbildnerschule Hasso von Hugo in Berlin, sagt: „Eine simple Lösung bieten Beauty Stripes, eine Art Klebestreifen mit Gummizug. Damit werden normalerweise Falten glattgezogen, aber man könnte sie auch verwenden, um zum Beispiel Augenbrauen zu heben oder die Mund- oder Augenform zu verändern. Zusätzlich könnte man Nase und Wangen mit Wattebäuschen, wie man sie vom Zahnarzt kennt, ausstopfen.“
Gesichtsveränderungen mit Silikon seien ebenfalls möglich, aber viel aufwändiger. „Zuerst scannen Sie Ihr Gesicht in 3D, dann verändern sie es am Computer, bis sie nicht mehr identifizierbar sind: Wangenknochen höher, Kinn verbreitern und so weiter. Das realistische Modellieren ist eine sehr hohe Kunst – wenn da was nicht stimmig ist, erkennen das alle.“
Anschließend könne man ein Gesichtspositiv und die veränderte Version ausdrucken und die Zwischenräume mit Silikon ausgießen. „Das Ergebnis müssen Sie kolorieren, um eine glaubhafte Hautoberfläche zu erhalten. Anschließend folgt noch das Stechen der Haare.“
Die so entstandenen Silikonteile werden mit einem speziellen Kleber auf dem Gesicht befestigt. „Bei der Veränderung der Merkmale sollten Sie nicht übertreiben, denn wenn der Silikonauftrag zu dick ist, wird die Mimik nicht mehr natürlich übertragen“, sagt Berkowsky.
Software soll selbst Silikon erkennen
Die Herstellung von naturgetreuen Gesichtsteilen aus Silikon sei ein viele tausend Euro teurer Prozess, der mehrere Wochen dauert. Die entstandene Maskierung sei nur einmal einsetzbar, dann seien die feinen Ränder defekt, mit denen der Übergang zwischen Silikon und Haut kaschiert wird. Maximal acht Stunden könne man die Maske tragen, dann habe für gewöhnlich der Schweiß den Kleber gelöst.
Ebenfalls mehrere tausend Euro teuer, aber weit simpler und auch mehrfach nutzbar, sei eine Silikon-Vollmaske. „Die sehen inzwischen so authentisch aus, dass Sie das aus zwei Metern Entfernung nicht mehr von einem echten Gesicht unterscheiden können“, sagt Berkowsky. Einzig die Partie um die Augen falle auf, was sich aber mit einer Sonnenbrille kaschieren lasse.
Allerdings entwickeln Anbieter von Gesichtserkennungssoftware wohl inzwischen auch Systeme, die über die Reflexion des Lichts Silikon von Haut unterscheiden können. Berkowsky sagt, ein Gesichtserkennungsanbieter habe bei ihm Kurse zur Herstellung von Silikonmasken gebucht, um damit ein Erkennungssystem für Silikonmasken zu trainieren.
Salzlösungen und kosmetische Operationen
Benjamin Maus, Professor im Fachbereich New Media der Universität der Künste in Berlin, hat künstlerisch mit Gesichtserkennung gearbeitet. Er kennt eine Variante der Gesichtsveränderung, die dem Silikonscanner nicht auffallen würde: „Man kann Teile des Gesichts mit Salzlösung unterspritzen. Das ist nach ein paar Tagen wieder weg. Aber so könnte man für eine Grenzkontrolle, bei der das Gesicht biometrisch erfasst wird, wie beispielsweise an den Grenzen von Japan, China oder der USA, ein anderes Gesicht tragen und sich dann mit dem eigenen Gesicht im Land aufhalten.“
Man könnte noch einen Schritt weitergehen und sich einer plastischen Operation mit beispielsweise Implantaten oder Knochenstrukturveränderungen unterziehen. „Aber irgendwann wird auch dieses neue Gesicht mit Ihrem Namen verknüpft werden“, sagt Benjamin Maus.
Make-up gegen Gesichtserkennung
Auch mit Make-up kann man sich unter Umständen vor bestimmten Gesichtserkennungsystemen schützen. Aber dafür muss man sein Gesicht schon umfassend verzieren. 2010 veröffentlichte der Künstler Adam Harvey sein Projekt CV Dazzle. Darin entwickelte er Styles, die einen damals aktuellen Algorithmus dazu brachten, Gesichter nicht mehr als solche zu erkennen. Dazu gehörten wild drapierte Haarsträhnen, Schminke in geometrischen Mustern und Signalfarben.
Moderne Gesichtserkennungssysteme haben mit den Stylingtipps von damals allerdings keine Probleme mehr, sagt der Bildwissenschaftler Roland Meyer. „Alle Gegenwehr-Maßnahmen werden auch dazu genutzt, die Software so zu verbessern, dass sie darauf nicht mehr hereinfällt.“
2020 hat Harvey eine neue Version von CV Dazzle aufgelegt, diesmal eine Art Metallic-Tarnfleckbemalung. Doch auch die ist vermutlich inzwischen überholt. Für Harvey ist CV Dazzle deshalb explizit „ein Konzept, kein Produkt oder Muster“. Er ermuntert auf seiner Website dazu, eigene Tarnungen zu entwickeln und gegen gängige Gesichtserkennung zu testen.
Kleidung und Accessoires gegen Gesichtserkennung
Es gibt auch Kleidung gegen Gesichtserkennung, doch auch hier passen Anbieter ihre Erkennungssysteme beständig auf neue Abwehrmaßnahmen an. Die Firma capable.design hat beispielsweise eine Kollektion entwickelt, die mit psychedelischen Mustern oder repetitiven Tierdrucken Gesichtserkennungssysteme davon ablenken möchte, dass sich oberhalb der Kleidung noch ein Gesicht befindet.
Einen anderen Ansatz fahren verschiedene Gadgets, die versprechen, durch Abstrahlung oder Reflektion Kameras zu überfordern. Die Brillen von Reflectacles beispielsweise sind speziell dazu konzipiert, Gesichtserkennung zu verhindern, die mit Infrarot-Licht und -Sensoren arbeitet. Die Schals von ISHU reflektieren Licht so stark, dass Kameras mit Blitzlicht angeblich keine zuverlässigen Aufnahmen mehr machen können. Die Infrarot-LEDs der Privacy Visor-Brillen blenden, wenn eingeschaltet, Überwachungskameras. Diese Projekte sind allerdings schon älter und eventuell ebenfalls von der Gesichtserkennungstechnologie überholt worden.
Der „handfeste“ Zugang
Demonstrant*innen in Hongkong versteckten sich 2019 hinter Schirmen, verwendeten Laserpointer zum Blenden von Kameras und setzten auch Farbspray gegen sie ein. Teils brachten sie sogar mit Sägen und Seilen Straßenlaternen zu Fall, in denen sie Kameras vermuteten. Roland Meyer sagt: „Das ist natürlich ein sehr, sehr handfester Zugang.“
Bei den Protesten sei es vor allem um die staatlich aufgestellten Kameras im öffentlichen Raum gegangen. „Aber bei aktuellen Demonstrationen gibt es ja auch jede Menge von Privatleuten aufgenommene Bilder, da braucht man nicht unbedingt eine Überwachungskamera, um festzustellen, wer da möglicherweise beteiligt war.“
Gesichtserkennung mit Bildmaterial aus dem Internet
Wenn Privatpersonen auf Demonstrationen filmen oder fotografieren, und das Ergebnis online stellen, können auch diese Bilder Gegenstand von biometrischer Gesichtserkennung werden. Firmen wie Clearview AI und PimEyes leben davon, dass sie Fotos aus dem Netz sammeln und mit Gesichtserkennung durchsuchbar machen.
Clearview AI nutzt das, um für Sicherheitsbehörden Menschen zu identifizieren. Bei PimEyes können Menschen Fotos von Gesichtern hochladen und über die verlinkten Fundstellen im Netz weitere Bilder und Informationen zu der abgebildeten Person erhalten. Das klappt natürlich nur, wenn auch übereinstimmende Gesichter in der Datenbank sind. Roland Meyer sagt: „Wenn ich nirgendwo mit meinem Bild auftauche, kann ich unbehelligt bleiben. Die Frage ist aber, ob das möglich und realistisch und plausibel ist.“
Von den meisten Menschen dürfte es Bildmaterial im Internet geben. Wie man versuchen kann, Fotos von sich offline nehmen zu lassen, hat die Stiftung Warentest ausprobiert. Naiara Bellio von AlgorithmWatch empfiehlt zudem, Institutionen, die Gesichtserkennung anbieten oder nutzen, per DSGVO dazu zu zwingen, die eigenen Bilder aus der Datenbank zu löschen.
Gesichter digital verändern
Die Firmen hinter den Apps Fawkes und LowKey versprechen, Gesichter auf Fotos so zu verändern, dass Gesichtserkennungssysteme sie nicht mehr identifizieren können, während sie für Menschen problemlos erkennbar bleiben. Der Bildwissenschaftler Roland Meyer geht aber davon aus, dass die Hersteller von Gesichtserkennungssystemen inzwischen ausreichend Zeit hatten, ihre Programme auf die Gegenmaßnahme vorzubereiten.
Wenn mensch allerdings auf alle Gesichtsbilder, die ins Internet wandern, Smileys oder Katzenköpfe photoshoppen oder gimpen würde, gäbe es für die Algorithmen nichts mehr zu finden. Man könnte das eigene Gesicht auch einfach extrem unscharf stellen. Der Messenger Signal bietet eine Funktion, die das automatisch macht. Die App Anonymous Camera ermöglicht, nicht nur auf Bildern, sondern auch in Videos Gesichter zu blurren oder zu verdecken.
Mit der Open-Source-Software Deep-Live-Cam kann man sich das Gesicht einer beliebigen Person, von der man ein Foto besitzt, digital überstülpen, das fremde Gesicht wird dann, beispielsweise in Videokonferenzen, analog der eigenen Mimik bewegt. Roland Meyer sagt: „Wenn ich mein Gesicht wirklich unkenntlich mache, ist das effektiv. Aber die Firmen, die solche Software entwickeln, haben dann natürlich Ihre Gesichtsdaten.“
Fotomanipulation im Reisepass
An vielen Flughäfen gibt es inzwischen automatisierte Gesichtserkennung, auch in der EU, wenn man aus einem Drittstaat einreist. „Dabei wird das auf einem Chip im Ausweis gespeicherte Bild mit einem Bild abgeglichen, das eine Kamera vor Ort aufnimmt“, erklärt Raul Vicente Garcia vom Fraunhofer-Institut für Produktionsanlagen und Konstruktionstechnik, Abteilung Maschinelles Sehen.
Vicente Garcia hat bis Mitte 2020 an einem Projekt mitgeforscht, das sich ANANAS nennt. Darin ging es um „Anomalie-Erkennung zur Verhinderung von Angriffen auf gesichtsbildbasierte Authentifikationssysteme“. Untersucht wurde ein ganz spezieller Angriff auf die Gesichtserkennung zur Grenzkontrolle: die digitale Zusammenführung von Bildern einigermaßen ähnlich aussehender Menschen. Damit könnten mehrere Personen einen gemeinsamen Pass nutzen.
„Wenn Sie einen Pass beantragen, dürfen Sie das biometrische Bild dazu in vielen Ländern auf der Welt ja selbst anfertigen. Das macht nicht die Behörde, was die Möglichkeit zur Manipulation erheblich reduzieren würde, sondern sie können das einliefern und vor der Abgabe modifizieren“, sagt Vicente Garcia.
Auf einem Bild, das mit digitalen Mitteln mit dem Bild einer anderen Person zusammengeführt wurde, sind mit menschlichem Auge beide Personen zu erkennen, wie Beispielfotos auf der Projektwebsite zeigen. So lassen sich laut Vicente Garcia auch automatisierte Gesichtserkennungssysteme täuschen.
Bildmanipulationen erkennen
Vicente Garcia sagt: „Die neuronalen Netze ziehen sich selbstständig Eigenschaften aus den Bildern, die eine Identifikation von Personen möglich machen. Da kann es um Charakteristika von Details gehen, aber auch von größeren Gesichtsbereichen. Die werden in einen Merkmalsvektor übersetzt, eine lange Reihe von Zahlen.“ Dieser Merkmalsvektor müsse bei Bildern der gleichen Person möglichst ähnlich sein, auch wenn das Licht sich ändert oder der Ausdruck.
„Wenn Sie da einen Schwellenwert hinreichender Ähnlichkeit erreichen, kommen Sie damit durch“, sagt Vicente Garcia. Die Gesichtserkennungssysteme würden nämlich so eingestellt, dass die Zahl der Fehlalarme einigermaßen gering ist. Somit seien sie in vielen Fällen bereit, auch gewisse Abweichungen von der perfekten Übereinstimmung zu akzeptieren.
Vicente Garcia und Kolleg*innen haben nach Möglichkeiten gesucht, Bilder zu erkennen, die Eigenschaften mehrerer Gesichter in einem Bild präsentieren. Was sie herausgefunden haben, sagt aber auch viel über den Stand der Erkennung von digitalen Bildmanipulationen allgemein.
Je nachdem, wie das Bild hergestellt wurde, gibt es verschiedene Anzeichen, an denen es sich verraten kann. Wenn das Bild zum Beispiel mit Photoshop aus zwei überlagerten Bildern gemischt wurde, gibt es oft feine Strukturen, die unnatürlich oder unscharf wirken: die Iris oder Haarsträhnen beispielsweise. Auf so etwas springe der Detektor, den Vicente Garcia und Kolleg*innen entwickelt haben, bei Versuchen mit Testdatensätzen mit einer Zuverlässigkeit von etwa 90 Prozent an.
Gutes Photoshop, schlechtes Photoshop
Auch Photoshop-Manipulationen an einem einzelnen Foto ließen sich mit der Software einigermaßen zuverlässig erkennen, so Vicente Garcia. Ein Problem dabei: „Es ist ja erlaubt und auch durchaus üblich, Passbilder zu photoshoppen und dabei zum Beispiel die Haut von Unreinheiten zu befreien. Deshalb muss man die Morph-Detektoren darauf trainieren, zulässige Retuschen durchzulassen. Sonst würde jedes zweite Bild einen Fehlalarm auslösen.“
Weit schwieriger wird laut Vicente Garcia die Manipulations-Detektion, wenn aus Bildern zweier Personen mit Hilfe von KI ein drittes Bild generiert wird. „Da sucht man eher nach Markern, ob das Bild synthetisch ist, zum Beispiel nach statistischen Regelmäßigkeiten oder besonderen Artefakten, die typisch für verschiedene neuronale Netze zur Bildgenerierung sind.“
Solche Manipulationen seien nicht so leicht zu erkennen. Laut der Datenbank „Face Recognition Vendor Test“ würden kommerzielle Softwares zur Gesichtserkennung bei qualitativ hochwertigen Manipulationen 40 bis 50 Prozent der manipulierten Bilder nicht als solche erkennen – zumindest wenn die Rate der fehlerhaft als Fälschung identifizierten Bilder so niedrig gehalten wird, dass man das System auch ohne ständigen Ärger an einem Flughafen einsetzen kann.
„Das Problem KI-generierter Gesichtsbilder ist bei Weitem noch nicht gelöst“, sagt Vicente Garcia. Dennoch sei die Implementierung der automatischen Manipulations-Detektion an Grenzkontrollen gesetzt. „Diese Technik wird auf jeden Fall zunehmend Anwendung finden“, sagt Vicente Garcia.
Die wichtigste Waffe gegen Gesichtserkennung
Was heute gegen Gesichtserkennung funktioniere, wirke bald vielleicht schon nicht mehr, sagt Roland Meyer. „Alle Techniken der Anonymisierung sind nur für einen bestimmten Stand der Biometrie geeignet. Wenn Gang-Analyse funktioniert oder Iris-Erkennung, dann nützt die Maske auch nichts mehr.“
Genau hier kommen all die Bemühungen an ihre Grenze: Biometrie betrifft eben längst nicht nur das eigene Gesicht, sondern potentiell alle weiteren maschinell erfassbaren Besonderheiten des Körpers. Deshalb sei, da sind sich Roland Meyer, Naiara Bellio und Benjamin Maus einig, die wichtigste Abwehrmaßnahme gegen biometrische Überwachung der Protest – der juristische Einspruch, der politische und zivilgesellschaftliche Widerstand. Meyer sagt: „Alles andere ist vorläufige Symptombekämpfung.“
Die Initiative Gesichtserkennung stoppen setzt sich auf bundesdeutscher Ebene gegen Gesichtserkennung ein und ermöglicht beispielsweise, mit nur einem Klick Protestmails an Abgeordnete zu schicken. Reclaim your Face kämpft auf EU-Ebene gegen Gesichtserkennung. Amnesty International fährt unter #UnscanMyFace eine internationale Kampagne dagegen.
Mehr Tipps zur digitalen Selbstverteidigung gibt es hier und unter netzpolitik.org/digitale-selbstverteidigung.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Grüne und FDP geben Grund- und Freiheitsrechte auf. Mit dieser Innen- und Asylpolitik bauen sie zusammen mit der SPD ein autoritäres Fundament, das die AfD schlüsselfertig übernehmen könnte. Dabei braucht es gerade jetzt klare Kante für Freiheit und Menschenrechte statt der dummbatzigen Ratlosigkeit, die beständig auf autoritäre Lösungen setzt. Ein Kommentar.
Es klang alles so schön damals im Koalitionsvertrag. Endlich mal eine Koalition, die sich nicht noch mehr Überwachung in die Bücher schrieb, sondern eine evidenzbasierte und grundrechtsfreundliche Sicherheitspolitik. Mit dem neuen Überwachungspaket, mit dem die Ampel von den Sicherheitsbehörden lang ersehnte Befugnisse aus der Schublade zaubert, ist sie bei einer Innen- und Asylpolitik angekommen, die selbst eine große Koalition nicht schlimmer machen könnte. Menschenrechts- und Digitalorganisationen kritisieren nicht umsonst einen Angriff auf Grundrechte „ohne Sinn und Verstand“, der schon am Donnerstag debattiert wird.
Für die selbst ernannten Bürgerrechtsparteien FDP und Grüne ist das der Totalverlust eines freiheitlichen Profils, das zwar in der Vergangenheit immer wieder gelitten hatte, aber immer noch da war. Grüne und FDP verabschieden sich mit diesem Sicherheitspaket von einer langen Parteitradition und damit einem weiteren Markenkern – und das ausgerechnet für Gesetze, die den Anschlag von Solingen in keinster Weise verhindert hätten.
Grundrechte auf dem blauen Altar der AfD geopfert
Die kleinen Koalitionspartner lassen sich vor den Karren von Nancy Faeser und der Sicherheitsbehörden spannen, getrieben vom rechten Populismus der CDU, die mit diesem der rechtsextremen AfD etwas entgegensetzen möchte. Ein Irrweg, den von der CDU bis zu den Grünen trotzdem alle munter weitergehen – und dabei Grundrechte und menschenrechtliche Selbstverständlichkeiten auf dem blauen Altar der AfD opfern.
In dieser gesellschaftlichen und politischen Atmosphäre des Rechtsrucks braucht es aber Rückgrat und Standhaftigkeit, es braucht grundrechtliches Profil und menschenrechtliche Klarheit, es braucht demokratische Gewissheit und eine klare Kante der Freiheit statt dieser einfallslosen und dummbatzigen Ratlosigkeit, die zu einem ständigen Zurückweichen in autoritäre und rechte Lösungen mündet. Denn dieses autoritäre Fundament, das Grüne und FDP nun mittragen, wird eine immer stärker werdende AfD irgendwann nutzen – gegen die Demokratie, gegen Geflüchtete und gegen uns alle.
Das haben Grüne und FDP nicht kapiert, wenn sie eine solche grundrechtsfeindliche Überwachungs- und Asylpolitik mitmachen.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Als die bayerische Polizei das Pressetelefon der Protestgruppe Letzte Generation abhörte, habe sie das Grundrecht auf Pressefreiheit missachtet, kritisieren die Gesellschaft für Freiheitsrechte, Reporter ohne Grenzen und der Bayerische Journalisten-Verband. Im Namen von drei betroffenen Journalist*innen haben sie Verfassungsbeschwerden eingereicht.
Von Oktober 2022 bis April 2023 belauschte die bayerische Polizei 13 Telefone der Gruppe Letzte Generation, darunter auch das offizielle Pressetelefon. Dies geschah im Rahmen eines Ermittlungsverfahrens gegen Mitglieder der Letzten Generation wegen des Vorwurfs, sie hätten eine „kriminelle Vereinigung“ gebildet. Mindestens 171 Journalist*innen waren von der Abhörmaßnahme betroffen. Dabei dürfen Journalist*innen nur abgehört werden, wenn es um Straftaten von erheblicher Bedeutung geht.
Im November 2023 hat das Amtsgericht München die Maßnahme als zulässig bewertet. FragDenStaat hat die Beschlüsse des Amtsgerichts veröffentlicht und strebt damit ein Verfahren an, an dessen Ende das Zitieren aus Ermittlungsakten offiziell erlaubt sein soll.
Betroffene Journalisten beschwerten sich anlässlich des Beschlusses des Amtsgerichts beim Landgericht München. Das wies im August die Beschwerden zurück, bezeichnete die Maßnahme aber als tiefgreifenden Eingriff in die Pressefreiheit.
Drei Verfassungsbeschwerden eingereicht
Deshalb wurden am 6. September nun drei Verfassungsbeschwerden in Karlsruhe eingereicht. Die betroffenen Journalisten Jörg Poppendieck (RBB/ARD) und Jan Heidtmann (Süddeutsche Zeitung) werden dabei von der Gesellschaft für Freiheitsrechte (GFF) und Reporter ohne Grenzen (RSF) unterstützt. Eine weitere Verfassungsbeschwerde stammt von einer weiteren journalistisch arbeitenden Person, die vom Bayerischen Journalisten-Verband (BJV) unterstützt und von der Kanzlei Jun Rechtsanwälte vertreten wird.
Harald Stocker vom BJV sagt in einem Pressegespräch am heutigen Mittwoch: „Wenn wir Journalistinnen abhören, schaden wir dem Journalismus und letztlich der Demokratie.“ Im Extremfall könne man auch Journalist*innen abhören, „wenn der abzuwendende Schaden groß genug ist. Wir haben aber keinen Indikator, der darauf hindeutet, dass das Amtsgericht München hier eine Abwägung getroffen hat.“
Chan-jo Jun von der Kanzlei Jun Rechtsanwälte sagt beim gleichen Termin, dass bei einem derart schweren Eingriff vorab eine Abwägung mit der Pressefreiheit getroffen werden müsse. Das sei nicht passiert. „Die Frage ist: Welche bahnbrechende Erkenntnis waren denn zu erwarten, die man nicht anders bekommen hätte können?“ Es sei entsprechend nicht nötig gewesen, „in dem Umfang aufzuzeichnen und so lange zu speichern.“
„Massiver Eingriff in die Pressefreiheit“
Beschwerdeführer Jan Heidtmann sagt: „Das Abhören des Pressetelefons ist ein massiver Eingriff in die Pressefreiheit. Was ich bemerkenswert finde, ist die Sorglosigkeit, mit der dieser vorgenommen wurde.“
Laut Benjamin Lück von der GFF gehe das Landgericht davon aus, dass eine Abwägung von Ermittlungsinteresse und Schutz der Pressefreiheit auch im Nachhinein getroffen werden könne. „Aber Gesetz und Bundesverfassungsgericht haben klare Linien, was verfahrensrechtlich notwendig ist, welche Begründung der erste Beschluss beinhalten muss“, sagt er.
Laut Lück würden die Anrufe von den mindestens 171 Journalistinnen bis heute gespeichert. „Und es ist nicht erkennbar, dass damit irgendwelche wesentlichen Erkenntnisse gewonnen werden konnten. Das war auch von Anfang an vorhersehbar.“
Längere Bearbeitungszeit erwartet
Nicola Bier von RSF sagt: „Wir hoffen, dass das Bundesverfassungsgericht betont, welche Bedeutung die Pressefreiheit für die ganze Gesellschaft in einer Demokratie hat und dass diese Bedeutung von staatlichen Stellen unaufgefordert berücksichtigt werden muss.“
Beschwerdeführer Heidtmann sagt: „Ich würde mir wünschen, dass ein Spruch aus Karlsruhe zu mehr Sorgfalt im Umgang mit solchen Abhörmaßnahmen führt.“
Laut Rechtsanwalt Jun ist das Bundesverfassungsgericht aktuell mit sehr vielen Fällen belastet. Er glaubt aber, dass das Gericht diese Beschwerde wahrnehmen wird, weil sie eine interessante Frage betrifft. Man müsse sich aber auf eine längere Bearbeitungszeit einstellen.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Zivilgesellschaftliche Organisationen kritisieren das Sicherheitspaket der Ampel in scharfen Worten. Sie warnen vor radikalem Abbau von Grundrechten und flächendeckender biometrischer Überwachung. Der Bundestag darf diese Gesetze so nicht beschließen. Wenn doch, braucht es eine aktivistische Zeitenwende.
Das geplante Sicherheitspaket der Ampel-Regierung löst bei Menschenrechts- und Digitalorganisationen Empörung aus.
Die Bundesregierung plant unter anderem eine Verschärfung des Asylrechts (PDF) sowie einen Ausbau der biometrischen Überwachung (PDF). Polizei und BAMF sollen mit Hilfe von Bildern aus dem Internet Gesichtserkennung nutzen dürfen. Außerdem soll das BKA wie Palantir große Datenmengen zusammenführen, verarbeiten und weitergeben dürfen. Weiterer Bestandteil der Gesetzespakete ist die Ausweitung von Messerverboten. Die führen dazu, dass die Polizei an vielen Stellen bislang verbotene anlass- und verdachtsunabhängige Kontrollen durchführen kann – und somit das Recht erhält, unbescholtene Menschen zu durchsuchen.
Das Sicherheitspaket wird schon am Donnerstagmorgen erstmals im Bundestag debattiert. Ein Bündnis von 13 Organisationen ruft zum Protest gegen das Sicherheitspaket auf.
Angriff auf Grundrechte „ohne Sinn und Verstand“
In der Kritik stehen dabei nicht nur die geplanten Maßnahmen selbst, sondern auch die Geschwindigkeit, mit der die Ampel diese nun durchsetzen möchte. Teresa Widlok vom liberalen Verein Load spricht von einem „Schweinsgalopp“ und „künstlich aufgebautem Zeitdruck“, mit dem Überwachungstools im Schnellverfahren eingeführt werden sollen. Es handle sich auch nicht um ein Sicherheitspaket, sondern ein „Überwachungspaket“.
Linus Neumann, Sprecher des Chaos Computer Clubs, kommentiert gegenüber netzpolitik.org: „Der blinde Aktionismus der Ampel nach Solingen macht den Terrorakt erst komplett.“ Die Bundesregierung greife „ohne Sinn und Verstand“ Grundrechte an, während sich Terroristen und Faschisten ins Fäustchen lachen würden.
Tom Jennissen von der Digitalen Gesellschaft wirft der Bundesregierung vor, ein zynisches Spiel zu treiben. Sie nutze den Anschlag von Solingen, um „schon lange gehegte Überwachungsträume der Sicherheitsbehörden ohne gesellschaftliche Diskussion durch das Parlament zu drücken – wohl wissend, dass die vorgeschlagenen Maßnahmen diesen Anschlag nicht hätten verhindern können.“
Kilian Vieth-Ditlmann von AlgorithmWatch wirft der Ampel vor, sie nutze den „sicherheitspolitischen Ausnahmemodus nach Solingen, um neue Befugnisse einzuführen, die das Innenministerium schon länger in der Schublade hat“.
Das Gegenteil von evidenzbasierter Sicherheitspolitik
Beim Digitalverein D-64 spricht Svea Windwehr davon, dass die Ampel im „Hauruckverfahren“ Grundrechte radikal einschränke.
Ebenso sieht das die Gesellschaft für Freiheitsrechte. Legal Director Bijan Moini sagt: „Schon das Tempo steht in keinem Verhältnis zur Tragweite der Vorschläge.“ Zudem trügen diese Vorschläge nicht erkennbar zur Abwehr von so schrecklichen Anschlägen wie dem in Solingen bei, so Moini weiter. „Weder hätte der mutmaßliche Täter nach den neuen Regeln abgeschoben werden können, noch hätte er seinen Schutzstatus verloren, wäre über einen biometrischen Abgleich aufgefallen oder hätte er sich von den Verschärfungen im Waffengesetz beeindrucken lassen.“
Das kritisiert auch Jennissen von der Digitalen Gesellschaft: Die Pläne seien nicht nur ein Bruch des Koalitionsvertrages, sondern ein „Offenbarungseid einer Koalition, die einmal angetreten war, eine evidenzbasierte und grundrechtsorientierte Sicherheitspolitik zu verfolgen“.
„Flächendeckende biometrische Überwachung“
Bezüglich der geplanten biometrischen Überwachungsbefugnisse spricht Load von einer „Verschiebung des Denkbaren“, wenn Polizeien nun Zugriff auf riesige Gesichtsdatenbanken erhalten sollen, in denen Menschen gegen ihren Willen gespeichert sind.
„Wer irgendwelche biometrischen Spuren im Internet hinterlässt, wird künftig davon ausgehen müssen, dass diese Daten gegen ihn verwendet werden – ein fundamentales Untergraben der Anonymität des Internets“, sagt auch Tom Jennissen von der Digitalen Gesellschaft.
Bijan Moini von der GFF kritisiert, dass der biometrische Abgleich „tief in Grundrechte“ eingreife. Matthias Marx vom CCC spricht gar davon, dass die Bundesregierung mit dem Gesetzentwurf in Zukunft „alle biometrisch überwachen“ werde.
„Soziale Medien zur Überwachung freigegeben“
Ähnlich sieht das AlgorithmWatch: Die neuen Befugnisse kämen „einer neuen Form der anlasslosen Vorratsdatenspeicherung“ gleich. Nur, dass es diesmal nicht um das Durchsuchbarmachen von Telekommunikations-Verkehrsdaten, sondern von besonders sensiblen personenbezogenen Körperdaten gehe.
„YouTube, TikTok oder Instagram sind damit zur Überwachung freigegeben“, so Kilian Vieth-Ditlmann gegenüber netzpolitik.org.
„Die Bundesregierung versucht nun im Schnellverfahren, die ersten Grundlagen für flächendeckende biometrische Überwachung in Deutschland zu schaffen und bricht damit den Koalitionsvertrag“, sagt Matthias Spielkamp, Geschäftsführer von AlgorithmWatch. „Die Idee der Ampel, KI-Systeme einzusetzen, um Gesichtsbilder mit Bildern und Videos aus dem Internet abzugleichen, sind unter der gerade verabschiedeten KI-Verordnung sogar verboten“, so Spielkamp weiter.
„Fehlerhaft, diskriminierend und grundrechtsgefährdend“
Ein weiterer Bestandteil des Sicherheitspaketes ist das Zusammenführen, Auswerten und Weitergeben von persönlichen Daten an Dritte zum Training von Big-Data-Anwendungen von Unternehmen wie Palantir von Peter Thiel.
Load kritisiert, dass mit dem Gesetz das, was das Bundesverfassungsgericht auf Landesebene schon einkassiert habe, nun auf Bundesebene legalisiert werden solle. Die Ampel sollte sich lieber an den Geist ihres eigenen Koalitionsvertrags erinnern und die Gelegenheit nutzen, übergriffige KI-Tools in Deutschland auch für Sicherheitsbehörden zu verbieten, so Load-Sprecherin Teresa Widlok.
Kilian Vieth-Ditlmann hält die Befugnis für automatisierte Datenauswertung für höchst problematisch. „Damit können über verschiedene Datenbeständen hinweg Persönlichkeitsprofile erstellt werden.“ Palantirs Gotham und ähnliche datenbasierte Analyse- und Profilingsysteme, die künftig verstärkt von der Polizei verwendet werden sollen, seien „fehlerhaft, intransparent, diskriminierend und grundrechtsgefährdend“, Vieth-Ditlmann. Es gebe zahlreiche Beispiele dafür, wie solche Systeme direkt und indirekt zu Racial Profiling und anderen Formen von Diskriminierung führen, insbesondere gegenüber Muslimen und als Migranten wahrgenommenen Personen.
„Alle Menschen unter Generalverdacht“
Kritik gibt es auch an den Plänen eines weitreichenden Messerverbotes. Dieses Verbot stelle „alle Menschen unter Generalverdacht“ und gewähre „ausufernde Kontrollbefugnisse“, sagt Bijan Moini von der GFF. Dabei werde im Gesetzentwurf „Messer“ nicht einmal genau definiert. Verboten wäre in betroffenen Gebieten z.B. auch die Nutzung eines Messers im Außenbereich eines Restaurants, so Moini. Sogar Plastikmesser könnten verboten sein.
Viel schwerwiegender seien die durch das Verbot entstehenden Kontrollen. „Vor allem soll aber künftig anlasslos kontrolliert werden können in allen betroffenen Gebieten, durch Anhalten, Befragen, Durchsuchung von Taschen und Personen. Vor allem die anlasslose Durchsuchung der Person bietet großes Missbrauchspotenzial und ist unverhältnismäßig“, so Moini weiter.
„Billiger Populismus“
„Wer nach verlorenen Wahlen auf billigen Populismus setzt, spielt den Rechtsextremen in die Hände. Im parlamentarischen Verfahren müssen die Zivilgesellschaft gehört und die Grundrechte aller Menschen verteidigt werden“, sagt Svea Windwehr von D-64. In wieweit dies noch passiert im Gesetzgebungsverfahren, ist unklar. Opposition im Bundestag dürfte einzig noch von der Linkspartei zu erwarten sein. Von Union und AfD ist zu erwarten, dass sie noch weitergehende Maßnahmen fordern.
Matthias Marx vom Chaos Computer Club fordert eine aktivistische Zeitenwende: „Wenn diese Gesetzesentwürfe verabschiedet werden, dann genügt es nicht mehr, schöne Stellungnahmen zu schreiben und alle drei Jahre eine Demo gegen die Vorratsdatenspeicherung zu organisieren. Künftig müssten wir dazu anleiten, Überwachungsmaßnahmen zu sabotieren und abzuschalten.“
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Leichtere Abschiebungen, härtere Regeln im Asylverfahren und mehr Befugnisse für die Polizei: Die Ampelfraktionen haben Gesetzentwürfe für die Verschärfungen nach Solingen eingebracht. Das steht darin zu biometrischer Gesichtserkennung und polizeilichen Big-Data-Analysen.
Mit „aller notwendigen Härte“ werde der Staat auf den terroristischen Anschlag von Solingen antworten, das hatte Bundesinnenministerin Nancy Faeser (SPD) wenige Tage nach der Tat angekündigt. Wie diese Antwort nun aussieht, kann man seit gestern nachlesen. Das Bundeskabinett hat am Montag zwei Gesetzentwürfe beschlossen, die schon diesen Donnerstag im Bundestag beraten werden sollen: einen „zur Verbesserung der inneren Sicherheit und des Asylsystems“ und einen weiteren „zur Verbesserung der Terrorismusbekämpfung“ (PDF).
Darin ist formuliert, was die Bundesregierung in groben Zügen bereits vergangene Woche angekündigt hatte: Verschärfungen im Waffenrecht, im Asyl- und Aufenthaltsrecht.
Auch die Befugnisse von Ermittlungsbehörden werden weiter ausgebaut. Sie sollen nun auch Maßnahmen einsetzen dürfen, die noch vor wenigen Wochen als zu gefährlich in einer freiheitlichen Demokratie galten – etwa die biometrische Suche im Netz, um Personen zu identifizieren.
Leichtere Abschiebungen für die innere Sicherheit
Explizit nennt der Entwurf zur Inneren Sicherheit den Anschlag von Solingen als Aufhänger für die Maßnahmen. „Der islamistische Anschlag am 23. August 2024 auf einem Volksfest in Solingen hat zuletzt deutlich gemacht, dass die Sicherheit im öffentlichen Raum bedroht ist“, heißt es dazu. Allerdings sei die extremistische Bedrohung nicht auf Islamismus beschränkt. Auch der „Rechtsextremismus und Rechtsterrorismus“ stellten eine große Bedrohung dar.
Der Kern der Maßnahmen richtet sich gegen Asylsuchende. Der Messerangriff von Solingen mit drei Toten wurde mutmaßlich von einem 26-jährigen Syrer begangen, dessen Abschiebung zuvor gescheitert war. Daraus leitet die Bundesregierung ab, dass es mehr Abschiebungen und härtere Regeln bei der Anerkennung von Asyl geben soll.
Auch Menschen mit bereits anerkanntem Schutzstatus sollen diesen künftig schneller verlieren können, etwa wenn sie „Straftaten mit einem antisemitischen, rassistischen, fremdenfeindlichen, geschlechtsspezifischen, gegen die sexuelle Orientierung gerichteten oder sonstigen menschenverachtenden Beweggrund“ begehen. Allerdings reicht auch schon ein Besuch im Heimatland, um künftig abgeschoben werden zu können.
Biometrische Identifikation im Asylverfahren
Das Bundesamt für Migration und Flucht (BAMF) bekommt weitere Möglichkeiten, die Identität von Asylsuchenden ohne Papiere feststellen zu können. Neben den Durchsuchungen von Handys soll dazu auch der biometrische Abgleich von Fotos im Netz erlaubt sein.
„Angesichts der großen Bedeutung der frühzeitigen Identitätsklärung sowohl für die innere Sicherheit als auch für die Durchführung des Asylverfahrens ist es für das BAMF notwendig, die Befugnis zum biometrischen Abgleich des […] erhobenen biometrischen Lichtbildes mit öffentlich zugänglichen Daten aus dem Internet zu erhalten“, heißt es dazu im Entwurf. Zur Identität „im asylrechtlichen Sinne“ zählten auch das Geburtsland, das Land des gewöhnlichen Aufenthalts, der Familienstand, die Volks- und Religionszugehörigkeit oder Sprachkenntnisse.
Dabei gilt: Die Suche im Netz ist nur erlaubt, wenn die Identität einer Person nicht mit „milderen Mitteln“ festgestellt werden kann. Solch ein Mittel könne etwa die Gerätedurchsuchung sein, steht im Entwurf. Künftig könnte es also zu einer Maßnahmen-Kaskade kommen: Wer bei seinem Antrag keine Papiere vorlegen kann, dessen Handy – inklusive der Cloudspeicher – darf nach Hinweisen durchsucht werden. Bleibt das ergebnislos, folgt anschließend die biometrische Gesichtersuche in Internet.
Bei der Suche sollten keine Bilder aus Echtzeit-Quellen verwendet werden – etwa aus Livestreams aus sozialen Medien oder aus öffentlichen Überwachungskameras. Die für die Suchen eingesetzte Software und der Zeitpunkt soll zudem protokolliert werden.
Im Einklang mit Regeln der EU möglich
Laut Entwurf sei dies rechtlich möglich, sowohl im Einklang mit den Regeln für den Datenschutz in der EU (Datenschutzgrundverordnung) als auch mit der jüngst verabschiedeten KI-Verordnung, die Regeln für den Einsatz von Biometrie vorschreibt. Diese untersagt unter anderem mit wenigen Ausnahmen die biometrische Identifikation in Echtzeit, etwa anhand von Bildern aus Überwachungskameras – was die Einschränkungen im Entwurf dazu erklärt.
Unbeantwortet lässt der Entwurf allerdings die Frage, mit welchen technischen Mitteln die biometrische Suche erfolgen soll. Kommerzielle Gesichtersuchmaschinen wie PimEyes oder Clearview sind in der EU verboten, weil sie für die Erstellung ihrer Datenbanken wahllos und ohne Zustimmung Abermillionen Gesichter aus dem Internet sammeln und indexieren. Erst vor Kurzem hatte die niederländische Aufsicht wieder ein Bußgeld gegen Clearview verhängt und Behörden davor gewarnt, die illegale Technologie zu nutzen.
Auch eine eigene Softwarelösung wäre laut den Regeln der KI-Verordnung verboten. Diese untersagt unter anderem „die Verwendung von KI-Systemen, die Datenbanken zur Gesichtserkennung durch das ungezielte Auslesen von Gesichtsbildern aus dem Internet oder von Überwachungsmaterial erstellen oder erweitern“.
Eine praktische Umsetzung der Maßnahme scheint damit unrealistisch. Sollte die Bundesregierung eine Ausnahme für die „nationale Sicherheit“ geltend machen wollen, wäre das im Entwurf nicht erwähnt.
Biometrie auch für die Polizei
Der Entwurf „zur Verbesserung der Terrorismusbekämpfung“ sieht auch für Ermittlungsbehörden neue Befugnisse vor. Sie sollen ebenfalls im öffentlichen Internet per biometrischem Abgleich nach Personen suchen dürfen – nicht nur nach Verdächtigen, sondern auch nach Zeugen oder vermissten Personen. Diese Forderungen hatte das Bundesinnenministerium bereits im Entwurf für ein neues BKA-Gesetz untergebracht. Justizminister Buschmann war da noch strikt gegen die Einführung.
Nach dem Anschlag von Solingen finden sich die Maßnahmen im Sicherheitspaket wieder – jetzt mit der Unterstützung der gesamten Ampel. Das Bundesjustizministerium hat die Entwürfe gemeinsam mit den Innenministerium verfasst.
Mit der Befugnis zum biometrischen Abgleich sollen „mutmaßliche Terroristen und Tatverdächtige“ identifiziert werden. „So können beispielsweise Lichtbilder einer Zielperson mit IS-Propagandavideos und Daten aus sozialen Medien abgeglichen werden, um Hinweise auf die Person selbst sowie Mittäter oder Hintermänner zu erhalten“, heißt es im Entwurf.
Dazu dürfen nur Bilder und Stimmproben verwendet werden, die bereits in Polizeidatenbanken gespeichert sind. Daten, die durch eine Überwachung der Wohnung oder den Einsatz von Staatstrojanern erlangt wurden, dürfen „aufgrund der hohen Eingriffsintensität“ nicht bei der Suche eingesetzt werden.
Automatisierte Datenanalyse für BKA und Bundespolizei
Zusätzlich bekommen das BKA und die Bundespolizei die Erlaubnis, ihre Datenbestände mit Hilfe von KI-Werkzeugen zu analysieren, wie sie etwa vom US-Unternehmen Palantir bekannt sind. „Gerade im Phänomenbereich des internationalen Terrorismus, in dem die Täter häufig in dezentralen Strukturen operieren“, seien solche Analysen von besonderer Bedeutung, um Zusammenhänge zu erkennen, steht im Entwurf. Die Befugnisse und Fähigkeiten des Bundeskriminalamts müssten „den aktuellen Herausforderungen entsprechen“.
Polizeibehörden nutzen viele Datenbanken, je nach Zweck und Rechtsgrundlage. Der Gesetzentwurf soll der Polizei nun ermöglichen, die „verschiedenen Datenbestände technisch zusammenzuführen“ und mit Hilfe von sogenannter Künstlicher Intelligenz auszuwerten. Erlaubt ist das etwa bei Straftaten von „erheblicher Bedeutung“ und Straftaten „gegen Leib, Leben oder Freiheit einer Person“. Es geht also keineswegs nur um die Abwehr von schweren terroristischen Straftaten, wie der Entwurf nahelegt. Eine einfache Körperverletzung wäre schon ausreichend.
Die Maßnahme gilt, wie schon die biometrische Suche, als tiefer Eingriff in das Grundrecht, über die eigenen Daten zu bestimmen. In solchen Datenbanken befinden sich nicht nur die Daten von mutmaßlichen oder verurteilten Straftätern, sondern auch von Zeugen oder Personen, die Anzeige erstattet haben. Auch sie könnten bei den Analysen mit ins Netz der KI-Werkzeuge geraten. Das Bundesverfassungsgericht hat deswegen vergangenes Jahr Gesetze aus zwei Bundesländern als verfassungswidrig eingestuft und gekippt.
Das Innenministerium wollte die Befugnis dennoch einführen – diesmal auch für die Polizeibehörden des Bundes. Diese Forderungen ist nun ebenfalls im „Sicherheitspaket“ gelandet.
Beratungen schon am Donnerstag
Schon am Donnerstag sollen die Entwürfe im Bundestag beraten werden. Da nicht die Bundesregierung, sondern die Bundestagsfraktionen sie eingebracht haben, bedürfen sie keiner Zustimmung des Bundesrates, es könnte also schnell gehen. Zumindest für das Justizministerium kann es kaum schnell genug gehen. Bundesjustizminister Marco Buschmann mahnt, es liege „in den Händen des Parlaments, all das schnell auf den Weg zu bringen“.
Doch zumindest bei den Grünen regt sich derzeit Widerstand. Das Tempo sei zu schnell, kritisierte die Co-Fraktionsvorsitzende der Grünen, Katharina Dröge. „Wir werden diesen Gesetzentwurf bis zur zweiten und dritten Lesung ausführlich prüfen“, kündigte sie an.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Die geplante UN-Cybercrime-Konvention droht, das globale Geschäft mit Staatstrojanern zu fördern. Sie gefährdet damit Menschenrechtsverteidiger, Journalisten und politische Dissidenten weltweit.
Dieser Gastbeitrag von Kate Robertson vom kanadischen Citizen Lab ist die Übersetzung des englischsprachigen Artikels „A Global Treaty to Fight Cybercrime – Without Combating Mercenary Spyware“, der am 22. August 2024 bei Lawfare erschienen ist.
Am 8. August schloss die internationale Gemeinschaft bei den Vereinten Nationen ihre letzten Verhandlungen über ein internationales Abkommen zur Cyberkriminalität ab. Der Vertrag, über den die UN-Generalversammlung abstimmen soll, zielt darauf ab, die Gesetze zur Cyberkriminalität und die polizeilichen Ermittlungsbefugnisse der Vertragsstaaten anzugleichen.
Der Verhandlungsprozess offenbarte tiefe Gräben innerhalb der Weltgemeinschaft über die Rolle der Menschenrechte im digitalen Zeitalter. Neben einer ganzen Reihe von Meinungsverschiedenheiten liegt ein drohender Schatten auf dem endgültigen Entwurf des Abkommens: Es könnte die weltweite Verbreitung von Staatstrojanern und die Branche für kommerzielles Hacking noch fördern. Wie die US-Regierung betont, stellt der staatliche Missbrauch kommerzieller Hackingsoftware eine eindeutige und dringende Bedrohung für die Menschenrechte und die nationalen Sicherheitsinteressen der Vereinigten Staaten und ihrer Verbündeten dar.
Die Befürworter des UN-Verhandlungsprozesses erhofften sich, die weltweiten Bemühungen zur Bekämpfung der grenzüberschreitenden Internetkriminalität zu harmonisieren. Der Vertrag ist jedoch unter heftigen Beschuss geraten – von der Zivilgesellschaft, führenden IT-Sicherheitsforschern, Menschenrechtsbehörden, Presseverbänden und der Industrie –, weil er der digitalen Sicherheit der Weltbevölkerung weit mehr schadet als nützt.
Das Mandat des Vertragsentwurfs fordert Befugnisse für Überwachung und grenzüberschreitende Datenweitergabe für eine atemberaubende Bandbreite von Online-Inhalten. Von Russland, China und ähnlichen Akteuren befürwortet, gehen sie dramatisch über den engen Fokus der Bekämpfung von Cyberkriminalität hinaus. In den Kapiteln IV und V des Vertragsentwurfs werden Verpflichtungen zu Überwachung und Datenweitergabe in Bezug auf jegliche digitale Informationen gefordert, die für strafrechtliche Ermittlungen in den unterzeichnenden Ländern von Interesse sind. Der Vertrag droht somit, die bereits überlasteten Kanäle für die justizielle Zusammenarbeit zu überschwemmen – mit lauter Anfragen der Polizei nach digitalen Informationen, die nur geringe Priorität haben oder missbräuchlich sind.
Jüngste Bemühungen gegen die Verbreitung kommerzieller Hackingsoftware
Sollte das Abkommen von der UN-Generalversammlung angenommen werden, wäre dies einer der ersten großen Rückschläge in den laufenden internationalen Bemühungen zur Bekämpfung der Staatstrojaner-Branche. Nach der Veröffentlichung des Dekrets der US-Regierung zu kommerzieller Hackingsoftware im Jahr 2023 haben sich sechzehn weitere Länder (darunter Deutschland) den USA angeschlossen und eine gemeinsame Erklärung veröffentlicht, in der Staatstrojaner als Bedrohung der nationalen Sicherheit und der Menschenrechte anerkannt werden.
In dieser gemeinsamen Erklärung wird betont, dass Spionagesoftware viel zu oft missbräuchlich gegen Menschenrechtsaktivisten und Journalisten eingesetzt wird, sowohl von autoritären Regimen als auch von Demokratien. Die von den USA angeführte Koalition bekräftigt, sie teile ein „grundlegendes Interesse nationaler Sicherheits- und Außenpolitik, die Verbreitung kommerzieller Spionageprogramme zu bekämpfen und ihr vorzubeugen“.
Die Vereinigten Staaten gingen noch einen Schritt weiter, indem sie den Einsatz kommerzieller Spionageprogramme durch US-Bundesbehörden untersagt und regierungsweite Maßnahmen zur Bekämpfung dieser Technologie ergriffen haben, beispielsweise Exportkontrollen und Sanktionen gegen Personen, die bei kommerziellen Hackinganbietern involviert sind. Die USA schlossen sich auch einer parallelen europäischen Initiative (Pall Mall Process) an, die von Großbritannien und Frankreich angeführt wird. Sie verfolgt das Ziel, „die Verbreitung und unverantwortliche Nutzung kommerzieller Hacking-Kapazitäten zu bekämpfen“.
Internationaler Rahmen für globalen Handel mit Spionagesoftwae
Tritt der Vertrag in Kraft, müssten alle unterzeichnenden Staaten Überwachungs- und Abhörmöglichkeiten schaffen. Staaten, die ihren Einsatz kommerzieller Hackingsoftware auf diesem Weg rechtlich absichern wollen, könnten diese Möglichkeiten zu Waffen umfunktionieren. So verpflichtet Artikel 28 des geplanten Übereinkommens die Staaten dazu, Überwachungsmöglichkeiten für gespeicherte elektronische Daten in ihrem Hoheitsgebiet zu schaffen. Artikel 29 und 30 verpflichten Staaten dazu, Fähigkeiten zum Abfangen von Verkehrsdaten und Inhaltsdaten in Echtzeit aufzubauen.
Insbesondere verbieten diese Bestimmungen den Staaten aber nicht, sich an Anbieter kommerzieller Spionagesoftware zu wenden, um die erforderlichen Fähigkeiten zu erhalten. Ein Staat könnte gemäß den oben genannten Artikeln sogar argumentieren, dass der Vertrag es den Staaten erlaubt, sich an solche Anbieter zu wenden, um die erforderlichen Überwachungsmöglichkeiten zu schaffen.
Diese Ansprüche untermauert die Formulierung in Artikel 40, welche die Staaten dazu verpflichtet, bei strafrechtlichen Ermittlungen im Rahmen des Abkommens ein „größtmögliches Maß“ an Rechtshilfe zu leisten. Es ist sehr wahrscheinlich, dass Regierungen dann Staatstrojaner missbrauchen würden, um ihre despotischen Praktiken zu unterstützen und demokratische Institutionen im In- und Ausland zu untergraben. Untersuchungen von Citizen-Lab-Forschern über die Verbreitung und die Auswirkungen digitaler Spionage haben bereits Beweise für gezielte Hacking-Angriffe dokumentiert: gegen die Zivilgesellschaft, einschließlich Menschenrechtsverteidigern, gegen Journalisten und politische Dissidenten, sowohl innerhalb als auch über die Grenzen hinweg.
Andere Bestimmungen des Entwurfs ebnen den Unterzeichnenden den Weg, den Einsatz von Hackingsoftware an Strafverfolgungsbehörden in Staaten mit laxen Datenschutzbestimmungen auszulagern – oder die mit Staatstrojanern gewonnenen Daten über die geheimen Austauschkanäle zu waschen, die unter der Wirkmacht des Vertrags geschaffen oder normalisiert wurden. So verpflichtet Artikel 46 die Staaten, „sich zu bemühen, einander Rechtshilfe zu leisten“, wenn es um das Abfangen und Aufzeichnen von Inhaltsdaten in Echtzeit geht. Die Bestimmung enthält keine Einschränkung dahingehend, ob sich die fraglichen Daten auf dem Hoheitsgebiet des Unterstützung leistenden Staates befinden.
Artikel 47(2) befürwortet generell die Nutzung grenzüberschreitender Netze, die auf der Grundlage multilateraler oder bilateraler „Übereinkünfte oder Vereinbarungen“ funktionieren und somit eine „direkte Zusammenarbeit“ zwischen Polizeibehörden weltweit ermöglichen. Artikel 48 heißt auch grenzüberschreitende „gemeinsame Ermittlungen“ zwischen Polizeibehörden gut, die den Strafverfolgungsbehörden die Möglichkeit bieten, Partnerschaften mit Staaten einzugehen, die kommerzieller Hackingsoftware gegenüber freundlich gesinnt sind. Unbefristete Geheimhaltungsverpflichtungen gemäß Artikel 40(20) lassen es sehr wahrscheinlich erscheinen, dass Beweise, die mit Hilfe von kommerzieller Hackingsoftware erlangt wurden, nur schwer aufgedeckt und über diese Netzwerke angefochten werden können.
Die internationale Gemeinschaft beobachtet bereits einen immer dreisteren Einsatz grenzüberschreitender polizeilicher Maßnahmen, wie beispielsweise eine verdeckte Operation, die zur heimlichen Erfassung von Millionen verschlüsselter Mobiltelefonnachrichten auf der ganzen Welt führte, international geleitet vom FBI und der australischen Bundespolizei. Die Ermittlungen wurden so strukturiert, dass die erfassten Nachrichten auf Servern in einem Drittland – später stellte sich heraus, dass es sich um Litauen handelte – gespeichert wurden, um die rechtlichen Schranken des verfassungsmäßigen Schutzes der Privatsphäre in den USA zu umgehen.
Die US-Strafverfolgungsbehörden erhielten dann im Wege der Rechtshilfe von Litauen Zugang zu den Daten. Das Beispiel wirft die Frage auf, wie sichergestellt werden kann, dass der internationale Menschenrechtsschutz und die Kontrolle der Rechenschaftspflicht bei grenzüberschreitenden Ermittlungen gleichermaßen solide sind – insbesondere angesichts der Tatsache, dass es zu einer Zusammenarbeit mit Ländern kommen kann, die kommerzielle Spionageprogramme einsetzen.
Artikel 47(1) befürwortet auch den raschen Austausch von Informationen über grenzüberschreitende Kanäle, einschließlich „Daten“ oder Informationen über den Aufenthaltsort einer Zielperson. In Regimen haben manche Gruppierungen bereits Praktiken eingeführt, die ernsthafte Bedenken hinsichtlich der Risiken eines solchen Datenaustauschs geweckt haben: So nutzte etwa die Anti-Terroreinheit der „Shanghai Cooperation Organization“ Berichten zufolge eine solche Form der Datenweitergabe, um Dissidenten ins Visier zu nehmen und Listen von Personen in Umlauf zu bringen, die verhaftet und ausgeliefert werden sollen.
Selbst die informelle Weitergabe von unangemessenen oder ungenauen Informationen kann zur Überstellung und Folter unschuldiger Personen führen. Ohne robuste Menschenrechtskontrollen sind kaum sichtbare Netze besonders anfällig für den Missbrauch durch Länder, die versuchen, von Staatstrojanern gesammelte Daten zu erhalten und weiterzugeben.
Schwierige Lehren aus dem Interpol-Erbe
Als Beispiel für die Gefahren grenzüberschreitenden Datenaustauschs ohne soliden Menschenrechtsschutz aller Teilnehmenden könnten potentielle Mitgliedstaaten des UN-Abkommens Interpol heranziehen.
Interpol ist eine 1923 gegründete und 1946 neu konstituierte internationale Organisation für Datenaustausch, die zwischen Polizeibehörden aus 196 Staaten vermittelt. Trotz verschiedener Reformen im Lauf der Jahre ist die Verpflichtung auf internationale Menschenrechtsinstrumente, die für Strafverfolgungsuntersuchungen gelten, etwa der Internationale Pakt über bürgerliche und politische Rechte, nie zu einer Voraussetzung für die Mitgliedschaft bei Interpol geworden.
Tatsächlich enthält Artikel 4 der Interpol-Satzung, der die Mitgliedschaft regelt, keinen Hinweis auf die Einhaltung von Menschenrechten oder andere Voraussetzungen einer Mitgliedschaft. Er verlangt lediglich, dass ein Antrag auf Mitgliedschaft von der zuständigen Regierungsbehörde eines „Staats“ gestellt wird, die eine „offizielle Polizeibehörde“ für die Mitgliedschaft in Interpol vorschlagen kann. Das leitende Organ, die Interpol-Generalversammlung, entscheidet dann durch Abstimmung über die Mitgliedschaft. In Artikel 2 der Interpol-Satzung heißt es, dass ein Ziel von Interpol darin besteht, die gegenseitige Hilfeleistung „im Geiste“ der Allgemeinen Erklärung der Menschenrechte zu fördern. Doch wird die Einhaltung dieser Erklärung weder für Interpol noch für seine Mitglieder zur Pflicht gemacht.
Der chronische Missbrauch der internationalen Kooperationsmechanismen von Interpol verdeutlicht die Gefahr grenzüberschreitender polizeilicher Maßnahmen, die kein gemeinsames Engagement für solide Menschenrechtsstandards voraussetzen. Selbst in hochkarätigen Fällen, wie beispielsweise im Fall von Bill Browder, einem Finanzier, der für die Aufdeckung der Korruption in der russischen Regierung bekannt ist, hat Russland acht Mal versucht, Browder über das Red-Notice-Programm von Interpol festzunehmen. (Sein Anwalt, Sergei Magnitski, war im Zusammenhang mit denselben Vorwürfen in Russland verhaftet worden und starb, nachdem er in einem Moskauer Gefängnis geschlagen worden war.)
Solche „Red Notices“ sind Ersuchen an die Strafverfolgungsbehörden in aller Welt, eine Person ausfindig zu machen und festzunehmen, damit sie untersucht und an das Land ausgeliefert werden kann, das den Haftbefehl ausgestellt hat. Das Red-Notice-Programm und andere Kooperationsverfahren bei Interpol wurden mit wiederholten und anhaltenden staatlichen Missbräuchen in Verbindung gebracht, die häufig zu unrechtmäßigen Verhaftungen, Inhaftierungen, Isolationshaft und in einigen Fällen zu Auslieferungen ohne ordnungsgemäßes Verfahren und zu Folter führten.
Cybercrime
Wir berichten über die politische Seite des Cybercrime. Unterstütze uns dabei!
Interpol-Generalsekretär Jürgen Stock erklärte, dass Interpol derzeit nur begrenzt in der Lage sei, Einzelpersonen besser vor staatlichem Missbrauch des Red-Notice-Programms zu schützen. Stock verwies auf geopolitische Spannungen und das Fehlen einer gemeinsamen internationalen Definition von Terrorismus – ein Hinweis auf die Gefahr durch Länder, die den Interpol-Rahmen als Instrument für grenzüberschreitende Unterdrückung missbrauchen.
Autoritäre Länder setzen das Strafrecht oft als Schwert gegen freie Meinungsäußerung ein, um die Opposition zum Schweigen zu bringen und abweichende Meinungen zu unterdrücken, wie im Fall von Alexei Nawalny, einem führenden Korruptionsbekämpfer und Oppositionspolitiker in Russland. Moskau stufte Nawalny als kriminellen Extremisten ein. Er war bis zu seinem Tod im Februar 2024 in einem russischen Gefängnis inhaftiert. Trotz des wiederholten Missbrauchs des Interpol-Rahmens betonte Stock Anfang des Jahres, dass die Organisation zwar staatliche Anträge auf Red Notices prüfe, aber nicht die Menschenrechtsbilanz ihrer Mitgliedsländer kontrolliere, da dies nicht ihre Aufgabe „als technische Polizeiorganisation“ sei.
Doch so „technisch“ transnationale Polizeibefugnisse auch sein mögen, es besteht kein Zweifel daran, dass ihr Missbrauch verheerend sein kann für einige der sensibelsten Menschenrechtsinteressen, die das Völkerrecht kennt. Stocks Positionierung von Interpol als technisches Gremium verkennt auch, dass die unzureichenden Verfahrensgarantien im Zusammenhang mit staatlicher Überwachung und der Weitergabe sensibler Informationen an Polizeibehörden nicht einfach nur ein Randthema der Menschenrechte sind. Verfahrensgarantien – wie beispielsweise eine unabhängige richterliche Genehmigung und Aufsicht –, die vor Missbrauch durch staatliche Beamte schützen, gehören zum Kern der internationalen Menschenrechtsstandards, die für Ermittlungen im Bereich der Strafverfolgung gelten.
In der Endphase der Verhandlungen zum von der UN vorgeschlagenen Vertrag unterstrich eine Reihe von Staaten die Gefahr ähnlicher Arten des Missbrauchs, indem sie für die Streichung mehrerer Schutzklauseln aus dem endgültigen Vertragstext stimmten, darunter Artikel 40(22). Der Artikel besagt, dass Staaten nicht verpflichtet sind, Rechtshilfe bei ausländischen polizeilichen Ermittlungen zu leisten, wenn es „stichhaltige Gründe“ für die Annahme gibt, dass der Zweck der ausländischen Ermittlung oder Strafverfolgung darin besteht, eine Person „wegen ihres Geschlechts, ihrer Ethnie, ihrer Sprache, ihrer Religion, ihrer Nationalität, ihrer ethnischen Herkunft oder ihrer politischen Überzeugungen“ zu bestrafen.
Fünfundzwanzig Länder – darunter Russland, China und Indien – stimmten für die Streichung von Artikel 40(22), weitere siebzehn Länder enthielten sich der Stimme. Mit anderen Worten: Mehr als vierzig Länder befürworteten oder tolerierten die Streichung einer Bestimmung, welche die Verpflichtung zur Zusammenarbeit in solchen Fällen eingeschränkt hätte, in denen ein anderer Staat gegen eine Person zum Zwecke der Diskriminierung oder Bestrafung wegen ihrer politischen Ansichten ermittelt. Obwohl die Abstimmung scheiterte, sollte der Versuch eine Warnung sein, auf welche Weise viele Staaten wahrscheinlich die Umsetzung des Vertrags gestalten werden, sobald er von der UN-Generalversammlung angenommen wird, insbesondere angesichts der Mängel in den Menschenrechtsgarantien, die viel Raum für Missbrauch lassen.
Verpasste Gelegenheit zur Reform des internationalen Rechts zur Bekämpfung von Staatstrojanern
Wie bei den Interpol-Klauseln bleibt auch der UN-Vertragsentwurf zur Cyberkriminalität gleichgültig gegenüber der Frage, ob sich die Vertragsstaaten zu internationalen Menschenrechtsinstrumenten wie dem UN-Zivilpakt verpflichten. Artikel 6(1) verweist zwar darauf, dass die unterzeichnenden Staaten sicherstellen müssen, dass ihre Umsetzung des Vertrags „mit ihren Verpflichtungen im Rahmen der internationalen Menschenrechtsgesetze übereinstimmt“. Aber diese Maßnahme wird weitgehend untergraben von Staaten, die es abgelehnt haben, wichtige Menschenrechts- oder Datenschutzverträge zu unterzeichnen.
China hat beispielsweise seine Unterstützung für den UN-Vertrag zum Ausdruck gebracht, ist aber keine Vertragspartei des UN-Zivilpakts und für dokumentierte Missbräuche der Kooperationsverfahren von Interpol verantwortlich. Die Vereinigten Arabischen Emirate haben ebenfalls an den UN-Verhandlungen teilgenommen und sind ein potentieller Unterzeichner des UN-Vertrags, haben den UN-Zivilpakt aber nicht unterzeichnet und wurden mit dem Missbrauch der Spionagesoftware Pegasus der NSO-Gruppe in Verbindung gebracht.
Die Vereinigten Arabischen Emirate sind zudem ein bedeutender Geldgeber von Interpol und wegen des Missbrauchs des Interpol-Programms Red Notice in die Kritik geraten. Durch die Öffnung des Vertrags für alle Länder, unabhängig von ihren Verpflichtungen zu internationalen Menschenrechtsstandards wie dem UN-Zivilpakt, öffnet der geplante UN-Vertrag Tür und Tor für weiteren grenzüberschreitenden Missbrauch.
Menschenrechtslücken im endgültigen Text des vorgeschlagenen Vertrags haben zu breitem Konsens zwischen der Zivilgesellschaft und der Industrie geführt, dass der Vertrag von demokratischen Staaten abgelehnt werden sollte, weil er nicht weit genug geht, um jene Menschen auf der ganzen Welt zu schützen, die von dem Vertrag am meisten betroffen sein werden, wenn er verabschiedet wird. Obwohl der endgültige Text des vorgeschlagenen Vertrags wichtige Schutzmaßnahmen enthält, wurden die meisten Bestimmungen – beispielsweise Artikel 6(1) – als unzureichend und missbrauchsanfällig bewertet.
Zusätzlich zu Artikel 6(1) enthält Artikel 6(2) eine Bestimmung, die im Wesentlichen verhindert, dass der Vertrag in einer Weise ausgelegt wird, welche die Menschenrechte und Grundfreiheiten unterdrücken würde. Artikel 6(2) ist wichtig, aber er ist auch sehr weit gefasst und daher anfällig für Missbrauch. So könnten sich Staaten beispielsweise auf die in Artikel 5 dargelegte robuste Souveränitätsbestimmung berufen, um den spezifischen Inhalt von Artikel 6 oder die Anwendbarkeit internationaler Menschenrechtsstandards auf den Einsatz von Cyberangriffen wie Staatstrojaner anzufechten.
Eine weitere wichtige Schutzklausel in Artikel 24 besagt, dass die Vertragsstaaten bei der Umsetzung des Vertrags ihre innerstaatlichen Gesetze mit ihren internationalen Menschenrechtsverpflichtungen in Einklang bringen und diese Umsetzungsgesetze den Grundsatz der Verhältnismäßigkeit berücksichtigen müssen. Artikel 24(2) legt die Notwendigkeit bestimmter spezifischer Bedingungen und Garantien fest, wie beispielsweise das Erfordernis einer gerichtlichen Überprüfung und wirksamer Abhilfemöglichkeiten.
Trotz dieser Bestimmungen ist Artikel 24 auch kritisiert worden, weil er diese wesentlichen Menschenrechtsverpflichtungen als freiwillig formuliert und nicht auf die Notwendigkeit anderer etablierter Menschenrechtsverpflichtungen hinweist, etwa das Legalitätsprinzip und das Recht auf individuelle Benachrichtigung. Insgesamt gibt es in Artikel 24 vieles, was die Ansicht einiger Staaten bestärkt, dass ein Großteil der darin enthaltenen Garantien in erster Linie im Ermessen der einzelnen Staaten liegt ist. Trotz dieser Schwächen stimmten zahlreiche Staaten für den Versuch, Artikel 6(2) und 24 aus dem endgültigen Text des Vertrags zu streichen.
Angesichts der Tatsache, dass einige Staaten nach wie vor kommerzielle Hackingsoftware einsetzen, ist es besonders besorgniserregend, dass die Schutzklauseln von Artikel 24 auch nur in sehr begrenztem Maße auf die Kooperationsbestimmungen des Vertrags in Kapitel V anwendbar sind. Insgesamt enthalten die Kooperationsbestimmungen in den Artikeln 46 bis 48 kein ausdrückliches Verbot der Weitergabe von durch Hacking erlangte Daten oder Informationen, die mit kommerzieller Spionagesoftware gewonnen wurden. Die Bestimmungen sehen auch keine begleitende unabhängige richterliche Aufsicht oder Transparenzverpflichtungen zum Schutz der Menschenrechte im Zusammenhang mit transnationalen Ermittlungen vor.
Transparenz und Aufsicht sind von entscheidender Bedeutung, um zu verhindern, dass sich undurchsichtige transnationale Netzwerke mit ewig währender Geheimhaltung ausbreiten. Trotz der Unzulänglichkeiten des Vertrags bei der Verpflichtung zur Einhaltung von Menschenrechtsstandards erlaubt Artikel 47(2), dass der Vertrag selbst als „Grundlage“ für die Zusammenarbeit dient.
Der staatliche Missbrauch von Hackingsoftware verdeutlicht die Gefahr, dass der Schutz der Menschenrechte in den Bereich des „innerstaatlichen Rechts“ verlagert wird, das jedes Land nach seinen eigenen Bedingungen gestalten kann. Sowohl internationale Menschenrechtsbehörden als auch Wissenschaftler haben auf die Notwendigkeit einer Reform des internationalen Rechts hingewiesen, um Spionageaktivitäten und kommerzielle Hackingsoftware zu bekämpfen. Dies schließt die Notwendigkeit einer globalen Regelung ein, die „multilaterale, verbindliche Maßnahmen mit Rechtskraft“ gegen Staatstrojaner und einen internationalen Vertrag zur Bekämpfung transnationaler Cyberspionage von Dissidenten vorsieht. Das geplante UN-Abkommen würde keines dieser Ziele fördern.
Ähnliche Kritikpunkte können gegen ein älteres Abkommen zur Cyberkriminalität vorgebracht werden, das ursprünglich vom Europarat entwickelt wurde: die Budapester Konvention. Sie verpflichtet die Staaten ebenfalls dazu, Überwachungskapazitäten aufrechtzuerhalten, ohne dass die Staaten auch den UN-Zivilpakt oder vergleichbare Menschenrechtsinstrumente unterzeichnen müssen. Der Text der Budapester Konvention wurde jedoch im Jahr 2001 ausgearbeitet – lange bevor Hacking-Unternehmen die Fähigkeit entwickelten, mächtige Werkzeuge wie Staatstrojaner mit Zero-Click-Exploit-Ketten einzusetzen. Umso schwieriger können Staaten argumentieren, der Vertrag habe es bereits beabsichtigt, die Ausnutzung hochinvasiver Schwachstellen zuzulassen, die ja zum Zeitpunkt der Ausarbeitung noch nicht im Umlauf waren.
Die weltweite Verbreitung von Staatstrojanern ist jetzt ein Thema für die internationale Gemeinschaft, ebenso wie die Verbreitung und Gefährlichkeit grenzüberschreitender Repression. Forscher machen zunehmend darauf aufmerksam, dass grenzüberschreitende Repression zwar „kein neues Phänomen ist, dass sich solche Taktiken aber durch das Wachstum des Marktes für digitale Technologien und die Verbreitung der Internet-Konnektivität ausweiten“. Hackingsoftware wird zunehmend als Mittel zur Erleichterung transnationaler Unterdrückung oder als repressiver Selbstzweck eingesetzt. Die Wiederholung der Fehler der Vergangenheit durch den Entwurf des UN-Cyberabkommens verfestigt und verschlimmert diese Probleme.
Die Unfähigkeit der internationalen Gemeinschaft, einen Konsens in Fragen der grundlegenden Menschenrechte zu erzielen, lässt den UN-Mitgliedsstaaten nun die Wahl, ob sie den geplanten Vertrag ohne wichtige Menschenrechtsgarantien unterzeichnen wollen. Die Geschichte lehrt aber, dass eine grenzüberschreitende Zusammenarbeit ohne robuste Menschenrechtsverpflichtungen kein gangbarer Weg im Kampf gegen grenzüberschreitende Cyberkriminalität ist.
Wie US-Außenminister Antony Blinken erst Anfang des Jahres anmahnte, wurde der Missbrauch kommerzieller Spionagesoftware mit „willkürlichen Verhaftungen, erzwungenem Verschwinden und außergerichtlichen Tötungen in den ungeheuerlichsten Fällen“ in Verbindung gebracht. Für Länder, welche die Grundfreiheiten, die Sicherheit von Menschen und die nationale Sicherheit schützen wollen, ist dies ein Kampf, der nicht verloren werden darf.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Nach einem historischen Urteil im August beginnt heute in den USA ein weiteres Monopolverfahren gegen Google. In einem Gastbeitrag erklärt der Monopolexperte Ulrich Müller, was auf Google zukommen könnte – und warum auch Europa mehr Entflechtung wagen sollte.
Heute startet in den USA ein großer Prozess zu Googles Machtmissbrauch in der Online-Werbung. Der Vorwurf: Google soll sich durch seine monopolartige Stellung unfaire Vorteile gegenüber Wettbewerbern verschafft und Geschäftspartner benachteiligt haben. Bereits im August hatte ein US-Gericht entschieden, dass Googles Monopolstrategie bei der Internetsuche illegal ist. Damit rückt eine Möglichkeit näher, auf die viele lange gewartet haben: die Entflechtung des derzeit viertwertvollsten Konzerns der Welt.
Dass Google Teile seines Geschäfts verkaufen muss, ist angesichts der umfassenden Monopolstellung und des andauernden Missbrauchs durch das Unternehmen die richtige Lösung. Strafzahlungen und Verhaltensauflagen haben sich als nur wenig effektiv erwiesen.
Google ist ein Monopolist und hat seine unternehmerische Machtfülle gezielt aufgebaut. Dass das illegal ist, steht seit dem bahnbrechenden Urteil Anfang August 2024 fest. Es war ein historischer Sieg für das US-Justizministerium und die amerikanische Antitrust-Bewegung. Lange Jahre wurde das US-Kartellrecht nicht ausreichend angewendet. Inzwischen hat sich der Wind gedreht. Die US-Behörden gehen verstärkt gegen Machtkonzentration und Monopolisierung vor, sie liefern neue Erkenntnisse über die Monopolstrategien der großen Tech-Konzerne und sie streben vermehrt sogenannte strukturelle Maßnahmen an. Das könnte perspektivisch auch andere US-Tech-Konzerne treffen.
Was sind Entflechtungen?
Im Wettbewerbsrecht werden zwei Arten von Abhilfemaßnahmen gegen Marktmacht und Machtmissbrauch unterschieden: zum einen Verhaltensauflagen, also kleinteilige Vorgaben, die Unternehmen erfüllen müssen; zum anderen das große Besteck: strukturelle Maßnahmen, etwa die Abspaltung von Firmenteilen.
Für solche Aufspaltungen – im Fachjargon „Entflechtung“ – gibt es historische Vorbilder. So wurde Rockefellers Ölkonzern Standard Oil im Jahr 1911 aufgespalten, 1982 der Telekommunikationskonzern AT&T. Empirische Analysen zeigen, dass die Aufspaltung von AT&T die Innovation in der Telekommunikationsbranche gefördert hat. Allerdings gewann in den 1980er Jahren die neoliberale Chicago School in der Wettbewerbspolitik an Einfluss. Sie argumentierte, dass Marktkonzentration vertretbar sei, solange größere Unternehmen effizienter sind. Strukturelle Maßnahmen wurden daher seltener.
Dabei haben strukturelle Eingriffe zwei große Vorteile gegenüber Verhaltensauflagen. Sie gehen zum einen die Machtkonzentration an der Wurzel an und sie erfordern zum anderen im Nachgang weniger laufende Kontrolle.
Gerade bei den großen Tech-Konzernen sind Entflechtungen ein sinnvolles Instrument, um die Macht und Selbstbevorzugung durch vernetzte Plattformen aufzubrechen. Google ist dafür ein Paradebeispiel. Das US-Urteil und zahlreiche Verfahren von Wettbewerbsbehörden weltweit zeichnen ein klares Bild von Googles Monopolisierungsstrategie und den Auswirkungen.
Wie Google zum Monopolisten wurde
Im Zentrum von Googles Geschäftsmodell und Strategie steht die eigene Suchmaschine. Hier hat Google ein klares Monopol mit Marktanteilen von rund 90 Prozent. Daneben betreibt Google mit YouTube und Google Maps weitere Dienste, die für Online-Werbung zentral sind. Werbe-Erlöse sind die wichtigste Einnahmequelle für Google: Im vergangenen Jahr verzeichnete der Konzern einen Umsatz von insgesamt knapp 306 Milliarden US-Dollar. 238 Milliarden Dollar erzielte es mit Werbung, also knapp 78 Prozent. Googles liefert fast den gesamten Umsatz des Mutterkonzerns Alphabet (307 Milliarden), zu dem unter anderem die Life Sciences Firma Calico und Waymo für autonomes Fahren gehört.
Rund um sein Suchmaschinen-Monopol hat Google ein ganzes Imperium aufgebaut. Auf der einen Seite kontrolliert Google den sogenannten Adtech-Sektor, also jene Infrastrukturen, über die Online-Werbung gehandelt und abgewickelt wird. Auf der anderen Seite, nämlich die der Nutzer*innen, kontrolliert Google wesentliche Zugangskanäle wie das Android-Betriebssystem und den Chrome-Browser.
Dieses Bollwerk hat Google mit Hilfe zahlreicher Firmenübernahmen aufgebaut. So hat es mehrere Adtech-Firmen wie etwa DoubleClick gekauft. Auch Android, YouTube und Google Maps stammen aus Übernahmen oder wurden durch diese verstärkt.
Der Konzern hat außerdem über Lizenzmodelle für Android sowie Kooperationsverträge dafür gesorgt, dass Google-Dienste flächendeckend auf Smartphones voreingestellt sind. So erhält Apple jährlich Milliarden Dollar von Google, damit dessen Suchmaschine standardmäßig auf iPhones voreingestellt ist. Laut dem US-Gerichtsverfahren hat Google allein im Jahr 2021 rund 26,3 Milliarden Dollar als „traffic acquisition costs“ ausgegeben, also für Verträge, die sicherstellen, dass Datenverkehr auf Google Dienste gelenkt werden. Das war viermal mehr als die sonstigen Ausgaben für die Google-Suche. Der Großteil der Kosten der Google-Suche dient also dazu, anderen Anbietern das Wasser abzugraben.
Wie häufig bei digitalen Diensten gibt es bei der Internet-Suche sogenannte Netzwerk- und Skaleneffekte: Je mehr Suchanfragen es gibt, desto besser lassen sich die Such-Algorithmen optimieren, was wiederum zu mehr Nutzer*innen führt. Häufig wird von vermeintlichen Winner-takes-all-Märkten gesprochen. Aber die Netzwerkeffekte sind nicht unbegrenzt. Tatsächlich sichert erst das Zusammenspiel von Googles wettbewerbswidriger Unternehmensstrategie und Netzwerkeffekten die Monopolstellung des Unternehmens.
Unter Googles Monopolstellung leidet nicht nur die Werbebranche
Das US-Urteil vom August stellt fest, dass Google dank seiner Monopolmacht überhöhte Preise für die Textanzeigen auf Google Search durchsetzen kann. Die Werbetreibenden müssen entweder mehr Geld für Werbung ausgeben und sich die Kosten von den Verbraucher*innen zurückholen. Oder sie reduzieren ihre Werbe-Ausgaben auf anderen Online-Kanälen, was insbesondere die Medien schädigt. Die Medien werden zudem direkt durch Googles Adtech-Dominanz benachteiligt, die Google verschiedene Tricks erlaubt, um seine Erlöse auf Kosten der Verleger zu steigern.
Diese unfaire Verteilung der Wertschöpfung ist nicht nur ein finanzielles Problem. Sie schädigt die öffentliche Debatte, indem sie den Personalabbau bei Medien verstärkt und den Trend zu einem klick-orientierten Journalismus fördert. Für die Demokratie ist das ein großes Problem.
Neue Anbieter mit alternativen Geschäftsmodellen wie die datenschutzfreundliche Suchmaschine Neeva können sich nicht durchsetzen. Google hingegen kann durch seine Monopolgewinne weiter expandieren, etwa in den KI-Sektor. Damit steigt auch die politische Macht des Unternehmens. Google gehört heute zu den größten Lobby-Akteuren in der EU und den USA und kann seine Investitionen politisch nutzen. Gemeinsam mit anderen Tech-Unternehmen versucht der Konzern etwa, unliebsame Datenschutzgesetze in den USA zu verhindern.
Googles Kontrolle über verschiedene Sphären aufbrechen
Googles Machtstellung ist ein bislang ungelöstes gesellschaftliches Problem. Inzwischen gibt es weltweit mehr als einhundert Wettbewerbsverfahren gegen Google bzw. Alphabet. Und auch die EU-Kommission hat Rekordstrafen verhängt. Aber diese Strafen bewirken angesichts der gewaltigen Monopolgewinne von Google nur wenig.
Deshalb wächst die Erkenntnis, dass es ohne strukturelle Maßnahmen nicht gehen wird. Dabei soll Google nicht in kleinere Suchmaschinen aufgespalten werden. Es geht vielmehr darum, die Kontrolle von Google über verschiedene Sphären und Zugangspunkte aufzubrechen, um die Monopolisierung und Selbstbevorzugung zu stoppen.
Dabei stehen zwei Bereiche besonders im Fokus, die Vermittlung von Online-Werbung (Adtech) und die Kontrolle über Zugangswege ins (mobile) Internet, insbesondere Android und der Browser Google Chrome.
Wettbewerbsbehörden wollen Abspaltung des Werbegeschäfts
Am klarsten ist der Fall bei Adtech. Dazu muss man sich klar machen, was bei Online-Werbung auf Webseiten und Suchmaschinen passiert. Beim Aufrufen einer Webseite laufen im Hintergrund in Sekundenbruchteilen Auktionen ab, welche Anzeigen auf den Werbeflächen dieser Seite zu sehen sein werden. Google stellt den größten Server bereit, über den Publisher die Auktionen abwickeln. Es ist auch bei den Diensten marktbeherrschend, mit denen Werbetreibende ihre Online-Anzeigenkampagnen steuern. Dazwischen betreibt Google mit AdExchange auch den größten Auktionator auf dem Markt.
Ermittlungen amerikanischer und europäischer Wettbewerbsbehörden zufolge hat Google diese Kontrolle über die verschiedenen Seiten des Markts jahrelang zu seinen Gunsten missbraucht. In dem heute beginnenden Gerichtsverfahren zu Googles Monopolstellung im Adtech-Bereich fordern das US-Justizministerium und mehrere Bundesstaaten, wenigstens den Google-Dienst für Publisher und die Google AdExchange abzuspalten. Auch die EU-Kommission kam 2023 zu dem vorläufigen Schluss, dass Google seine Adtech-Marktmacht missbraucht hat und es struktureller Maßnahmen bedarf.
Insgesamt sprechen die Verfahren im Werbebereich dafür, dass Google zumindest einen Teil seiner Adtech-Dienste abspalten muss. Sinnvoll wäre es, den gesamten Adtech-Bereich abzutrennen. Das würde eine weitere Selbstbevorzugung beziehungsweise die umfassende Behinderung anderer Anbieter durch Google verhindern. Google sollte demnach nur die Dienste für die Verwaltung der eigenen Werbeflächen behalten. Die Teile für Verleger und für Werbetreibende sollten an unterschiedliche Anbieter verkauft werden, um einer erneuten Marktkonzentration vorzubeugen.
Auch Android und Chrome könnten abgespalten werden
Bei Android und Chrome könnte es ebenfalls zu Abspaltungen kommen. Zumindest gibt es in den USA Stimmen, die das als Konsequenz des Urteils zum Suchmaschinen-Monopol fordern. Als erste Maßnahme könnten die Abkommen zwischen Google und Apple sowie anderen Handy-Herstellern gestoppt werden, die die Google-Suche bevorzugen. Das Gericht könnte aber weitergehende Maßnahmen verhängen, um zu verhindern, dass Google sich neue Strategien einfallen lässt, um Android und Chrome erneut zu seinen Gunsten zu missbrauchen.
Auch in den Adtech-Verfahren könnte es Auflagen in diesem Bereich geben, insbesondere für Chrome. Denn Google könnte sonst versuchen, die Werbe-Auktionen stärker in den Browser zu verlagern und auf diese Weise die Kontrolle zurückzuerlangen. Eine Abspaltung könnte solche Umgehungsstrategien unterbinden.
Es ist fraglich, ob alternativ Auflagen zur Nicht-Diskriminierung von Wettbewerbern an dieser Stelle ausreichen würden. Ein Mittelweg wären Auflagen sowie eine organisatorische Trennung innerhalb von Alphabet, ohne einen Verkauf an Dritte. Das könnte zugleich ein Warnsignal an Google sein, dass bei Verstößen gegen diese Auflagen eine Abspaltung leicht möglich wäre.
Mehr Entflechtungen wagen
Es ist durchaus wahrscheinlich, dass Google in den nächsten Jahren Teile seines gestaffelten Internet-Imperiums verkaufen muss. Das wäre ein richtiger Schritt, um den Machtmissbrauch und die Schäden für Öffentlichkeit, Demokratie und Verbraucher*innen zu stoppen. Dabei ist klar, dass es zusätzlich zu Abspaltungen klare Regeln etwa für den Datenschutz braucht. Aber Regulierung allein wird die Vermachtung der digitalen Welt nicht aufbrechen. Die Kombination unterschiedlicher Instrumente ist entscheidend. Wir brauchen einen Mix aus Aufspaltungen, effektiv durchgesetzter Regulierung sowie der Förderung von öffentlichen Infrastrukturen und Standards.
Die EU-Kommission hat in den vergangenen Jahren einige große Wettbewerbsverfahren gegen Google geführt. Diese haben wegen der Strafzahlungen in Milliardenhöhe zwar für Aufsehen gesorgt. Wirklich effektiv waren sie jedoch nicht. Denn Google hat die Verhaltensauflagen geschickt für sich umgesetzt, so dass seine Monopolstellung im Kern unangefochten blieb. Aus diesen Erfahrungen müssen die Wettbewerbsbehörden endlich Konsequenzen ziehen. Um Googles Monopolmacht zu brechen, muss der Konzern aufgespalten werden.
Dabei sollten die EU und die USA an einem Strang ziehen, so wie es sich zuletzt bei Adtech angedeutet hat. Aber es ist noch offen, ob die nächste US-Regierung ebenso entschieden gegen Monopolmacht vorgeht wie es die derzeitige Biden-Regierung tut. Die EU sollte deshalb bereit sein, auch eigenständig zu handeln. Die Androhung von Abspaltungen im Adtech-Verfahren ist ein Hoffnungszeichen. Dahinter sollte die EU-Kommission bei ihrer finalen Entscheidung nicht zurückfallen.
Als Zivilgesellschaft müssen wir uns dafür starkmachen, dass strukturelle Maßnahmen wieder stärker genutzt werden. Die Machtkonzentration in der digitalen Welt ist zu groß, zu schwerwiegend und sie schadet der Demokratie. Sie erfordert mutige Maßnahmen. Google sollte aufgespalten werden.
Ulrich Müller ist Mitgründer und Vorstand von Rebalance Now. Die Organisation tritt dafür ein, die Monopolisierung der Wirtschaft zurückzudrängen und die Macht großer Unternehmen zu beschränken. Das Ziel ist eine vielfältige und ausgewogene Wirtschaft. Auf der „Bildet Netze“-Konferenz zum 20. Geburtstag von netzpolitik.org am 13. September spricht Ulrich Müller über Ansätze gegen die Monopolmacht von Big Tech.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Angesichts einer möglichen faschistischen Zukunft dürfen wir vor allem eines nicht tun: gleichgültig sein. Speziell auch dann, wenn es um technologische Entwicklungen und Überwachung geht. Und wenn wir nicht gleichgültig sind, dann sind wir auch nicht allein.
Die heutige Episode von Degitalisierung muss politisch werden. Leider. Denn Gleichgültigkeit ist keine Lösung. Vor allem nicht nach den politischen Ereignissen der letzten Wochen. Nach den Landtagswahlen in Sachsen und Thüringen, nach den Messerattacken in Solingen und der sich abzeichnenden autoritären Zeitenwende, gesteigert durch digitale Überwachungsfantasien.
Doch der Reihe nach. Das Grundthema dieser Kolumne ist ja – seit den ersten mühsam gefundenen Worten – schon immer die Frage, inwieweit schlecht gemachte Digitalisierung das Gegenteil von dem bewirken kann, was gut gemachte Digitalisierung eigentlich bewirken könnte. In dieser Ausgabe müssen wir uns wohl etwas näher mit dem Gedanken beschäftigen, was Digitalisierung unter anderen politischen Rahmenbedingungen tun könnte. Unter autoritären oder faschistischen Regierungen etwa. Das ist insofern wichtig, als eine Gleichgültigkeit heute die Schrecken einer möglichen faschistischen Zukunft immens beschleunigen könnte.
Dass unsere Gleichgültigkeit heute ein Problem für die Zukunft sein kann, ist aber nicht immer allen bewusst. Und damit beginnen die Schwierigkeiten in der Auseinandersetzung mit dem, wie wir heute sinnvolle und resiliente digitale Lösungen schaffen können.
Dann kannste auch nichts machen?
In den vergangenen Jahren habe ich einige öffentliche Vorträge gehalten. Oftmals ging es um … Digitalisierung. Nach einem dieser Vorträge, es ging wohl um Digitalisierung der Verwaltung oder des Gesundheitswesens – es ist für den Punkt, den ich machen möchte, nicht wichtig –, kam eine etwas ältere Person auf mich zu. Sie meinte, dass ich das alles zu kritisch sähe. Das mit der massenhaften zentralisierten Datenspeicherung von persönlichen Daten und der IT-Sicherheit und dem Datenschutz müsse ich entspannter betrachten. Nach längerer Diskussion kamen wir dann irgendwann auf den folgenden Punkt zu sprechen: Es ist aus meiner Sicht fatal, heute Systeme zu bauen, die in irgendeiner Art und Weise digitale Allmacht über Einzelpersonen oder über Teile der Bevölkerung oder die ganze Bevölkerung ermöglichen würden.
Dann kam die Antwort, die bei uns allen die Alarmglocken schrillen lassen sollte: „Na ja, wenn eine faschistische Regierung kommt, dann kannste da auch nichts machen.“
Ganz egal, was in baldiger oder längerfristiger Zukunft passieren sollte: Seid nicht diese Person. Seid niemals nie eine Person, der irgendwas gleichgültig ist. Seid nicht gleichgültig. Vor allem, wenn es um Politik oder Technik oder andere Dinge geht, die euch erst mal vermeintlich nicht betreffen, andere Menschen aber schon.
Marian Turski, Überlebender des Konzentrationslagers Auschwitz, bezeichnete das 2020 als das elfte Gebot. Seid nicht gleichgültig. Seid nicht gleichgültig.
Noch mal: Seid nicht gleichgültig.
Wenn wir das elfte Gebot jetzt verinnerlicht haben, was sind die Konsequenzen für die Art, wie wir kritisch und konstruktiv zugleich mit Digitalisierung umgehen müssen? Zunächst einmal sollten wir ein Gefühl dafür entwickeln, wann uns Menschen aus welchen Gründen auch immer in eine Gleichgültigkeit gegenüber einem bestimmten Thema treiben möchten – auch wenn die Motive nicht immer die gleichen sein mögen. Speziell im Digitalen.
Rise of the Machine Overlord
Nun kann es verschiedene Motive haben, bei Menschen entweder fanatische Begeisterung – oder zumindest keinen Widerstand – gegen das eigene Handeln auslösen zu wollen. Nicht selten hat das aber stumpfe, kapitalistische Beweggründe.
Der aktuell immer noch anhaltende KI-Hype wird nicht selten von dem reinen Glauben an irgendeine Art von mystischer Wirkmächtigkeit der Technologie in der Zukunft getrieben. Diese vermeintliche Wirkmächtigkeit dient als Rechtfertigung dafür, bisherige gesellschaftlich vereinbarte Grenzen zu überschreiten.
Dabei gibt es grob zwei unterschiedliche Geisteshaltungen, um am Ende nichts gegen den Einsatz von Techniken der sogenannten Künstlichen Intelligenz zu tun, ganz im Gegenteil: AI-Doomer und AI-Accelerationisten.
Die Doomer, die an den baldigen Untergang durch Künstliche Intelligenz glauben und arbeiten dennoch auch an der Weiterentwicklung von KI, nur mit dem Ziel, den prophezeiten Untergang zu verhindern. Dann sind da die AI-Accelerationisten, die auch an der schnellen Weiterentwicklung von Künstlicher Intelligenz arbeiten, um möglichst bald irgendeinen Zustand von Artificial General Intelligence (AGI) zu erreichen, weil dann irgendeine Utopie möglich wäre.
Doomer schreiben manchmal öffentlichkeitswirksam Briefe, um auf den drohenden Untergang hinzuweisen, machen dann aber auch nichts weiter dagegen.
Beiden gemein ist das Versprechen einer größeren mythischen Macht durch künstliche Intelligenz, für oder gegen die man jetzt ganz schnell alles tun müsse. Das trägt Züge faschistischer Ideologie.
Große Probleme wie Bias, digitaler Kolonialismus, immenser Ressourcen- und Energieverbrauch, hohe Machtkonzentration, ungehemmter Datenkonsum, Plagiarismus und Desinformation werden dabei im Sinne des größeren Ziels eher totgeschwiegen. Bei der Entwicklung von vielen KI-Systemen werden alle diese erheblichen Probleme bewusst ignoriert.
Am Ende geht es dann meist nur um die Entwicklung des 102. großen Sprachmodells mit drei Prozent besseren Werten in irgendwelchen Benchmarks oder den 53. Bild- oder Videogenerator für Bilder oder Videos, die keinen tieferen Sinn haben. Nur selten geht es um tiefergehende Probleme wie medizinische Forschung, die Bekämpfung des Klimawandels oder das Verhindern des Artensterbens. Das wären die Probleme, die uns nicht gleichgültig sein sollten.
Seid nicht gleichgültig. Speziell wenn euch irgendwer eine geradezu mystische Wirkmächtigkeit einer bestimmten Technologie vorpredigt, um dann am Ende nur Texte zu erzeugen, die kein Mensch liest und Bilder zu erstellen, die keine Aura haben.
Überwachung ohne Überwachung
Nach schrecklichen Ereignissen wie den Messerattacken in Solingen wird oftmals eine wohlbekannte Forderung gestellt: mehr Überwachung, mehr Befugnisse für Sicherheitsbehörden, mehr Durchgriffsmöglichkeiten.
Nicht selten werden hier lange vorbereitete politische Forderungen wie die Vorratsdatenspeicherung wieder aus der Mottenkiste geholt. Anlasslose Kontrollen gehören auch zum Forderungskatalog. Was oftmals nicht so laut gesagt wird: Dass viele Gewalttaten sehr häufig schon eine Vorgeschichte haben. Dass viele Gewalttaten eher die mangelnde Durchsetzungsfähigkeit bereits bestehender rechtlicher Rahmenbedingungen zeigen, sei es wegen schlechter Ausstattung, fehlender Fähigkeiten oder schlicht zu wenig Personal.
Bemerkenswert an der aktuellen Diskussion sind die leisen sofortigen Widersprüche auf politische Impulshandlungen, etwa zu Waffenverbotszonen. So folgte auf die Ankündigung von Waffenverbotszonen in Berlin prompt der Hinweis der Berliner Gewerkschaft der Polizei, dass Messerverbotszonen nicht kontrollierbar seien.
Einigkeit herrscht derweil bei dem Thema Videoüberwachung mit KI, allerdings, so die Berliner Innensenatorin Spranger: „Ob wir dies zur Identifizierung von Straftätern nutzen können, werden wir prüfen.“ Klingt eher nicht nach einer ausgereiften Technologie, die nachweisbar mehr Sicherheit bringt, sondern eher nach einem Experiment mit Problemen mit allerlei Grundrechten und europäischer Gesetzgebung.
Das ist aber auch nicht so wichtig in dem Kontext, denn seltsamerweise herrscht zumindest fast immer Einigkeit darüber, dass „eine überhöhte Interpretation des notwendigen Datenschutzes nicht wieder die innere Sicherheit gefährden und Menschenleben kosten“ dürfe, so der Berliner Landes-Chef der Gewerkschaft der Polizei, Stephan Weh.
Sicherheitspolitik ist prinzipiell etwas, was nicht von Impulshandlungen geprägt sein sollte. Vor allem dann nicht, wenn die mythische Lösung mittels Technik als solche nach wie vor nicht ausgereift ist, Minderheiten diskriminiert und schlicht grundrechtswidrig ist. Jede Form von geplanter Überwachung braucht selbst konsequente Überwachung, um nicht in einem möglicherweise faschistischen Überwachungsstaat zu münden.
Es darf uns nicht gleichgültig sein, wenn jemand Scheinlösungen fordert, die letztlich nur einem möglichen Überwachungsstaat helfen, ohne wirklich mehr Sicherheit zu bieten. Seid nicht gleichgültig, auch dann nicht, wenn es eure Grundrechte erst mal nicht direkt zu betreffen scheint.
Findet Verbündete, bildet Netze
In dieser Zeit von aufkommendem Faschismus, Überwachungsfantasien und Techbros mit Maschinenallmachtsfantasien müssen wir uns bewusst sein, dass wir nie alleine den Gefahren unserer Zeit gegenüberstehen. Wir haben Verbündete.
Haltet euch nicht an die, denen es gleichgültig ist. Findet Verbündete. Bildet Banden. Bildet Netze.
Dazu vielleicht zwei Hoffnung machende Anekdoten, dass ihr Verbündete, zumindest im Geiste, manchmal an ganz ungewöhnlichen Stellen finden könnt.
Die Doktorin etwa, die ihren flammenden Vortrag für die Digitalisierung in der Medizin, den dafür notwendigen Datenaustausch und Forschung mit der inständigen Bitte an die Politik schloss, sich noch stärker gegen den aufkommenden Faschismus einzusetzen. Menschen, denen die möglichen negativen Konsequenzen ihres Handelns selbst bewusst sind, sind ideale Verbündete für bessere digitale Lösungen.
Manchmal hilft auch ein Gespräch mit Menschen aus der Zivilgesellschaft von anderen Kontinenten: Irgendwie drehte sich unser Gespräch um digitale Identitätssysteme. Bereits die zweite Frage lautete, wie wir in Europa mit so umfassenden digitalen Systemen und faschistischen Regierungen umgehen würden, welche Fehler wir besser nicht machen sollten. Räumlich eigentlich sehr weit entfernt, gedanklich aber so nah. Es wäre schwer, in ihrem Land offen darüber zu sprechen, aber hier in Europa sollten wir das konstruktiv und kritisch jetzt diskutieren, bevor wir es nicht mehr tun können.
Es gibt nicht überall nur Gleichgültigkeit, auch wenn es gerade so wirkt. Seid nicht gleichgültig. Dann seid ihr schon gemeinsam.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Die 36. Kalenderwoche geht zu Ende. Wir haben 16 neue Texte mit insgesamt 137.755 Zeichen veröffentlicht. Willkommen zum netzpolitischen Wochenrückblick.
Liebe Leser*innen,
diese Woche gibt es Grund zum Frust und Grund zur Freude. Um auf einer positiven Note enden zu können, fangen wir mal mit dem Frust an: Die Ampel legt weiterhin den Presslufthammer an ihren eigenen Koalitionsvertrag und zerdonnert damit ihre netzpolitischen Versprechen.
Mehr als 200 SPD-Abgeordnete einigten sich diese Woche auf ein Positionspapier für Vorratsdatenspeicherung, für mehr Videoüberwachung und für mehr biometrische Erfassung. Die Pläne sind reinster Überwachungs-Populismus: Sie stehen nicht nur dem Koalitionsvertrag entgegen, sondern beißen sich mit höchstrichterlichen Urteilen und EU-Gesetzen. Das Papier nimmt mein Kollege Andre hier auseinander. Über die Verkorkstheit der Biometrie-Pläne mit Blick auf die KI-Verordnung schrieb meine Kollegin Chris.
Gerade weil diese Woche so düster war, hat mich ein Lichtblick besonders gefreut. Gleich zwei unserer jüngsten Großprojekte wurden für den Grimme-Online-Award nominiert! Einmal der Doku-Podcast Systemeinstellungen, in dem wir die Geschichten von Menschen erzählen, die völlig unerwartet ins Visier des Staates geraten. Die schneller kriminalisiert werden als andere. Vor allem Folge drei legt angesichts des aktuellen Ausländer-raus-Populismus der „Fortschritts-Koalition“ so richtig den Finger in die Wunde.
Publikums-Voting: Zwei Kreuzchen für netzpolitik.org
Ebenso nominiert für den Grimme Online Award wurden unsere Recherchen mit dem Bayerischen Rundfunk zu den Databroker Files. Anhand von 3,6 Milliarden Handy-Standortdaten aus Deutschland konnten wir beschreiben, wie uns Apps und Datenhändler auf Schritt und Tritt überwachen.
Wie es nach der Nominierung weitergeht, das entscheidet einerseits die Jury – und andererseits IHR. Denn beim Publikumspreis dürfen alle ein Votum abgeben. Also, Eure Stimme ist gefragt und könnte den Unterschied machen: Wir würden uns riesig freuen, wenn Ihr das Voting öffnet und für netzpolitik.org zwei Kreuzchen setzt! ❎ ❎
Um die Databroker Files geht es übrigens auch nächste Woche bei unserer Konferenz „Bildet Netze!“ in Berlin, für die es weiterhin Tickets gibt. Gemeinsam mit Katharina Brunner und Ingo Dachwitz werde ich von den Höhen und Tiefen unserer Recherche erzählen – aber das ist nur einer von dutzenden Programmpunkten rund um die Frage, wie wir gemeinsam unsere digitalen Freiheitsrechte verteidigen können.
Vielen Dank für Eure Unterstützung und bis nächste Woche
Sebastian
KI kann keine Literatur: Der Wert menschlicher Übersetzung
KI-generierte Übersetzungen von E-Mails, Nachrichtenartikeln oder Speisekarten sind für unsere Gastautorin überhaupt kein Problem. Aber bei literarischen Texten sollten allein Menschen Hand anlegen, argumentiert sie – und vor allem Buchverlage sollten von KI die Finger lassen. Von Gastbeitrag, Janine Malz –
Artikel lesen
GPS-Tracker für Kinder: „Kinder haben auch ein Recht auf Privatsphäre“
Die Hälfte aller Eltern von Kindern im Alter zwischen drei und 14 Jahren kann sich vorstellen, diese permanent zu orten. Hier erzählt die Medienpädagogin Charlotte Horsch, was das mit Kindern macht und wie Eltern mit ihren Ängsten umgehen können. Von Chris Köver –
Artikel lesen
Datenschutz und Informationsfreiheit: Specht-Riemenschneider tritt Amt als Bundesbeauftragte an
Seit heute hat Deutschland eine neue Bundesdatenschutzbeauftragte. Anlässlich ihrer Ernennung betonte Louisa Specht-Riemenschneider, dass ihr die Themen Gesundheit, Künstliche Intelligenz und Sicherheit besonders am Herzen liegen würden. Von Markus Reuter –
Artikel lesen
Werbe-IDs damals und heute: Wer nicht aufpasst, wird getrackt
Tracking-Firmen können verfolgen, was wir mit unseren Handys tun, und zwar durch individuelle Werbe-IDs. In den letzten 15 Jahren haben Apple und Google immer wieder Privacy-Funktionen für iOS und Android ergänzt. Doch nach wie vor behält das Tracking die Oberhand. Eine Historie. Von Sebastian Meineck –
Artikel lesen
Forderung an neue EU-Kommission: Macht endlich wirklich etwas gegen Staatstrojaner
Genug mit Verzögern und sachten Empfehlungen: Ein Bündnis aus Gruppen der Zivilgesellschaft will Taten gegen Spionagesoftware sehen. Es fordert von der neuen EU-Kommission klare Regeln für den Einsatz solcher Software. Von Maximilian Henning –
Artikel lesen
Digitale Selbstverteidigung: Funkdisziplin wahren
Wer das Internet nutzt, verrät ständig Details aus seinem Leben. Den Standort oder mit wem man kommuniziert oder wofür man sich interessiert zum Beispiel. Viele dieser Dauerdatenlecks lassen sich versiegeln. Wie man sich datensparsam durchs Netz bewegt, steht hier. Von Martin Schwarzbeck –
Artikel lesen
Versammlungsfreiheit : Mit dabei ist halb gefangen
Das Landgericht Hamburg hat zwei Demonstrationsteilnehmende wegen Landfriedensbruch verurteilt, weil diese auf einer unfriedlichen Versammlung waren. Das Urteil schränkt die Versammlungsfreiheit ein und könnte Menschen vom Protestieren abhalten. Von Markus Reuter –
Artikel lesen
Ständige Vertreter: Ungarn nimmt neuen Anlauf zur Chatkontrolle
Die verpflichtende Chatkontrolle soll erstmal nur bekannte Straftaten suchen, die Suche nach anderen Inhalten bleibt zunächst freiwillig. Das schlägt Ungarn vor, damit sich die EU-Staaten doch noch auf eine gemeinsame Position einigen. Der Rat will in den nächsten Wochen über den Vorschlag verhandeln. Von Andre Meister –
Artikel lesen
Staatstrojaner in der EU: Slowakischer Geheimdienst soll Pegasus einsetzen
Auch die Slowakei soll Lizenzen für den Staatstrojaner Pegasus erworben haben, der bereits in mehreren EU-Staaten gegen Journalist:innen und Oppositionelle eingesetzt wurde. Das berichtet Denník N unter Berufung auf Insider:innen. Von Chris Köver –
Artikel lesen
Online-Tracking: Nutzlose Tools gegen Cookie-Banner
Mit einer Verordnung zur Verwaltung von Cookie-Präferenzen will die Bundesregierung das Surfen im Internet erleichtern. Doch der Plan krankt an mindestens zwei Punkten. Von Martin Schwarzbeck –
Artikel lesen
Porno-Riesen zeigen Zahlen: Dutzende Fälle bildbasierter Gewalt pro Tag
Dank neuer EU-Gesetze haben die drei Pornoseiten Pornhub, XVideos und Stripchat erstmals ausführliche Transparenzberichte vorgelegt. Darin geben sie Einblicke, die sie seit Jahren verwehrt haben – und sorgen an vielen Stellen für Verwirrung. Die Übersicht. Von Sebastian Meineck –
Artikel lesen
Fraktions-Klausur: SPD-Abgeordnete wollen Koalitionsvertrag brechen
Die SPD im Bundestag fordert Vorratsdatenspeicherung und biometrische Überwachung. Das haben die Abgeordneten auf ihrer Fraktionsklausur beschlossen. Beide Vorhaben widersprechen dem Koalitionsvertrag. Von Andre Meister –
Artikel lesen
Progressive Digitalpolitik: Antifaschistische Netzpolitik muss antikapitalistisch sein
Progressive Digitalpolitik basiert darauf, dass alle Menschen gleichwertig sind. Dem steht der Wirtschaftsliberalismus entgegen, der Ungleichheit rechtfertigt. Deshalb brauchen wir Szenarien für eine digitale Welt nach dem Kapitalismus. Von Malte Engeler –
Artikel lesen
KI-Verordnung und biometrische Überwachung: So ist das nicht gedacht
Die Bundesregierung will Polizeibehörden und auch das Bundesamt für Migration und Flucht mit neuen Befugnissen für die biometrische Gesichtersuche im Netz ausstatten. Aber darf sie das überhaupt? Mit den neuen EU-Regeln für den Einsatz von KI ist das kaum unter einen Hut zu bringen. Von Chris Köver –
Artikel lesen
BKA-Gesetz: Wenn der Staat zum Spanner wird
Die Bundesregierung will Polizei und Migrationsbehörden erlauben, alle Gesichtsfotos im Internet zu speichern und zu nutzen. AlgorithmWatch kritisiert diese neue Form der anlasslosen Vorratsdatenspeicherung. Die Bundesregierung muss stattdessen geltendes Recht umsetzen – und Gesichtssuchmaschinen verbieten. Von Gastbeitrag, Pia Sombetzki –
Artikel lesen
#283 Off The Record: Konferenzvorbereitung auf Hochtouren
Eine Woche vor der Konferenz werden wir langsam nervös: Wird alles klappen? Haben wir an alles gedacht? Mindestens genauso groß ist aber unsere Vorfreude – auf spannende Vorträge, produktive Workshops und natürlich auf euch. Ein kleiner Ein- und Ausblick in den Stand unserer Pläne für den 13. September. Von Anna Biselli –
Artikel lesen
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Eine Woche vor der Konferenz werden wir langsam nervös: Wird alles klappen? Haben wir an alles gedacht? Mindestens genauso groß ist aber unsere Vorfreude – auf spannende Vorträge, produktive Workshops und natürlich auf euch. Ein kleiner Ein- und Ausblick in den Stand unserer Pläne für den 13. September.
Hier lang zum Voting für den Grimme Online Publikumspreis
Auf unserer Startseite regnet es Konfetti, denn netzpolitik.org ist gerade 20 Jahre alt geworden. Das ist Anlass zum Feiern: mit unserer Konferenz, die am 13. September in Berlin stattfindet. Aber so eine Konferenz will vorbereitet sein und da ist eine Menge zu tun: Wie kommt so ein Programm zustande? Was erwartet die Besucher:innen in der Alten Münze und warum machen wir das eigentlich?
Außerdem sprechen wir darüber, was vor zehn Jahren anders war – denn damals fand unsere erste Konferenz statt. Wir blicken zurück: Wie haben wir uns seitdem verändert? Was hat sich in unserem netzpolitischen Umfeld getan? Denn genau diese Beobachtung hat uns zum Motto „Bildet Netze!“ geführt. Vor allem hoffen wir, ihr seid von unsrer Vorfreude angesteckt und kommt vorbei (oder schaut in den Stream, wenn ihr nicht in Berlin mitmachen könnt).
In dieser Folge: Chris Köver, Daniel Leisegang und Anna Biselli.
Produktion: Serafin Dinges.
Titelmusik: Trummerschlunk.
Hier ist die MP3 zum Download. Wie gewohnt gibt es den Podcast auch im offenen ogg-Format.
Unseren Podcast könnt ihr auf vielen Wegen hören. Der einfachste: in dem eingebundenen Player hier auf der Seite auf Play drücken. Ihr findet uns aber ebenso bei Apple Podcasts, Spotify und Deezer oder mit dem Podcatcher eures Vertrauens, die URL lautet dann netzpolitik.org/podcast.
Wie immer freuen wir uns über Kritik, Lob und Ideen, entweder hier in den Kommentaren oder per Mail an podcast@netzpolitik.org.
Links und Infos
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Die Bundesregierung will Polizei und Migrationsbehörden erlauben, alle Gesichtsfotos im Internet zu speichern und zu nutzen. AlgorithmWatch kritisiert diese neue Form der anlasslosen Vorratsdatenspeicherung. Die Bundesregierung muss stattdessen geltendes Recht umsetzen – und Gesichtssuchmaschinen verbieten.
Pia Sombetzki ist Policy & Advocacy Managerin bei der Nichtregierungsorganisation AlgorithmWatch. Sie beschäftigt sich mit der Regulierung von algorithmischer Entscheidungsfindung in Deutschland, insbesondere im öffentlichen Sektor.
Was haben Millionen Deutsche und ein Ex-RAF-Mitglied gemeinsam? Wahrscheinlich mindestens ein Foto in veralteter Bildqualität auf Facebook und einen Post, der nur drei Likes bekommen hat.
Was erstmal wie das Normalste von der Welt klingt, ist Daniela Klette dieses Jahr zum Verhängnis geworden. Nach über 30 Jahren Suche wurde das ehemalige RAF-Mitglied im Februar festgenommen.
Journalisten helfen der Polizei
Ein ARD-Rechercheteam um Investigativ-Journalist Khesrau Behroz war ihr in deren Recherche für den Podcast Legion: Most Wanted im Dezember 2023 bereits sehr nah gekommen. Behroz erklärte später, das Recherchenetzwerk Bellingcat hatte das Team dabei unterstützt, mit Hilfe der Gesichtsdatenbank PimEyes nach ihr zu suchen. Bilder von Klette auf der Webseite eines Capoeira-Vereins in Kreuzberg wurden damit in nur knapp 30 Minuten gefunden.
Es stellte sich heraus, dass Klette über 30 Jahre lang mitnichten im „Untergrund“ gelebt hatte, sondern, im Gegenteil, sich die meiste Zeit aktiv am öffentlichen Leben beteiligte.
Als Klette nur wenige Wochen nach Veröffentlichung der Recherchen festgenommen wurde, entbrannte eine Diskussion um die Methoden, mit denen die Polizei und die Journalist:innen nach ihr gesucht hatten.
Hatte die Polizei nicht ausreichend ermittelt? Und hätte Klette eigentlich früher gefunden werden müssen, wenn sie ihr genauso gut zufällig auf den Straßen von Berlin-Kreuzberg begegnen hätten können? Oder fehlten der Polizei etwa die nötigen digitalen Ermittlungstools?
Das Argument der Polizeigewerkschaften klang in Folge etwa so: Wir haben den Fall zwar perfekt gelöst, hätten wir PimEyes allerdings selbst benutzen dürfen, hätte es nicht 30 Jahre dauern müssen, Daniela Klette zu finden. So weit, so verwirrend.
Gesichtsdatenbanken sind illegal
Wir alle sind im Netz wiederzufinden, ob wir wollen oder nicht. Jedes Mal angestrengt wegzugucken, wenn jemand im Vorbeilaufen ein Foto macht, ist auf Dauer mindestens etwas anstrengend. Am Ende landet das Bild dann doch auf Social Media.
Firmen wie Clearview AI und PimEyes haben es zu ihrem Geschäftsmodell gemacht, öffentlich einsehbare Bilder aus dem Netz in Datenbanken abzuspeichern und sie durchsuchbar zu machen. Eine Geschäftspraxis, die von Datenschützern über die Jahre immer wieder beanstandet und mit Bußgeldern geahndet wurde – allein schon, weil die abgebildeten Personen nie in die Bildernutzung eingewilligt haben.
Erst diese Woche hat die niederländische Datenschutzbehörde eine Strafe von 30,5 Millionen Euro gegenüber Clearview AI wegen des illegalen Aufbaus einer Datenbank verhangen, die mittlerweile mehr als 50 Milliarden Fotos umfassen soll.
Wenn Polizeigewerkschaften in Deutschland fordern, dass sie solche riesigen Gesichtsdatenbanken nutzen wollen, sagen sie also gleichzeitig, dass sie damit eine illegale Praxis unterstützen wollen.
Und nicht nur Datenschützern ist dieses Vorhaben ein Dorn im Auge. Die gerade erst im Sommer beschlossene KI-Verordnung der EU verbietet explizit das Verkaufen, Bereitstellen oder Verwenden von KI-Systemen, „die Datenbanken zur Gesichtserkennung durch das ungezielte Auslesen von Gesichtsbildern aus dem Internet oder von Überwachungsaufnahmen erstellen oder erweitern“. Zum 2. Februar 2025 wird das Verbot offiziell in Kraft treten.
Bereits während der Verhandlungen wurde intensiv über dessen Sinn und Notwendigkeit diskutiert. Dass dieses Verbot in der aktuellen Debatte um Befugnisse einfach ignoriert wird, lässt tief blicken.
Immer mehr biometrische Überwachung
Die Rufe nach mehr biometrischen Überwachungsbefugnissen sind aber mitnichten neu. Seit mehreren Jahren läuft die Debatte um KI-getriebene Überwachungsmaßnahmen im öffentlichen Raum.
Während der G20-Proteste 2017 wurden Menschen, die sich in Hamburg aufhielten, zum ersten Mal großflächig mit der Software Videmo 360 erfasst. Ihre Bewegungsabläufe konnten damit über mehrere Tage hinweg durch die Stadt nachvollzogen werden – natürlich ohne dass die Betroffenen davon wussten.
Weil die Software so großflächig eingesetzt wurde, wurden um die 100.000 Menschen erfasst und ihre biometrischen Profile in einer Datenbank abgespeichert. Nicht nur wurde ihr Recht auf informationelle Selbstbestimmung und Anonymität im öffentlichen Raum vor Ort eingeschränkt. Noch dazu sind sie in einer Datenbank der Polizei gelandet, die sie auch in Zukunft wieder auffindbar macht.
Gesichtsdatenbanken treffen Unschuldige
Welche Gefahren in der Nutzung von Gesichtserkennungssystemen in den Händen der Polizei bestehen, zeigen auch immer wieder Fälle aus den USA. Porcha Woodruff, eine Schwarze Amerikanerin aus Detroit, war im achten Monat schwanger als sie 2023 wegen Autodiebstahls verhaftet wurde.
Die dortige Polizei setzte Gesichtserkennungstechnologie ein und ließ das Bild einer verdächtigen Person durch eine Fahndungsdatenbank laufen. Das Foto von Woodruff wurde als Ergebnis ausgespielt. Elf Stunden lang wurde sie daraufhin verhört. Einen Monat später stellte die Staatsanwaltschaft das Verfahren wegen unzureichender Beweise ein.
Der Fall von Woodruff zeigt das reale Risiko, das auf künstlicher Intelligenz basierende Tools für unschuldige Menschen darstellt. Untersuchungen weisen außerdem immer wieder darauf hin, dass die Falschpositivraten für People of Color und insbesondere Schwarze Frauen besonders hoch sind.
In erster Linie hätte ihr Bild aber erst gar nicht in der Polizeidatenbank landen sollen.
Solingen hat der Innenministerin geholfen
Trotz aller Gegenargumente wurden die Rufe nach mehr Überwachungsbefugnissen für die Polizei von Innenministerin Nancy Faeser erhört. Bereits Mitte August hat netzpolitik.org einen Gesetzesentwurf des Innenministeriums veröffentlicht, der Befugnisse für den Einsatz von Gesichtserkennungssoftware bei der Polizei ausweiten soll.
Nach dem Anschlag von Solingen ist dieses Vorhaben zu einem Teil des „Sicherheitspakets“ der Bundesregierung geworden, obwohl völlig unklar ist, was eine Polizeibefugnis zur massenhaften Gesichtserkennung in dem Fall hätte bewirken sollen. Dennoch ist es Faeser so gelungen, ihre Ampel-Partner, insbesondere Justizminister Buschmann, als Unterstützer zu mobilisieren, der sich zuvor zu ihren Plänen skeptisch geäußert hatte.
In diesem Sicherheitspaket taucht also neben erweiterten Befugnissen für Big-Data-Analysen und Wohnungsdurchsuchungen auch die Forderung nach Gesichtserkennungstools für die Polizei wieder auf.
Neue Form von Vorratsdatenspeicherung
In welchem Ausmaß dieser Wunsch nach Befugnissen in dem Sicherheitspaket ausbuchstabiert wird, verwundert dabei allerdings doch.
Ermittlungsbehörden sollen die Befugnis zum biometrischen Abgleich von allgemein öffentlich zugänglichen Internetdaten bekommen, um Tatverdächtige identifizieren zu können. Man beachte: Der Begriff Internetdaten ist hier viel weiter gefasst als Gesichtsbilder.
Künftig dürfte vor allem auch Videomaterial relevant werden, beispielsweise um die individuelle Gangart, die Stimme und spezifische Sprechmuster von Menschen zu erfassen und identifizierbar zu machen.
Das kommt einer neuen Form der anlasslosen Vorratsdatenspeicherung gleich. Nur dass es diesmal nicht um das Durchsuchbarmachen von Telekommunikations-Verkehrsdaten, sondern von besonders sensiblen personenbezogenen Körperdaten geht.
Nicht nur Tatverdächtige
Zusätzlich soll sich die Befugnis außerdem auch auf die Suche nach der denkbar unbestimmten Gruppe „gesuchter Personen“ erstrecken, beispielhaft werden Opfer und Zeug:innen genannt.
Ebenso soll auch das Bundesamt für Migration und Flüchtlinge die Befugnis zum biometrischen Abgleich von Internetdaten erhalten, zu einem noch weniger eingegrenzten Zweck – der Feststellung der Identität von Schutzsuchenden.
Das Sicherheitspaket verweist zwar u.a. darauf, die KI-Verordnung, die Datenschutzgrundverordnung und Vorgaben des Bundesverfassungsgerichts beachten zu wollen. Doch die Bundesregierung will das unmissverständliche Verbot in der KI-Verordnung augenscheinlich ignorieren.
Wir müssen Gesichtserkennung verbieten
Wenn die Befugnisse, wie sie die Bundesregierung jetzt mit ihrem Sicherheitspaket auf die Tagesordnung gesetzt hat, nur auf annähernde Weise ins Gesetz gegossen und die Gesichtsdatenbanken eingeführt werden, ist es nur eine Frage der Zeit, bis unbescholtene Personen zu Beschuldigten werden. Derweil werden sie unter Generalverdacht gestellt und ihre privaten Urlaubsfotos landen in einer undurchsichtigen Datenbank.
Wir sollten es nicht darauf ankommen lassen, dass Fälle wie der von Woodruff zukünftig als zeitgemäße Nebeneffekte „zeitgemäßer“ Überwachungstools wegerklärt werden.
Stattdessen muss sich die Bundesregierung auf die Fakten besinnen, die zuletzt mit der KI-Verordnung uneindeutig geschaffen wurden. Sie darf nicht die Tools für einen Überwachungsstaat schaffen, die im Zweifel noch in die falschen Hände geraten könnten.
Was eigentlich ihre Aufgabe wäre: Sich gemeinsam mit den Partnern in der EU für die Durchsetzung der neuen geschaffenen Regeln einsetzen und den Gesichtssuchmaschinen von Clearview AI und PimEyes den Garaus machen.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Die Bundesregierung will Polizeibehörden und auch das Bundesamt für Migration und Flucht mit neuen Befugnissen für die biometrische Gesichtersuche im Netz ausstatten. Aber darf sie das überhaupt? Mit den neuen EU-Regeln für den Einsatz von KI ist das kaum unter einen Hut zu bringen.
Als die Bundesregierung vergangene Woche nach dem Anschlag von Solingen geplante Gesetzesverschärfungen vorstellte, ging es nicht nur um Messerverbote auf Volksfesten und Abschiebungen nach Syrien und Afghanistan. Es ging auch um biometrische Überwachung.
Als Teil der neuen Maßnahmen gegen Akte islamistischen Terrors wie in Solingen sollen Behörden mit Technologien ausgestattet werden, die wenige Tage zuvor noch umstritten waren, auch innerhalb der Ampel. Konkret: Ermittlungsbehörden sollen jetzt auch im öffentlichen Internet per biometrischem Abgleich nach Personen suchen dürfen – nicht nur nach Verdächtigen, sondern auch nach Zeugen oder vermissten Personen.
Und auch das Bundesamt für Migration und Flucht (BAMF) soll die Technologie in ihrem Portfolio einsetzen dürfen. Per „biometrischem Abgleich mit Internetdaten“ soll es die Identität derjenigen überprüfen, die ohne Papiere ankommen und in Deutschland Asyl beantragen.
Gesichtserkennung als Aufregerthema
Bislang sind die Ankündigungen tatsächlich nicht mehr als das: der Versuch einer Reaktion der Bundesregierung, um noch vor den Wahlen in Sachsen und Thüringen Härte und Entschlossenheit zu zeigen. Sie richtet sich vor allem gegen den neuen erklärten Gegner, den die politische Mitte von der AfD übernommen hat: Geflüchtete. Der Gesetzentwurf, der die Befugnisse regelt, befinde sich derzeit noch in der Abstimmung, teilt eine Sprecherin des Bundesinnenministeriums mit. Genaueres könne man nicht mitteilen.
Doch schon jetzt stellen sich viele Fragen. Etwa diese: Dürfte die Bundesregierung die geforderten Maßnahmen überhaupt umsetzen?
Gesichtserkennung und andere Formen von biometrischer Identifikation basieren auf Technologien, die mehr oder weniger treffend als „Künstliche Intelligenz“ bezeichnet werden. Jederzeit im Bahnhof, auf der Demo oder beim Einkaufen anhand des Gesichtes oder der eigenen Bewegungsmuster identifiziert werden können? Das war in den vergangenen Jahren das wohl größte Reizthema bei der Aushandlung der KI-Verordnung der Europäischen Union. Bürgerrechtsorganisationen mobilisierten in ganz Europa gegen das Szenario einer solchen Massenüberwachung in der EU.
Und auch die Ampel-Parteien selbst hatten das in ihrem Koalitionsvertrag noch ausgeschlossen: „Flächendeckende Videoüberwachung und den Einsatz von biometrischer Erfassung zu Überwachungszwecken lehnen wir ab“, heißt es dort. Das Recht auf Anonymität im öffentlichen Raum sei zu gewährleisten. Auch auf Ebene der EU wollte man das ausschließen.
Was zu Biometrie in der KI-Verordnung steht
Am Ende hat es für ein klares Verbot dann doch nicht gereicht. Die Regeln der KI-Verordnung zur biometrischen Identifikation kann man selbst mit besten Willen nur lasch nennen. Nicht einmal die als besonders gefährlich geltende Echtzeit-Überwachung ist komplett verboten: Für zahlreiche Ausnahmen wie die Suche nach vermissten Personen ist sie erlaubt. Bei Verdacht auf Terroranschläge sowieso.
Noch lockerer sind die Verbote gefasst, wenn es um die nachträgliche Identifikation von Personen auf Video- und sonstigen Aufnahmen geht. In solchen Fällen dürften Menschen laut EU-Gesetz bereits dann biometrisch identifiziert werden, wenn sie einer einfachen Straftat verdächtigt sind – Bagatelldelikte wie einfachen Diebstahl eingeschlossen.
Schon bei der Verabschiedung der Verordnung war die Kritik daran harsch. Der damalige Bundesdatenschutzbeauftragte Ulrich Kelber (SPD) mahnte: „Dies könnte gravierende Auswirkungen auf die Erwartung der Bevölkerung haben, im öffentlichen Raum anonym zu bleiben.“
Szenario Massenüberwachung im öffentlichen Netz
Das Bundesinnenministerium, dessen Forderungen nun im Sicherheitspaket gelandet sind, will aber gar keine biometrische Überwachung des öffentlichen Raumes. Es verlangt nach Befugnissen, wie man sie von Gesichtersuchmaschinen wie PimEyes oder Clearview kennt. Diese kommerziellen Anbieter scannen das öffentliche Internet breit gestreut nach allen dort auffindbaren Gesichtern und erstellen daraus gigantische Datenbanken. Der Upload eines Fotos reicht: Schon werden einem Treffer zu dem gesuchten Gesicht im Internet angezeigt.
Nach der Verhaftung des ehemaligen RAF-Mitglieds Daniela Klette Anfang des Jahres kam diese Debatte das erste Mal auf. Journalist:innen hatten Klette mit Hilfe von PimEyes auf Facebook entdeckt. Daraufhin wurde diskutiert, warum Strafverfolgungsbehörden diese Möglichkeiten nicht ebenfalls nutzen können.
Dieses Szenario ist laut der KI-Verordnung allerdings ganz klar untersagt, sagt Kilian Vieth-Ditlmann von der NGO AlgorithmWatch. Er verweist auf Artikel 5, wo die Verbote gelistet sind. Der verbietet unter anderem „die Verwendung von KI-Systemen, die Datenbanken zur Gesichtserkennung durch das ungezielte Auslesen von Gesichtsbildern aus dem Internet oder von Überwachungsmaterial erstellen oder erweitern“.
Eine Klausel, die alle Regeln aushebelt?
Genau das müssten Ermittlungsbehörden aber tun, um die von der Ampel angekündigte Maßnahme umzusetzen. Um im öffentlichen Internet nach Personen suchen zu dürfen, müssten sie dieses öffentliche Internet erst wahllos durchsuchen und indexieren – genau wie PimEyes und Clearview das tun. Was im Übrigen auch gegen geltende Datenschutzbestimmungen der EU verstößt, wie gerade die niederländische Datenschutzaufsicht wieder festgestellt hat.
Allerdings könnte sich die Bundesregierung womöglich auf eine Lücke in der Verordnung stützen: Als eine Art Catch-All-Klausel ganz am Anfang des Gesetzes haben die Mitgliedstaaten festlegen lassen, wo die Verordnung nicht greift. „Diese Verordnung gilt nicht für Bereiche, die nicht in den Anwendungsbereich des Unionsrechts fallen, und berührt in keinem Fall die Zuständigkeiten der Mitgliedstaaten im Bereich der nationalen Sicherheit“, heißt es dort.
Ist dieser Satz das Schlupfloch, über das die biometrische Überwachung des Internets nun doch in Deutschland Einzug hält? Simone Ruf, Verfahrenskoordinatorin bei der Gesellschaft für Freiheitsrechte, hält das für eher unwahrscheinlich. „Auch wenn die Formulierungen aus dem Sicherheitspaket bisher vage sind: Rein technisch laufen die Befugnisse, die Ermittlungsbehörden bekommen sollen, auf genau das hinaus, was laut KI-Verordnung verboten ist: das ungezielte Auslesen von Gesichtsbildern aus dem Internet.“
„Hätten die Gesetzgeber bei der EU gewollt, dass es Ausnahmen von diesem Verbot geben sollte, etwa für Ermittlungsbehörden, hätten sie das hier explizit erwähnen können. Das tun sie aber nicht“, sagt Ruf. Für sie ist damit klar: Im Einklang mit der KI-Verordnung ließen sich die Pläne der Bundesregierung nicht umsetzen.
So leicht wird es nicht
Zweite Frage: Wie steht es um das BAMF, das per biometrischem Abgleich mit Internetdaten die Identität von Asylsuchenden bestätigen soll? Für KI-Systeme, die bei der Überwachung und Kontrolle von Migration und Asyl zum Einsatz kommen, hatten die Mitgliedstaaten weitreichende Ausnahmen in die Verordnung verhandelt. Ob „Lügendetektoren“ an den EU-Außengrenzen oder Systeme zur Risikoabschätzung bei der Einreise: Erlaubt ist hier fast alles.
Laut KI-Verordnung würde ein Szenario wie aus dem „Sicherheitspaket“ der Bundesregierung am ehesten in die Kategorie der Systeme fallen, die „die zuständigen Behörden bei der Prüfung von Anträgen auf Asyl, Visa oder Aufenthaltstitel“ unterstützen sollen. Laut Anhang III der Verordnung eine hochriskante, aber legale Anwendung.
Doch auch hier wird die Regierung das Verbot für das PimEyes-Szenario nicht umgehen können, sagt Ruf. Was unter nationale Sicherheit falle, sei von der EU eng definiert. Die Prüfung der Identität von Asylsuchenden, wie das BAMF sie vornehmen soll, falle mit Sicherheit nicht darunter.
„Wenn EU-Gesetzgeber sowieso davon ausgegangen wären, dass Behörden wie das BAMF nicht unter die Regelungen fallen sollten, hätten sie weiter hinten all die spezifischen Regeln für den Migrationsbereich nicht klarstellen müssen. Da hat man gute Argumente zu sagen: So ist das nicht gedacht.“
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Progressive Digitalpolitik basiert darauf, dass alle Menschen gleichwertig sind. Dem steht der Wirtschaftsliberalismus entgegen, der Ungleichheit rechtfertigt. Deshalb brauchen wir Szenarien für eine digitale Welt nach dem Kapitalismus.
In linken Kreisen kursiert das provokante Sprichwort „Kratze einen Liberalen und ein Faschist blutet.“ Auf Englisch: „Scratch a liberal and a fascist bleeds.“ Die Provokation darin ist natürlich die Gleichsetzung von Liberalismus und Faschismus. Die Empörung ist teilweise berechtigt. Aber nur teilweise.
Das Sprichwort unterscheidet in seiner verkürzten Zuspitzung nämlich nicht zwischen zwei sehr unterschiedlichen Formen des Liberalismus: dem sozialen oder auch kulturellen Liberalismus und dem Wirtschaftsliberalismus. Der erste ist Fundament einer freiheitlich Gesellschaft. Der zweite ist der ideologische Nährboden für jene Unterteilung von Menschen in unterschiedliche Wertigkeit, die im Faschismus ihre menschenverachtende Zuspitzung erfährt.
Der israelische Historiker Ishay Landa hat diese zentrale Unterscheidung in seinem Buch „Der Lehrling und sein Meister“ untersucht und ausführlich dokumentiert. Er zeichnet darin detailliert die wirtschaftsliberale Tradition im Faschismus der Nationalsozialisten nach. Insoweit ist an dem eingangs genannten Sprichwort dann doch etwas dran.
Was hat das mit Netzpolitik zu tun?
Aline Blankertz hat Ende August in einem Gastbeitrag formuliert: „Digitalpolitik muss Teil der Brandmauer sein“. Und der SPD-nahe Digitalverein D64 wählte im Januar „Digitalpolitik faschismussicher“ zu seinem Jahresthema. Auch im Verfassungsblog wird gefragt, wie Datenschutz gegen digitalen Autoritarismus eingesetzt werden kann.
Gemeinsam haben alle diese Stimmen und Forderungen, dass sie sich aktiv und kompromisslos gegen jene politischen Kräfte stellen, die völkisch-rassistische Ziele verfolgen. Das sind derzeit die AfD und die ihr nahestehenden Organisationen. In ihnen ist die völkisch-rassistische Programmatik derzeit so deutlich verkörpert wie nirgendwo sonst.
Antifaschistische Digitalpolitik muss mittel- und langfristig aber mehr sein als ein Abwehrkampf. Eine nachhaltige antifaschistische Digitalpolitik muss sich vielmehr die Dynamiken der Gegenwart anschauen, die immer wieder Nährboden dafür sind, dass menschenfeindliche, rassistische und autoritäre Vorstellungen mehrheitsfähig sind und bleiben.
Näher, als wir wahrhaben wollen
Ja, es ist wichtig, die Datenschutzbehörden endlich davor zu schützen, politisch instrumentalisiert zu werden. Genauso wichtig ist es aber, dass auch die Netz- und Digitalcommunity sich klar macht: Faschisten kommen nicht aus dem Nichts. Ihre Ideen sind uns näher, als wir es manchmal wahrhaben wollen.
Das bringt uns zurück zu dem provokanten Sprichwort aus der Einleitung und der Unterscheidung zwischen kulturellem Liberalismus und Wirtschaftsliberalismus.
Zu den Errungenschaften des kulturellen Liberalismus gehören viele der Ideale, die auch für eine progressive Digitalpolitik handlungsleitend sind: Dazu zählen Meinungs-, Versammlungs- und Pressefreiheit; ein liberales Familien- und Reproduktionsrecht oder das Ideal der fundamentalen Gleichheit aller Menschen – egal ob auf der Flucht, armutsbetroffen oder in psychischen Ausnahmesituationen. Ishay Landa zeichnet die Entwicklung dieser Freiheiten und Grundwerte unter anderem mit Verweis auf die Französische Revolution nach.
Der Wirtschaftsliberalismus hat historisch die gleichen Wurzeln. Seine Vorstellungen haben im Laufe der Ideengeschichte jedoch andere Formen angenommen, die mittlerweile in deutlichem Widerspruch zum kulturellen und sozialen Liberalismus stehen.
Der Wirtschaftsliberalismus betont nicht die Gleichheit aller Menschen, sondern erklärt individuelle, ökonomische Freiheit zum höchsten Gut. Privates Eigentum an Unternehmen, Patenten oder Land sind im Wirtschaftsliberalismus zentrale Ausdrucksformen individueller Freiheit. Wirtschaftliche Konkurrenz und das gegenseitige Überbieten bei der profitablen Verwertung des Eigentums („Unternehmertum“) sind höchste Ausdrucksformen persönlicher Entfaltung.
Diejenigen, die kein verwertbares Eigentum haben, müssen ihre Arbeitskraft verkaufen. Sie erhalten als Lohn zwar (meist) genug zum Leben, aber weniger als den Wert ihrer Arbeitskraft. Die Gesellschaftsordnung des Wirtschaftsliberalismus hat einen Namen: Kapitalismus.
Natürlich anmutende Ungerechtigkeit
Die so entstehende Ungleichheit zwischen Menschen versucht der Kapitalismus durch Mythen von Leistungsgesellschaft und Chancengleichheit zu rechtfertigen. Er versucht so, seine systembedingte Ungerechtigkeit als natürlich erscheinen lassen.
Dass beispielsweise derjenige, der eine Fabrik erbt, das Recht hat, die Lebenszeit anderer Menschen darin zu verwerten und über ihr Leben zu bestimmen, ist eine zutiefst gewaltvolle Vorstellung. Unsere Gesellschaft lehnt sie aber nicht mehr als unnatürlich ab. Lebenslange neoliberale Sozialisierung lassen uns vielmehr glauben, dass dieser Zustand gut und richtig ist.
Auch dass von Rassismus betroffene Menschen oder weiblich gelesene Menschen strukturell in besonders unsicheren und schlecht (oder gar nicht) bezahlten Arbeitsverhältnissen ausgebeutet werden, wird von Ursachen wie Rassismus oder Sexismus entkoppelt. Die den Kapitalismus stützenden Ideologien ermöglichen uns, kein Störgefühl mehr zu haben, wenn im Biergarten Menschen of Color die Tische abräumen, während weiße Startups-Jungs ihren Feierabend genießen. Es läge ja an Dilan, stattdessen ihr Unicorn zu gründen.
Die Skala der Entmenschlichung ist nach oben offen
Es ist diese Ideologie, die den Nährboden für jene Formen der Entwertung von Menschen bildet, auf die völkisch-autoritäre Vorstellungen aufbauen. Wenn wir bereits daran gewöhnt sind, Elend und Ausbeutung als natürliches Resultat eines guten und freiheitlichen Systems wegzurationalisieren, haben wir bereits den ersten Schritt dahin getan, die grundsätzliche Gleichwertigkeit aller Menschen in Frage zu stellen.
Bezahlkarten für Geflüchtete, Sanktionen gegen Armutsbetroffene oder hungernde Schulkinder sind zwar qualitativ nicht vergleichbar mit Arbeitslagern und der Tötung von als „wertlos“ markierten Menschen. Sie sind aber Markierungen auf der gleichen nach oben offenen Skala der Entmenschlichung. Wo auf dieser Skala wir in den kommenden Jahren landen, ist unklar. Dass wir uns überhaupt auf ihr bewegen, ist das eigentliche Problem.
Willkommene Verbindung von Wirtschaftsliberalismus und Faschismus
Einer der radikalsten Vertreter des Wirtschaftsliberalismus war der 1973 verstorbene Ökonom Ludwig von Mises. Er wandte sich gegen jede Form von staatlicher Intervention und plädierte für ungezügelte Märkte. Er ist noch heute Stichwortgeber für liberale Wirtschaftsredakteure, denen die FDP nicht libertär genug ist.
Auch andere greifen gern auf von Mises zurück, etwa die AfD. Sie zitierte Ludwig von Mises in einer großen Anfrage an die Bundesregierung aus dem Juni 2023 als Vordenker der „Verbraucherdemokratie“. Von Mises selbst hätte sich an der wohlwollenden Erwähnung aus beiden politischen Lagern vermutlich nicht gestört. 1927 schrieb er unter anderem als Reaktion auf sozialdemokratische und linke Forderungen nach weniger Markt und mehr Demokratisierung der Wirtschaft:
Es kann nicht geleugnet werden, daß der Faszismus und alle ähnlichen Diktaturbestrebungen voll von den besten Absichten sind und daß ihr Eingreifen für den Augenblick die europäische Gesittung gerettet hat. […] Der Faszismus war ein Notbehelf des Augenblicks; ihn als mehr anzusehen, wäre ein verhängnisvoller Irrtum.
Diese enge ideengeschichtliche Verbindung zwischen Wirtschaftsliberalismus und Faschismus muss sich auch eine antifaschistische Netz- und Digitalpolitik wieder bewusst machen.
Antikapitalismus ist das Fundament antifaschistischer Digitalpolitik
Im Kern geht es also um die unsexy Erkenntnis, dass antifaschistische Digitalpolitik manchmal wenig mit „KI“, Datenschutz oder Verschlüsselung zu tun hat. Die eigentlichen Herausforderungen sind oft, wie Anne Roth schreibt, „ziemlich analog“,
Alle zentralen Forderungen progressiver Digitalpolitik fußen auf dem Fundament der grundsätzlichen Gleichwertigkeit aller Menschen. Dieses Fundament stellt unsere kapitalistische Gesellschaftsordnung jeden Tag aufs Neue in Frage. Antikapitalismus muss deshalb das Fundament und der Ausgangspunkt antifaschistischer Digitalpolitik sein.
Auch Antikapitalismus selbst ist natürlich nur eine Negativforderung. Antifaschistische Netzpolitik verändert und inspiriert dort, wo sie anfängt, positive Zukunftsszenarien für eine digitale Welt nach dem Kapitalismus zu denken und zu zeichnen. Je eher und je konkreter wir über post-kapitalistische Digitalpolitik sprechen, desto besser.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Die SPD im Bundestag fordert Vorratsdatenspeicherung und biometrische Überwachung. Das haben die Abgeordneten auf ihrer Fraktionsklausur beschlossen. Beide Vorhaben widersprechen dem Koalitionsvertrag.
Letzte Woche haben die Grünen im Bundestag eine Zeitenwende in der Innenpolitik gefordert. Die Grünen Abgeordneten wollen mehr Personal und mehr Befugnisse für Polizei und Geheimdienste sowie bessere Ermittlungsmöglichkeiten im Internet.
Jetzt fordert auch die SPD im Bundestag eine Zeitenwende in der inneren Sicherheit. Auf ihrer Klausur hat die überwältigende Mehrheit der 207 Abgeordneten ein entsprechendes Positionspapier beschlossen. Wir veröffentlichen es aus dem PDF befreit.
Vorratsdatenspeicherung
Die SPD-Fraktion fordert eine verpflichtende Speicherung von IP-Adressen, also die Vorratsdatenspeicherung:
Sowohl bei der Bekämpfung schwerster Kriminalität wie Terrorismus oder sexualisierter Gewalt gegen Kinder als auch zur Bekämpfung strafrechtlich relevanter Hass und Hetze können und dürfen wir uns nicht auf das freiwillige Speicherverhalten privater Telekommunikations-Unternehmen verlassen. Wir sollten deshalb ergebnisoffen prüfen, wie eine verhältnismäßige und den Vorgaben des EuGH entsprechende, mithin rechtssichere IP-Adressen-Speicherung möglich ist.
Im Koalitionsvertrag hatten die Ampel-Parteien beschlossen, Daten nur „anlassbezogen und durch richterlichen Beschluss“ zu speichern. Die SPD-Abgeordneten wollen Daten jetzt anlasslos und ohne richterlichen Beschluss speichern.
FDP-Justizminister Marco Buschmann hatte zur Umsetzung des Koalitionsvertrags einen Gesetzentwurf vorgelegt und sich mit SPD-Kanzler Olaf Scholz darauf geeinigt, doch SPD-Innenministerin Nancy Faeser blockiert das Gesetz.
Damit bleibt die SPD die Partei der Vorratsdatenspeicherung. Das erste Gesetz zur Vorratsdatenspeicherung war von SPD-Justizministerin Brigitte Zypries. Das Bundesverfassungsgericht hat es gekippt. Das zweite Gesetz zur Vorratsdatenspeicherung war von SPD-Justizminister Heiko Maas. Der Europäische Gerichtshof hat es gekippt.
Videoüberwachung und Biometrie
Die SPD-Fraktion fordert mehr Videoüberwachung und Biometrie:
Zur nachträglichen Identifikation von mutmaßlichen Tätern brauchen wir Videoüberwachung an Kriminalitätsschwerpunkten und bei großen Menschenansammlungen wie Volksfesten oder Konzerten. Auch die Unterstützung durch Biometrie zur Identifizierung muss technisch und rechtlich geprüft werden.
Im Koalitionsvertrag hatten die Ampel-Parteien beschlossen:
Den Einsatz von biometrischer Erfassung zu Überwachungszwecken lehnen wir ab. Das Recht auf Anonymität sowohl im öffentlichen Raum als auch im Internet ist zu gewährleisten.
Noch im Februar und Juli wollten Ampel-Abgeordnete biometrische Echtzeit-Überwachung verbieten.
Im Sicherheitspaket und im Entwurf zum BKA-Gesetz hat die Bundesregierung beschlossen, biometrische Überwachung im Internet zu erlauben.
Weitere Maßnahmen
Darüber hinaus fordert die SPD-Fraktion:
- ein sicheres und vertrauenswürdiges Internet
- eine Art „Fire Wall“, um Kinder und Jugendliche vor extremistischen Einflüssen zu schützen
- eine Task Force zur wehrhaften Demokratie im Digitalzeitalter
- eine gesetzliche Befugnis des BSI zum Scanning von Schwachstellen
- ein Vorgehen gegen anonyme Accounts
- Maßnahmen gegen Stalking mit GPS-Trackern
- eine Reform der Schuldenregel, z.B. über ein Sondervermögen
- bessere personelle und technische Ausstattung der Polizei
- ein Vermögenseinziehungsrecht außerhalb des Strafrechts
- erweiterte Befugnisse über Finanzströme, Konten und Inhaber
- einen Periodischen Sicherheitsbericht
- eine Bundesakademie für Prävention und Kriminalwissenschaften
- KRITIS-Dachgesetz und NIS-2-Umsetzungsgesetz beschließen
- Demokratiefördergesetz beschließen
- DSA, DMA, AI-Act koordiniert, konsequent und kohärent durchsetzen
- BSI unabhängiger aufstellen
Hier das Dokument aus dem PDF befreit:
- Datum: 5. September 2024
- Von: SPD-Fraktion
- Dokument: Positionspapier
Sicherheit stärken – unsere freie Gesellschaft verteidigen
Auf einen Blick
- Jeder Mensch soll in Deutschland in Sicherheit und Freiheit leben können. Wir denken innere und äußere Sicherheit zusammen, denn unsere Gesellschaft wird von vielen Seiten bedroht. Es kommt darauf an, Risiken früh zu erkennen und Gefahren abzuwehren.
- Unsere Sicherheitsbehörden brauchen dazu wirksame Instrumente, zeitgemäße Befugnisse, bessere Vernetzung, mehr Geld und eine bessere Ausstattung, sowohl personell als auch technisch. Wir prüfen, ob hierzu ein Sondervermögen bereitgestellt werden kann.
- Der Bevölkerungsschutz muss wieder stärker in den Fokus rücken. Wir setzen uns für eine bessere Ausstattung der Einsatzkräfte und mehr Investitionen ein. Damit werden wir handlungsfähiger, sind besser vorbereitet und schützen uns besser.
- Wir wollen Sicherheit für alle – auch im digitalen Raum. Dazu werden wir konsequent gegen Fake News, Desinformation und Cyberattacken vorgehen. Gegen Hasskriminalität im Netz wollen wir den Rechtsschutz weiter verbessern, etwa durch ein Verbandsklagerecht.
- Um Frauen vor häuslicher Gewalt zu schützen, setzen wir uns für eine vollständige Umsetzung der Istanbul-Konvention ein und wollen ein digitales Gewaltschutzgesetz einführen. Lücken im Schutz vor sexualisierter Gewalt im Strafrecht wollen wir schließen.
Sicherheit zu gewährleisten, ist eine zentrale Aufgabe und das Grundversprechen eines modernen, freiheitlichen Rechtsstaats. Unsere offene, freie und demokratische Gesellschaft ist aktuell äußerst gefordert. Die innere und äußere Sicherheit sind bedroht und damit unsere gesamte Gesellschaft. Ein Angriffskrieg mitten in Europa, der Krieg in Nahost infolge der menschenverachtenden Terror-Attacken der Hamas auf Israel, Desinformationskampagnen und Cyberangriffe aus Russland und China: Unsere Gesellschaft steht vor gewaltigen Herausforderungen. Die Welt, wie wir sie kennen, befindet sich auch sicherheitspolitisch im Umbruch. Die SPD als größte Volkspartei und größte Regierungsfraktion muss hierauf die richtigen Antworten geben.
So zentral die Zeitenwende in der Außen-, Sicherheits-, Verteidigungs- und Entwicklungspolitik ist – sie muss sich auch in der inneren Sicherheit fortsetzen, das muss gemeinsam gedacht werden.
Denn die untrennbare Spiegelseite der äußeren Sicherheit ist die innere Sicherheit und dort ganz besonders der Bevölkerungsschutz, der einen wesentlichen Beitrag zur Gesamtverteidigung leistet. Durch ein wirksames Ineinandergreifen von militärischer und ziviler Verteidigung müssen wir sicherstellen, dass die Souveränität und Freiheit Deutschlands und Europas in Krisen- und Konfliktzeiten durch eine funktionsfähige Gesamtverteidigung geschützt wird. Unser Ziel ist es, die Widerstandskraft unseres Landes für den Konfliktfall weiter zu stärken.
Mentalitätswandel und adäquate Vorsorge
Gut auf Krisen und Katastrophen vorbereitet zu sein, kann Menschenleben retten. Angesichts der zunehmenden Bedrohungslagen wird Vorsorge dabei immer wichtiger. Mit den vielen meist ehrenamtlich tätigen Einsatzkräften bei THW, Feuerwehren und Hilfsorganisationen, sind wir institutionell sehr gut aufgestellt. In Anbetracht der veränderten sicherheitspolitischen Lage wollen wir den Bevölkerungsschutz weiterdenken. Wir brauchen in der Bevölkerung ein neues Bewusstsein für Bevölkerungsschutz, um im Ernstfall handlungsfähig zu sein. Gemeinsam müssen Bund und Länder die Bürger :innen dabei bestmöglich unterstützen. Hier ist dringend ein ganzheitlicher Ansatz nötig – mit Blick auf Prävention, Bewältigung, Nachsorge ebenso wie auf das enge Zusammenwirken aller Ebenen, um stärker in unsere Sicherheit zu investieren und sie auszubauen.
Das neu geschaffene Gemeinsame Kompetenzzentrum Bevölkerungsschutz ist der zentrale und leistungsstarke Knotenpunkt, in dem die verschiedenen Akteure – Bund, Länder, Hilfsorganisationen und andere – eng zusammenarbeiten. Investitionen sind auch hier dringend notwendig. Beispielsweise kann nur eine zeitgemäße und auf potenzielle Bedrohungslagen erprobte Ausstattung den Einsatzkräften bestmöglichen Schutz sowie effektives Handeln gewährleisten. Es ist Ziel, die ergänzende Ausstattung des Bundes insbesondere in den Aufgabenbereichen CBRN-Schutz, Sanitätswesen und Betreuung (Fahrzeuge und entsprechende Ausstattung) in diesem und den nächsten vier Jahren vollständig umzusetzen.
Das Gleiche gilt für einen verbesserten Schutz unserer kritischen Infrastrukturen auf Grundlage zweier EU-Richtlinien (CER und NIS-2). Mit Hochdruck wird an einem Entwurf für ein KRITIS-Dachgesetz gearbeitet. Damit soll die Versorgungssicherheit unserer Gesellschaft mit lebenswichtigen Dienstleistungen sichergestellt werden. Es zielt in vorrangig auf die Handlungsfähigkeit der Wirtschaft, da für den Schutz ihrer Anlagen in erster Linie die Betreiber verantwortlich sind. Dabei werden alle föderalen Ebenen einbezogen, denn der Schutz kritischer Infrastrukturen ist aufgrund der Komplexität und Breite des Themas eine vernetzte Aufgabe, die durch unterschiedliche Stellen auf verschiedenen Ebenen wahrgenommen wird. In engem Zusammenhang mit dem Schutz unserer kritischen Infrastrukturen steht das NIS-2-Umsetzungsgesetz. Dieses regelt die Cyber- und Informationssicherheit von Unternehmen und Institutionen. Beide Gesetzentwürfe müssen nun dringend im Bundestag beraten und beschlossen werden.
Vorstufe einer zukunftsfähigen Investition in unsere Sicherheit ist eine vorausschauende und umsichtige Planung der Gesamtverteidigung, also das Zusammenwirken von militärischer und ziviler Verteidigung. Die neugefassten Richtlinien für die Gesamtverteidigung bilden dabei das Fundament, indem sie eine Bestandsaufnahme der vorhandenen Organisationen und Prozesse mache n und die Aufgabenwahrnehmung im Rahmen der Gesamtverteidigung auf Bundesebene sowie zwischen Bundes – und Landesebene koordinieren. So wird sichergestellt, dass alle relevanten Akteure – von der Bundeswehr über die Hilfsorganisationen bis hin zu den Zivilschutzbehörden – ihre Rollen und Verantwortlichkeiten in Krisenzeiten klar erfüllen können.
Umfassende und gerechte Kriminalpolitik
Wir stehen für eine umfassende, evidenzbasierte Kriminalpolitik. Wir nehmen dafür die gesamte Bandbreite der Kriminalität in den Blick. Für diese vorausschauende Kriminalpolitik sollen uns eine neue Form eines gesetzlich verankerten Periodischen Sicherheitsberichts, Trendanalysen und eine neue interdisziplinäre, unabhängige Bundesakademie für Prävention und Kriminalwissenschaften dienen. So bekommen wir einen umfassenden Überblick darüber, welche Präventionsprojekte zu welchen Kriminalitätsphänomenen existieren und welche evaluiert sind. Und wir schauen nicht nur auf die Kosten der Strafverfolgung, sondern auch auf die Kosten der Kriminalität. Dabei sind die Schäden, die Opfer und Geschädigte durch nicht verhinderte Kriminalität erleiden, ebenso wichtig wie gesamtgesellschaftliche und volkswirtschaftliche Kosten, insbesondere durch organisierte Steuerkriminalität. In der Regel gilt: Kriminalität kostet mehr als Kriminalitätsbekämpfung.
Apropos Geld: Jedes Jahr werden von Kriminellen Erlöse in der Größenordnung von 100 Milliarden Euro erzielt, von denen die Sicherheitsbehörden bislang nur etwa ein Prozent aufdecken können. Wir wollen daher ein neues Vermögenseinziehungsrecht außerhalb des Strafrechts etablieren.
Besonders schädliche Betätigungsfelder der Organisierten Kriminalität wollen wir besonders in den Blick nehmen. Dazu zählt die Umweltkriminalität als drittgrößtes Betätigungsfeld der Organisierten Kriminalität. Die Bundesinnenministerin hat daher erstmals beim Bundeskriminalamt eine Bundeszentrale Ansprech- und Koordinierungsstelle zur Bekämpfung der Umweltkriminalität eingerichtet. Auch auf die Bekämpfung der Produkt- und Markenpiraterie, von Betrug und Korruption im Gesundheitswesen, der Verbreitung von Missbrauchsdarstellungen von Kindern und der Schädigung unserer Wirtschaft und Wissenschaft durch Spionage, Sabotage und Wirtschaftskriminalität legen wir den Fokus unserer Politik.
Sicherheit für alle – auch im digitalen Raum
Nahezu alle Lebensbereiche sind heute abhängig von Daten und ihrem Austausch. Digitale Prozesse sind aus vielen Bereichen unseres Lebens nicht wegzudenken: Wirtschaft, Verwaltung und Kommunikation. Das reicht von Grundpfeilern der Daseinsvorsorge wie Stromversorgung über die Steuerung von Rettungseinsätzen bis hin zum sozialen Miteinander. Die Digitalisierung macht vieles in unserem Alltag leichter und ist daher verstärkt Ziel von Angriffen. Attacken auf kritische Infrastrukturen können nicht nur Unternehmen wirtschaftlich schaden, sondern das Wohlergehen der Bürger:innen unmittelbar massiv gefährden. Angriffe auf Kommunalverwaltungen können zudem das Vertrauen der Bürger :innen in die Funktionsfähigkeit des Staates erschüttern. Cyberspionage schwächt die Wettbewerbsfähigkeit von Unternehmen. Die Beeinflussung von Wahlen und das Streuen von Fake-News beeinträchtigen die Integrität unserer Demokratie. Deshalb ist IT-Sicherheit eine zentrale staatliche Aufgabe und als Voraussetzung für die Sicherheit und Freiheit unseres Landes zu begreifen.
Neben mittlerweile alltäglichen Cyberattacken fordert uns vor allem Desinformation. Hybride Bedrohungen durch fremde Mächte und illiberale Kräfte zielen auf die Fundamente unserer liberalen Gesellschaftsordnung. Sie manipulieren Wahlen, Prozesse der Meinungsbildung und -äußerung, die Debattenkultur sowie Engagement für die Demokratie. Algorithmen und Geschäftsmodelle insbesondere sozialer Netzwerke wirken hier begünstigend. Die Verbreitung einfach zu nutzender Instrumente der Künstlichen Intelligenz verschärft diese Prozesse. All dies erfordert starke Antworten unserer wehrhaften Demokratie. In einer Task Force zur wehrhaften Demokratie im Digitalzeitalter sollten ganzheitliche Maßnahmen erarbeitet werden. Dies mit dem Ziel, Plattformen weitergehender und systemischer zu regulieren, Medien und Quellenkompetenz auszubilden und zur Durchsetzung des bestehenden europäischen Rechts Qualitätsjournalismus und öffentlich-rechtlichen Rundfunk zu fördern sowie Desinformationskampagnen aus dem In- und Ausland zu erkennen und zu bekämpfen. Mit dem DSA, dem DMA und dem AI-Act hat Europa das regulatorische Rüstzeug, um Tech-Konzerne dazu zu verpflichten, wirksam gegen illegale Inhalte und Desinformation vorzugehen. Diese Rechtsakte müssen koordiniert, konsequent und kohärent durchgesetzt werden, um ihre volle Wirkmacht zu entfalten.
Die Fähigkeiten im Kampf gegen Desinformation und Manipulation müssen deutlich ausgebaut werden. Der Aufbau der Früherkennungseinheit zur frühzeitigen Identifizierung ausländischer Manipulations- und Einflusskampagnen beim BMI ist ein wichtiger erster Schritt.
Wir müssen ein sicheres und vertrauenswürdiges Internet gewährleisten, das uns als Gesellschaft nützt, nicht von einem Internet abhängen, das unsere offene Gesellschaft und die Demokratie in ihrer Existenz gefährdet.
Die Zahl der Cyberangriffe durch staatliche und nichtstaatliche Akteure steigt seit Jahren: Angriffe auf kritische Infrastrukturen in den Kommunen, auf Parteiwebsites oder auf das Online-Banking von Bürger:innen finden täglich statt. Auch der Versuch durch ausländische Akteure, mit gezielten Falschmeldungen und Desinformationskampagnen die öffentliche Meinung zu manipulieren, nimmt zu. Die Geschäftsmodelle insbesondere der sozialen Netzwerke bestärken diese Effekte. Daher gilt es, unsere Netze und Infrastrukturen, Daten und Programme vor digitalen Angriffen und Manipulationsversuchen wirksam und effektiv zu schützen. Dies gelingt nur, indem wir Risiken frühzeitig erkennen, Gefahren effektiv abwehren und Abhängigkeiten von einzelnen IT-Anbietern vermeiden und auf vertrauenswürdige Ausrüster setzen. Auch hier kommt es auf eng koordiniertes Handeln an. Denn Sicherheit im digitalen Raum ist eine Aufgabe der gesamten Gesellschaft. Staat und Wirtschaft müssen gemeinsam für hohe Sicherheitsstandards sorgen.
Wir statten unsere Sicherheitsbehörden mit notwendigen Befugnissen zur Abwehr von Cyberangriffen aus und stellen die Cybersicherheitsarchitektur neu auf. Unser Ziel ist ein höchstmögliches Schutzniveau gegen Cyberangriffe und eine effektive Bekämpfung von Cyberkriminalität. Dafür schaffen wir neue Instrumente und neue gefahrenabwehrende Befugnisse, mit denen Angriffe verhindert, beendet oder zumindest abgeschwächt und mögliche Angreifer identifiziert werden können. Dazu zählt beispielsweise eine gesetzliche Befugnis des BSI zum Scanning von Schwachstellen. Wir entwickeln die Cybersicherheitsstrategie weiter und richten die Cybersicherheitsarchitektur entsprechend der Herausforderungen der Zeitenwende neu aus. Wir wollen das BSI unabhängiger aufstellen und zur Zentralstelle ausbauen und vertiefen die Zusammenarbeit zwischen Bund und Ländern. Und wir bekämpfen Cyberkriminalität und strafbare Inhalte im Netz.
Innere Sicherheit bedeutet, dass jede und jeder in unserem Land frei von Gewalt leben kann, im Internet, im eigenen Zuhause und in der Öffentlichkeit. Hasskriminalität im Netz gefährdet unseren gesellschaftlichen Zusammenhalt und verschärft Ungleichheit. Hasskriminalität mittels Bedrohung und Beleidigung, mittels Gewalt gegen Frauen und menschenverachtender Hetze gegen Minderheiten wird immer wieder als Reaktion auf Engagement und Teilhabe eingesetzt und führt dazu, dass die Opfer sich aus de m digitalen öffentlichen Raum zurückziehen. Wir wollen die Rechtsschutzmöglichkeiten verbessern, indem wir ein Vorgehen gegen anonyme Accounts ermöglichen und ein Verbandsklagerecht schaffen, um die Hürden für Betroffene zu senken. Schutzlücken bei menschenverachtender Hetze wollen wir durch eine Überarbeitung des Volksverhetzungsparagraphen schließen.
Um Frauen vor häuslicher Gewalt zu schützen, setzen wir uns für die vollständige Umsetzung der Istanbul-Konvention ein. Das umfasst ein Gewaltschutzgesetz, das Bund, Länder und Kommunen organisatorisch und finanziell verantwortlich beteiligt, und die zwingende Berücksichtigung von häuslicher Gewalt im familienrechtlichen Sorge- und Umgangsverfahren. Auch in aufenthaltsrechtlichen Situationen muss der Gewaltschutz von Frauen mitgedacht werden. Stalking mit GPS-Trackern und ähnlichen technologischen Mitteln wollen wir wirksame Maßnahmen entgegensetzen. Schutzlücken im Strafrecht vor sexualisierter Gewalt wollen wir schließen, insbesondere indem wir offensichtlich unerwünschte und erhebliche sexuelle Belästigungen unter Strafe stellen. Der Schutz von Kindern und Jugendlichen vor sexualisierter Gewalt hat für uns höchste Priorität. Dafür brauchen wir eine bessere personelle und technische Ausstattung der Polizei und eine sachkundige und zügige Strafverfolgung.
Effektive, passgenaue und verhältnismäßige Befugnisse
Um gegen die Vielzahl an online begangenen Straftaten wirksam vorgehen zu können, benötigen unsere Sicherheitsbehörden neben den technischen und personellen Ressourcen dringend effektive, zeitgemäße und zugleich verhältnismäßige Instrumente. Sowohl bei der Bekämpfung schwerster Kriminalität wie Terrorismus oder sexualisierter Gewalt gegen Kinder als auch zur Bekämpfung strafrechtlich relevanter Hass und Hetze können und dürfen wir uns nicht auf das freiwillige Speicherverhalten privater Telekommunikations-Unternehmen verlassen. Wir sollten deshalb ergebnisoffen prüfen, wie eine verhältnismäßige und den Vorgaben des EuGH entsprechende, mithin rechtssichere IP-Adressen-Speicherung möglich ist. Wir müssen unsere Behörden in die Lage versetzen, Terrorismus und schwersten Straftaten bereits im Vorfeld zu verhindern.
Zur nachträglichen Identifikation von mutmaßlichen Tätern brauchen wir Videoüberwachung an Kriminalitätsschwerpunkten und bei großen Menschenansammlungen wie Volksfesten oder Konzerten. Auch die Unterstützung durch Biometrie zur Identifizierung muss technisch und rechtlich geprüft werden.
Unser Land steht für Demokratie, Freiheit und Rechtsstaatlichkeit in einem geeinten Europa. Unsere Demokratie wird jeden Tag auf die Probe gestellt. Wir wollen unsere Demokratie und unsere offene Gesellschaft aktiv gegen ihre Feinde verteidigen. Wir müssen uns als wehrhafte Demokratie allen Extremisten entgegenstellen und dafür alle rechtsstaatlichen Mittel nutzen.
Bereits Kinder und Jugendliche brauchen eine Art „Fire Wall“, um sich vor extremistischen Einflüssen zu schützen. Wir wollen politische Bildung bereits für die Jüngsten und eine Stärkung der Präventions- und Interventionsarbeit. Freiheitlich demokratische Werte sollen bereits im Kindesalter vermittelt und gelebt werden. Wir wollen die Attraktivität von Freiwilligendiensten, sozialen Berufen und der Arbeit bei der Bundeswehr steigern. Gleichzeitig wollen wir uns der von Bundespräsident Frank-Walter Steinmeier angestoßenen Debatte stellen, ob die Einführung eines Rechtsanspruchs auf einen Freiwilligendienst oder eine allgemeine Dienstpflicht den gesellschaftlichen Zusammenhalt stärken, für einen rücksichtsvolleren Umgang und mehr Verständnis sorgen sowie die Attraktivität von sozialem Engagement verbessern kann. Wir wollen unsere Zivilgesellschaft stärken und auch hier weiterhin in die Präventions- und Interventionsarbeit investieren. Das Demokratiefördergesetz muss endlich beschlossen und in Kraft gesetzt werden.
Der Verfassungsschutzbericht macht erneut deutlich, dass die größte Gefahr für unser Land vom Rechtsextremismus ausgeht. Extremistischen Bestrebungen muss entschieden entgegengetreten werden. Hierzu gehört auch die Bekämpfung der islamistischen Radikalisierung, die hauptsächlich im Internet über die Sozialen Medien stattfindet. Die Möglichkeiten und Kompetenzen der Sicherheitsbehörden müssen auch diesbezüglich überprüft werden. Extremisten müssen entwaffnet werden. Es ist gut, dass jetzt endlich die Verschärfung des Waffenrechts auf den Weg gebracht wird, die zuvor durch einen Koalitionspartner monatelang blockiert wurde. Wir wollen den Datenaustausch zwischen der zuständigen Waffenbehörde und anderen Behörden verbessern. Wer legalen Zugang zu Waffen erhalten will, muss ein psychologisches Gutachten vorlegen, und für den Erwerb von Schreckschusswaffen und für Armbrüste muss künftig ein kleiner Waffenschein vorgelegt werden. Auch gefährliche Messer dürfen nicht mehr in der Öffentlichkeit bei sich geführt werden. Dies gilt erst recht in Zügen und Bahnhöfen. Hier müssen auch die Kontrollen verstärkt werden.
Die Finanzierung extremistischer und terroristischer Bestrebungen muss durch die Sicherheitsbehörden nachverfolgt werden können. Hier müssen wir dringend die Befugnisse erweitern, um Erkenntnisse über die Finanzströme, Konten und Inhaber zu erhalten.
Finanzierung sicherstellen, Investitionen leisten
Unsere Sicherheits- und Strafverfolgungsbehörden benötigen auch weiterhin ausreichende finanzielle Mittel und personelle Ressourcen, um unsere Demokratie und unser Land gegen Gefahren zu schützen. Die Herausforderungen an unsere Behörden und deren Belastungen steigen. Die zu prüfenden Sachverhalte werden immer komplexer. Dafür brauchen die Behörden adäquate Befugnisse sowie eine angemessene technische und personelle Ausstattung und Vergütung. Die Einführung der Ruhegehaltsfähigkeit der Polizeizulage, die die SPD-Bundestagsfraktion gemeinsam mit Bundesinnenministerin Nancy Faeser durchgesetzt hat, war hier ein wichtiger Schritt. Wir wollen das bereits eingeleitete Gesetzgebungsverfahren für ein neues Bundespolizeigesetz nun zügig abschließen, um den Bundespolizeibeamt:innen sichere und moderne Rechtsgrundlagen an die Hand zu geben.
Angesichts der Zeitenwende benötigen wir mehr Investitionen für die innere Sicherheit, für die Cybersicherheit und für unsere Sicherheitsbehörden. Die SPD-Bundestagsfraktion setzt sich für eine Reform der Schuldenregel ein, sodass Investitionen wie diese strukturell besser und in einem größeren Umfang getätigt werden können. Die aktuell im Grundgesetz verankerten Schuldenregeln ermöglichen dies nicht. Wir wollen Möglichkeiten prüfen, wie bereits vor einer Reform der Fiskalregeln zusätzliche finanzielle Mittel für die innere Sicherheit mobilisiert werden können – zum Beispiel über ein Sondervermögen. Davon umfasst sein müssen auch umfangreiche Investitionen in eine bessere Ausstattung unseres Rechtsstaats. Aus gutem Grund haben sich die Regierungsparteien im Koalitionsvertrag auf eine Fortsetzung des „Pakts für den Rechtsstaat“ geeinigt: Wir brauchen eine technische Ausstattung, die EDV, Laptops und Server in den Gerichten und Staatsanwaltschaften auf die Höhe der Zeit bringt. Wir brauchen gut ausgestattete spezialisierte Schwerpunktstaatsanwaltschaften, um erfolgreich im Kampf gegen Organisierte Kriminalität, Finanzkriminalität und Hasskriminalität durchgreifen zu können. Nicht zuletzt brauchen wir ausreichend qualifiziertes Personal, das die steigenden Anforderungen meistert. Damit die Berufe in der Justiz insbesondere im juristischen Bereich im Wettbewerb mit der Privatwirtschaft um die besten Talente attraktiv bleiben, brauchen wir einen gemeinsamen Kraftakt von Bund und Ländern, der dieses Ziel finanziell untermauert.
Alles dient der Verteidigung unserer Demokratie
Im Jahr des 75. Geburtstages des Grundgesetzes gilt es, unsere Freiheit und unsere Demokratie und die Menschen, die darin leben, zu schützen. Denn sie ist unter Druck. Extremismus und anderen Bedrohungen sagen wir den Kampf an mit besserer Demokratieförderung, einer resilienten Verfassung und wirksamer Strafverfolgung. Den dynamischen Bedrohungen des Cyberraums begegnen wir mit sicheren und resilienten Infrastrukturen und IT-Systemen sowie mit zeitgemäßen Befugnissen und Zuständigkeiten. Mit einem ganzheitlichen Blick in der Innen- und Rechtspolitik, der die Cybersicherheit einschließt, passgenauen Befugnissen und Investitionen in die innere Sicherheit werden wir sie verteidigen. Nur wenn wir unseren Rechtsstaat immer wieder gegen aktuelle Bedrohungen wappnen, kann Deutschland eine starke und freie Demokratie bleiben.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Dank neuer EU-Gesetze haben die drei Pornoseiten Pornhub, XVideos und Stripchat erstmals ausführliche Transparenzberichte vorgelegt. Darin geben sie Einblicke, die sie seit Jahren verwehrt haben – und sorgen an vielen Stellen für Verwirrung. Die Übersicht.
Viele Jahre lang haben sich große Pornoplattformen darum bemüht, möglichst wenig transparent zu sein. Keine oder ausweichende Antworten auf Presseanfragen. Keine oder ausweichende Reaktionen auf Behörden. Nun verlangt das Gesetz über digitale Dienste (DSA) der EU, dass sich zumindest die größten von ihnen in die Karten schauen lassen – oder Strafen riskieren.
Als „sehr groß“ eingestuft hat die EU Ende 2023 die Porno-Plattformen Pornhub, XVideos, und Stripchat. Sie gelten als „very large online platform“, kurz: VLOP und müssen sich entsprechend an strengere Regeln halten. In den ersten Transparenzberichten lassen sich die drei Riesen jetzt tiefer in die Karten schauen als bisher. Auch XVideos-Schwesterseite XNXX wurde nachträglich als VLOP eingestuft, hat aber noch keinen Bericht vorgelegt.
Erstmals gibt es damit detaillierte Angaben über Anzahl und Gründe gemeldeter und gelöschter Inhalte. Bildbasierte Gewalt auf den großen Pornoseiten lässt sich somit etwas genauer beziffern. Gemeint sind Aufnahmen, die ohne Einverständnis der gezeigten Personen verbreitet wurden, umgangssprachlich bekannt als „Racheporno“. Es ist eine Form digitaler Gewalt, die vor allem Frauen trifft.
Aus den Transparenzberichten geht hervor: Allein bei XVideos und Pornhub gibt es im Durchschnitt täglich Dutzende neue Fälle von bildbasierter Gewalt. Diese Fälle machen allerdings nicht den Großteil der gelöschten Inhalte aus. Die überwiegende Mehrheit der Löschungen fassen die Plattformen leider unter wenig aussagekräftigen Sammelbegriffen zusammen wie „Verstoß gegen Richtlinien“ oder „Sonstige“. Die durch die Transparenzberichte gewonnene Transparenz ist deshalb sehr eingeschränkt. Es ist weiterhin unklar, welche Probleme auf den Plattformen wirklich dominieren.
Hinter den Kulissen prüfen den Berichten zufolge durchaus Menschen die Inhalte der Pornoseiten. XVideos schreibt von 43 Vollzeit-Stellen in vier Moderationsteams. Stripchat schreibt von „94 Personen“ – ohne zu benennen, wie viel Arbeitszeit sie aufwenden. Pornhub schreibt nur von einem „umfangreichen Team“, das allerdings jeden hochgeladenen Inhalt noch vor der Veröffentlichung prüfe. Alle drei Plattformen verwenden neben menschlicher Moderation auch automatische Tools wie etwa Uploadfilter.
Pornhub: Drei Monate Ausbildung für Moderator*innen
Der Transparenzbericht von Pornhub (Mutterkonzern: Aylo) bezieht sich – wie die anderen – auf den Zeitraum von Mitte Februar bis Ende Mai 2024; er umfasst also mehr als drei Monate. Die Pornoseite hat in dieser Zeit dem Bericht zufolge rund 272.000 Bilder und rund 27.000 Videos entfernt. Insgesamt wurden rund 18.000 Nutzer*innen gesperrt.
Die Klassifikation der gesperrten Inhalte stammt von der Plattform selbst. Am ehesten unter bildbasierte Gewalt fallen dürfte die Pornhub-Kategorie „nicht-einvernehmliches Verhalten“ („Non-Consensual Behavior“). Aus diesem Grund entfernt wurden auf Pornhub rund 1.900 Bilder und Videos, bezogen auf den Zeitraum des Berichts. Das entspräche 18 pro Tag.
Auch wegen Verdacht auf sogenanntes „Kindesmissbrauchsmaterial“ („child sexual abuse material“, kurz: CSAM, wie es im Bericht genannt wird) hat Pornhub Inhalte entfernt. In der Summe waren es rund 3.550 Bilder und Videos. Unter CSAM fallen je nach juristischer Definition auch Cartoons oder Inhalte mit Erwachsenen, die sich als minderjährig darstellen. Hier berichten wir mehr über die Fallstricke bei der Erfassung von CSAM.
Ein Großteil der Löschungen fällt laut Bericht unter die vage Sammelkategorie „Verstoß gegen die Plattform-Richtlinien“. Das Problem: Die Plattform-Richtlinien von Pornhub untersagen auch beispielsweise nicht-einvernehmliches Verhalten oder Inhalte mit Minderjährigen. Entsprechend ist unklar, wie die Zahlen aus dem Transparenzbericht zu deuten sind. Auf eine kurzfristige Presseanfrage zu den Gründen hat Pornhub zunächst nicht reagiert; wir werden den Artikel ergänzen, wenn wir eine Antwort erhalten.
Die Menschen, die Pornhub-Inhalte prüfen, müssen laut Bericht eine dreimonatige Schulung durchlaufen und am Ende eine Prüfung mit „perfekten“ Ergebnissen bestehen. Während ihrer Arbeit müssen sie laut Pornhub keine Mindestquoten erreichen, das heißt: Sie können sich für die Moderation mehr Zeit lassen. Unterstützt werde das Team durch automatische Erkennungs- und Filtersysteme.
Demnach nutzt Pornhub etwa eine Blockliste mit rund 40.000 gesperrten Begriffen in 40 Sprachen, darunter 21 EU-Sprachen. Mit dieser Blockliste würden die Metadaten von Uploads abgeglichen, darunter dürften etwa Titel, Videobeschreibungen und Tags fallen. Welche Begriffe genau auf dieser Liste stehen, legt Pornhub im Bericht nicht offen. Höchst wahrscheinlich gehören dazu einschlägige Begriffe rund um sexualisierte Gewalt an Kindern.
Laut Bericht prüfen Menschen auch die Audio-Spur eines Uploads, notfalls mithilfe von Software für Transkription und Übersetzung. Falls ein Audio-Inhalt nicht verstanden wird, werde der Inhalt nicht veröffentlicht, wie Pornhub betont.
Behörden scheinen sich derweil wenig für die Plattform zu interessieren. Nur in einem Fall aus Griechenland habe eine Strafverfolgungsbehörde die Löschung eines Inhalts angefordert. Insgesamt 22 Mal hätten Behörden Informationen über Nutzer:innen angefragt, davon 6 mal wegen nicht-einvernehmlichen Inhalten und 7 mal wegen Verdacht auf CSAM.
Nach eigenen Angaben hat Pornhub nur 31 Millionen monatliche Nutzer*innen in der EU – und läge damit unter der Schwelle von 45 Millionen, ab der die EU einen Dienst als „sehr große Online-Plattform“ einstufen darf. Die meisten Nutzer*innen kommen demnach aus Frankreich (5,6 Millionen), gefolgt von Deutschland mit 5,3 Millionen.
Ob die Nutzer*innen-Zahlen wirklich so gering sind, darüber wird Pornhub gewiss noch mit der EU streiten. Denn Pornhub und auch Stripchat sehen sich zu Unrecht als VLOP eingestuft und wehren sich juristisch. Es dürfte zugleich auch im Interesse einer Plattformen sein, die eigenen Zahlen in der EU kleinzuhalten, um sich nicht den besonderen Pflichten als VLOP unterwerfen zu müssen.
XVideos: Menschen prüfen nicht alles
Die Pornoseite XVideos (Mutterkonzern: WGCZ Holding) sortiert gelöschte Inhalte in andere Kategorien als Pornhub, wie man ihrem Transparenzbericht entnehmen kann. Vergleichbar sind die Angaben deshalb schwerlich. Ähnlich wie bei Pornhub sind die Kategorien zudem wenig aussagekräftig. So fällt die überwiegende Mehrheit der gelöschten Inhalte (rund 388.000) unter eine Kategorie namens „Übermäßige Verstöße“ („Excessive infractions“), gefolgt von der maximal vagen Kategorie „Sonstige“ („other“) mit rund 114.000 Löschungen. Auch XVideos hat auf eine kurzfristige Presseanfrage zu den Gründen zunächst nicht reagiert.
Eine ganze Reihe an zahlenmäßig kleineren Kategorien dürfte Phänomene bildbasierter Gewalt betreffen. Unter die Kategorie „nicht-einvernehmlich“ fallen rund 7.500 Löschungen, unter „nicht-einvernehmliche Filmaufnahmen“ rund 3.400 Löschungen, unter „Revenge Porn“ 131 Löschungen. Fasst man diese Kategorien zusammen, landet man bei 105 Löschungen pro Tag. Unter die Kategorie „Minderjährig“ fallen wiederum rund 5.420 Löschungen.
In einer Recherche Anfang 2022 haben wir aufgedeckt, wie automatische Empfehlungen auf XVideos Videos zum Thema Vergewaltigung auffindbar machen – etwa mithilfe von Schlagworten wie „Bewusstlos und gefickt“. 30 zweifelhafte Videos hatten wir gemeldet; einen Tag später waren 25 nicht mehr verfügbar.
Für XVideos sind dem Bericht zufolge vier Moderationsteams tätig, offenbar abgestuft nach Brisanz ihrer Aufgaben. Mit 23 Vollzeit-Stellen prüfen Menschen im Team „Basic review“ erstmalig Inhalte und Kanäle. 12 Vollzeit-Stellen sind im Team „Channel Oversight“ für „besondere Kanäle“ zuständig. Auch hier gibt sich XVideos nebulös, denn die Aufgaben des Teams benennt der Transparenzbericht so: „Einhaltung der Vorschriften sicherstellen und auftauchende Probleme adressieren“. Fünf Vollzeit-Stellen kümmern sich bei XVideos wiederum um „komplexere“ Fälle und drei Stellen bearbeiten gezielt Beschwerden und Lösch-Ersuchen.
Im Gegensatz zu Pornhub gibt XVideos nicht an, dass ausnahmslos jeder Inhalt vor der Veröffentlichung geprüft werde. Stattdessen benennt XVideos die Anzahl geprüfter Inhalte innerhalb des Zeitraums von gut drei Monaten. Demnach hätten die Teams von Februar bis Ende Mai rund 1,9 Millionen Bilder und Videos geprüft, rund 48.000 Accounts und rund 36.000 Darsteller*innen.
EU-Behörden interessieren sich dem Bericht zufolge noch weniger für XVideos als für Pornhub. Demnach gab es null Anordnungen wegen illegaler Inhalte und nur acht Auskunftsanfragen.
XVideos hat offenbar weniger Ambitionen, die eigenen Nutzer*innen-Zahlen kleinzureden. Selbstbewusst weist die Plattform rund 85 Millionen monatliche EU-Nutzer*innen aus, und liegt damit deutlich über der VLOP-Schwelle. Dennoch ist die Zahl überraschend: Noch im Jahr zuvor hatte XVideos eine deutlich höhere Zahl von 150 Millionen EU-Nutzer*innen genannt. Auf einer Infoseite liefert XVideos einen Erklärungsversuch, der davon handelt, wie schwierig sich solche Zahlen einschätzen ließen.
Die meisten XVideos-Nutzer*innen kommen laut Bericht aus Spanien (23,1 Millionen). In Deutschland ist XVideos mit rund 5,5 Millionen Nutzer*innen eher wenig frequentiert.
Stripchat: Echtzeit-Bilderkennung für Darsteller*innen
Stripchat ist im Gegensatz zu Pornhub und XVideos eine Plattform für Live-Streaming. Das heißt die Darsteller*innen präsentieren sich ihrem Publikum in Echtzeit. Stripchat gehört zum Firmenkosmos von xHamster. Das ist eine der meistbesuchten Pornoseiten der Welt, die von der EU allerdings bislang nicht als „sehr groß“ eingestuft wurde. Darauf angesprochen teilt die EU-Kommission mit: xHamster habe nach eigenen Angaben nur rund 29 Millionen EU-Nutzer*innen – und die Kommission werde „die Situation weiterhin sorgfältig beobachten“.
Nach Angaben in seinem Transparenzbericht hat Stripchat am häufigsten Maßnahmen wegen „Betrug“ ergriffen (rund 52.000 mal), gefolgt von „Umfang der Plattformdienste“ (rund 4.700 mal). Was genau man sich unter diesen Kategorien vorstellen darf, führt der Bericht jedoch nicht weiter aus.
Das Phänomen bildbasierte Gewalt lässt sich durch die von Stripchat gewählten Kategorien nur schwer umreißen. Unter „Verletzungen von Datenschutz und Privatsphäre“ fallen demnach 64 Fälle, unter „Gewalt“ 21 Fälle. Insgesamt 354 Fälle beziehen sich zudem auf „Schutz Minderjähriger“.
Ein Team aus 94 Menschen überwache die Inhalte auf Stripchat rund um die Uhr, heißt es im Bericht. Alle Inhalte, die nicht live erschienen, würden vor Veröffentlichung geprüft. Um Inhalte in Fremdsprachen zu verstehen, verwende das Team Übersetzungs-Software.
Außerdem setzt die Plattform offenbar automatische Bilderkennung („computer vision“) ein, um die Darsteller*innen in Echtzeit zu überwachen. Wenn etwa eine Person mit nicht sichtbarem Gesicht auftrete, schlage das System Alarm. Dann würde sich das Moderationsteam einschalten und prüfen, dass wirklich nur vorab verifizierte Darsteller*innen vor der Kamera auftreten.
Ähnlich wie Pornhub nennt Stripchat eine Nutzer*innen-Zahl deutlich unter der 45-Millionen-Schwelle. Demnach habe Stripchat nur rund 16 Millionen monatliche EU-Besucher*innen, die meisten davon (rund 3,2 Millionen) aus Deutschland.
Großer Bogen um Ausweiskontrollen
Auch auf andere Weise wirkt sich der DSA auf Pornoseiten aus, und zwar beim Thema Alterskontrollen. Dagegen wehren sich Plattformen seit Jahren vehement. Sie weigern sich, dass alle ihrer Abermillionen Besucher*innen ihr Alter nachweisen müssen, indem sie zum Beispiel ein amtliches Dokument zücken oder ihr Gesicht biometrisch scannen lassen. Genau das verlangen jedoch viele nationale Gesetze, unter anderem in Deutschland. Auch die EU drängt auf solche Schikanen: Der DSA erwähnt Alterskontrollen ausdrücklich, allerdings nicht als Pflicht, sondern als eine von mehreren möglichen Maßnahmen für VLOPs, um Minderjährige vom Besuch einer Plattform abzuhalten.
Während XVideos und Pornhub in der EU noch einen Bogen um Alterskontrollen machen, hat Stripchat offenbar einen kreativen Ansatz gewählt. Wer die Plattform unter der URL „de.stripchat.global“ aufruft, bekommt Anfang September zunächst nur geblurrte Inhalte zu sehen und soll erst einmal über den britischen Anbieter Yoti sein Alter nachweisen, zum Beispiel per Ausweis. Unter anderen URLs mit deutscher Subdomain ist Stripchat aber weiterhin ohne solche Schranken erreichbar. Unsere Presseanfrage zum Umgang mit Alterskontrollen hat Stripchat nicht beantwortet.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Mit einer Verordnung zur Verwaltung von Cookie-Präferenzen will die Bundesregierung das Surfen im Internet erleichtern. Doch der Plan krankt an mindestens zwei Punkten.
Cookie-Banner machen uns die Entscheidung für Privatsphäre im Netz so unbequem wie möglich. Zwar ermöglichen sie es, dass wir zumindest einen Teil der durch Tracking verursachten Privatsphäre-Einschränkungen ablehnen können. Aber durch ihre Gestaltung wird das Surfen im Internet zum Hürdenlauf. Vor fast jeder Website steht ein Cookie-Banner, mit dem mensch sich beschäftigen muss. Manchmal gibt es gleich auf der ersten Seite die Möglichkeit, nicht notwendige Cookies abzulehnen, manchmal muss man sich erst weiterklicken und -scrollen, um diese Option zu finden.
Laut einer Stellungnahme des Verbraucherzentrale Bundesverbands (vzbv) „entscheiden sich viele Anbieter dafür, Banner einzusetzen, die möglichst eine große Zahl von Verbraucher:innen zu einer Einwilligung bewegen sollen. Diese Banner sind oft irreführend gestaltet, verhindern das Weitersurfen auf der Webseite und informieren die Nutzer:innen nur unzureichend über den Zugriff auf ihre Endgeräte und die darauf folgende Datenverarbeitung.“
Eine Verordnung, die die Bundesregierung unter Federführung des Digitalministeriums von Volker Wissing (FDP) gestern beschlossen hat, soll die Einwilligung in – oder Ablehnung von – Cookies nun vereinfachen.
„Anerkannte Dienste zur Einwilligungsverwaltung sollen eine anwenderfreundliche Alternative zu der Vielzahl zu treffender Einzelentscheidungen für Endnutzer schaffen“, so das Vorwort der geplanten Einwilligungsverwaltungsverordnung (EinwV). Sie soll einen entsprechenden Ansatz aus dem Telekommunikation-Digitale-Dienste-Datenschutz-Gesetz (TDDDG) von 2021 ausgestalten. Vorangegangen war eine jahrelange Debatte. Nun müssen noch Bundestag und Bundesrat zustimmen.
„Nein“ heißt: später nochmal fragen
Nach der Verordnung soll die freie Wirtschaft Dienste zur Einwilligungsverwaltung, zum Beispiel Browser-Plug-ins, entwickeln, die sich die Cookie-Präferenzen zu den verschiedenen Diensten, wie zum Beispiel Websites, merken und dem Anbieter bei Bedarf mitteilen. Die Einstellungen sollen nachvollziehbar sein, die Benutzeroberfläche muss transparent und verständlich ausgestaltet sein und der jeweilige Dienst frei gewählt werden dürfen. Die zu entwickelnden Dienste sollen von der Bundesdatenschutzbeauftragten geprüft und zugelassen werden.
Das größte Problem der Verordnung: Anbieter müssten die in der Einwilligungsverwaltung festgelegten Präferenzen nicht akzeptieren. Sie dürfen jederzeit erneut fragen, ob man nicht doch lieber alle Cookies zulassen will. Einfach ausgedrückt: Das erhoffte Werkzeug gegen lästige Cookie-Banner soll letztlich doch so gestaltet werden, dass es weiterhin lästige Nachfragen gibt. Nein heißt nicht „Nein“, sondern „später nochmal fragen“. Laut vzbv nimmt das Verbraucher:innen „den Anreiz, Einwilligungsverwaltungsdienste zu nutzen.“
Der vzbv fordert: „In der Verordnung muss daher geregelt werden, dass Anbieter digitaler Dienste den Entscheidungen der Nutzer:innen Folge leisten müssen.“ Erteilen Nutzer*innen eine erfragte Einwilligung nicht, „sollten Anbieter digitaler Dienste für einen bestimmten Zeitraum (beispielsweise von sechs Monaten) von weiteren Abfragen absehen müssen.“
Unklar, wer so einen Dienst entwickeln würde
Offen bleibt, wer ein Interesse daran haben sollte, einen solchen Dienst zu entwickeln. Körperschaften, die ein wirtschaftliches Eigeninteresse an Nutzer*innendaten haben – oder mit solchen verbandelt sind, dürfen nicht mitmachen. Es gibt laut Verordnung zwar die Möglichkeit, den Dienst Verbraucher*innen und Website-Anbietern entgeltlich zur Verfügung zu stellen, aber solange Cookie-Abfragen damit nicht effektiv abgewehrt werden, dürfte die Zahlungsbereitschaft bei den Verbraucher*innen mäßig sein.
Die Diensteanbieter hingegen haben vermutlich überhaupt kein Interesse daran, ein Tool zu fördern, mit dem sich die Ablehnung von Cookies vereinfachen lässt.
Die Werbeindustrie verwendet Cookies unter anderem zur Erstellung von Nutzerprofilen. Damit „kann der Webserver unter anderem den Endnutzer wiedererkennen, benutzerspezifische Einstellungen wiederherstellen, Reichweitenmessungen vornehmen, Aktivitäten nachverfolgen (sog. „Tracking“) oder individuelle Werbung einblenden“, so das Vorwort der Verordnung.
Wenn Websites kein „Nein“ akzeptieren
Der vzbv hält zudem bereits die derzeitige Handhabung der Einwilligungen per Cookie-Banner schon für unzureichend. Er schreibt in seiner Stellungnahme: „Insbesondere ist die Reichweite von Einwilligungen im Kontext der Online-Werbung meist völlig unklar und zwar nicht nur mit Blick auf die komplexe Infrastruktur und die beteiligten datenverarbeitenden Stellen, sondern auch hinsichtlich des gewaltigen und kontextübergreifenden Umfangs der Nutzerprofile.“
Erschwerend kommt hinzu: Längst gibt es Seiten, die ein „Nein“ zum Tracking schlicht nicht akzeptieren: Etwa Angebote mit sogenannten Pur-Abo-Modellen, bei denen ein Besuch der Website nur gegen Bezahlung oder nach vollumfänglicher Einwilligung in alle Cookies möglich ist.
Der aktuelle Vorstoß reiht sich ein in eine Palette ähnlicher Versuche, die letztlich wenig gegen die Cookie-Banner-Flut ausrichten konnten – etwa die „Do Not Track“-Einstellung im Browser.
Längst gibt es auch deutlich weiter reichende Forderungen, etwa ein grundsätzliches Verbot von Werbetracking und Profilbildung. Genau das forderten jüngst unter anderem der vzbv und das Bundesministerium für Verbraucherschutz im Zuge unserer Recherchen zu den Databroker Files.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Auch die Slowakei soll Lizenzen für den Staatstrojaner Pegasus erworben haben, der bereits in mehreren EU-Staaten gegen Journalist:innen und Oppositionelle eingesetzt wurde. Das berichtet Denník N unter Berufung auf Insider:innen.
Der slowakische Geheimdienst und womöglich auch weitere Ermittlungsbehörden im Land sollen den Staatstrojaner Pegasus angeschafft haben, mit dem man aus der Ferne in Mobiltelefone eindringen kann. Das berichtet die slowakische Tageszeitung Denník N unter Berufung auf „vier verschiedene Quellen mit Verbindung zum Sicherheitsumfeld“.
Slowakische Behörden sollen demnach erst vor Kurzem den Staatstrojaner der Herstellers NSO Group gekauft haben. Eine Quelle habe berichtet, das System sei seit September aus dem Testbetrieb in den vollen Einsatz gegangen. Der slowakische Geheimdienst habe die Anschaffung nicht bestätigt.
Am Dienstag soll demnach auch der liberale Abgeordnete Juraj Krúpa eine Anspielung auf den Staatstrojaner gemacht haben. Auf einer Pressekonferenz sprach er davon, der Geheimdienst könne ohne Gerichtsbeschluss Abhörmaßnahmen einleiten. Es gehe um ein neues System, „mit denen er sich in Telefone und elektronische Geräte hacken kann und die er nach und nach einführt“. Juraj Krúpa sitzt im parlamentarischen Ausschuss für Verteidigung und Sicherheit.
In der Slowakei ist seit 2023 wieder der Nationalkonservative Robert Fico Ministerpräsident. Politisch und ideologisch orientiert sich sein Kurs vor allem am Nachbarn Victor Orbán. Nationalismus, Hetze gegen Migrant:innen und queere Menschen sowie Angriffe gegen die kritische Presse prägen das Programm. Aktuell fährt Fico eine persönliche Kampagne gegen den Oppositionschef und dessen Familie.
Weicher Kurs der EU-Kommission
Mit Pegasus lassen sich Smartphones und weitere Geräte unbemerkt aus der Ferne hacken. Angreifer:innen erhalten dadurch Zugriff auf alle Funktionen des Gerätes, können Gespräche mithören, den Standort verfolgen oder Fotos, Kalendereinträge und Chats auf dem Gerät mitlesen, auch wenn diese verschlüsselt verschickt werden. Selbst das Mikrofon lässt sich aus der Ferne aktivieren, sodass das Gerät zur Wanze wird.
Nachdem zunächst aus Ungarn und Polen, später aus immer mehr EU-Ländern bekannt wurde, dass dort Journalist:innen, Oppositionelle und gar Mitglieder der Regierung mit Pegasus angegriffen wurden, versuchte ein Untersuchungsausschuss im EU-Parlament jahrelang, die Skandale aufzuarbeiten.
Passiert ist danach wenig. Die EU-Kommission hat die Forderungen des Ausschusses, etwa nach strikteren rechtsstaatlichen Kontrollen für Überwachungssoftware, bislang nicht umgesetzt. Mitgliedstaaten können so weiterhin darauf bestehen, es gehe um Belange der „nationalen Sicherheit“. In diese darf sich die EU nicht einmischen.
Erst vor wenigen Tagen hatte eine Gruppe von zivilgesellschaftlichen Organisation wieder gemahnt: Die neue Kommission müsse endlich die Rahmenbedingungen für den Einsatz von Spähsoftware radikal verschärfen. Software, die derart tief in Grundrechte eingreift, dürfe in Europa nicht mehr hergestellt, eingesetzt oder gehandelt werden. Die Kommission arbeitet laut Politico gerade an einem Text, mit dem sie auf den Skandal reagieren will. Der soll aber nur Empfehlungen an die Staaten enthalten, keine Verpflichtungen.
Anklage in Polen, Ermittlung in Spanien
Auch die juristische Aufarbeitung der Skandale geht nur schleppend voran. Fahrt nehmen sie bislang allenfalls in Polen auf, wo vergangenes Jahr eine neue Regierung gewählt wurde. Dort beschäftigt sich jetzt eine parlamentarische Kommission mit den Fällen. Vergangene Woche wurde der ehemalige stellvertretende Justizminister Michał Woś von der Staatsanwaltschaft angeklagt. Ihm wird vorgeworfen, die Beschaffung der Spähsoftware Pegasus mit illegalen Mitteln in die Wege geleitet zu haben.
Auch in Spanien wurden Ermittlungsverfahren zum Einsatz von Pegasus wieder eröffnet, nachdem Frankreich neue Informationen geliefert hatte. Der Überwachungsskandal im Land war einer der größten in der EU. Nicht nur der Premierminister Pedro Sánchez und mehrere seiner Minister:innen sollen mit Pegasus ausgespäht worden sein. Das kanadische Citizen Lab, ein IT-Labor der Universität Toronto, wies auch nach, dass mehr als 60 katalanischen Separatist:innen mit dem Trojaner ins Visier genommen wurden. Auch die katalanische Regierung und mehrere Abgeordnete waren darunter.
In Deutschland setzen das Bundeskriminalamt und auch der Bundesnachrichtendienst (BND) Pegasus ein. Das BKA soll seit 2021 den Trojaner einsetzen, über den Einsatz beim Auslandsgeheimdienst BND ist kaum etwas bekannt.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Die verpflichtende Chatkontrolle soll erstmal nur bekannte Straftaten suchen, die Suche nach anderen Inhalten bleibt zunächst freiwillig. Das schlägt Ungarn vor, damit sich die EU-Staaten doch noch auf eine gemeinsame Position einigen. Der Rat will in den nächsten Wochen über den Vorschlag verhandeln.
Seit mehr als zwei Jahren streiten die EU-Institutionen über eine verpflichtende Chatkontrolle. Die Kommission will Internetdienste verpflichten, die Inhalte ihrer Nutzer auf Straftaten zu durchsuchen und diese bei Verdacht an Behörden zu schicken. Das Parlament bezeichnet das als Massenüberwachung und fordert, nur unverschlüsselte Inhalte von Verdächtigen zu scannen.
Die EU-Staaten können sich bisher nicht auf eine gemeinsame Position einigen. Ganze 31 Mal haben die Vertreter der nationalen Regierungen in der Arbeitsgruppe Strafverfolgung verhandelt. Doch sowohl die spanische als auch die belgische Ratspräsidentschaft waren nicht in der Lage, eine Einigung zu erzielen.
Seit Juli hat Ungarn den Vorsitz im Ministerrat. Die Regierung von Viktor Orbán hat gleich zu Beginn mehrere Skandale produziert. Nach dem Ende der Sommerpause gehen jetzt auch die Verhandlungen zur Chatkontrolle weiter. Heute haben die Ständigen Vertreter das Gesetz diskutiert.
Ungarn macht neuen Vorschlag
Zur Vorbereitung hat Ungarn einen neuen Kompromissvorschlag entworfen und als vierseitiges Debattenpapier verschickt. Wir veröffentlichen das Dokument aus dem PDF befreit.
Ungarn schlägt vor, den letzten Vorschlag Belgiens in einigen Punkten anzupassen. Demnach sollen Dienste-Anbieter weiter zu einer Chatkontrolle verpflichtet werden. Sie sollen aber erstmal nur nach bekannten Straftaten suchen. Das tun große Tech-Unternehmen bereits heute, jedoch nur in unverschlüsselten Inhalten.
Die Suche nach bisher unbekanntem Missbrauchsmaterial und Grooming soll zunächst freiwillig bleiben. Dienste-Anbieter sollen „alles in ihrer Macht Stehende tun, um zur Entwicklung zuverlässiger und genauer Technologien zur Aufdeckung von neuem CSAM und Grooming beizutragen“. Wenn die Technik gut genug ist, soll auch das verpflichtend werden.
Andere Probleme spricht Ungarn nicht an. Dienste-Anbieter sollen immer noch anlasslos alle Inhalte aller Nutzer scannen, also vor allem Unverdächtige. Der juristische Dienst des Rats kritisiert das als grundrechtswidrig. Dienste-Anbieter sollen immer noch verschlüsselte Inhalte durchsuchen, zum Beispiel mit Client-Side-Scanning. Wissenschaftler kritisieren das als unsicher und gefährlich.
Staaten wollen weiter verhandeln
Ob sich die Staaten auf eine verpflichtende Chatkontrolle nach bekannten Inhalten einigen können, ist noch nicht ausgemacht. Die Ständigen Vertreter haben heute fast eine Stunde über den Vorschlag gesprochen, fast alle Staaten haben das Wort ergriffen. Die Positionen sind nicht sonderlich überraschend.
Viele EU-Staaten wollen die Chatkontrolle unbedingt. Sie wollen neues Material und Grooming eigentlich nicht ausnehmen. Diese Länder würden den Vorschlag als Kompromiss akzeptieren. Sie wollen aber keine weiteren „Aufweichungen“.
Andere Staaten sind weiterhin skeptisch. Sie kritisieren vor allem die Verhältnismäßigkeit und den Umgang mit Verschlüsselung. Dazu zählt weiterhin Deutschland, die Bundesregierung kann auch diesem Vorschlag nicht zustimmen.
Eine dritte Gruppe an Staaten will sich noch nicht eindeutig festlegen. Sie sind bereit, den neuen Vorschlag zu verhandeln und warten auf einen konkreten Gesetzentwurf. Dazu zählt auch Frankreich, das im Juni seine Ablehnung aufweichte.
Einigung in den nächsten Wochen?
Die ungarische Ratspräsidentschaft nimmt aus der heutigen Diskussion mit, „dass Offenheit für den Vorschlag besteht“. Das teilt uns ein EU-Beamter mit. „Als nächstes wird die Präsidentschaft nun einen Kompromissvorschlag vorlegen, um die Diskussion auf Arbeitsebene fortzusetzen.“
In zwei Wochen tagt die Arbeitsgruppe Strafverfolgung wieder. Wahrscheinlich wird der Vorschlag dort verhandelt. Ende September oder Anfang Oktober könnten sich dann die Ständigen Vertreter wieder mit dem Thema beschäftigen.
Geht es nach Ungarn, könnten die Justiz- und Innenminister die Position des Rats schon am 10. Oktober beschließen. Bisher ist jedoch noch jeder Zeitplan geplatzt.
Hier das Dokument aus dem PDF befreit:
- Date: 29 August 2024
- Classification: Limite
- Document: 12319/24
- Interinstitutional File: 2022/0155(COD)
- From: Presidency
- To: Permanent Representatives Committee
- Subject: Proposal for a Regulation of the European Parliament and of the Council laying down rules to prevent and combat child sexual abuse
- Here: Policy debate
I. BACKGROUND/INTRODUCTION
1. On 11 May 2022, the Commission submitted to the Council and the European Parliament a proposal for a Regulation laying down rules to prevent and combat child sexual abuse, which aims to oblige online service providers, such as providers of hosting services and interpersonal communication services, to prevent the dissemination, and, if needed, detect, report and remove child sexual abuse material („CSAM“), to prevent, and, if needed, detect and report the solicitation of children („grooming“), and to set up a new decentralised EU agency (the „EU Centre“) to support the implementation of the proposed Regulation, together with a network of national Coordinating Authorities and other competent authorities.
2. In the Council, the proposal has been examined so far in 31 meetings of the Law Enforcement Working Party – Police (LEWP-P) to prepare a mandate for negotiations with the European Parliament.
3. The Permanent Representatives Committee had policy debates on the above proposal on 31 May and 13 October 2023 to consider aspects related to proportionality, cyber security and the scope of detection orders.
4. In the European Parliament, the Committee on Civil Liberties, Justice and Home Affairs (LIBE) has the lead responsibility for the negotiations on the proposal. It appointed MEP Javier Zarzalejos (EPP, ES) as rapporteur in October 2022. The LIBE Committee adopted its report on 14 November 2023, and the position of the European Parliament was deemed adopted on 22 November 2023.
5. The period of application of Regulation (EU) 2021/1232 providing a temporary derogation from certain provisions of Directive 2002/58/EC as regards the use of technologies by providers for the purpose of combating online child sexual abuse was extended until 3 April 2026. An agreement on the proposed Regulation providing a long-term legal framework needs to be reached swiftly to ensure that it can enter into force before the extended temporary legal framework expires.
II. PRESIDENCY COMPROMISE PROPOSAL
6. The Presidency notes that the work done by the previous Presidencies provides a solid basis for further developing a compromise proposal with a view to reach a partial negotiation mandate with the European Parliament.
7. The Presidency also notes that the long-term legal framework to be established with this proposed Regulation should not be less effective in terms of achieving the objective of preventing and fighting child sexual abuse compared to the temporary legal framework under Regulation (EU) 2021/1232.
8. The purpose of this note is to allow the Permanent Representatives Committee to provide political guidance so that the Presidency can verify whether there is sufficient support for the envisaged building blocks outlined below before it prepares the details of a new compromise proposal.
9. The Presidency suggests pursuing the proposal for a partial mandate for negotiations with the European Parliament as outlined in document 11277/24 with the following amendments:
a) Detection orders should be limited to known child sexual abuse material (CSAM). New CSAM and grooming would be outside the scope of detection orders but should remain in the scope of the risk assessment and risk mitigation obligations.
b) The temporary derogation from certain provisions of Directive 2002/58/EC for the purpose of combating online child sexual abuse should be continued through an extension of Regulation (EU) 2021/1232 limited to new CSAM and grooming, to allow sufficient time for the further development of technologies, and the possible future revision of the Regulation under the review clause outlined below.
c) Under a review clause, the Commission would be invited to assess the necessity and feasibility of including new CSAM and/or grooming in the scope of detection orders in the future, taking into account in particular the reliability and accuracy of the detection technologies available on the market. This might lead to a new legislative proposal by the Commission, and it would then be up to the co-legislators to decide whether to expand the scope of detection orders.
d) The specific safeguards for the detection of new CSAM such as delayed reporting based on hits and pseudonymisation are redundant and should therefore be deleted.
e) Service providers, in cooperation with the EU Centre, should be required to do their utmost to contribute to the development of reliable and accurate technologies to detect new CSAM and grooming.
III. WAY FORWARD
10. The Presidency aims at reaching a partial general approach at the meeting of the Council on 10 October 2024, excluding Article 42 about the selection of the seat of the EU Centre, which should be the subject of an inter-institutional procedure following the example of the selection of the seat of the future Anti-Money Laundering Authority (AMLA).
11. In the light of the above, the Permanent Representatives Committee is invited to indicate whether it can support the Presidency“s suggestion to pursue the proposal for a partial negotiation mandate with the European Parliament as outlined in document 11277/24 with the amendments described in point 9 above, e.g. with the scope of the detection orders limited to known CSAM as well as on the understanding that the future inclusion of the relevant provisions related to detection orders for new CSAM and grooming would be subject to a review clause and possible only further to a new legislative proposal.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Das Landgericht Hamburg hat zwei Demonstrationsteilnehmende wegen Landfriedensbruch verurteilt, weil diese auf einer unfriedlichen Versammlung waren. Das Urteil schränkt die Versammlungsfreiheit ein und könnte Menschen vom Protestieren abhalten.
In einem der sogenannten Rondenbarg-Prozesse hat das Hamburger Landgericht am Dienstag zwei Personen, die selbst keine Straftaten begangen hatten, wegen Landfriedensbruchs und Beihilfe zu versuchter gefährlicher Körperverletzung, tätlichem Angriff auf Polizist:innen und Sachbeschädigung verurteilt. Die Gesellschaft für Freiheitsrechte kritisiert das Urteil, weil es Menschen davon abschrecken könnte zu demonstrieren.
Geurteilt wurde über einen Fall, der sich beim G20-Gipfel in Hamburg im Jahr 2017 ereignete. Damals liefen in einem Demonstrationszug vorwiegend schwarz gekleidete Personen von einem Protestcamp in Richtung Innenstadt. Aus den Reihen dieser Versammlung wurden laut Bericht der taz 14 Steine und vier Böller in Richtung Polizei geworfen, die jedoch nicht trafen. Bei dem darauf folgenden Polizeieinsatz wurden 14 Versammlungsteilnehmende teilweise schwer verletzt und 85 Personen festgenommen, darunter auch die jetzt Verurteilten.
Auch sie waren in schwarzer Kleidung mitgelaufen, mit Kapuze und Sturmhaube. Das legte die Richterin gegen die Angeklagten aus. Das Ziel des schwarzen Blocks sei gewesen, die Bevölkerung einzuschüchtern und die Polizei zu provozieren. Das sei auch den Angeklagten klar gewesen, zitiert die Zeit die Richterin. Durch dieses Auftreten seien die Steinewerfer:innen unter den Teilnehmenden erst ermutigt worden. Sie hätten sich auf die Solidarität der Gruppe verlassen können, um anschließend wieder unerkannt unter den schwarz gekleideten Demonstrierenden untertauchen zu können.
„Beschränkt die Versammlungsfreiheit unangemessen“
„Man wird immer jemanden finden, der sich von einer Versammlung eingeschüchtert fühlt“, kritisierte der Verteidiger Sven Richwin gegenüber der taz. Das Grundgesetz frage aber beim Schutz von Versammlungen nicht nach dem ästhetischen Ausdruck. „Eine Versammlung ist kein Schönheitswettbewerb“, so Richwin weiter.
Ähnlich bewertet das auch Franziska Görlitz von der Gesellschaft für Freiheitsrechte (GFF) gegenüber netzpolitik.org. „Die Teilnahme an einer Demonstration in ähnlicher dunkler Kleidung kann für eine Beteiligung an Gewalttaten und Bedrohungen nicht genügen. Eine solche Auslegung beschränkt die Versammlungsfreiheit aus Art. 8 des Grundgesetzes unangemessen.“ Diese bestehe nämlich auch dann, wenn mit Ausschreitungen durch andere Versammlungsteilnehmer:innen zu rechnen sei.
Auch könne die einschüchternde Wirkung einer Versammlung für eine Strafbarkeit von Demonstrant*innen nicht genügen, so Görlitz. „Die Entscheidung weitet die Strafbarkeit nach § 125 StGB deutlich aus und kann so Menschen von der Teilnahme an Protestveranstaltungen abschrecken.“
Auch der Verurteilte Nils Jansen kritisierte laut der taz den Schuldspruch als Angriff auf die Versammlungsfreiheit. Gegen das Urteil können die verurteilten Personen noch Revision einlegen und vor den Bundesgerichtshof ziehen.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Wer das Internet nutzt, verrät ständig Details aus seinem Leben. Den Standort oder mit wem man kommuniziert oder wofür man sich interessiert zum Beispiel. Viele dieser Dauerdatenlecks lassen sich versiegeln. Wie man sich datensparsam durchs Netz bewegt, steht hier.
Das Wichtigste zuerst: Daten, die nicht anfallen, können auch nicht missbraucht werden. Datensparsamkeit ist die höchste Form von Datenschutz und umfasst zahlreiche Maßnahmen. Eine wäre: Nur das Nötigste übers Netz kommunizieren. Eine andere: Die Apps auf seinem Telefon radikal aussortieren. Denn Apps können Datenschleudern und mögliche Einfallstore für Angriffe sein.
Aaron Wey, Veranstalter von CryptoPartys, sagt: „Die einzigen Daten, die sicher sind, sind Daten, die gar nicht erhoben werden. Sobald Daten irgendwo rumliegen, hat sich in Vergangenheit leider sehr häufig gezeigt, dass die dann doch irgendwann für irgendwen interessant werden.“
Ein weiterer zentraler Aspekt der digitalen Funkdisziplin betrifft den persönlichen Standort. Denn es gibt zahlreiche Wege, auf denen ein Mobiltelefon den in die Welt hinauskräht. Einer davon ist die Mobile Advertising ID (MAID). Zahlreiche Apps verkaufen diese mit den dazugehörigen Standortdaten an allerlei Werbetreibende. Doch auch Sicherheitsbehörden und andere können die Daten in die Hände bekommen.
Wer wann wo war
Eine MAID ist noch kein Klarname, aber oft lässt sich der rekonstruieren, etwa wenn die zugehörigen Standortdaten Bewegungsprofile offenbaren. Wohnort und Arbeitsstelle werden so zum Beispiel relativ schnell offensichtlich. Die MAID lässt sich aber löschen (Android) oder ID-basiertes Tracking verbieten (iOS).
Zusätzlich sollte man allen Apps, die ihn nicht benötigen, den Zugriff auf den Standort entziehen. Dem Berechtigungssystem der modernen mobilen Betriebssysteme lasse sich dabei durchaus trauen, sagt Alexander Paul von resist.berlin, einer IT-Sicherheitsberatung vor allem für Aktivist*innen. „Wer den Standort eh nicht braucht, kann ihn auch einfach für das gesamte Profil deaktivieren, dann hat keine App Zugriff darauf“, sagt er.
Nicht nur Handy-Apps übermitteln Standorte, sondern auch die SIM-Karte. Über eine Funkzellenabfrage lässt sich für staatliche Stellen einsehen, welche Geräte zu einem bestimmten Zeitpunkt in einer bestimmten Funkzelle angemeldet waren. Alexander Paul von der Digitalberatung resist.berlin sagt: „Wenn man mit einer SIM-Karte ein Handy benutzt, weiß der Mobilfunkanbieter, wo man ist, und diese Information ist über ein vereinheitlichtes Portal relativ leicht von Behörden abfragbar.“
Die Information, welche Geräte sich an einem gegebenen Ort befinden, liefert auch ein IMSI-Catcher – eine Art Fake-Funkmast. Manche dieser IMSI-Catcher können auch Gespräche und Datenverkehr über das Mobilfunknetz mitschneiden. Bei modernen Übertragungsstandards wie 4G sind solche Angriffe aufwändiger. Moderne Telefone haben deshalb eine Option, 2G komplett zu deaktivieren.
So sicher ist der Flugmodus
Alexander Paul sagt: „Die Mobilfunkkomponente des Handys kann leicht getrackt werden, der Flugzeugmodus ist aber eine gute Waffe dagegen. Dann kann man im Alltag sein Handy als Handy benutzen. Man kann aber dann, wenn man im Flugzeug-Modus ist, auch an Orte gehen, an denen man nicht so gerne gesehen werden möchte.“
Das Telefon verrät seinen Standort auch, wenn es mit einem W-LAN oder einem Bluetooth-Gerät kommuniziert. Die MAC-Adresse, die in diesem Fall weitergegeben wird, ändert sich bei modernen Geräten jedoch häufig regelmäßig. Das erschwert das Tracking. Mit einem Google-Pixel-Telefon sei es auf jeden Fall möglich, über öffentliche W-LAN-Netze anonymisiert und ohne Angabe des Standorts zu kommunizieren, sagt Alexander Paul. Allerdings müsse man dabei ein Virtual Private Network (VPN) oder das Tor-Netzwerk nutzen.
Datenschutz per VPN
Ein VPN-Service schaltet zwischen Anfragendem und Angefragtem einen Rechner zwischen. Die gesamte Kommunikation vom persönlichen Gerät zum VPN-Server wird verschlüsselt. Wer eine Seite der Kommunikation beobachtet, bekommt nur mit, dass ein Gerät diesen VPN-Server anfragt oder von ihm angefragt wird.
Bei der Nutzung von VPN über mobile Daten fallen allerdings über die Funkmasten weiter Standortdaten an. Dazu kommt der kleine Nachteil, „dass man, je nachdem wo das VPN ins Internet geht, Webseiten vielleicht in einer anderen Sprache sieht“, sagt Alexander Paul von resist.berlin.
Wichtig bei der Nutzung von VPN ist, einen seriösen Anbieter zu wählen. Denn der hat ja letztlich Zugriff auf den gesamten Datenverkehr. Alexander Paul und resist.berlin empfehlen ProtonVPN. Das sei in einer eingeschränkten Version kostenlos, wodurch über die Zahlungsmethode keine Rückschlüsse auf die Nutzer*innen getroffen werden könnten. Außerdem sei es ohne Account nutzbar, ausreichend schnell und logge keine IP-Adressen. Das Unternehmen dahinter habe Sicherheitsprüfungen erfolgreich bestanden und wandele sich gerade zu einer Non-Profit-Organisation.
Eine Auswahlhilfe, welche Faktoren man bei der VPN-Anbieterwahl beachten sollte, bietet die EFF.
Das VPN-Prinzip schützt den Datenverkehr nicht nur im öffentlichen W-LAN sondern auch vor dem persönlichen Mobilfunk- oder Festnetzanbieter. Janik Besendorf vom Digital Security Lab der Reporter ohne Grenzen sagt: „Es gibt ja Gesetze, die sagen, dass die Provider auf gerichtliche Anordnung Daten herausgegeben müssen. Und das machen die auch alle. Sonst müssten sie so hohe Strafzahlungen zahlen, dass sie irgendwann bankrott gehen würden.“
Tor zur Anonymität
Das Tor-Netzwerk macht im Prinzip das Gleiche wie ein VPN, nur dass es standardmäßig drei Rechner zwischenschaltet. Die Nachrichten gehen dabei über zufällige andere Rechner ins Internet, werden aber vorher mehrmals verschlüsselt. Das hat zur Folge dass kein*e Rechnerbetreiber*in weiß, von wo nach wo das Datenpaket geht.
Allerdings gibt es laut Alexander Paul von resist.berlin aktuell keinen zuverlässigen Tor-Client für Android. Der Client Orbot schicke, wenn er abstürze, die Daten unter Umständen offen durchs Internet. „Und solche Vorfälle kann man sich zum Beispiel im aktivistischen Bereich halt einfach nicht erlauben. Dann lieber ein etabliertes, qualitatives VPN benutzen. Dann kann man ja immer noch den Tor-Browser in einem Profil mit VPN benutzen. Aber der Basisschutz sollte durch den VPN erfolgen“, sagt er.
Es ist allerdings ein offizieller Tor-Client für Android in Arbeit. „Der wird vermutlich besser als Orbot“, sagt Alexander Paul.
Der Tor-Browser für Laptop- oder Desktopcomputer kann die Datensicherheit auf jeden Fall deutlich verbessern. Um einen Account, der über Tor bedient wird, mit dem oder der Nutzer*in zu verknüpfen braucht es aufwändige Überwachung, die dann per zeitlicher Korrelation zu belegen versucht, dass sich beispielsweise ein bestimmter Account immer dann einloggte, wenn sich eine Person an ihren Rechner setzte.
Aaron Wey von der CryptoParty-Bewegung sagt: „Das ist ein Szenario, das den Tor-Leuten bekannt ist und das die für die große Schwäche von Tor halten. Wenn jemand die Ressourcen dafür motivieren kann, dann kann auch Tor nichts machen.“
Daten sicher löschen
Wer sich datensparsam durchs Netz bewegen möchte, sollte außerdem keine Fotos von sich im Netz veröffentlichen, dann kann mensch auch nicht mit PimEyes und ähnlichen Suchmaschinen gefunden werden – so lange auch niemand anderes ein Foto hochlädt.
Wie man Google möglichst datensparsam verwendet, kann man hier lernen. Ein nützliches Werkzeug der Datensparsamkeit sind auch verschwindende Nachrichten. Denn wenn irgendwer irgendwann Zugriff auf das Gerät erhalten sollte, fällt so zumindest nicht gleich auch die komplette über Jahre gesammelte Kommunikation in fremde Hände.
Andere Daten, die nicht mehr benötigt werden, sollte man als datensparsame Person ebenfalls löschen. Und zwar am besten so, dass sie sich nicht wiederherstellen lassen. Das bedeutet, sie etwa auf Festplatten und USB-Sticks zu überschreiben, was einige Zeit in Anspruch nehmen kann. Falls das nicht möglich ist, bleibt noch die physische Zerstörung des Datenträgers. Auch deshalb empfiehlt es sich, die Daten zu verschlüsseln, so dass auch mutmaßlich gelöschte Daten unzugänglich bleiben.
Datenschutzfreundliche E-Mail-Anbieter
Wer seine Geräte an der wilden Verbreitung persönlicher informationen hindern will, sollte keine unbekannten USB-Sticks einstöpseln, denn es gibt Schadsoftware, die dann ohne weiteres Zutun übertragen wird.
Wichtig für die Themen Datenschutz und Datensicherheit ist auch die Wahl des E-Mail-Anbieters. Die Dienste unterliegen zwar ähnlichen Gesetzen wie die Internetserviceprovider, müssen also auf gerichtlich bestätigte Anfragen von Sicherheitsbehörden mit der Herausgabe von Nutzer*innendaten reagieren. „Allerdings gibt es einige, die immerhin veröffentlichen, wie viele Anfragen sie bekommen, wie viele dieser Anfragen rechtmäßig waren, wie viele sie beantwortet haben. Und die auch darüber berichten. wenn sie zum Beispiel vor Gericht sich über diese Anordnungen auseinandersetzen. Das wären zum Beispiel Posteo, Mailbox.org und Tuta, die mir da einfallen“, sagt Janik Besendorf.
Es gibt auch einige Möglichkeiten, den Datenausstoß beim Browsen zu verkleinern. Das Deaktivieren von Drittanbieter-Cookies zum Beispiel. Oder bei sehr hohem Sicherheitsinteresse das Deaktivieren von JavaScript. „JavaScript im Browser erhöht die Angriffsoberfläche und ermöglicht weitreichendes Fingerprinting“, sagt Alexander Paul von resist.berlin. Ohne JavaScript könne aber nur noch ein Bruchteil der Webseiten normal funktionieren.
Für die allermeisten Menschen sei diese Sicherheitsvorkehrung deshalb vermutlich nicht praktikabel, aber „wer supervorsichtig unterwegs sein will, kann natürlich JavaScript pauschal deaktivieren und dann bei vertrauenswürdigen Seiten per-site wieder aktivieren. Darüber könnte man zum Beispiel als Journalist*in nachdenken, die/der regelmäßig Links von Quellen bekommt und die sicher sichten möchte“, sagt er.
Datensparsam surfen
Allen Notebook- und Desktop-PC-Nutzer*innen empfiehlt Alexander Paul den Einsatz von uBlock Origin, einem Addon, das nicht nur Werbung und Schadsoftware blockiert, sondern auch Online-Tracker.
Das Add-on Privacy Badger von der Electronic Frontier Foundation sorgt selbstlernend für Datenschutz. Außerdem kann auch schon die Wahl des Browsers beeinflussen, wie viele Daten vom Gerät abfließen. Die Firefox-Variante Firefox Klar etwa gilt als besonders datenschutzfreundlich.
Für Mobilgeräte rät Alexander Paul von Firefox-basierten Browsern ab, da diese gegenüber Chrome Sicherheitsnachteile hätten. Dabei geht es vor allem darum, wie die sogenannten Sandboxes bei den Browsern implementiert sind. Vereinfacht gesagt: Wie einfach ist es für eine bösartige Website, aus dem Browserfenster auszubrechen und dem restlichen Betriebssystem zu schaden?
Steht Datenschutz im Vordergrund, macht Firefox es den Nutzer*innen leichter. Bei Chrome auf Mobilgeräten empfiehlt Paul daher, AdGuard als privates DNS einzutragen. Dabei ist interessant zu wissen, dass man je nachverfolgbarer wird, je mehr Einstellungen man am Browser verändert. Die Logik dahinter nennt sich Fingerprinting. Damit werden Nutzer*innen anhand ihrer Browsereinstellungen identifiziert.
CryptoParty-Veranstalter Aaron Wey sagt: „Die meisten Browser schicken im Hintergrund sehr viele Metadaten mit. Bildschirmgröße, Sprache, Auflösung, unterstützte Grafikkarte. Da gibt es Studien, dass sehr wenige Merkmale des Browsers dich schon relativ einzigartig machen.“ Der Tor-Browser versuche das zu vermeiden, indem er auf allen Geräten gleich aussieht. „Aber da muss man als Endnutzer verantwortungsvoll mit umgehen, und zum Beispiel möglichst keine Einstellungen ändern. Weil jede veränderte Einstellung dich einzigartiger macht.“
Unkontrolliertes Datenverschleudern droht übrigens besonders bei der Nutzung von Social Media. Front Line Defenders und New York Times haben gute Anleitungen, wie man Social Media datensparsamer nutzen kann. Die viel nettere Variante ist allerdings das Fediverse mit dem Projekt Mastodon, wo es gar keinen zentralen, datenhungrigen Betreiber gibt. Außerdem findet man dort viele netzpolitik.org-Redakteur*innen :)
Mehr Tipps zur digitalen Selbstverteidigung gibt es hier und unter netzpolitik.org/digitale-selbstverteidigung.
Update, 10.9.2024, 11.25 Uhr: Erklärung Tor präzisiert.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Genug mit Verzögern und sachten Empfehlungen: Ein Bündnis aus Gruppen der Zivilgesellschaft will Taten gegen Spionagesoftware sehen. Es fordert von der neuen EU-Kommission klare Regeln für den Einsatz solcher Software.
Eine Gruppe an zivilgesellschaftlichen Organisationen fordert mit einem heute veröffentlichten Statement mehr Taten gegen Staatstrojaner. Die Spionageprogramme sollen stark eingeschränkt werden, die kommerzielle Entwicklung soll ganz verboten werden. Bis es neue Regeln gibt, sollen überhaupt keine Staatstrojaner mehr entwickelt werden dürfen.
Hintergrund für die Forderungen ist der Pegasus-Skandal vor inzwischen zwei Jahren. In dessen Rahmen wurde bekannt, dass auch EU-Regierungen mit Staatstrojanern Oppositionelle und Journalist:innen überwachten. Um diesen Skandal aufzuarbeiten, richtete das Europäische Parlament einen Untersuchungsausschuss ein. Den hat netzpolitik.org ausführlich begleitet.
Die praktischen Konsequenzen des Ausschusses waren jedoch zunächst gleich null. Die meisten Mitgliedstaaten versteckten sich hinter der Ausrede, es gehe bei ihren Spähaktionen um Fragen der nationalen Sicherheit, in die die EU nicht eingreifen darf.
Spanien eröffnete zwar 2022 ein Verfahren, das wurde aber wegen der fehlender Kooperation Israels eingestellt. Dort sitzt das Unternehmen hinter dem Trojaner Pegasus, die NSO Group. Anfang dieses Jahres nahm dann in Polen eine parlamentarische Untersuchungskommission Fahrt auf. Die spanische Untersuchung wurde wiedereröffnet, nachdem französische Behörden neue Informationen übergeben hatten. In Griechenland erklärte dagegen der Oberste Gerichtshof den Skandal einfach für beendet.
Mitgliedstaaten mauern, Kommission verzögert
Die EU-Kommission reagierte während all dessen ausweichend und lieferte keine konkreten Vorschläge, wie die Situation verbessert werden könnte.
„Die Antwort der Kommission auf die Ergebnisse des Pegasus-Ausschusses hat die Erwartungen nicht erfüllt“, sagte Silvia Lorenzo Perez zu netzpolitik.org. Sie arbeitet beim Center for Democracy and Technology Europe (CDT) zu Spionagesoftware und Menschenrechten. „Von der Leyen und die zuständigen Kommissar:innen haben nicht die Führung gezeigt, die nötig gewesen wäre, um für die Werte der EU zu kämpfen und Mitgliedstaaten zur Verantwortung zu ziehen“, sagte sie.
Die Kommission arbeitet gerade noch an einem Text, mit dem sie auf den Skandal reagieren will. Der soll aber nur Empfehlungen an die Staaten enthalten, keine Verpflichtungen – was für starke Kritik aus dem Ausschuss sorgte. Seit der Ankündigung habe es außerdem keinerlei Fortschritt gegeben, sagt Lorenzo Perez. „Wir hoffen, dass die Verzögerung nicht in schwachen Empfehlungen mündet und dass die Kommission so hart sein wird, wie die Lage es verlangt.“
Es braucht eine grundlegende Reform
Zusammen mit anderen Organisationen wie European Digital Rights und Access Now fordert CDT nun, dass Mitgliedstaaten und EU-Kommission endlich tätig werden. Die EU-Institutionen werkeln gerade nach der Europawahl an ihrer Besetzung für die nächsten fünf Jahre. In Brüssel bringen deshalb Interessenverbände aller Richtungen ihre Forderungen vor, womit sich die EU in dieser Zeit beschäftigen soll.
Die Koalition fordert, dass die Kommission die Rahmenbedingungen für Spionagesoftware in der EU grundlegend umbauen soll. Software, die zu stark in Grundrechte eingreift, soll in Europa nicht mehr hergestellt, exportiert, verkauft, importiert, aufgekauft, transferiert oder benutzt werden dürfen.
Bis diese Reform umgesetzt ist, fordern die Organisationen ein komplettes Moratorium auf Staatstrojaner. Privatunternehmen sollen gar keine kommerzielle Spionagesoftware mehr herstellen dürfen. Trojaner sollen außerdem nicht mehr so einfach aus der EU exportiert werden dürfen – dazu soll es eine Garantie brauchen, dass sie nicht für Menschenrechtsverletzungen genutzt werden.
Die Organisationen erwähnen besonders die ePrivacy-Verordnung. Dieses Gesetz plant die EU seit langem, die Mitgliedstaaten blockieren es aber seit Jahren. Eine Einigung ist sehr unwahrscheinlich. In Brüssel wird deshalb momentan darüber geredet, den Vorschlag zurückzuziehen und einen neuen Aufschlag zu starten. Der solle dafür sorgen, dass private Kommunikation besser geschützt wird, fordert das Statement.
„Nationale Sicherheit“ soll eingegrenzt werden
Gute EU-Regeln helfen aber nicht, wenn sich die Mitgliedstaaten einfach darüber hinwegsetzen. Deshalb soll die Kommission auch überprüfen, ob sich die nationalen Regierungen an schon gültiges Recht halten. Wenn nicht, dann soll sie diese Regierungen verklagen und europäisches Recht durchsetzen.
Ein großes Problem ist, dass sich die Regierungen immer wieder hinter den Schutzschild der nationalen Sicherheit zurückziehen können. Die EU hat dann nichts mehr zu sagen. Um das etwas schwerer zu machen, soll die Kommission eine einheitliche Definition von nationaler Sicherheit durchsetzen und dafür sorgen, dass die Mitgliedstaaten sie nicht nur als leere Ausrede nutzen.
Die Mitgliedstaaten sollen wiederum aufhören, in jedes neue europäische Gesetz eine Ausnahme für ihre nationale Sicherheit hineinzuverhandeln. Das würde Bürger:innen weiteren Grundrechtsverletzungen aussetzen, heißt es in dem Statement. Stattdessen sollen sie dafür sorgen, dass Opfer von Staatstrojanern vor Gericht ihre Rechte verteidigen können.
Gute Worte haben die Organisationen nur für das Parlament. Das soll weiterhin überwachen, wie die Mitgliedstaaten Staatstrojaner einsetzen. Das Parlament sei mit der Europawahl zwar nach rechts gerückt, meint Silvia Lorenzo Perez. Viele der Abgeordneten, die sich gegen Staatstrojaner eingesetzt haben, seien aber wiedergewählt worden. „Wir erwarten von ihnen, dass sie ihren Kampf in der neuen Legislaturperiode fortsetzen, besonders weil viele Abgeordnete aus fast allen Fraktionen selber Opfer von Spionagesoftware geworden sind“, sagt sie.
Parlament hat noch eine große Chance
Die Zivilgesellschaft hat keine schlechten Chancen mit dem Versuch, den Pegasus-Skandal noch einmal auf der Agenda nach oben zu schieben: Finnland hat für die zweite Kommission Ursula von der Leyen eine neue Kommissarin nominiert, Henna Virkkunen.
Virkkunen sitzt gerade noch im Europaparlament – wo sie in der letzten Legislaturperiode Mitglied im Pegasus-Ausschuss war. Sie hatte auch zu verschiedenen anderen Digitalthemen gearbeitet, besonders zu Cybersicherheit. Es könnte deshalb gut sein, dass sie in der neuen Kommission einen Digitalposten bekommt, und damit Einfluss darauf, wie sich die neue Kommission zu Spionagesoftware positionieren wird.
Und das Parlament könnte auch noch einmal Druck machen, findet Sophie in ‘t Veld. Sie saß bis zur vergangenen Wahl lange im Europaparlament, unter anderem im Pegasus-Ausschuss. Sie weist darauf hin, dass die neuen Kandidat:innen für die Kommission die Zustimmung des Parlaments brauchen. Die Abgeordneten sollten deshalb einer Kandidatin nur zustimmen, wenn diese sich verpflichtet, die Empfehlungen des Parlaments zu Staatstrojanern umzusetzen, fordert in ‘t Veld. Das sieht auch Lorenzo Perez so.
„Es wäre besser gewesen, wenn das Parlament das bei der Bestätigung von von der Leyen getan hätte, aber diese Gelegenheit hat es leider verpasst“, so in ‘t Veld zu netzpolitik.org. Wenn das Parlament seinen Einfluss jetzt nicht nutze, dann werde es danach keinen mehr haben. „Jetzt ist der Zeitpunkt, wo die Abgeordneten zeigen sollen, dass sie es ernst meinen.“
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.