legal contact rss
 

netzpolitik.org

24.04.2024 09:22

Den EU-Staaten gelingt es weiterhin nicht, sich auf eine gemeinsame Position zur Chatkontrolle zu einigen. Das geht aus einem internen Verhandlungs-Protokoll hervor, das wir veröffentlichen. Einige Staaten bezweifeln bereits, ob die belgische Ratspräsidentschaft überhaupt noch eine Einigung herbeiführen kann.

EU-Kommissarin Ylva Johansson und belgische Innenministerin Annelies Verlinden
Kämpfen um Chatkontrolle: EU-Kommissarin Johansson und Belgiens Innenministerin Verlinden. – Alle Rechte vorbehalten IMAGO / Belga

Die Chatkontrolle spaltet die EU. Die Kommission will Internetdienste verpflichten, die Inhalte ihrer Nutzer auf Straftaten zu durchsuchen und diese an Behörden zu schicken. Das Parlament bezeichnet das als Massenüberwachung und fordert, nur unverschlüsselte Inhalte von Verdächtigen zu scannen.

Die EU-Staaten streiten seit zwei Jahren und können sich nicht einigen. Manche Länder unterstützen den Vorschlag der Kommission, andere eher die Position des Parlaments. Letzte Woche hat der Rat erneut in der Arbeitsgruppe Strafverfolgung verhandelt. Wir veröffentlichen ein weiteres Mal das eingestufte Protokoll der Sitzung.

Anlasslos und massenhaft

Die EU-Kommission will Internetdienste verpflichten, sämtliche Nutzer anlasslos zu durchsuchen. Der Juristische Dienst des Rats hält diese allgemeine und unterschiedslose Chatkontrolle für illegal. Das EU-Parlament will einen Anfangsverdacht voraussetzen.

Die belgische Ratspräsidentschaft schlägt vor, weiterhin alle Nutzer zu überwachen und bekannte strafbare Kinderpornografie sofort an ein EU-Zentrum zu leiten. Unbekannte Kinderpornografie und Grooming sollen jedoch erst ab einem Grenzwert ausgeleitet werden. Die Niederlande kritisieren in jeder Verhandlungsrunde, dass diese Inhalte nicht präzise genug erkannt werden können.

Laut dem Vorschlag sollen Diensteanbieter Inhalte erkennen und ab dem zweiten Hit ausleiten, aber vom ersten Hit nichts erfahren. Wie das technisch funktionieren soll, hat Belgien nicht erklärt. Jetzt hat die Ratspräsidentschaft diese Geheimhaltung wieder gestrichen, „aus technischen Gründen“. Laut Frankreich widerspricht es jedoch dem Digitale-Dienste Gesetz, wenn Anbieter von Straftaten wissen, diese aber nicht melden.

Der aktuelle Vorschlag findet unter den EU-Staaten keine Mehrheit. Einige Staaten fordern, alle Nutzer zu scannen und Inhalte ab dem ersten Verdacht auszuleiten, darunter Bulgarien, Irland und Estland. Andere Staaten lehnen eine anlasslose und massenhafte Chatkontrolle aller Nutzer ab, darunter Österreich.

Verschlüsselt oder nicht

Die EU-Kommission will, dass Internetdienste auch verschlüsselte Inhalte ihrer Nutzer durchsuchen, zum Beispiel mit Client-Side-Scanning. Hunderte Wissenschaftler kritisieren das als unsicher und gefährlich. Das EU-Parlament will verschlüsselte Inhalte von der Chatkontrolle ausnehmen.

Die Ratspräsidentschaft liefert keine konkrete Antwort auf diese zentrale Frage. Sie will Verschlüsselung gleichzeitig schützen und brechen. Wie das technisch funktionieren soll, fragen sowohl Chatkontrolle-Befürworter Italien als auch Chatkontrolle-Gegner Polen. Eine Antwort ist nicht vermerkt. In bisherigen Sitzungen hatte sich Belgien für Client-Side-Scanning ausgesprochen.

Im aktuellen Vorschlag hat Belgien eine Definition von Ende-zu-Ende-Verschlüsselung wieder gestrichen. Die Niederlande kritisierten das, für das Land muss „zwingend eine Definition enthalten sein“. Belgien lehnt das ab: „Dies würde dazu führen, dass man ‚Federn lasse‘.“

Letzten Sommer hat die EU-Kommission eine Arbeitsgruppe Zugang zu Daten für eine wirksame Strafverfolgung gegründet. Dort fordern Polizei und Geheimdienste regelmäßig einen Stopp von oder sogar Verbot von wirksamer Ende-zu-Ende-Verschlüsselung. Auf Nachfrage von Italien bestätigte Belgien, „dass die Verhandlungen in der [Arbeitsgruppe] andauerten, es bestehe ständiger Austausch“.

Beim Streit um Verschlüsselung ist also weiterhin keine Einigung in Sicht. Einige Staaten wollen verschlüsselte Inhalte scannen, darunter Spanien, Rumänien und Irland. Andere Staaten wollen verschlüsselte Inhalte schützen, darunter Deutschland, Polen und Österreich. Einige Staaten verweisen einfach auf ihre bereits bekannte Kritik.

Alter und Ausnahmen

Auch in anderen Bereichen machen die Verhandlungen keine Fortschritte. Um Grooming zu erkennen, müssen Anbieter das Alter ihrer Nutzer wissen. Frankreich weist darauf hin, „dass noch keine ausgereiften Technologien zur Verfügung stünden“. Belgien verweist auch dieses Problem nur in andere Arbeitsgruppen, die Lösungen finden sollen.

Dafür schlägt die Ratspräsidentschaft vor, Geheimdienste, Polizei und Militär von der Chatkontrolle auszunehmen. Diese Idee hatten die Staaten bereits letztes Jahr erst aufgenommen und dann wieder gestrichen. Frankreich hat „zahlreiche Fragen zur praktischen Umsetzung“ des Vorschlags.

Jetzt schlägt Belgien sogar vor, „vertrauliche Informationen, einschließlich Verschlusssachen, unter das Berufsgeheimnis fallende Informationen und Geschäftsgeheimnisse“ von der Chatkontrolle auszunehmen. Dieser Vorschlag verdeutlicht, dass Chatkontrolle und Client-Side-Scanning vertrauliche Kommunikation gefährden. Ob sich die Staaten auf diese Ausnahmen einigen können, ist nicht bekannt.

Belgien bald gescheitert

Es ist nicht erkennbar, wie überhaupt eine Einigung aussehen soll. Die Fronten sind verhärtet. Einige Staaten wollen eine möglichst umfassende Chatkontrolle, andere eine möglichst begrenzte Chatkontrolle. Manche Staaten bezweifeln wohl bereits, ob Belgien überhaupt noch eine Einigung herbeiführen kann.

Bereits am Tag nach der Verhandlung haben wir berichtet:

Die EU-Staaten haben gestern über die Chatkontrolle verhandelt. Eine Einigung ist weiterhin nicht in Sicht. Eine qualifizierte Mehrheit der Staaten kann dem letzten Kompromiss-Vorschlag nicht zustimmen. Die belgische Ratspräsidentschaft muss sich etwas Neues überlegen. Die nächste Sitzung ist wohl erst in drei Wochen.

Das Protokoll bestätigt diese Einschätzung. Die EU-Staaten haben immer noch keine der wesentlichen Fragen gelöst. In den Worten der Ratspräsidentschaft: „Insgesamt gibt es derzeit noch keine ausreichende Unterstützung für eine allgemeine Ausrichtung.“

Wie es aussieht, muss sich Belgien nach vier Monaten etwas Neues einfallen lassen. Zwei Monate haben sie noch, dann geht die Präsidentschaft an Ungarn. Am 8. Mai verhandelt die Arbeitsgruppe erneut.


Hier das Dokument in Volltext:


  • Geheimhaltungsgrad: Verschlusssache – Nur für den Dienstgebrauch
  • Datum: 16.04.2024
  • Von: Ständige Vertretung der BRD bei der EU
  • An: Auswärtiges Amt
  • Kopie: BMI, BMJ, BMWK, BMDV, BMFSFJ, BMF, BKAmt
  • Betreff: Sitzung der RAGS am 15.04.2024
  • Zweck: Zur Unterrichtung
  • Geschäftszeichen: 350.80
  • Kompromissvorschläge: ST 8579 2024 INIT

Sitzung der RAGS am 15.04.2024

I. Zusammenfassung und Wertung

Unter TOP 1 (Informationen der Präsidentschaft) berichtete Vorsitz über verschiedene Termine und Ereignisse im Zuständigkeitsbereich der RAGS.

Der Schwerpunkt der Sitzung lag bei TOP 2 (Entwurf der CSAVO). RAGS erörterte die vom Vorsitz unterbreiteten neuen Textvorschläge. Vorsitz schlussfolgerte, dass es insgesamt derzeit noch keine ausreichende Unterstützung für eine allgemeine Ausrichtung gebe. Er werde aber weiter daran arbeiten und einen neuen Ansatz vorlegen, der in der Sitzung der RAGS am 08.05.2024 beraten werden solle.

Unter TOP 3 stellte KOM die wesentlichen Elemente ihres staff working document zum VO-Entwurf Migrant Smuggling vor.

Unter TOP 4 berichtete der Vorsitzende der European Firearms Experts über die Aktivitäten dieser Gruppe.

II. Im Einzelnen

TOP 1: Information by the presidency

[…]

Zur Verlängerung der Interims-VO: Das EP stimmte der Verlängerung mit 469 „ja“, 112 „nein“ Stimmen und 37 Enthaltungen zugestimmt; die Zustimmung des Rates solle könnte am 29.04.2024 im AGRIFISH-Rat erfolgen (A-Punkt). Eine Einigung der dauerhaften CSAVO müsse in 2025 erfolgen, damit sie vor dem Auslaufen der Interims-VO im April 2026 in Kraft treten könne.

TOP 2: Proposal for a Regulation of the European Parliament and of the Council laying down rules to prevent and combat child sexual abuse

Vorsitz begann mit der Aussprache zur Methodologie. Kommentare der MS seien bei der Überarbeitung aufgenommen worden.

DEU trug zu allen Punkten anhand der abgestimmten Weisung vor. Es werden im Folgenden daher die relevanten Wortmeldungen der anderen MS dargestellt.

FRA wies daraufhin, dass sehr große Dienste (VLOPs und VLOSEs) miteinander sprechen müssten, um mehrere Konten eines Nutzers (Pseudonyme) zu erkennen und zusammenzuführen. SWE legte PV ein, begrüßte Vorschläge aber grundsätzlich. ITA legte PV ein. HUN legte ebenfalls PV ein, eine erste Prüfung habe aber keine Kritikpunkte ergeben. EST begrüßte die Vorschläge der Präsidentschaft insgesamt, sie entsprächen im Wesentlichen den EST-Forderungen. Auch die Kategorisierung werde grds. begrüßt. Sie bedeute gewisse Aufwände für Dienste, die aus EST-Sicht aber erforderlich und angemessen seien. Es stellten sich Fragen zur Überprüfbarkeit von Ergebnissen der Altersverifikation. Auch sei für kleine und mittlere Dienste nicht sichergestellt, dass diese die Aufwände tragen könnten. Die Rolle von INHOPE solle weiter gestärkt werden. KOM kritisierte vorgeschlagenen Risikokategorien als ungeeignet. Es stehe im Raum, Anbieter als weniger sicher einzustufen, wenn sie den Anforderungen an „Safety by Design“ nicht gerecht würden. Diese Prüfung solle nicht gedoppelt werden. Aus SWE Sicht seien die Vorgaben in Abschnitt 5 der vorgeschlagenen Methodologie teilweise umfangreich. Anbieter sollten in diesem Prozess konsultiert werden, ggf. könnten die Vorgaben verschlankt werden.

Vorsitz wies erneut daraufhin, dass Details durch KOM im Komitologieverfahren festgelegt werden sollten. FRA sprach die Taskforce Altersverifikation an, die sich im Wesentlichen mit der Digitalen Wallet befasse. Diese werde allerdings erst im Jahre 2026 zur Verfügung stehen. „Zero Knowledge“ Technologien stünden noch später zur Verfügung. Ggf. müsste man jedenfalls hinweisen, dass noch keine ausgereiften Technologien zur Verfügung stünden. Vorsitz wies auf Arbeiten – auch des EP – zur Ausgestaltung von Altersverifikationen hin. Ggf. gelte es, einen Übergangszeitraum zu überbrücken, was auch schriftlich festgehalten werden könne. KOM offen, Hinweis auf technologische Voraussetzungen – auch zum Erlass von Aufdeckungsanordnungen – im VOE zu ergänzen.

ESP wies darauf hin, dass weitere Änderungen komplizierte und kleinteilige Regelungen umfassten. Da Einigung nicht absehbar sei, weil sich einige MS nicht bewegten, stelle sich die Frage, ob das Vorgehen richtig sei. Vorsitz erwiderte, ohne weitere Vorschläge werde auch keine Einigung gefunden.

Artikel 1: Gegenstand und Anwendungsbereich

FRA fragte nach einer Definition von „government accounts“. Es stellten sich zahlreiche Fragen zur praktischen Umsetzung von Absatz 2a. Vorsitz will Möglichkeit einer ergänzenden Definition aufgreifen. POL begrüßte Aufnahme von Absatz 2a, er schütze u.a. Arbeit der Strafverfolgungsbehörden. CZE begrüßte, dass die Regelunge der Absätze 2a und 2b aus den EG zurück in den verfügenden Teil gezogen wurden und wiederholte Forderung zur alten Fassung von Absatz 5 zurückzukehren.

ITA verwies zunächst allgemein auf JD-Rat. Europäische Rechtsprechung weise eine gewisse Spannung mit dem vorgeschlagenen Umgang mit Verschlüsselung auf. Absatz 5 spreche davon, dass keine Pflicht zur Entschlüsselung bestehe. Es bedürfe auch Schutzstandards von Verschlüsselung. ITA fragte weiter zum Fortschritt der Verhandlungen in der HLWG. Vorsitz wurde auch um Erläuterung der Inhalte von Absätzen 2a und 2b gebeten.

Auf Nachfrage erläuterte KOM zum Zusammenhang zwischen der Neufassung der CSARL (COPEN-Zuständigkeit) und der CSAVO: die CSARL sei ein strafrechtliches Instrument mit einer eigenen Rechtsgrundlage. Es harmonisiere Definitionen und Strafrahmen. Verkürzt stelle es sich wie folgt dar: Die RL lege Pflichten für MS fest, während die VO Pflichten für Diensteanbieter vorsehe. Beide Vorhaben ergänzten sich gegenseitig. Die CSARL greife die Positionen einiger MS auf, die Aufgaben des EU-Zentrums im Bereich der Prävention zu stärken.

Vorsitz bestätigte, dass die Verhandlungen in der HLWG andauerten, es bestehe ständiger Austausch. Die weiteren ITA Verständnisfragen seien im Wesentlichen bereits beantwortet worden.

EST bat um eine Definition von „Geschäftsgeheimnissen“ i.S.d. Absatz 2b.

NLD bedauerte, dass die Definition in EG 26 verkürzt wurde. Eine Definition von E2EE müsse für NLD zwingend enthalten sein. Vorsitz sprach sich dafür aus, keine detaillierte Definition von E2EE aufzunehmen. Dies würde dazu führen, dass man „Federn lasse“. Ohne klare Definition werde Vorsitz von der Aufnahme einer solchen absehen. Unter CZE-Präsidentschaft habe sich eine Mehrheit für die Einbeziehung von E2EE ausgesprochen.

HUN mit PV.

Artikel 3 und 4: Risikobewertung und Risikominderung

POL unterstützte Änderungen in Zusammenhang mit EG 16a. Insgesamt bedürfe es weiterer Änderungen mit Blick auf den Umgang mit Verschlüsselung.

LVA fragte nach parallelen Fristen; Aufdeckungsanordnungen unterliegen langen Anordnungsfristen während derer evtl. erneute Risikobewertung erforderlich werden könnte. Es bedürfe Klarheit, welche Anforderungen in diesem Zusammenhang an die Dienste gestellt werden.

Vorsitz stellte die Klärung dieser Frage, die sich auf Artikel 3 Abs. 4 beziehe, zurück.

Artikel 5: Risikoberichte und -kategorisierung

Vorsitz erläuterte, dass die Inhalte des Annex 14 weiteren Änderungen unterliegen könnten. Wesentliche Inhalte sollten im VO-Text (abschließend) geregelt werden.

EST fragte nach der Umsetzbarkeit der Erhebung der Daten durch die Anbieter sowie deren Überprüfbarkeit. Vorsitz erläuterte, dass die Überprüfung durch die nationalen Koordinierungsbehörden in den MS erfolge.

Für POL gehe Absatz 2a in die richtige Richtung. Die Prüfung dauere an und sollte ggf. durch den EU-Datenschutzbeauftragten ergänzt werden.

FRA hinterfragte, dass in Absatz 2a lit. g Prozentsätze festgeschrieben werden. Das sei sehr kleinteilig. Vorsitz widersprach, dass eine solche Detailtiefe für erforderlich gehalten werde.

Artikel 7: Erlass von Aufdeckungsanordnungen

FRA kritisierte, dass in Absatz 10 zwischen neuem CSAM und Grooming unterschieden werde. Die Speicherdauer sei noch unklar. Die Streichung von „without the provider beeing notified“ führe dazu, dass der Anbieter Kenntnis von allen Hits erhalte, dies stehe allerdings in Widerspruch zu Artikel 18 DSA sowie zu US-amerikanischen Vorgaben. Vorsitz erwiderte, dass Artikel 18 DSA Pflichten von der Kenntnis abhängig mache. Die Streichung in Absatz 10 sei aus technischen Gründen erfolgt.

KOM erläuterte auf FRA Nachfrage, KOM-Entwurf sehe vor, das EU-Zentrum über CSAM zu informieren. Es gelten die Möglichkeiten des „redress“ des Artikel 9.

SWE begrüßte die Verschärfung von Absatz 10 grds. Es sollte klargestellt werden, dass beim Umgang mit bekanntem CSAM bereits ein Treffer ausreiche.

BGR – unterstützt durch IRL – kritisierte das in Absatz 10 vorgeschlagene Verfahren, das ggf. dazu führe, dass Anbieter die Verbreitung von CSAM wissentlich hinnehme. Bei einem Upload von neuem CSAM bedürfe es umgehender Reaktion, damit sich dieses nicht weiterverbreite. Bei mehreren erforderlichen Hits müsse sichergestellt sein, dass CSAM nicht aus technischen Gründen „verloren“ gehe.

Für EST sei Absatz 10 ein „gutes Negativbeispiel“. Aus Sicht der Kinder stelle Absatz 10 keine Verbesserung dar.

Für ITA wie POL sei technische Umsetzung von Aufdeckungen in verschlüsselten Diensten ohne Verschlüsselung zu brechen offen. Vorsitz regte die Befassung nationaler technischer Experten in der RAGS an.

SVN und AUT mit PV.

AUT verwies auf bekannte Kritik am Vorschlag.

POL fragte nach der Verhältnismäßigkeit bei der Festlegung auf bestimmte Nutzerinnen und Nutzer. Neben dem Schutz von Privatsphäre müsse der Schutz von Kindern bedacht werden.

NLD wiederholte Kritik an Aufdeckung von neuem CSAM und Grooming.

IRL stimmte Änderungen in Absatz 4 zu.

ESP erinnerte daran, dass die Eingrenzung von Artikel 7 auf Dienste mit hohem Risiko Hintertüren für Dienste lasse. Dienste könnten sich dadurch in eine niedrigere Kategorie „retten“, die Schlagkraft des Vorschlags werde reduziert.

ESP fragte weiter, was mit „hits“, die während einer Aufdeckungsanordnung auffielen passiere, wenn erst unter einer weiteren Anordnung weitere „hits“ hinzukämen. Es sei nicht vertretbar, dass diese „hits“ im Ergebnis keine Konsequenzen nach sich zögen.

PRT wie NLD wiesen auf Verfassungskonflikt hin, wenn Anordnungen nicht durch Justizbehörden erlassen werden.

DNK mit PV und grds. Kritik an den vorgeschlagenen Begrenzungen, die Anbieter zu einem Abwarten zwingen könne.

Für HUN zeige die Diskussion, dass Absatz 10 weiterer Konkretisierung bedürfe.

Artikel 10: Technologien und Schutzvorkehrungen

FRA und NLD baten JD-Rat um Stellungnahme, ob die in Abs. 2 vorgesehenen Durchführungsrechtakte der KOM zulässig seien. JD-Rat machte geltend, dies noch nicht abschließend beurteilen können. Es bedürfe noch näherer Klärung, was der Begriff Technologie bedeute und ob auch CSS davon erfasst sei. JD-Rat wies allgemein auf die sog. Meroni-Doktrin des EuGH aus dem Jahr 1958 hin.

Auf Bitte mehrerer MS sagte Vorsitz zu, die Ergänzung in Abs. 4 (a) (iii) noch näher zu substantiieren.

POL legte einen PV ein.

Artikel 43, 47a, 53a, 66

Auf Nachfrage von FRA erläuterte KOM, dass eine Stellungnahme des Technologieausschusses rein konsultativen Charakter habe und keine Bindungswirkung entfalten könne.

Erwägungsgründe

Keine Anmerkungen der Delegationen zu den in Dok. 8579/24 vorgeschlagenen Änderungen in den Erwägungsgründen.

Vorsitz schlussfolgerte wie folgt:

  • Zu Artikel 1 müsse man noch weitere Klarstellungen in den Absätzen 2a und 2b vornehmen. Vorsitz werde diese entsprechend umarbeiten. Zu Absatz 5 gebe es derzeit keinen Konsens.
  • Zu den Artikeln 3 und 4 gebe es keine größeren Widersprüche seitens der MS.
  • Zu Artikel 5 seien die Delegationen eher positiv eingestellt, der Feinschliff fehle aber noch. In Absatz 2a müsse man die Kriterien noch „en detail“ ausarbeiten, Vorsitz werde einen Textvorschlag vorlegen.
  • Zu Artikel 7 gebe es geteilte Meinungen, insbesondere zu Absatz 10. Hier müsse man noch Änderungen vornehmen.
  • In Artikel 10 müsse die Rolle des Technologieausschusses noch näher geklärt werden.
  • Insgesamt gebe es derzeit noch keine ausreichende Unterstützung für eine allgemeine Ausrichtung. Vorsitz werde aber weiter daran arbeiten und sich einen neuen Ansatz überlegen, über den er die Delegationen schnellstmöglich informieren werde.
  • Delegationen wurden gebeten, schriftliche Anmerkungen bis 18.04.2024, DS, zu übermitteln.
  • Die Sitzung der RAGS am 08.05.2024 werde sich zu einem großen Teil mit der CSAVO befassen. Vorsitz wolle in dieser Sitzung seinen neuen Ansatz beraten lassen.

[…]


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

23.04.2024 17:16

Jetzt ist wirklich Schluss: Wir verlassen als Redaktion das zur Plattform für Rechtsradikale verkommene Twitter – und freuen uns, wenn ihr uns woanders folgt.

Kothaufen-Emoji
Das Kacke-Emoji, das Twitter bei Presseanfragen an uns verschickt hat, möchten wir an dieser Stelle zurückgeben.

Wir haben uns heute als Redaktion mit großer Mehrheit entschieden, dass wir Twitter nicht weiter mit unseren Inhalten bespielen werden. Die Gründe für unsere Entscheidung liegen auf der Hand, in den letzten Monaten haben bereits andere die Plattform deswegen verlassen: Twitter hat sich seit der Übernahme durch Elon Musk zu einem extrem giftigen und unwirtlichen Ort entwickelt.

Der neue Eigentümer tritt selbst als Unterstützer von Rechtsradikalen in Erscheinung. Er hofiert Hetzer wie Martin Sellner und Björn Höcke und befeuert extrem rechte und verschwörungsideologische Diskurse. Musks technische und inhaltliche Entscheidungen sowie der Exodus vieler demokratischer Accounts haben dazu geführt, dass ein pluraler und offener Diskurs auf der Plattform nicht mehr möglich ist – und stattdessen vorrangig Hass und Hetze stattfinden und verbreitet werden. Auch unter den Inhalten, die wir dort posteten. Wir wissen, dass unsere Follower:innen nicht so sind wie der jetzt vorherrschende Diskurs, aber dennoch ist klar: Es ist vorbei.

Der rapide Fall von der Diskursplattform zum antidemokratischen Spielzeug eines Milliardärs hat gezeigt, wie fragil solche privatisierten Öffentlichkeiten sind – und dass kein Mensch soviel Macht wie Elon Musk haben sollte. Glücklicherweise sehen wir durch Niedergang der Plattform auch offene und freie Alternativen wie das Fediverse deutlicher. Wir hoffen, dass sich dort neue Diskursräume und Öffentlichkeiten noch viel weiter entwickeln als bisher – und freuen uns, Teil davon zu sein.

Ihr könnt uns natürlich weiter abonnieren per RSS-Feed oder auf unterschiedlichen sozialen Medien folgen:

Der Account @netzpolitik_org wird als Archiv weiter bestehen bleiben.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

23.04.2024 08:48

Die Ampel will bei der Reform des Bundesdatenschutzgesetzes bei den Auskunftsrechten Geschäftsgeheimnisse explizit ausnehmen. Die Zusammenarbeit von Datenschutzbehörden der Länder und des Bundes soll nicht weiter institutionalisiert werden. Von diesen kommt jetzt Kritik.

Lupe schaut auf Buch, in dem Datenschutz als Wort steht
(Symbolbild) – Alle Rechte vorbehalten IMAGO / Jürgen Eis

Die geplanten Änderungen im Bundesdatenschutzgesetz (PDF) stehen weiter in der Kritik der Datenschutzbehörden. Die Datenschutzkonferenz (DSK), das informelle Gremium der unabhängigen Datenschutzbehörden des Bundes und der Länder, hat in einer Stellungnahme (PDF) seine Kritik erneuert.

So bleibe eines der Hauptziele der Reform bislang nicht umgesetzt. Angedacht war ursprünglich eine bessere Zusammenarbeit der Datenschutzbehörden in der Datenschutzkonferenz (DSK). Durch eine Institutionalisierung des bisher informellen Gremiums wollte die Ampel dafür sorgen, dass die deutschen Datenschutzbehörden schneller und einheitlicher zu Beschlüssen kommen. Dass die Regierung dieses Versprechen aus dem Koalitionsvertrag nicht einlösen würde, deutete sich schon im September an, als das Bundesinnenministerium (BMI) einen ersten Entwurf veröffentlichte. Bislang hat die Datenschutzkonferenz eine Geschäftsordnung, aber keine ständige Geschäftststelle, welche die Arbeit des Gremiums koordinieren könnte.

Ausnahmeregelung für Geschäftsgeheimnisse

Kritik hat die DSK auch an den Ausnahmeregelungen für Geschäftsgeheimnisse, die im geänderten Bundesdatenschutzgesetz festgeschrieben werden sollen. Laut dem Gesetz sollen Datenschutz-Auskunftsrechte wegen Geschäftsgeheimnissen verweigert werden können. Zwar bestand diese Möglichkeit auch bisher schon, die explizite Erwähnung könnte aber Unternehmen motivieren, hiervon mehr Gebrauch zu machen. Nach Informationen von netzpolitik.org soll sich das Bundesinnenministerium (BMI) für die explizite Nennung der Ausnahmeregelung stark gemacht haben.

Die DSK hält diesen Passus für zu weit gefasst: „Der deutsche Gesetzgeber würde ansonsten eine weitergehende Beschränkung schaffen als der europäische Gesetzgeber im Verordnungstext“, heißt es in der Stellungnahme. Die DSK fordert die Streichung der Ausnahme, das hatte zuletzt auch der Verbraucherzentrale Bundesverband (vzbv) gefordert.

Das neue Bundesdatenschutzgesetz enthält auch Regelungen zum Scoring, beispielsweise für Auskunfteien wie die Schufa. Hier verweist die DSK auf „zahlreiche Unklarheiten in den Regeln“ und regt Nachbesserungen an. Um eine rechtssichere Regelung von Kreditwürdigkeitsprüfungen durch Scoring-Verfahren zu erreichen, empfiehlt die DSK, das Thema in einer Sachverständigenanhörung zu behandeln.

Die DSK wendet sich außerdem dagegen, dass Behörden im Gegensatz zu Unternehmen von Bußgeldern ausgenommen sind. „In der Praxis hat sich gezeigt, dass ein Bedarf für Geldbußen auch im öffentlichen Bereich besteht, um die Schwere eines Verstoßes gegenüber der beaufsichtigten Stelle hinreichend deutlich zu machen und um als Anreiz zu dienen, Datenschutzverstößen aktiv vorzubeugen“, so die DSK in einer Pressemitteilung.

Das Gesetz, das Anfang des Jahres im Kabinett beschlossen wurde, hat noch immer keinen Termin für eine 1. Lesung im Bundestag. Ebenso fand noch keine Sachverständigenanhörung statt.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

22.04.2024 18:30

Eigentlich wollte die Union im Innenausschuss des Bundestags darauf hinwirken, dass die Palantir-Polizei-Software dem bayerischen Vorbild folgend auch im Bund eingesetzt wird. Doch außer den Polizeivertretern sprach sich niemand dafür aus. Es gibt auch keine Rechtsgrundlage. Stattdessen wurde darüber diskutiert, welche Alternativen zur Verfügung stünden.

Polizist im Vordergrund, im Hintergrund angedeutete Datennetzwerke
Mit der Polizei-Palantir-Software hat dieses Symbolbild wenig zu tun, sie soll eher aussehen wie ein Windows 95. – Public Domain generiert mit Midjourney

Der Innenausschuss des Bundestags behandelte heute in einer öffentlichen Anhörung von Sachverständigen das Thema polizeiliche Analysesoftware. Grund war ein Antrag der oppositionellen Fraktion CDU/CSU (pdf), in dem gefordert wird, dass dem Bundeskriminalamt und der Bundespolizei „schnellstmöglich die Nutzung der verfahrensübergreifenden Recherche- und Analyseplattform ‚Bundes-VeRA‘ zu genehmigen“ sei. Die Entscheidung des Bundesinnenministeriums vom Juli 2023 solle revidiert werden. Sie untersagt dem Bundeskriminalamt und der Bundespolizei die Nutzung von „Bundes-VeRA“.

Es geht dabei um eine Software des umstrittenen US-amerikanischen Überwachungskonzerns Palantir, dessen deutsche Tochter ihre Dienste den hiesigen Polizeibehörden für ein „Verfahrensübergreifendes Recherche- und Analysesystem“ (VeRA) anbietet. Die Software verbindet die verschiedenen Datenbanken der Polizei miteinander. Die Unionsfraktion fordert in ihrem Antrag, dass auch die Voraussetzungen geschaffen werden sollen, damit die Bundesländer und ihre Landespolizeien diese polizeiliche Analysesoftware „VeRA“ abrufen können. Eine entsprechende Gesetzesänderung solle auf den Weg gebracht werden.

Palantir steht nicht nur in der Kritik, weil der Konzern eng mit ausländischen Geheimdiensten und Militärs zusammenarbeitet, sondern auch, weil die Software technische und erhebliche rechtliche Probleme aufwirft. Letztes Jahr wurde die Polizei-Palantir-Kooperation daher durch ein Urteil des Bundesverfassungsgerichts deutlich beschränkt.

Noch mehr Verfassungsbeschwerden

Seither gelten detailreiche verfassungsrechtliche Anforderungen mit quantitativen und qualitativen Grenzen in Bezug auf die Art der Daten, mit der die Software gefüttert werden darf. Daran müssen sich sowohl die Gesetzgeber als auch die Polizeien halten. Zudem dürfte sich das Gericht in naher Zukunft erneut mit Fragen der automatisierten Datenanalyse bei der Polizei beschäftigen, denn weitere Verfassungsbeschwerden mit Palantir-Bezug liegen in Karlsruhe schon vor, so etwa seit Oktober 2023 eine Beschwerde gegen das NRW-Polizeigesetz.

Die geladene Sachverständige Simone Ruf von der Gesellschaft für Freiheitsrechte (GFF), deren erfolgreiche Verfassungsbeschwerde bereits zu dem letztjährigen Karlsruher Urteil geführt hatte, erläuterte in der Anhörung, dass auch die Neuregelung in Hessen kritikwürdig sei. Der hessische Gesetzgeber hatte bereits auf das höchstrichterliche Urteil reagiert und eine neue Rechtsgrundlage geschaffen. Ruf erklärte dazu, diese sehe „nicht verfassungskonform aus“. Sie kritisiert an der neuen hessischen Regelung, dass wiederum riesige Datentöpfe in die Analysesoftware integriert seien und zudem die Polizei selbst Fragen der Verhältnismäßigkeit austariert. Auch die Kontrolle sei nicht hinreichend.

Ruf erklärte, dass eine Rechtsgrundlage für den Einsatz der Palantir-Software im Bund fehle, die aber zwingend geschaffen werden müsse. Auch der geladene Bundesdatenschutzbeauftragte Ulrich Kelber betonte, dass eine „spezielle rechtliche Grundlage nötig“ sei. Aktuell könne die Palantir-Software im Bund nicht zum Einsatz kommen, da diese Rechtsgrundlage erst geschaffen werden müsse.

Generell rate die GFF von einem Einsatz von „Bundes-VeRA“ ab, so Ruf. Grund sei die „enorme Streubreite“ dieser Software und das „hohe Risiko falscher Verdächtigungen“. Auch seien bloße „Anekdoten“ über die angebliche Effizienz der Palantir-Software nicht hinreichend, denn der Einsatz sei durch große Intransparenz geprägt.

Palantir

Wir berichten mehr über den Streit um Palantir als uns lieb wäre. Unterstütze unsere Arbeit!

Die Juristin von der GFF kritisierte auch, dass „VeRA“ zwar getestet wurde, die Berichte aber nicht öffentlich seien. Im Jahr 2023 hatte das Fraunhofer-Institut für Sichere Informationstechnologie eine Quellcode-Überprüfung des in Bayern eingesetzten Systems durchgeführt, die Ergebnisse blieben aber geheim. Zudem müssten solche Tests fortlaufend wiederholt werden, so Ruf. Es genüge nicht, die Software einmalig zu prüfen.

Polizei braucht Datenanalyse-Werkzeuge

Einig waren sich alle geladenen Sachverständigen und Verbandsvertreter darin, dass die Polizeien Datenanalyse-Werkzeuge benötigen, um ihre verschiedenen Datenbanken in angemessener Zeit durchforsten zu können. Für die rechtliche und technische Ausgestaltung gab es hingegen verschiedene Vorschläge. Der Sachverständige Markus Löffelmann schlug beispielsweise vor, ein Stufensystem gesetzlich festzuschreiben, das die Polizeidaten kategorisiere, um sie qualitativ zu bewerten und damit Zugriffsschwellen ausgestalten zu können.

Das bayerische Landeskriminalamt beschreibt in seiner kurzen Stellungnahme kursorisch die Notwendigkeit von polizeilichen Datenanalysen. In der Anhörung verweist der bayerische Polizeivertreter auf das Vertragskonstrukt und den Mantelrahmenvertrag mit der Palantir Technologies GmbH, der nach einer europaweiten Ausschreibung für das Analyseprogramm im Jahr 2022 geschlossen wurde.

uebersicht palantir
NRW, Hessen und Bayern sind aktuell Palantir-Kunden. Hamburg und Berlin prüfen derzeit die Optionen zur Nutzung solcher Software zur automatisierten Datenanalyse.

Die Verträge seien mit dem Bundesinnenministerium „extra so gewählt und abgestimmt“ worden, um den Einsatz sowohl in Bayern als auch als „Bundes-VeRA“ zu ermöglichen. Der Rahmenvertrag, den Bayern mit Palantir geschlossen hat, erlaubt es theoretisch allen anderen Polizeibehörden der Länder und des Bundes, die Software zu nutzen.

Die meisten Bundesländer haben aber noch keine Entscheidung gefällt, ob sie ebenfalls die Palantir-Software nutzen wollen. Der Idee konkret zugeneigt sind bisher nur wenige Länder. Das mag laut dem innenpolitischen Sprecher der SPD-Bundestagsfraktion, Sebastian Hartmann, auch daran liegen, dass man in Bayern schon jahrelang Lizenzgebühren zahle, aber noch immer keine funktionierende Lösung zur Verfügung stünde.

Keine Erwähnung findet in der Stellungnahme des bayerischen Landeskriminalamts der Streit um den rechtswidrigen Testbetrieb im Freistaat.

Wann kann die Konkurrenz liefern?

Der Vertreter des Bundes Deutscher Kriminalbeamter betonte, dass die polizeilichen Praktiker bereits seit 2016 auf eine technische Lösung warten würden. Eine gemeinsame Verwendung der Palantir-Software würde die polizeiliche Zusammenarbeit erheblich erleichtern, argumentiert auch das bayerische Landeskriminalamt. Es „wäre schlicht auch finanziell deutlich günstiger“, wird in der Stellungnahme behauptet. Offen bleibt allerdings, auf welchen Kostenvergleich sich das bayerische Landeskriminalamt hier bezieht.

So sehr sich die zwei geladenen Polizeivertreter bemühten, die Palantir-Software in gutem Lichte darzustellen und auf ihren baldigen bundesweiten Einsatz zu dringen, so sehr hielten die Verbands- und Unternehmensvertreter dagegen. Sie vertraten auch Unternehmen, die in direktem Wettbewerb zu Palantir stehen. Der US-Konzern selbst war aber nicht vertreten. So drehte sich ein Großteil der Anhörung um die Frage, welche alternativen, am liebsten deutschen Anbieter denn in welchem Zeitrahmen Lösungen für die in angeblich lauter Daten ertrinkenden Polizisten liefern könnten.

Christine Skropke, die Leiterin Public Affairs beim deutschen Palantir-Konkurrenten Secunet, antwortete nach mehrmaligem Drängen dann auf die Frage, wann denn eine Alternative fertig sei, mit der Angabe, dass ein deutsches Konsortium von Unternehmen in sechs bis zwölf Monaten eine vergleichbare Software liefern könne. Sie ließ aber auch gleich wissen, dass es dazu eine ordentliche „Anschubfinanzierung“ geben müsse.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

22.04.2024 17:50

US-Geheimdienste dürfen weiterhin fast uneingeschränkt weltweit Datenströme anzapfen. Das hat am Wochenende der US-Kongress beschlossen. Aber auch innerhalb der Vereinigten Staaten haben Ermittlungsbehörden weitreichende Befugnisse. Manche davon wurden nun sogar ausgeweitet.

Die Überwachung durch Geheimdienste genießt in den USA breite parteiübergreifende Zustimmung. (Symbolbild) – Alle Rechte vorbehalten IMAGO / ABACAPRESS

US-Geheimdienste dürfen weiterhin das Internet großflächig überwachen. Mit breiter Mehrheit hat der US-Senat am frühen Samstagmorgen den „Reforming Intelligence and Securing America Act“ (RISAA) beschlossen. Das Repräsentantenhaus hatte bereits eine Woche zuvor zugestimmt, US-Präsident Joe Biden setzte am Wochenende seine Unterschrift darunter.

Das Gesetz verlängert die umstrittene Section 702 des „Foreign Intelligence Surveillance Act“ (FISA) um zwei Jahre. Diese Bestimmung erlaubt US-Diensten wie der National Security Agency (NSA), die elektronische Kommunikation außerhalb der USA praktisch ohne Einschränkungen zu überwachen.

Für heftige Debatten sorgte in den Vereinigten Staaten jedoch vor allem die Tatsache, dass dabei auch Daten von US-Bürger:innen im Inland in den Datenbanken landen – wenn sie beispielsweise mit ausländischen Nutzer:innen kommunizieren oder ihre Daten sonstwie die Landesgrenze überschreiten. Diese Daten dürfen Behörden wie das FBI etwa für strafrechtliche Ermittlungen nutzen, ohne zuvor einen von unabhängigen Richter:innen genehmigten Durchsuchungsbefehl einzuholen.

Massenhaft illegale Abfragen

Im Vorjahr hatte ein Bericht der zuständigen Aufsichtsbehörde enthüllt, dass sich das FBI großzügig an den Datenbergen bedient hatte. Über Jahre hinweg kam es millionenfach zu missbräuchlichen Abfragen der Datenbank, das belegen auch Gerichtsdokumente. Ins Visier gerieten unter anderem Black-Lives-Matter-Demonstrant:innen, Spender:innen politischer Kandidat:innen oder auch Protestierende, die im Jahr 2020 am Sturm des Kapitolgebäudes teilgenommen hatten.

Trotz aller Rufe nach Reformen, die unter anderem vom Vorsitzenden des Rechtsausschusses im Senat, dem einflussreichen Demokraten Dick Durbin, unterstützt worden waren, fehlten dafür letztlich ausreichend viele Stimmen. Dass das FBI inzwischen interne Prozesse geändert hat und stärker als zuvor kontrolliert wird, stimmte Durbin nicht zufrieden. „Wenn die Regierung meine private Kommunikation oder die von US-Bürger:innen überwachen will, dann sollte es für sie notwendig sein, sich das von einem Richter genehmigen zu lassen“, sagte Durbin.

Ausweitung auf mehr Anbieter

Abgesegnet wurde zudem eine weitere umstrittene Bestimmung. Zuvor hatte das Gesetz lediglich Betreiber von elektronischen Kommunikationsdiensten („electronic communication service provider“) verpflichtet, gegebenenfalls Daten an US-Behörden weiterzugeben. Jedoch wurde dies sehr weit ausgelegt und etwa auch auf Betreiber von Rechenzentren angewandt. Diese Praxis schränkte ein Gericht im Jahr 2022 ein.

Nun weitet das Gesetz die Klausel auf beliebige andere Betreiber aus („any other service provider“), die daran beteiligt sind, elektronische Kommunikation zu übermitteln oder zu speichern. Während Befürworter:innen davon sprechen, damit eine Regelungslücke geschlossen zu haben, halten sich zivilgesellschaftliche Gruppen mit ihrer Kritik nicht zurück. „Diese Bestimmung erlaubt es der Regierung, fast jedes Unternehmen in diesem Land dazu zu zwingen, bei der Erhebung gemäß Abschnitt 702 zu helfen, indem sie der NSA Zugriff auf ihre Telefone, Computer und WLAN-Router gewährt“, warnt etwa Elizabeth Goitein vom Brennan Center for Justice.

Kommerzielle Überwachungsdaten

Nicht ins überarbeitete Gesetz hat es hingegen ein Vorstoß geschafft, der US-Behörden verbieten sollte, weiter ohne Einschränkungen Daten bei sogenannten Databrokern einzukaufen und sie für ihre Arbeit zu nutzen. Dabei geht es um Daten, die üblicherweise für kommerzielle Zwecke gesammelt, verkauft und verwertet werden. Doch hat die Praxis, aus Smartphone-Apps oder sonstigem Online-Verhalten gewonnene Daten in staatliche Überwachungssysteme einfließen zu lassen, in den USA zuletzt stark zugenommen, ohne begleitend reguliert zu werden.

Schon seit längerem zirkuliert der „Fourth Amendment Is Not For Sale Act“ im US-Kongress, vergangene Woche wurde ein Entwurf im Repräsentantenhaus beschlossen. Demnach sollen US-Behörden solche Daten nicht einkaufen dürfen, wenn sie dafür sonst einen Durchsuchungsbefehl brauchen würden. „Die parteiübergreifende Verabschiedung des Gesetzentwurfs ist ein Alarmsignal für die Regierung, dass sie einen Durchsuchungsbefehl braucht, wenn sie unsere Daten will“, sagte Kia Hamadanchy von der Grundrechteorganisation American Civil Liberties Union (ACLU).


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

22.04.2024 16:08

Die Chef:innen europäischer Polizeibehörden attackieren gemeinsam die Ende-zu-Ende-Verschlüsselung, die der Meta-Konzern einführt. Sie erwecken dabei den Eindruck, von der Politik alleine gelassen zu werden – doch das genaue Gegenteil ist der Fall, wie Berichte von netzpolitik.org zeigen.

Frau in einer Filmszene mit angstverzerrtem Mund
Europäische Polizeichefs warnen vor Verschlüsselung (Symbolbild) – Alle Rechte vorbehalten IMAGO / United Archives

Europas Polizeichefs und die Polizei Europol betätigen sich mal wieder als politische Akteure. Sie haben sich mit einer gemeinsamen Erklärung zu Wort gemeldet, in der sie beklagen, dass der Meta-Konzern die Privatsphäre-Standards für Millionen Bürger:innen auf seiner Plattform verbessert. Meta rollt derzeit mit einiger Verspätung Ende-zu-Ende-Verschlüsselung für die Kommunikation auf Instagram und Facebook aus.

In diesem Vorgang sehen die Polizeien die Gefahr von rechtsfreien Räumen, oder wie sie es ausdrücken: „Räumen außerhalb der Reichweite der Strafverfolgungsbehörden“. Dieses Argumentationsmuster des „Going Dark“ und auch der Adressat Facebook sind alles andere als neu, die Worte der europäischen Polizeichefs dafür umso alarmistischer. Europol-Chefin Catherine De Bolle lässt sich folgendermaßen zitieren:

Unsere Wohnungen werden gefährlicher als unsere Straßen, da sich die Kriminalität ins Internet verlagert. Um die Sicherheit unserer Gesellschaft und der Menschen zu gewährleisten, muss dieses digitale Umfeld gesichert werden. Technologieunternehmen haben eine soziale Verantwortung, ein sichereres Umfeld zu schaffen, in dem Strafverfolgung und Justiz ihre Arbeit tun können. Wenn die Polizei nicht mehr in der Lage ist, Beweise zu sammeln, wird unsere Gesellschaft nicht in der Lage sein, die Menschen davor zu schützen, Opfer von Verbrechen zu werden.

„Schädliche und strafbare Inhalte“ erkennen

In einer gemeinsamen Erklärung (PDF), die offenbar bei einem Treffen europäischer Polizeichefs in London beschlossen wurde, heißt es, dass die bei Meta derzeit eingeführte Verschlüsselung die Strafverfolgungsbehörden daran hindern würde, Beweise zur Verhinderung und Verfolgung schwerster Straftaten wie sexuellem Kindesmissbrauch, Menschenhandel, Drogenschmuggel, Morden, Wirtschaftskriminalität und terroristischen Straftaten zu erlangen.

Den Technologieunternehmen kommt nach Ansicht der Polizeichefs die Rolle zu, einerseits „schädliche und strafbare Inhalte“ auf ihren Plattformen zu erkennen und zu melden und andererseits Beweise im Rahmen der Strafverfolgung zur Verfügung zu stellen. Unsere Gesellschaften hätten bisher keine Räume geduldet, die außerhalb der Reichweite der Strafverfolgung seien und in denen Kriminelle gefahrlos kommunizieren könnten, so die Erklärung.

Bricht man diese Forderung etwas herunter, müsste man auch Kneipen verpflichten, die Gespräche ihrer Gäste präventiv mitzuschneiden, nach bestimmten Inhalten zu suchen und die Aufnahmen für die Polizei vorzuhalten. Interessant dabei auch: Für die europäischen Polizeichefs geht es ganz offensichtlich nicht nur um strafbare Inhalte, die sie erkannt und gemeldet sehen wollen, sondern auch um „schädliche“ Inhalte – für die Strafverfolgungsbehörden aber gar nicht zuständig sind, zumal unklar ist, was das überhaupt ist.

„Security-by-Design“

Im Bezug auf Verschlüsselung schreiben die Polizeichefs: Man akzeptiere nicht, „dass es eine binäre Wahl geben muss zwischen Cybersicherheit oder Datenschutz einerseits und öffentlicher Sicherheit andererseits“ – und schlägt deswegen den allerdings schon besetzten Terminus „Security by Design“ vor. Während der ursprüngliche Begriff IT-Sicherheit meint, setzen die Polizeichefs nun die „öffentliche Sicherheit“ als höchstes Ziel ein und grenzen sich begrifflich zum etablierten Konzept „Privacy by Design“ ab. „Security by Design“ würde demnach sicherzustellen, dass die Technologieunternehmen in der Lage seien, „schädliche und illegale Aktivitäten“ zu erkennen und zu melden.

Die Technologie dafür existiere, es brauche nur Flexibilität der Unternehmen und der Regierungen. Um was für eine existierende Technologie es sich dabei handeln solle – beispielsweise Client-Side-Scanning, Geister-User, Hintertüren und Generalschlüssel oder schwache Verschlüsselung – verschweigt die gemeinsame Erklärung allerdings. Generell bleibt der Text technisch vage, vermengt an einer Stelle Verschlüsselung mit Anonymität, um Metas Verschlüsselungsinitiative mit dem Darknet zu vergleichen.

Am Ende ihrer Erklärung fordern die Behörden neue Befugnisse von den Gesetzgebern: „Wir fordern unsere demokratischen Regierungen auf, Rahmenbedingungen zu schaffen, die uns die Informationen geben, die wir brauchen, um unsere Bürger zu schützen.“

Das kritisiert Linus Neumann, Sprecher des Chaos Computer Clubs, mit Verweis auf früheres Five-Eyes-Lobbying gegen Facebook: „Es ist faszinierend, wie durchsichtig und dreist sich die Polizeibehörden just nach einem Besuch in London als öffentliche Lobby-Gruppe der Five Eyes engagieren.“ Üblicherweise brauchten Sicherheitsbehörden ja keine offenen Briefe, um bei ihren jeweiligen Ministerien Gehör zu finden. „Hier betreiben Sicherheitsbehörden Meinungsmache zum Abbau von Freiheitsrechten“, so Neumann weiter.

EU-Arbeitsgruppe sägt schon an Verschlüsselung

Während der offene Brief den Eindruck hinterlässt, dass die Polizei quasi als Opfer ohne politischen Rückhalt dasteht, hat die Europäische Union schon im letzten Jahr eine High-Level-Arbeitsgruppe (HLEG) gegen Verschlüsselung und Anonymität eingesetzt, die das Prinzip des „Security by Design“ postulierte. Unter weitgehenden Ausschluss der Öffentlichkeit blieb der Sicherheitsapparat in den ersten Sitzungen vor allem unter sich, wie wir berichteten.

Dementsprechend waren dann auch die Forderungen der Arbeitsgruppe: Sie wünscht sich etwa eigene Zugänge für Ermittlungsbehörden in IT-Geräten und -Anwendungen, am besten gleich abgesegnet von Standardisierungsgremien und verkauft das als „Security by Design“. Zudem will sie die Vorratsdatenspeicherung wieder europaweit einführen und mehr Daten von Messengern wie Signal, die auf Datensparsamkeit und Verschlüsselung setzen.

Bei den vier Treffen, zu denen geschwärzte Teilnehmerlisten vorliegen, waren neben den EU-Institutionen und Polizeien der EU-Länder fast nur Abgesandte der Polizeibehörde Europol, der Justizbehörde Eurojust oder der Koordinator für die Terrorismusbekämpfung zugegen. Nichtregierungsorganisationen hingegen wurden quasi ausgeladen, beschwerten sich dann – und wurden dann erstmals angehört.

Auch schon bei der Entwicklung der Chatkontrolle-Gesetzgebung hatten Sicherheitsbehörden eine zentrale Rolle eingenommen. So waren Geheimdienstvertreter:innen und Polizeien verschiedener Länder frühzeitig eingebunden, wie Recherchen von netzpolitik.org belegt haben. Herausgekommen sind deswegen immer Ansätze, welche auf die Schwächung und Umgehung von Verschlüsselung abzielten.

Die Mär vom Going Dark

Das Postulat des „Going Dark“ wegen Verschlüsselung ist wissenschaftlich umstritten. Eine Studie der Harvard Universität kam 2016 zum Schluss: Auch wenn einzelne Kanäle in Zukunft schwieriger zu überwachen sein werden, tun sich gleichzeitig neue Wege der Überwachung auf. Die fortschreitende Digitalisierung eröffnet den Ermittlungsbehörden eben auch zahlreiche weitere Ermittlungsansätze, die sie davor noch gar nicht hatten. Dies bestätigte auch eine Studie des niederländischen Justizministeriums aus dem Jahr 2023. Dort hieß es, die Polizei habe sich immer schon Alternativen überlegen müssen, um trotzdem an die relevanten Informationen zu kommen.

Polizeibehörden haben in den letzten Jahren bewiesen, dass sie trotz der Existenz von Verschlüsselung immer wieder mit klassischen und kreativen Ermittlungsansätzen Fahndungserfolge gegen alle möglichen Formen der Kriminalität vorweisen konnten. Sogar im jetzt wieder beschworenen Darknet.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

22.04.2024 08:21

Doctolib ist hierzulande die führende Plattform für Online-Arzttermine. Trotz wachsender Kritik von Datenschützer:innen ist das Unternehmen seit Jahren auf Erfolgskurs – und auf bestem Wege, die Datenverarbeitung im Gesundheitswesen von ethischen Prinzipien zu befreien. Ein Kommentar.

Innenaufnahme des Doctolib-Büros bei Paris
Wer hierzulande einen Arzttermin benötigt, kommt an diesem Unternehmen kaum noch vorbei. – Alle Rechte vorbehalten IMAGO / ABACAPRESS

Einer Patientin des Universitäts-Schlaflabors in Mannheim ist nach eigenen Angaben eine Behandlung verweigert worden, weil sie ihre Termine nicht über den IT-Dienstleister Doctolib abwickeln wollte. Ein angestellter Arzt befürchtet, sich strafbar zu machen, weil seine Praxis Termine über den Dienst vermittelt. Und Patienten, die Termine mündlich und fernmündlich bei ihrem Arzt verabredet haben, erhalten überraschend von Doctolib per SMS oder E-Mail eine Terminbestätigung und fragen sich, wie das Unternehmen an ihre vertraulichen Daten gekommen ist.

Die Zahl solcher Anfragen und Beschwerden, die bei Datenschutzaufsichtsbehörden und Ärztekammern zu Doctolib eingehen, wächst. Dessen ungeachtet ist das Unternehmen seit Jahren auf Erfolgskurs und auf bestem Wege, die Datenverarbeitung im Gesundheitswesen von ethischen Prinzipien zu befreien.

Vom Start-up zum Unicorn

Doctolib wurde 2013 in Frankreich gegründet. Drei Jahre später verfügte das Unternehmen landesweit schon über mehrere Dutzend Standorte und rund 230 Beschäftigte. Im Jahr 2016 expandierte es nach Deutschland, und bereits 2019 wurde Doctolibs Marktwert mit mehr als einer Milliarde Euro bemessen. Das Unternehmen war damit in nur sechs Jahren zum „Unicorn“ aufgestiegen.

Nach etlichen Finanzierungsrunden und weiteren Expansionen nach Italien und in die Niederlande erreichte Doctolib vor zwei Jahren einen Marktwert von rund 5,8 Milliarden Euro. Zum Vergleich: Der mit Blick auf den Umsatz weitaus größere Konkurrent CompuGroup Medical (CGM) wurde im vergangenen Jahr mit „nur“ zwei Milliarden Euro bewertet.

Doctolib agiert in einer Doppelrolle, nämlich als externer Auftragsverarbeiter und als eigenständiger Dienstleister. Zum einen ist Doctolib ein Terminmanager für Ärzte und weitere Gesundheitseinrichtungen. Sie zahlen für den Dienst jeweils knapp 140 Euro im Monat. Zum anderen ist Doctolib ein Dienstleister für Patienten. Für sie ist der Dienst kostenfrei, allerdings können sie Doctolib nur dann nutzen, wenn sie sich bei dem Dienst registrieren. Das Unternehmen erhält die Nutzerdaten damit unabhängig vom direkten Arztkontakt.

Doctolib leitet aus der Doppelfunktion das Recht ab, diese Daten auch zu weiteren Zwecken nutzen zu dürfen. Sie unterlägen demnach nicht dem besonderen Schutz des Patientengeheimnisses. Das Unternehmen bestreitet zugleich, Zugriff auf die Patientendaten zu haben oder diese zu anderen Zwecken zu verwenden. Überprüfen lässt sich das jedoch kaum.

Marktanteil von 60 Prozent

Gegenüber den Gesundheitseinrichtungen erklärt das Unternehmen, dass es die Stammdaten der Patienten benötige, um das Terminmanagement zu betreiben. Dazu gehören Namen, Geschlecht, Geburtsdatum, Telefonnummer, Patientennummer, Versichertenstatus sowie die Notizen und Termindaten der Ärzte, zu denen auch der „Besuchsgrund“ zählt.

Für viele Gesundheitseinrichtungen ist das Angebot bequem. Zugleich zwingen sie ihre Patienten faktisch dazu, bei Doctolib ein Konto zu eröffnen, um mit ihrer Arztpraxis zu kommunizieren. Auf diese Weise sammelt Doctolib seit Jahren die Daten von Patientinnen und Patienten – und erhielt dafür im Jahr 2021 den Big Brother Award.

Bei der Terminvermittlung von Ärzten erreichte das Unternehmen im November 2023 bundesweit einen Marktanteil von 60 Prozent. In Frankreich liegt er mutmaßlich noch höher.

Nach eigenen Angaben hat das Unternehmen aktuell insgesamt rund 80 Millionen Personen in seinen Datenbanken erfasst. Europaweit nutzen etwa 900.000 Angehörige von Heilberufen den Dienst, hierzulande sind es etwa 70.000 niedergelassene Ärzte und Therapeuten sowie 400 Kliniken. Zu Letzteren zählen Einrichtungen des Sana-Konzerns, der St. Augustinus Gruppe, der Atos-Kliniken und viele weitere. Jeden Monat kommen nach Unternehmensangaben rund 300.000 Kunden hinzu.

Steter Ausbau des Angebots

Das Unternehmen erweitert kontinuierlich seine IT-Angebote für Gesundheitseinrichtungen. Dazu gehören Dienste für Arztsuche und Videosprechstunden, zur Dokumentation von Gesundheitsunterlagen sowie zur Kommunikation zwischen Patienten und Gesundheitseinrichtung. Und mitunter kommt es dabei auch zu ungewöhnlichen Kooperationen wie etwa mit dem größten Verkehrsklub hierzulande.

So bietet etwa das Angebot Doctolib Hospital nicht nur die Vermittlung von Terminen, sondern auch eine „Optimierung des Zuweismanagements und eine intersektorale Vernetzung“ an. Unternehmen, die das Angebot nutzen, werden „vollständig mit Ihrem Krankenhausinformationssystem (KIS) verbunden“, wodurch etwa Dokumente „vom Patientenportal ins KIS und zurück sowie in die elektronische Patientenakte (ePA) übertragen werden“ können.

Anfang 2023 kaufte Doctolib das Unternehmen „Siilo“. Der bis dahin größte Anbieter für Gesundheitsmessenger in Europa vernetzte nach eigenen Angaben rund 450.000 Gesundheitsanbieter miteinander.

Und am 14. März dieses Jahres gab Doctolib bekannt, dass es die Ausschreibung der Charité gewonnen hat. Die europaweit größte Universitätsklink mit Sitz in Berlin plant die Einführung eines Patientenportals, das gemäß dem Krankenhauszukunftsgesetz gefördert wird. Die Charité hat an vier Standorten mehr als 100 Kliniken und Institute.

Bereits im Januar verkündete Doctolib eine Kooperation mit dem ADAC. Konkret geht es dabei um einen gemeinsamen „niederschwelligen Zugang zur gesundheitlichen Versorgung“. Ermöglichen soll dies die Integration von Doctolibs Arztterminbuchung in die „ADAC Medical App“. Nutzer können damit „von unterwegs oder bequem zu Hause sowie rund um die Uhr Termine vereinbaren und behalten dank aller relevanten Informationen jederzeit den Überblick“.

Zweifelhafte Zertifikate

In der Vergangenheit versicherte das Unternehmen, mit jenen Behörden zusammenzuarbeiten, „die für den Schutz von personenbezogenen Daten zuständig sind“. Wie diese „Zusammenarbeit“ aussieht, lässt sich den Jahresberichten der Berliner Datenschutzaufsicht aus den Jahren 2019 bis 2022 entnehmen: Demnach ignoriert Doctolib vor allem deren Kritik.

Gleichzeitig schmückt sich das Unternehmen gerne mit einer Vielzahl an Zertifikaten. Schaut man aber auch hier genauer hin, erweist sich deren Qualität mitunter als zweifelhaft.

So stammt etwa die Zertifizierung ISO/IEC 27001/27701 durch die BSI-Group – anders als man auf den ersten Blick vermuten könnte – nicht vom Bundesamt für die Sicherheit in der Informationstechnik (BSI), sondern von einer British Standards Institution, ohne dass Doctolib für die Vergabe auf Nachfrage vertiefte Nachweise vorlegte. Nach der Intervention des Netzwerks Datenschutzexpertise änderte das Unternehmen die entsprechende Presseerklärung nachträglich.

Darüber hinaus wirbt Doctolib mit einem deutschen C5-Testat, das tatsächlich auf einen Kriterienkatalog des Bundesamtes für Sicherheit in der Informationstechnik zurückgeht und Mindestanforderungen an sicheres Cloud Computing spezifiziert. Allerdings wird dieses Testat durch eine Selbstzertifizierung etwa gegenüber einem Wirtschaftsprüfer vergeben. Zudem ist das Zertifikat – zumindest hinsichtlich des Einsatzes des Terminmanagements – mutmaßlich ungültig. Denn es gilt nur für Auftragsverarbeiter, Doctolib verarbeitet jedoch eigenverantwortlich Daten.

Mehrere Datenschutz-Gutachten kritisieren Doctolib

Die Zertifikate können somit nicht über Zweifel daran hinwegtäuschen, dass Doctolibs Angebote durchweg datenschutzkonform sind. Das untermauern auch mehrere Gutachten des Netzwerks Datenschutzexpertise, an denen der Autor maßgeblich mitgewirkt hat.

Bereits das erste von bislang drei Gutachten aus dem Jahr 2021 kommt zu dem Schluss, dass Doctolib entgegen seiner eigenen Darstellung nicht als Auftragsverarbeiter, sondern als verantwortlicher Dienstleister tätig sei. Das aber verletzt nicht nur den Datenschutz, sondern auch das Patientengeheimnis.

Nach § 203 StGB machen sich Personen, die Heilberufe ausüben, und an der ärztlichen Berufstätigkeit Mitwirkende – zu denen auch Doctolib zählt – strafbar, wenn sie Patientengeheimnisse offenbaren oder dazu Beihilfe und Anstiftung leisten. Der Vorwurf der Strafbarkeit trifft nicht nur den Dienstleister selbst, sondern auch Ärzte und sonstige Gesundheitsfachkräfte, die das Terminmanagement von Doctolib verwenden.

Im Juli 2022 folgte ein aktualisiertes Datenschutz-Gutachten. Der Veröffentlichung waren zwar einige Änderungen in den Allgemeinen Geschäftsbedingungen von Doctolib vorausgegangen. Dessen ungeachtet kommt auch das zweite Gutachten zu dem Schluss, dass Doctolibs Angebot nicht datenschutzkonform sei.

Ein mageres Gesprächsangebot

Nach der Veröffentlichung des zweiten Gutachtens unterbreitete das Netzwerk dem Unternehmen das Angebot, miteinander ins Gespräch zu kommen. Auf entsprechende Anfragen reagierte Doctolib jedoch damals nicht.

Konkurrierenden Unternehmen, die sich auf die Gutachten des Netzwerks Datenschutzexpertise beriefen, mahnte Doctolib wegen unlauteren Wettbewerbs ab. Dabei forderte das Unternehmen zum Teil Schadenersatz in Höhe von rund 50.000 Euro. Diese Abmahnungen veranlassten das Netzwerk Datenschutzexpertise dazu, Ende Oktober vergangenen Jahres ein drittes Gutachten zu veröffentlichen, in dem es darlegte, warum die Abmahnungen unberechtigt seien.

Wenige Wochen nach der Veröffentlichung erklärte sich der Geschäftsführer von Doctolib Deutschland, Nikolay Kolev, zu einem Gespräch mit dem Netzwerk Datenschutzexpertise bereit. Kolev versicherte bei dieser Gelegenheit zwar, dass sein Unternehmen dem Datenschutz eine hohe Bedeutung einräume. Der Forderung des Netzwerks Datenschutzexpertise, von weiteren Abmahnungen abzusehen, wollte er aber nicht explizit entsprechen. Seitdem sind aber immerhin keine weiteren Abmahnungen öffentlich bekannt geworden.

Doctolib ignoriert weitgehend Kritik von Datenschutzaufsicht

Auch die Kritik der Berliner Beauftragten für Datenschutz und Informationsfreiheit (BlnBDI) ließ Doctolib weitgehend an sich abprallen.

So beauftragte die Berliner Senatsverwaltung für Gesundheit das Unternehmen Ende 2020 damit, die Corona-Impftermine für Bewohner der Bundeshauptstadt zu vermitteln. Dafür mussten sich die Impfwilligen auf dem Webportal von Doctolib ein Konto einrichten, über das die Impftermine vergeben wurden. Mehr als zwei Millionen Berlinerinnen und Berliner haben sich daraufhin bei dem Unternehmen registriert.

Für die Stadt war dies eine kostengünstige Lösung. Es fielen lediglich 0,16 Cent pro Terminerinnerung an. Für Doctolib war es hingegen eine wirksame Werbemaßnahme, mit dem es nicht nur seine Nutzerbasis, sondern auch seinen Bekanntheitsgrad vergrößerte.

Dass die BlnBDI die Sammlung der sensiblen Gesundheitsdaten während der Pandemie als rechtswidrig kritisierte, störte offenbar weder die Gesundheitsverwaltung noch das Unternehmen. Bereits in ihrem Tätigkeitsbericht für das Jahr 2019 hatte die BlnBDI die unzulässige Datenverarbeitung bei Ärzten angeprangert. In den Tätigkeitsberichten zu 2021 und 2022 bekräftigte die Berliner Datenschutzaufsicht ihre Kritik.

Gänzlich folgenlos blieb die anhaltende Kritik nicht. Anfang 2022 änderte Doctolib immerhin seine Allgemeinen Geschäftsbedingungen. Offenbar versuchte das Unternehmen einige mutmaßliche Rechtsverstöße, die der BlnBDI angemahnt hatte, zu beheben, ohne das zugrundeliegende Geschäftsmodell zu ändern. So wurde etwa die Cookie-Übermittlung an Google gestoppt und wohl auch bei der Datensicherheit nachgebessert.

Zu weitergehenden Schritten zeigt sich das Unternehmen indes nicht bereit, auch weil es die BlnBDI in seinem Fall als nicht zuständig erachtet. Nach eigenen Angaben unterliege Doctolib, da die Konzernmutter ihren Sitz in Frankreich hat, der Aufsicht der „Commission Nationale de l’Informatique et des Libertés“ (CNIL).

Eine solche Argumentation ist juristisch zumindest fragwürdig, da laut DSGVO ausschlaggebend ist, an welchem Ort die Entscheidungen über die Datenverarbeitung getroffen werden – und das ist mutmaßlich die Doctolib GmbH in Berlin.

Doctolib endlich in die Schranken weisen

Es geht hier aber nicht „nur“ um Datenschutz, sondern auch um das Patientengeheimnis. Dieses dient dem Vertrauen der Patienten in die Heilberufler und in das gesamte Gesundheitssystem. Doctolib ist somit auf dem besten Weg, die Datenverarbeitung im Gesundheitswesen von ethischen Prinzipien zu „befreien“.

Zudem erinnert die Expansion des Unternehmens an den Aufstieg der Unternehmen des Silicon Valleys in den zurückliegenden Jahrzehnten. Auch sie sicherten sich ihre informationstechnische Dominanz und ihren Profit zulasten der digitalen Grundrechte. All das verdeutlicht, dass Doctolibs Angebote endlich entschiedener kontrolliert und reguliert werden müssen.

Ein Patient sollte sich weigern können, die Dienste von Doctolib zu nutzen, ohne dass er deshalb bei einem Arzt oder einer Gesundheitseinrichtung Nachteile erleidet. Ist dies nicht der Fall, sollten sich Betroffene bei der zuständigen Datenschutzaufsichtsbehörde des Bundeslandes oder bei der Heilberufekammer der jeweiligen Region beschweren.

Außerdem kann ein Patient einen Antrag bei Doctolib stellen, um gemäß Art. 15 Datenschutzgrundverordnung (DSGVO) Auskunft darüber zu erhalten, welche Daten das Unternehmen über sie gespeichert hat. Einen umfassenden Einblick in den Datenschatz sollten einzelne Nutzer allerdings nicht erwarten. Denn Doctolib wird ihnen voraussichtlich nicht mitteilen, welche Daten es als vermeintlicher „Auftragsverarbeiter“ vom behandelnden Arzt erhalten hat.

Wer über ein Konto bei Doctolib verfügt und möchte, dass die dort gespeicherten Daten gelöscht werden, kann seinen Account kündigen. Doctolib ist verpflichtet, dem Ersuchen nachzukommen. Sicherheitshalber sollten Nutzerinnen und Nutzer das Unternehmen auch noch explizit zur Löschung der eigenen Daten auffordern.

Einzelne Kündigungen werden aber nicht ausreichen, damit das Unternehmen sein Geschäftsgebaren auch nachhaltig ändert. Es ist daher an den Aufsichtsbehörden, aber auch an den Heilberufekammern, dem Verbraucherschutz, den Standes- und den Patientenvertretungen den datenschutzrechtlichen Verstößen von Doctolib endlich Einhalt zu gebieten.

Thilo Weichert, Jurist und Politologe, ist Vorstandsmitglied der Deutschen Vereinigung für Datenschutz e. V. (DVD) und Mitglied des Netzwerks Datenschutzexpertise. Von 2004 bis Juli 2015 war er Datenschutzbeauftragter von Schleswig-Holstein und damit Leiter des Unabhängigen Landeszentrums für Datenschutz (ULD) in Kiel.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

20.04.2024 09:57

Schaden digitale Lernmittel mehr, als dass sie nutzen? Schweden und Dänemark wollen eine Kehrtwende in der Schuldigitalisierung vollziehen. Und auch hierzulande fragt man sich: Müssen unsere Klassenzimmer wieder analoger werden? Doch ganz so einfach ist es dann doch nicht.

Drei Schüler:innen im Unterricht malen auf Tablets
Tablet oder Kreidetafel – womit lernt es sich besser? – Alle Rechte vorbehalten IMAGO / Funke Foto Services

Nicht erst seit der Corona-Pandemie wird gefordert: Die Schulen müssen digitaler werden! Tablets statt Schulbücher in alle Klassenzimmer!

Zuletzt kamen jedoch Zweifel an dieser Forderung auf. Nutzen Schüler:innen digitale Geräte, lernen sie angeblich schlechter. Mancherorts haben diese Bedenken nun zu einer drastischen Umkehr in der Bildungspolitik geführt. Schweden und Dänemark galten bislang als strahlende Vorbilder in der Schuldigitalisierung. Nun aber wollen beide Länder ihre Schulen wieder analoger machen.

Diese Kehrtwende facht auch in Deutschland die Diskussion wieder an: Schadet die Schuldigitalisierung den Schüler:innen mehr, als dass sie ihnen nutzt?

Kehrtwende in Schweden und Dänemark

Der Grund für die Kehrtwende in Schweden und Dänemark ist eine Stellungnahme des renommierten Karolinska-Instituts vor knapp einem Jahr. Die Forschenden aus Medizin und Psychologie kommen darin zu einem erstaunlichen Urteil: „Die Digitalisierung der Schulen [hat] große negative Auswirkungen auf den Wissenserwerb der Schüler“.

Bis vor Kurzem hatte die schwedische Bildungsbehörde noch ganz andere Töne verlauten lassen: Man wolle die Schulen noch digitaler machen, von der Vorschule an. So hatte es die Behörde in ihrem Vorschlag zur „nationalen Digitalisierungsstrategie für das Schulsystem 2023-2027“ vorgestellt. Ebendiese Empfehlung hatten die Verfasser:innen der Stellungnahme nun überprüft. Ihr Fazit: Das schwedische Bildungsministerium solle den Vorschlag der Bildungsbehörde rundweg ablehnen.

Schwedens Bildungsministerin Lotta Edholm kündigte daraufhin an, die Digitalisierung von Lernmitteln auszubremsen: „Wir wissen, dass Lesen am besten durch Bücher gefördert wird und dass wir ein großes Problem in schwedischen Schulen haben, mit zu vielen Bildschirmen und zu wenigen Büchern“, so Edholm.

Dänische Schüler beklagen Mangel an Medienkompetenz

Die Wellen der schwedischen Kehrtwende schlugen bis nach Dänemark. Bislang galt das Nachbarland als europäischer Vorreiter in Sachen Schuldigitalisierung. Doch selbst Schüler:innen beklagen dort inzwischen, in der Schule nicht genügend über den Umgang mit neuen Technologien unterrichtet zu werden: „Das dänische Bildungssystem versagt noch immer darin, uns auf die digitale Welt vorzubereiten“, erklärt Asger Kjær Sørensen auf Anfrage auf Englisch. Sørensen ist der Vorsitzende der Danske Gymnasieelevers Sammenslutning – der Vereinigung von Schüler:innen der höheren Oberschulen (vergleichbar mit deutschen Oberstufen) in Dänemark.

Und auch Dänemarks Bildungsminister Tesfaye schlägt inzwischen reumütige Töne an: Er entschuldigte sich, die Schüler:innen zu „Versuchskaninchen in einem digitalen Experiment“ gemacht zu haben.

Sørensen wird hier konkreter: „Aktuell würde ich sagen, dienen wir in einer anderen Hinsicht als Versuchskaninchen: Denn wir verlassen das Schulsystem ohne die nötigen Kompetenzen zu besitzen“, so der Schüler, „um durch die digitalisierte Welt zu navigieren und ohne ein Verständnis für die Technologien entwickelt zu haben, die entscheidend für die Reste unserer Leben und Karrieren sein werden.“. Die neuen Geräte seien an Schulen eingeführt worden, ohne darüber zu reflektieren, wie sie genutzt werden sollten und wie sie sich auf das Lernen auswirken. Eine bessere Schuldigitalisierung würde bedeuten, die bestehenden Technologien auf eine Weise in den Unterricht einzubeziehen, die die Schüler:innen dazu anregt, sich kritisch und konstruktiv mit ihnen auseinanderzusetzen, meint Asger Sørensen.

Das dänische Bildungsministerium will nun ein Gleichgewicht zwischen analogem und digitalem Unterricht herstellen, wie es in einer Pressemittelung des dänischen Bildungsministeriums heißt. Bildschirme sollen in Klassenzimmern nur noch dann eingesetzt werden, wenn es pädagogisch und didaktisch sinnvoll ist. So lautet eine von zwölf Empfehlungen, die ab sofort an dänischen Schulen umgesetzt werden sollen.

Droht „Digitale Demenz“?

Auch in Deutschland wird die Debatte um die Schuldigitaliserung derzeit wieder intensiver geführt – auch unter dem Eindruck der Maßnahmen der Corona-Jahre, die nun rückblickend bewertet werden sollen. Über Monate waren damals die Schulen geschlossen und etliche Kinder wurden vorwiegend mit digitalen Mitteln unterrichtet. Seitdem haben die Kompetenzen der Schüler:innen abgenommen – auch wenn Bildungsforschende dies nur zum Teil auf die damaligen Maßnahmen zurückführen.

Die aktuelle Debatte ist auch Wasser auf die Mühlen jener Mahner, die seit Jahren vor der Digitalisierung warnen. Dazu zählt unter anderem der Neurowissenschaftler Manfred Spitzer. Er argumentierte bereits 2012 in seinem umstrittenen Buch „Digitale Demenz“, dass digitale Medien die Entwicklung des Gehirns beeinträchtigten. In mitunter alarmistischen Tönen kritisiert er auch politische Initiativen, die vorsahen, „alle Schüler mit Notebooks auszustatten und die Computerspiel-Pädagogik zu fördern“.

Kritik des Karolinska-Instituts an schwedischer Strategie

Auf den ersten Blick scheint das Karolinska-Institut Spitzers Behauptungen recht zu geben. So kommt dessen Stellungnahme unter anderem zu dem Schluss, dass Schüler:innen, die Texte auf Tablets lesen, in der Entwicklung zurück hingen. Es sei schwieriger, sich an Informationen zu erinnern, die auf einem Bildschirm statt in einem Buch gelesen wurden, so die Forschenden. Das Entwicklungsdefizit in der Lesekompetenz jener Schüler:innen, die auf einem Bildschirm lesen, betrüge etwa zwei Jahre gegenüber solchen, die auf Papier lesen.

Der Einsatz digitaler Medien führe zudem zu mehr Multitasking und dies wiederum zu schlechterem Lernen. Unser Gehirn sei jedoch nur begrenzt in der Lage, relevante Informationen im Arbeitsgedächtnis zu speichern, so die Forschenden. Auch personalisierte Online-Werbung würde immer wieder dafür sorgen, dass wir abschweifen.

Kinder unter zwei Jahren sollten digitale Werkzeuge überhaupt nicht nutzen, das empfehle auch die Weltgesundheitsorganisation (WHO). Kinder unter sechs Jahre sollten täglich weniger als eine Stunde vor einem Bildschirm verbringen. Auch das steht im Widerspruch zur Strategie der schwedischen Bildungsbehörde, die auch an Vorschulen den Einsatz digitaler Lernmittel verstärken wollte.

Bedingte Aussagekraft der Stellungnahme

Eine „Digitale Demenz“, wie von Spitzer heraufbeschworen, befürchten die Forschenden indes nicht: „Wir möchten darauf hinweisen, dass es trotz der eindeutigen Risiken der Digitalisierung von Schulen auch Belege dafür gibt, dass sich bestimmte digitale Lernmaterialien positiv auf das Lernen auswirken können“. Deshalb sei es dringend notwendig, dass verschiedene Akteure zusammen daran arbeiten, wirksame digitale Lernmaterialien zu entwickeln.

Die Studie erntet jedoch auch Widerspruch. Kritiker:innen bemängeln etwa, dass sich die Verfasser:innen lediglich mit digitalen Lehrbüchern befasst hätten, nicht aber mit den zahlreichen anderen Lernmitteln, für die digitale Geräte eingesetzt werden können.

Die Verfasser:innen selbst räumen ein, ausschließlich medizinische und psychologische Folgen des Einsatzes digitaler Lernmittel betrachtet zu haben. Unter anderem pädagogische und soziologische Aspekte seien zu kurz gekommen, weil die Nationale Agentur für Bildung keine heterogenere Forschungsgruppe zusammengestellt hatte. Um die Auswirkungen der unterschiedlichen Maßnahmen auf den Wissenserwerb und die digitale Kompetenz umfassend zu bewerten, brauche es daher Folgestudien, so die Forschenden.

Mehr Medienkompetenz statt mehr digitale Geräte

Vor allem aber liege das Problem, so die Wissenschaftler:innen, nicht grundsätzlich in der Nutzung digitaler Lernendgeräte begründet, sondern vielmehr darin, wie diese eingesetzt werden. Statt die Klassenräume mit Tablets zu fluten, sollte der Fokus stattdessen stärker darauf gelegt werden, wie Medienkompetenz vermittelt wird.

So habe die schwedische Digitalstrategie an Schulen bisher hauptsächlich darin bestanden, analoge durch digitale Lernmittel zu ersetzen. Die nötigen Kompetenzen seien dabei kaum vermittelt worden. Auch deshalb habe sich der Wissenserwerb der Schüler:innen verschlechtert.

Damit die Digitalisierungsstrategie erfolgreich ist, so die Empfehlung der schwedischen Wissenschaftler:innen, müssten Lehrkräfte wie Schüler:innen gezielt hinsichtlich ihrer digitalen Fähigkeiten und Medienkompetenzen weitergebildet werden.

Zum Teil nur „Klicken und Wischen“

Mehr Medienerziehung, wie das Karolinska-Institut fordert, wäre auch für deutsche Schüler:innen dringend notwendig. Das verdeutlicht bereits die International Computer and Information Literacy Study (ICILS) aus dem Jahr 2018. Die Studie vergleicht international die Medienkompetenz von Achtklässler:innen. Auch die Ausstattung von Schulen mit digitalen Lern-Endgeräten wird dabei erfasst.

Demnach erreichte damals ein Drittel der Schüler:innen in Deutschland nur die unteren beiden Kompetenzstufen. „Damit konnten diese Schüler:innen eigentlich nur ‚Klicken und Wischen‘“, stellt Birgit Eickelmann auf Anfrage fest. Sie ist Professorin an der Universität Paderborn und wissenschaftliche Leiterin der ICIL-Studie in Deutschland. Insgesamt lag die Bundesrepublik 2018 in der ICIL-Studie im internationalen Vergleich im Mittelfeld. Große Defizite zeigten sich damals auch in der Ausstattung der Schulen hierzulande – etwa mit WLAN, Endgeräten und Lernplattformen.

Die Studienergebnisse von 2018 sind aus heutiger Sicht mit Vorsicht zu genießen. Der Digitalpakt Schule ist erst seit 2019 in Kraft, und auch die Corona-Pandemie hat den digitalen Schulalltag nachhaltig verändert. Die Auswirkungen der vergangenen Jahre werden sich daher erst in den Ergebnissen der ICIL-Studie 2023 niederschlagen, die Ende dieses Jahres veröffentlicht wird.

Im vergangenen Jahr nahm Schweden erstmals an der ICILS teil. Gerade mit Blick auf die aktuelle Debatte werden die Ergebnisse dort mit Spannung erwartet.

Die Digitalisierung pausieren?

Dass sich die Lage hierzulande in den vergangenen Jahren erheblich verbessert habe, glaubt der deutsche Digitalexperte Ralf Lankau indes nicht. Lankau ist Professor für Medientheorie und Mediengestaltung an der Hochschule Offenburg. Er kritisiert, dass Kinder und Jugendliche durch Streamingdienste, TikTok und Co. zu „suchtgesteuerten Konsumäffchen“ gemacht werden, statt dass die Potenziale der Techniken und Dienste genutzt würden.

Lankau meint, dass die Kompetenz im Gebrauch darüber entscheidet, ob digitale Lernmittel den Lernenden eher nutzen oder schaden. Die qualifizierte Lehrkraft müsse entscheiden, wann der Einsatz von digitalen Medien den Unterricht voranbringt. Relevant dafür seien unter anderem das Alter der Schüler:innen, das jeweilige Fach sowie die Schulform.

Damit ihr Einsatz möglich ist, müssten deutsche Schulen aber genauso gut mit Endgeräten wie Tablets, Laptops und PCs ausgestattet werden wie Schulen in skandinavischen Ländern. Außerdem müssten flächendeckend Bildungsserver zur Verfügung stehen.

Der Forscher war im November 2023 einer der Unterzeichner eines Papiers, das ein Moratorium der Digitalisierung an deutschen Schulen fordert. Mehr als 40 Forschende verschiedener wissenschaftlicher Disziplinen aus ganz Deutschland haben es unterzeichnet.

Sie fordern eine Pause in der Schuldigitalisierung sowie eine interdisziplinäre Überprüfung der Schuldigitalisierung und ihrer möglichen Folgen. „Die Wirkungen und Nebenwirkungen digitaler Medien auf Entwicklungs-, Lern- und Bildungsprozesse [sind] wissenschaftlich oft ungeklärt“, so der Brief. „Vielmehr verdichten sich die wissenschaftlichen Hinweise auf enorme Nachteile und Schäden für die Entwicklungs- und Bildungsprozesse von Kindern und Jugendlichen durch digitale Medien.“

Für ein „Primat der Pädagogik“

Dass digitale Geräte allein noch keine Digitalisierung bedeuten, darüber ist man sich im deutschen Diskurs offenbar weitgehend einig. Auch im Digitalpakt ist das „Primat der Pädagogik“ verankert. Demnach seien technische Hilfsmittel kein Selbstzweck, sondern sollten dazu genutzt werden, um pädagogische Ziele zu erreichen.

„Die Anschaffung von Whiteboards und Laptops allein ist kein Garant für pädagogische Qualität – dies gilt im Übrigen auch für das Buch, das Schreibheft und die Kreidetafel“, schreibt das Bundesministerium für Bildung und Forschung (BMBF) auf digitalpaktschule.de. „Es sind immer die pädagogischen Konzepte, die aus der Vielfalt an Angeboten gute Bildung machen“.

2021 erarbeitete die Kultusministerkonferenz (KMK) eine ergänzende Empfehlung zur Strategie „Bildung in der digitalen Welt“. Darin konkretisieren die Bildungsminister:innen der Länder die Strategie zur pädagogischen Umsetzung des Digitalpakts. Sie erachten es als notwendig, unter anderem die Lehrkräftebildung in Sachen Digitales auszubauen, Prüfungskriterien anzupassen und Inhalte für den Einsatz digitaler Unterrichtstechnologien forschungsbasiert zu entwickeln.

GEW sieht deutliche Unterschiede zu skandinavischen Ländern

Für ein „Primat der Pädagogik“ plädiert auch die Gewerkschaft für Erziehung und Wissenschaft (GEW). Digitale Lernmittel sollten allen Schüler:innen und Lehrkräften gleichermaßen zur Verfügung stehen, teilt ein GEW-Sprecher  auf Anfrage mit. Die Geräte sollten demnach nur dann genutzt werden, wenn es pädagogisch und didaktisch sinnvoll sei.

Gleichzeitig brauche es eine stärkere Förderung der Medienkompetenz bei Lernenden und Lehrenden. Medienkompetenz bedeute etwa das Erlernen eines kritischen, mündigen und kreativen Gebrauchs digitaler Medien – und auch die Fähigkeit „abschalten“ zu können. Dazu seien auch mehr Fortbildungen für Lehrkräfte notwendig.

Dieser Ansatz entspricht den Empfehlungen des Karolinska-Instituts sowie verschiedener Expert:innenen für digitale Bildung. Allerdings sei die Situation in Deutschland kaum mit der in Schweden und Dänemark zu vergleichen, sagt der GEW-Sprecher. Hierzulande sei die digitale Infrastruktur an Schulen noch immer nicht flächendeckend eingeführt. Zudem klaffe eine Kluft zwischen sehr gut und kaum ausgestatteten Schulen in Deutschland. „Manche Schulen haben noch immer kein WLAN, andere wiederum arbeiten wie selbstverständlich mit Tablets und Co.“, sagt der Sprecher der GEW.

Die GEW fordert „eine nachhaltige und sinnvolle digitale Infrastruktur an Schulen, eine sozial gerechte Mittelverteilung der Digitalisierung an Schulen sowie eine gute Qualität der Arbeits- und Lernbedingungen“. Zukünftig müsse die Qualität im Zentrum der Schuldigitalisierung stehen.

Keine Rückkehr zur Kreidetafel

Die Debatte lässt sich somit – im Sinne Manfred Spitzers – nicht darauf verkürzen, dass digitale Geräte Kinder „dümmer“ machen. Vielmehr braucht es für deren schulischen Einsatz bessere pädagogische Konzepte und mehr Medienbildung – und zwar sowohl für die Schüler:innen als auch für die Lehrkräfte.

An eben diesem Punkt muss auch die Bildungspolitik hierzulande ansetzen. Und zwar so schnell wie möglich: Denn die Ergebnisse der jüngsten PISA-Studie lassen kaum Zeit für Aufschub. Deutsche Schüler:innen schnitten in der Vergleichsstudie zuletzt so schlecht ab wie noch nie zuvor.

Dabei wäre es fatal, in den Schulen zu Kreidetafel und zum Overheadprojektor zurückzukehren. Stattdessen ist es erforderlich, an allen Schulen flächendeckend digitale Endgeräte zur Verfügung zu stellen. Erst dann können Lehrer:innen überhaupt erst qualifizierte Entscheidung darüber treffen, wann es pädagogisch und didaktisch wertvoll ist, diese auch einzusetzen.

Alle Schüler:innen haben das Recht, bestmöglich auf das Leben in einer digitalen Welt vorbereitet zu werden. Nichts Geringeres sollte auch der Anspruch der deutschen Bildungspolitik sein.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

19.04.2024 17:07

Die 16. Kalenderwoche geht zu Ende. Wir haben 18 neue Texte mit insgesamt 113.491 Zeichen veröffentlicht. Willkommen zum netzpolitischen Wochenrückblick.

Grün-gelbes Fraktal
Fraktal, generiert mit MandelBrowser von Tomasz Śmigielski

Liebe Leser:innen,

dass es dieses Jahr im September wieder eine Konferenz von uns geben wird, haben wir euch ja schon verraten. In dieser Woche konnten wir euch endlich mehr dazu sagen: Wir werden am 13. September in der Alten Münze in Berlin sein. Dort wollen wir diskutieren, zuhören, alte und neue Weggefährt:innen wiedersehen und kennenlernen, gemeinsam in den Pausen quatschen und am Ende des Tages natürlich auch feiern. Das ganze steht in diesem Jahr unter dem Motto „Bildet Netze!“.

Bildet Netze, das ist für mich mehr als eine Wortspiel-Adaption des 70er-Jahre-Slogans „Bildet Banden!“, oft illustriert mit dem Konterfei von Pippi Langstrumpf. Sondern auch eine Gelegenheit, mal nachzudenken, was das für uns bedeutet.

Wir wollen „das Netz“ gestalten – und meinen dabei nicht die zentralisierten Strukturen, die in den Händen weniger, riesiger Konzerne liegen. Wir wollen viele Netze im Netz, so wie sie uns gefallen. Und so, wie sie gut für uns sind und unser aller Leben besser, schöner und gerechter machen. Mit Teilhabe für alle, mit einer gemeinwohlorientierten Ausrichtung, abseits von rein wirtschaftlichen und staatlichen Interessen.

Aber damit wir das schaffen, brauchen wir auch Netze untereinander und müssen uns ver-netzen. In der digitalen Zivilgesellschaft, aber ganz besonders auch darüber hinaus. Wir müssen zusammenkommen und voneinander lernen. Zum Beispiel von denen, die sich vielleicht noch vor allem in der analogen Welt mit sozialer Gerechtigkeit beschäftigen, dem Abbau von Barrieren oder sich der Diskriminierung marginalisierter Gruppen entgegenstellen.

Und am Ende brauchen wir alle auch Netze, die uns halten, wenn es mal schwierig wird. Wenn Faschist:innen in die Parlamente drängen und der braune Sumpf immer größer zu werden scheint. Wenn eine:r nicht mehr kann und sich klein fühlt. Dann brauchen wir ein Netz aus Solidarität, das uns auffängt, ohne dass wir uns verheddern. Damit wir gemeinsam weitermachen können.

Netze gibt es in vielen Formen und genauso wollen wir auch viele Aspekte davon auf unserer Konferenz betrachten. Das machen wir nicht allein, dafür freuen wir uns auch über eure Ideen und Beiträge. Deshalb haben wir diese Woche auch einen Call for Participation gestartet, bei dem ihr noch bis zum 16. Juni etwas einreichen könnt. Wovon könnt ihr uns erzählen? Wie wollt ihr euch vernetzen? Welche Netze müssen wir spannen, um das Netz gemeinsam voranzubringen?

Wir sind gespannt wie ein Tennisnetz, was euch dazu einfällt. Aber egal, ob auf der Bühne, am Workshop-Tisch oder im Publikum: Wir freuen uns vor allem, wenn ihr im September dabei seid.

Ein gutes Wochenende wünscht euch
anna


Degitalisierung: Infinite Money Glitch

Immer mehr Geld für sogenannte Künstliche Intelligenz, ohne Rücksicht auf die Konsequenzen. Dazu absurdes Marketing mit Warnungen vor Gefahren. Das ist kein Spiel, das betrifft uns am Ende alle. Von Bianca Kastl –
Artikel lesen

Bundesinnenministerium: Pseudo-Beteiligung beim Digitalen Wallet

Geht es nach der Bundesregierung, sind die Jahre des Personalausweises als Plastikkarte gezählt. An seine Stelle soll eine digitale Brieftasche treten. Wie diese konkret aussehen wird, soll ein Innovationswettbewerb entscheiden. Die Zivilgesellschaft sieht sich dabei außen vor. Von Daniel Leisegang –
Artikel lesen

Werbearchive der großen Plattformen: Zu wenig Daten, kaum vergleichbar und schlecht zu bedienen

Wie setzen große Plattformen die neuen EU-Vorgaben für Transparenz bei Online-Werbung um? Schlecht, sagt eine Analyse der Mozilla Foundation. Die Plattformen würden Zivilgesellschaft, Journalismus und Forschung weiter Steine in den Weg legen. Von Markus Reuter –
Artikel lesen

Konferenz von netzpolitik.org: Call for Participation – Bildet Netze!

Am 13. September findet in der Alten Münze in Berlin unsere Konferenz statt. Heute startet der Call for Participation – und wir freuen uns auf Eure Einreichungen! Von netzpolitik.org –
Artikel lesen

Louisa Specht-Riemenschneider: Einigung auf neue Bundesdatenschutzbeauftragte

Nach langem Hin und Her und einem vielkritisierten Auswahlprozess soll die Bonner Professorin Specht-Riemenschneider neue Bundesdatenschutzbeauftragte werden. Sie folgt auf Ulrich Kelber. Von Markus Reuter –
Artikel lesen

EU-Migrationspakt: Kritik an der digitalen Überwachung von Migrant:innen

Der jüngst vom Europäischen Parlament beschlossene „Neue Migrationspakt“ erweitert Überwachungstechnologien und KI-Anwendungen an den EU-Außengrenzen – und erfährt Gegenwind. Von Lea Binsfeld –
Artikel lesen

Transparenzbericht Dezember 2023: Unsere Einnahmen und Ausgaben und eine Menge Spaß

Unser Rezept fürs Jahresende: Verrühre den Stress mit einer großen Packung Humor und einer wohldosierten Prise Selbstironie aus den 80ern. Heraus kommt etwas, das uns allen viel Spaß gemacht hat. Von netzpolitik.org –
Artikel lesen

Chatkontrolle: Verschlüsselte Dienste sollen als erstes durchleuchtet werden

Internet-Dienste, die Anonymität und Verschlüsselung anbieten, sollen als erste eine Chatkontrolle durchführen. Das geht aus Dokumenten der belgischen Ratspräsidentschaft hervor, die wir veröffentlichen. Bürgerrechtsorganisationen aus ganz Europa fordern die Ablehnung des Vorschlags. Von Markus Reuter, Andre Meister –
Artikel lesen

Polnische Untersuchung: Knapp 600 Menschen mit Pegasus gehackt

Ein Zwischenbericht des polnischen Justizministeriums gibt erstmals Einblick in in die weitflächige Überwachung in Polen während der Amtszeit der PiS-Regierung. 578 Personen sollen mit der Spionage-Software Pegasus gehackt worden sein. Von Tomas Rudl –
Artikel lesen

„Künstliche Intelligenz“: Automatisierte Kriegsführung und die Genfer Konvention

Die Kriegsführung wird zunehmend digitalisiert und automatisiert. Damit verändert sich auch die Rolle der Bürger:innen innerhalb der Genfer Konventionen. Um dieser Entwicklung zu begegnen, brauchen wir dringend neue internationale Vereinbarungen. Von Gastbeitrag, Cathy Mulligan –
Artikel lesen

„Artificial Intelligence“: Automated Warfare and the Geneva Convention

Warfare is becoming digitalized and automated. This is shifting the role of citizens within the Geneva Conventions. We urgently require new solutions and international agreements. Von Gastbeitrag, Cathy Mulligan –
Artikel lesen

Link auf Linksunten: Freiburger Journalist muss sich vor Gericht verantworten

Am heutigen Donnerstag beginnt der Strafprozess gegen einen Redakteur von Radio Dreyeckland – wegen eines Links auf die Archivseite des verbotenen Portals Indymedia Linksunten. Journalismus-Verbände sehen die Pressefreiheit in Gefahr. Von Sebastian Meineck –
Artikel lesen

Deutscher Computerspielpreis: Es hat sich ausgespielt für die deutsche Gaming-Industrie

Der Computerspielpreis ist eines der großen Events in der Gamingszene in Deutschland. Doch um die heimische Spieleindustrie steht es schlecht und ihre Zukunft bleibt durch fehlende Förderung ungewiss. Ein Kommentar. Von Nora Nemitz –
Artikel lesen

Abonnieren oder akzeptieren: EU-Datenschützer*innen watschen Abo-Modelle ab

Jeden Monat mehrere Euro abdrücken oder sich individuell überwachen lassen – vor dieser Wahl stehen derzeit etwa Nutzer*innen von Facebook und Instagram. Das ist nicht fair, sagt nun der Europäische Datenschutzausschuss. Von Sebastian Meineck –
Artikel lesen

Rechte Anschlagsserie: Erschwerte Einsicht in die Ermittlungsakten

Informationen zum Mord an Burak Bektaş habe die Polizei den Angehörigen lange vorenthalten, wirft ein Anwalt den Ermittlungsbehörden und der Staatsanwaltschaft vor. Im parlamentarischen Untersuchungsausschuss weisen die eine Schuld von sich. Von hekta –
Artikel lesen

Vorratsdatenspeicherung: Schäbige Verkürzung auf Kosten der Grundrechte

Mit einem altbekannten Fehlschluss aus der Kriminalstatistik holt die Innenministerkonferenz den Zombie „Vorratsdatenspeicherung“ aus dem Keller. Doch die Angstmache vor Kindesmissbrauch ist schäbig, um damit mehr Überwachung zu rechtfertigen. Ein Kommentar. Von Markus Reuter –
Artikel lesen

Telekommunikation: EU bereitet sich auf Marktliberalisierung vor

Die EU muss den gemeinsamen Binnenmarkt radikal neu denken, fordert der italienische Ex-Ministerpräsident Enrico Letta. Trotzdem strotzt der umfangreiche Bericht im Auftrag der EU-Länder vor lauter alten Ideen: mehr Markt, weniger Regulierung und Abbau der Netzneutralität. Von Tomas Rudl –
Artikel lesen

Digitale-Dienste-Gesetz: Unsicherheit für kleine Anbieter

Das Internet besteht nicht nur aus Google und Meta, sondern auch aus Hobby-Foren und Back-Blogs mit Kommentarspalte. Doch welche Regeln des europäischen Digitale-Dienste-Gesetzes für sie gelten, ist nicht vollständig klar. Dabei ist das Gesetz bereits seit Februar in Kraft. Von Anna Biselli –
Artikel lesen


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

19.04.2024 15:48

Das Internet besteht nicht nur aus Google und Meta, sondern auch aus Hobby-Foren und Back-Blogs mit Kommentarspalte. Doch welche Regeln des europäischen Digitale-Dienste-Gesetzes für sie gelten, ist nicht vollständig klar. Dabei ist das Gesetz bereits seit Februar in Kraft.

Illustration von einem Mann mit Megaphon. Er kämpft darum, zwischen vielen Sprechblasen gehört zu werden
Kommentarspalten gibt es an vielen Orten im Netz. – Alle Rechte vorbehalten IMAGO / Ikon Images

Der Digital Services Act (DSA) gilt seit Februar. Dieses Digitale-Dienste-Gesetz der EU regelt, welche Pflichten Online-Diensteanbieter haben, wie sie mit rechtswidrigen Inhalten umgehen sollen und welche Rechte Nutzer:innen etwa bei Moderationsentscheidungen haben. Besonders hohe Anforderungen gelten dabei für die ganz Großen: also für Google, Meta und Co. Aber wie es für manche der „Kleinen“ aussieht und an welche Regeln sie sich genau und wie halten müssen, ist an vielen Punkten noch ungeklärt.

Eine konkrete Auskunft zu bekommen, ist schwer, wie Versuche von netzpolitik.org zeigen. Weder mit dem Thema vertraute Fachleute noch die EU-Kommission oder die Bundesnetzagentur (BNetzA) als künftige deutsche Koordinierungsbehörde konnten klare Informationen dazu geben, was kleinere Anbieter fortan beachten müssen. Das gilt besonders für Online-Angebote, für deren Kernangebot der Digital Services Act keinerlei Bedeutung hat, die aber beispielsweise eine Kommentarfunktion bieten. Also: Angebote wie netzpolitik.org, ein beliebiges Hobby-Back-Blog oder andere Nachrichtenmedien.

Vermittlung, Hosting oder Plattform?

Es ergeben sich vor allem zwei Fragen. Die erste: Gelten die Regeln des DSA für diese kleinen Anbieter überhaupt? Und wenn ja: Welche sind das? Im DSA gibt es drei verschiedene Kategorien von Diensten, die hier relevant sind: Vermittlungsdienste, Hostingdienste und Online-Plattformen. Letztere haben besonders viele Pflichten, die ersten beiden etwas weniger. Welche das sind, baut aufeinander auf. Ein Hostingdienst hat also alle Pflichten, die ein Vermittlungsdienst auch hat – plus weitere. Eine Online-Plattform wiederum hat alle Pflichten eines Hostingdienstes sowie weitere.

Zu den Basis-Pflichten für Vermittlungsdiensten gehört es unter anderem, klare Kontaktinformationen für Behörden und Nutzende bereitzustellen. Hosting-Dienste müssen zusätzlich etwa Meldeverfahren für rechtswidrige Inhalte anbieten. Online-Plattformen haben dazu noch Transparenzberichtspflichten. Und je nach Größe des dahinterstehenden Unternehmens müssen sie auch ein Beschwerdemanagement einrichten.

Informationen speichern und öffentlich verbreiten

Eine Online-Plattform ist nach dem DSA ein Dienst, der im „Auftrag eines Nutzers Informationen speichert und öffentlich verbreitet“. Diese Einstufung ist vergleichsweise einfach, auf jeden Fall gehören Facebook oder Twitter dazu. Aber auch eine Kommentarfunktion des oben bemühten Back-Blogs würde dazu passen. Oder ein Forum für Hobby-Aquarianer:innen. Denn die Nutzer:innen geben Beiträge in ein Feld ein, schicken sie ab und die werden dann – direkt oder nach Freigabe – veröffentlicht. Immerhin soweit ist das Gesetz klar: Nicht jede Kommentierfunktionalität macht einen Dienst automatisch zur Online-Plattform.

In den Begriffsbestimmungen des DSA heißt es dazu: „sofern es sich bei dieser Tätigkeit nicht nur um eine unbedeutende und reine Nebenfunktion eines anderen Dienstes oder um eine unbedeutende Funktion des Hauptdienstes handelt, die aus objektiven und technischen Gründen nicht ohne diesen anderen Dienst genutzt werden kann“.

In anderen Worten: Ohne die kuratierten Back-Tipps auf dem Blog wäre die Kommentarfunktion gar nicht da.

Was ist eine Nebenfunktion?

Einen weiteren Hinweis, wie das Gesetz gemeint ist, geben die Erwägungsgründe des DSA. Dort heißt es:

Ein Kommentarbereich einer Online-Zeitung etwa könnte eine solche Funktion darstellen, die eindeutig eine Nebenfunktion des Hauptdienstes ist, nämlich der Veröffentlichung von Nachrichten unter der redaktionellen Verantwortung des Verlegers.

Also: Keine Einstufung als Online-Plattform, aber als Hostingdienst. Rechtlich bindend sind solche Erwägungsgründe jedoch im Ernstfall nicht.

In einer Studie, die die Bundesnetzagentur in Auftrag gab, heißt es hingegen: „Die Nebenfunktion hat keinen Einfluss auf die Typologisierung eines Anbieters, sofern nicht ihr einziger Zweck ist, die Verordnung zu umgehen.“ Also doch gar keine Geltung des DSA, weil der Hauptdienst trumpft? Der Gesetzestext selbst lässt diese Deutung unwahrscheinlich wirken.

Die Frage ist bekannt, die Antwort wird gesucht

Eine Nachfrage bei der BNetzA blieb ohne konkretes Ergebnis. „Die von Ihnen gestellten Fragen nach der Auslegung der Definitionen im DSA wurden auch schon von Branchenverbänden an die Bundesnetzagentur herangetragen.“ Man bespreche sie in einem informellen Netzwerk aus designierten Koordinierungsstellen in der EU. „In diesem Netzwerk wird momentan auch die Frage diskutiert, was eine Nebenfunktion ist und wann ein Dienst unter welche Regelungen des DSA fällt.“

Momentan ist die BNetzA formell noch nicht für den DSA zuständig, sie soll es aber bald sein. Das liegt daran, dass das deutsche Gesetz zur Umsetzung des DSA zum Stichtag im Februar noch nicht fertig war. Der Bundestag beschloss es Ende März, am 26. April soll es dann die finale Runde im Bundesrat drehen. Ganz offiziell zuständig wäre die BNetzA dann einen Tag nach Verkündung des Regelwerks.

Ob es dann Klarheit gibt? Die BnetzA macht wenig Hoffnung: „Ob bis dahin auf europäischer Ebene eine einheitliche Auslegung der Definitionen erzielt werden kann, ist noch nicht absehbar“, heißt es in der Antwort auf unsere Anfrage. Man will aber auf der eigenen Website „alle hilfreichen Inhalte oder Hinweise für Unternehmen und Verbraucher veröffentlichen“.

Es kommt drauf an. Aber worauf eigentlich?

Im Gegensatz zur BNetzA ist die EU-Kommission schon länger für die Aufsicht über die ganz großen Anbieter zuständig, zudem kommt das Ursprungsgesetz aus ihrer Feder. Aber auch hier brachte eine Nachfrage nach der konkreten Anwendung bei der Vertretung der EU-Kommission in Deutschland keine zufriedenstellende Antwort: Eine Sprecherin teilt uns mit, dass „der Kommentarbereich in einer Online-Zeitung als Hosting-Dienst angesehen werden könnte, wenn klar ist, dass er eine Ergänzung zu dem Hauptdienst darstellt“.

Bei einem Angebot wie dem erwähnten Hobby-Back-Blog „müsste eine Bewertung des Kommentarbereichs im Einzelfall vorgenommen werden, um die Art der angebotenen Dienstleistung zu bestimmen“, so die Kommission. Es kommt also drauf an. Worauf, das bleibt schwer zu sagen.

Aber auch wenn man einfach annimmt, dass ein Backblog unter die Regeln für Hostingdienste fällt: Nicht alle passen zur Realität eines solchen Angebots. So sollen sie etwa in ihren „Allgemeinen Geschäftsbedingungen“ angeben, welche „Leitlinien, Verfahren, Maßnahmen und Werkzeuge“zur Moderation von Inhalten eingesetzt werden. Doch Geschäftsbedingungen sucht man oft vergeblich, wenn es kein Geschäft gibt. Was passiert in diesem Fall? Erfüllen eine „Netiquette“ oder Kommentarregeln die Vorgaben auch?

Regulierung nur für die Großen führt zu einem Internet nur mit Großen

Es bleibt ungewiss, fast zwei Jahre nach Verabschiedung des DSA im EU-Parlament und zwei Monate nach Inkrafttreten aller Regeln. Das bringt für die betroffenen Dienste, die wohl teilweise von ihrer Betroffenheit noch gar nichts wissen, Unsicherheit mit sich.

Svea Windwehr leitet bei der Gesellschaft für Freiheitsrechte das Center for User Rights, das sich besonders mit dem DSA beschäftigt. Sie sieht die Unschärfen der Regulierung als Ausdruck eines größeren Problems: „Die vielen offenen Fragen, die gerade kleine Anbieter zu ihren Pflichten unter dem Digital Services Act haben, zeigt einmal mehr, dass der DSA und ähnliche Gesetze oft in erster Linie anhand der Produkte und Probleme der größten Player wie Google, Meta und Co. entwickelt werden“, so die Expertin für Nutzerrechte.

Das führe zu Rechtsunsicherheiten, vor allem für „Blogs, kleine Foren oder andere Projekte, die oft von Freiwilligen mit limitierten Ressourcen unterhalten werden“. Was laut Windwehr ein Folgeproblem schafft: „Wenn es kleinen Anbieter schwer gemacht wird, sich rechtssicher zu verhalten, ist das auch ein Problem für diejenigen, die Alternativen zu den großen und etablierten Akteuren schaffen wollen – und damit für die Diversität und Wettbewerbsfähigkeit des digitalen Raums.“


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

19.04.2024 14:54

Die EU muss den gemeinsamen Binnenmarkt radikal neu denken, fordert der italienische Ex-Ministerpräsident Enrico Letta. Trotzdem strotzt der umfangreiche Bericht im Auftrag der EU-Länder vor lauter alten Ideen: mehr Markt, weniger Regulierung und Abbau der Netzneutralität.

Der italienische Ex-Ministerpräsident Enrico Letta (rechts im Bild) mit EU-Kommissionspräsidentin Ursula von der Leyen und EU-Ratspräsident Charles Michel beim Sondertreffen des Europäischen Rats. – Alle Rechte vorbehalten IMAGO / Xinhua

Zurück hält sich der frühere italienische Ministerpräsident Enrico Letta nicht: Die EU drohe, den Anschluss an die USA und China zu verlieren, so der Sozialdemokrat. Um diesen Trend umzukehren, sei eine tiefgreifende Reform des EU-Binnenmarktes notwendig, heißt es in einem knapp 150-seitigen Papier, das Letta am Mittwoch auf einem Sondertreffen des Europäischen Rats vorgestellt hat.

Monatelang reiste der italienische Politiker im Auftrag der EU-Länder durch ganz Europa, führte laut eigener Aussage tausende Gespräche und hörte dabei unterschiedliche Stimmen, von Regierungen und Parlamentsgruppen, Gewerkschaften, Universitäten oder zivilgesellschaftlichen Organisationen. Sie alle sollen in seinen Bericht eingeflossen sein, den EU-Ratspräsident Charles Michel als „fundamental“ und „inspirierend“ bezeichnet und der dem EU-Rat als Richtschnur dienen soll.

Bindend oder gar kurzfristig umsetzbar sind die umfangreichen Vorschläge indes nicht, die sein Bericht zur Debatte stellt – und die bislang auf eine gemischte Resonanz gestoßen sind.

EU-Konzerne sollen wachsen

Vor allem in drei Sektoren gebe es besonderen Nachholbedarf, macht Letta aus. Deutlich mehr Integration brauche es in den EU-Märkten für Finanzen, Energie und Telekommunikation. „Heutzutage leiden europäische Unternehmen unter einem atemberaubenden Größendefizit im Vergleich zu ihren globalen Konkurrenten, vor allem aus den USA und China“, schreibt Letta. Dies würde der EU bei der Innovation, Produktivität und auch in Sicherheitsfragen schaden. Daher sei es „von entscheidender Bedeutung, große EU-Unternehmen dabei zu unterstützen, größer zu werden und auf der globalen Bühne zu konkurrieren“, heißt es im Bericht.

Solche Töne ließen sich schon in der Vergangenheit regelmäßig vernehmen, auch im Telekommunikationssektor. Für „europäische Champions“ hatten sich unter anderem die ehemaligen EU-Kommissar:innen Neelie Kroes oder Günther Oettinger eingesetzt und nicht zuletzt der amtierende Binnenmarktkommissar Thierry Breton. In seinem jüngst vorgestellten Weißbuch hatte Breton mehr Deregulierung, größere Konzerne und neue Geschäftsmodelle wie eine Datenmaut durch die Hintertür gefordert.

Auf das Weißbuch nimmt Letta ausdrücklich und lobend Bezug: Es erkläre detailliert die gegenwärtigen ökonomischen und technologischen Trends und mache den Weg frei für ein tiefgreifendes Neudenken des Sektors, so der Bericht. Tatsächlich soll das Weißbuch die Grundlage für ein neues EU-Gesetz bilden, den Digital Networks Act. Bis Ende Juni läuft hierzu eine öffentliche Konsultation. Es wird erwartet, dass die nächste EU-Kommission die Arbeit daran nach den EU-Wahlen fortführen wird. Scharfer Gegenwind ist ihr dabei praktisch gesichert. Auch Letta räumt ein, dass der von ihm geforderte Umbau des Sektors „komplex“ wäre und ein schrittweiser Ansatz vorzuziehen sei.

Zuckerbrot und Peitsche

Im Zentrum einer Reform müsse die Verbraucherwohlfahrt stehen, beginnt Letta. Diese stehe seit der Marktliberalisierung von Mitte der 1990er-Jahre auf den Säulen billiger Preise, Wahlmöglichkeiten und Qualität. Doch der völlig neue Investitionszyklus, der mit dem Ausbau von Glasfaser- und 5G-Mobilfunknetzen einhergehe, störe das bewährte Gefüge, warnt Letta – insbesondere wenn die Branche nicht die erforderlichen Investitionen tätigt.

Als Ziel hatte die Kommission in ihrem Programm für die „Digitale Dekade“ ausgegeben, den Ausbau bis 2030 flächendeckend umgesetzt zu haben. Dazu seien zusätzliche Investitionen in Höhe von bis zu 200 Milliarden Euro erforderlich, schätzt Brüssel.

Zugleich drohe den Netzbetreibern auch von anderer Seite Gefahr, insbesondere von Online-Diensteanbietern wie Google oder Meta. Für diese würden viele Vorschriften nicht gelten, an die sich traditionelle Anbieter halten müssten. Um einen wirklich integrierten Binnenmarkt für elektronische Kommunikationsdienste zu schaffen, müssten zunächst die Regeln für Verbraucherschutz „maximal harmonisiert“ werden, fordert Letta.

Allein dies wäre schon ein gewaltiger Brocken: In der Vergangenheit hatten Verbraucherschutzorganisationen Vorstöße in Richtung einer Vollharmonisierung oft kritisch beäugt, weil sie in manchen Bereichen eine Absenkung nationaler Standards fürchteten. So warnt auch BEUC, der Dachverband europäischer Verbraucherschützer:innen, ausdrücklich vor Rufen nach mehr Marktkonzentration im Telekommunikationssektor. „Wettbewerb und globale Wettbewerbsfähigkeit europäischer Unternehmen sind keine binäre Wahl, und beide können nebeneinander bestehen, wenn die richtigen Regeln gelten“, sagt BEUC-Chefin Monique Goyens.

Nicht weniger schwierig wäre auch die Umsetzung anderer Vorschläge, darunter eine Harmonisierung der Verwaltung des Funkspektrums für Mobilfunkbetreiber, die Einrichtung einer gesamteuropäischen Regulierungsbehörde für den Sektor sowie die Konsolidierung des Marktes. „Das bloße Schaffen eines Binnenmarktes würde zu keinem erkennbar anderen Ergebnis als bislang führen, es sei denn, es erleichtert das Wachstum der Betreiber“, konstatiert der Bericht.

Netzneutralität – ja, aber

Unter Beschuss soll zudem die Netzneutralität geraten, geht es nach Letta. Zwar sei die entsprechende EU-Verordnung als „ein echter Meilenstein beim Schutz von Verbrauchern und Anbietern digitaler Dienste vor Diskriminierung durch Telekommunikationsbetreiber zu betrachten“, schreibt er. Einige Jahre nach ihrer Verabschiedung und angesichts des technologischen Wandels brauche es jedoch eine „sorgfältige Evaluation“ der Regeln, heißt es im Bericht.

Als Beispiel führt Letta etwa „KI-gestützte Anwendungen wie autonomes Fahren“ an, die von Techniken wie Spezialdiensten profitieren würden. Damit sind Überholspuren für bestimmte Dienste gemeint, die in Netzen besser behandelt würden als andere Verbindungen. Freilich sind solche Angebote heute schon legal möglich, wenn auch unter Auflagen – die durchaus mit den von Letta skizzierten Visionen kompatibel wären.

Kurzfristig wären zusätzliche Leitlinien der EU-Kommission ratsam, die Netzbetreibern mehr Rechtssicherheit bei der Implementierung bestimmter Anwendungen wie industrieller Automation bieten sollten, schlägt Letta vor. In welchen Punkten die bereits geltenden Leitlinien von BEREC nicht ausreichen, bleibt unklar.

Langfristig empfiehlt Letta jedoch eine „umfassendere, gehaltvolle Überarbeitung der Regeln für das Offene Internet“, die alle glücklich machen soll. Nutzer:innen sollen demnach weiterhin vom offenen Internet und voller Wahlfreiheit profitieren, aber gleichzeitig – wie wohl auch die Industrie – ausreichend Möglichkeiten haben, „die Vorteile künftiger neuer Netzwerktechnologien voll ausschöpfen zu können, die in beträchtlichem Ausmaß auf Künstliche Intelligenz setzen werden, um das beste Benutzererlebnis in verschiedenen Szenarien zu liefern.“


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

19.04.2024 12:56

Mit einem altbekannten Fehlschluss aus der Kriminalstatistik holt die Innenministerkonferenz den Zombie „Vorratsdatenspeicherung“ aus dem Keller. Doch die Angstmache vor Kindesmissbrauch ist schäbig, um damit mehr Überwachung zu rechtfertigen. Ein Kommentar.

Michael Stübgen, mit Brille, lachend
Michael Stübgen, Innenminister von Brandenburg und Vorsitzender der Innenministerkonferenz. – Alle Rechte vorbehalten IMAGO / epd

Nur ein paar Tage ist die angebliche Einigung der Ampel zu „Quick Freeze statt Vorratsdatenspeicherung“ alt, da steigt die Leiche schon wieder als Zombie aus dem Keller. Erst forderte die im Koalitions-Kompromiss übergangene SPD-Innenministerin Nancy Faeser die Vorratsdatenspeicherung, dann legte BKA-Präsident Holger Münch nach – nun fordern auch die Innenminister der Bundesländer unisono die anlasslose Massenüberwachung.

Soweit, so erwartbar. Seit Jahren ist die Vorratsdatenspeicherung nicht totzukriegen, allen Gerichtsurteilen und Protesten zum Trotz. Man fragt sich aber schon, warum Grüne und FDP, wo sie an Regierungen beteiligt sind, nicht darauf drängen, dass die Landesinnenminister solche Forderungen sein lassen.

Verkürzen und Panik machen

Früher wurde die Vorratsdatenspeicherung gegen islamistischen Terrorismus gefordert. Heute ist der Kindesmissbrauch und die Verbreitung von Inhalten sexualisierter Gewalt gegen Kinder das argumentative Steckenpferd, mit der die Befürworter:innen  die umstrittene Überwachung diskursiv durchsetzen wollen. Das Feld Kindesmissbrauch eignet sich dabei aus zweierlei Gründen zur Instrumentalisierung: Erstens handelt es sich um abscheulichste Taten, da ist sich die Gesellschaft übergreifend einig. Wer gegen eine Vorratsdatenspeicherung protestiert, der hat es also besonders schwierig, denn „es geht doch um die Kinder.“

Der andere Punkt ist die Polizeiliche Kriminalstatistik: Seit mehreren Jahren gehen die Fallzahlen in diesem Kriminalitätsfeld stetig nach oben. Wer nur oberflächlich auf die Statistik schaut, muss denken: „Verdammt nochmal, es wird immer gefährlicher für unsere Kinder. Wir müssen etwas tun!“

Genau das nutzen überwachungsinteressierte Behörden und Innenpolitiker:innen immer wieder: „Wir verzeichnen seit Jahren einen stetigen Anstieg im Bereich des Kindesmissbrauchs und der Verbreitung kinderpornografischer Inhalte“, sagte dann auch der Vorsitzende der Innenministerkonferenz Michael Stübgen von der CDU am Rande des Treffens.

Das ist eine gefährliche Verkürzung und vor allem Panikmache, bei der die Bürger:innen in Angst versetzt werden, damit Überwachungsmaßnahmen gerechtfertigt erscheinen. Denn was formal in der Statistik richtig ist, heißt noch lange nicht, dass immer mehr Kinder in Gefahr geraten. Auch nicht, dass immer mehr Menschen Inhalte sexualisierter Gewalt gegen Kinder konsumieren. Es heißt lediglich, dass die Polizei von immer mehr Fällen Kenntnis erlangt, dass also immer mehr Täter:innen in den Fokus der Polizei gelangen und im besten Fall auch verurteilt werden können.

Aufhellung des Dunkelfeldes

Dieser Fakt ist hinlänglich bekannt und ein Landesinnenminister sollte diese Fakten kennen, wenn er seinen Job gut macht. Schon auf eine Kleine Anfrage aus dem Jahr 2022 (PDF) antwortete die Bundesregierung zu den steigenden Fallzahlen:

Die starke Zunahme der Entdeckung von Darstellungen sexualisierter Gewalt an Kindern im Netz, welche sich letztlich in der Polizeilichen Kriminalstatistik abbildet, ist ein Ergebnis der verstärkten Aufhellung des hohen Dunkelfeldes.

Nach einer Meldung einer strafbaren Verbreitungshandlung folgen Ermittlungsmaßnahmen, bei denen in der Mehrheit der Fälle wiederum zahlreiche neue kinderpornografische Inhalte sichergestellt werden und die zumeist zu weiteren Tatverdächtigen führen. Gleichzeitig werden im Nachgang wieder neue Ermittlungsverfahren eingeleitet, bei denen abermals große Datenmengen inkriminierten Materials sichergestellt werden.

Durch immer bessere technische Detektionsmöglichkeiten und immer umfangreichere Beteiligung einzelner Provider an der aktiven Suche nach entsprechenden Dateien und Sachverhalten wird immer mehr inkriminiertes Material entdeckt und den Strafverfolgungsbehörden gemeldet.

Steigende Zahlen der Polizeilichen Kriminalstatistik sind demnach ein Indikator dafür, dass die zusammen mit der Wirtschaft entwickelten Kontrollmechanismen immer besser greifen, mehr Fälle aufgedeckt und damit auch mehr laufende Missbrauchshandlungen beendet werden.

Es zeigt sich wieder einmal: Die Kriminalstatistik ist vor allem ein Tätigkeitsbericht der Polizei und ein Instrument um Stimmung zu machen – ob nun für Überwachungsbefugnisse oder gegen Menschen ohne deutschen Pass. Sie eignet sich hervorragend für schäbige Verkürzungen auf Kosten der Grundrechte. Das hat der Brandenburgische Innenminister Stübgen einmal mehr unter Beweis gestellt.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

19.04.2024 12:28

Informationen zum Mord an Burak Bektaş habe die Polizei den Angehörigen lange vorenthalten, wirft ein Anwalt den Ermittlungsbehörden und der Staatsanwaltschaft vor. Im parlamentarischen Untersuchungsausschuss weisen die eine Schuld von sich.

Zu sehen sind gelbe Plakate vor einem dunklen Hintergrund. Sie Fordern die Aufklärung des Neukölln Komplexes und Jamil Amadi.
Vor dem Abgeordneten Haus und vor jeder Sitzung des Untersuchungsausschusses fordern die Menschen die Aufklärung von rechter Gewalt. – CC0 netzpolitik.org

Seit Februar 2023 beschäftigen sich Mitglieder des Berliner Abgeordnetenhauses wieder in einem parlamentarischen Untersuchungsausschuss mit dem sogenannten Neukölln-Komplex. Dabei handelt es sich um eine rechtsextreme Anschlagsserie zwischen den Jahren 2009 bis 2021. Wie viele Straftaten genau zu der Serie gehören, ist nicht eindeutig. Die mobile Beratung gegen Rechtsextremismus geht von mindesten 157 Straftaten aus, während von behördlicher Seite mehr als 70 Straftaten dazu gezählt werden.

Die Ermittlungen gegen die rechtsradikalen Straftäter verliefen schleppend und waren unter anderem von IT-Pannen, fragwürdigen Ermittlungsansätzen und Skandalen begleitet – sogar der Vorwurf von Beteiligten aus den Sicherheitsbehörden steht im Raum.

Im Jahr 2022 wurde schon einmal ein Untersuchungsausschuss einberufen, dessen Sitzungen aber wegen der Wiederholungswahlen im Februar 2023 unterbrochen wurden. Das Ziel der parlamentarischen Untersuchungen ist vor allem, das Ermittlungsvorgehen der Behörden zu untersuchen. Hierzu werden Zeug:innen aus den Behörden befragt, genauso wie die Anwält:innen der Angehörigen und Mitglieder von Beratungsstellen für Betroffene von rechter Gewalt.

Befragung zum Mord an Burak Bektaş

Am vergangenen Freitag fand die 28. Sitzung des Parlamentarischen Untersuchungsausschusses Neukölln II statt. An diesem Tag sollte es um das behördliche Ermittlungsvorgehen zum Mord an Burak Bektaş und dem Mordversuch an seinen Freunden am 5. April 2012 gehen. Bektaş wurde in Neukölln erschossen, die Tat ist seit zwölf Jahren nicht aufgeklärt.

Die letzten Sitzungen hatten gezeigt, dass sich viele der geladenen Zeug:innen aus den Behörden nicht zu relevanten Sachverhalten äußern: Sie begründen dies mit mit mangelnder Erinnerung oder weil ihnen keine Aussagegenehmigung vorliege. Hinzu kommt, dass manche Zeug:innen sich zu bestimmten Fragen nur im nicht-öffentlichen Teil der Sitzungen äußern wollen.

Vergangene Woche waren der ehemalige Hauptkommissar Alexander H. und der Staatsanwalt Dieter H. als Zeugen geladen. Sie waren von 2012 bis 2019 für die Ermittlungen am ungeklärten Mord an Burak Bektaş sowie dem Mordversuch an seinen Freunden zuständig. Zusätzlich war auch der Anwalt, der die Familie im Strafprozess in der Nebenklage vertritt, geladen.

Behörden mauerten bei den Akten

Hauptkommissar H. und die Staatsanwaltschaft hätten Informationen in Bezug zu die Ermittlungen zum Mord an Burak Bektaş auch gegenüber der Familie Bektaş zurückgehalten, war einer der Vorwürfe. Die Staatsanwaltschaft konnte zwar entscheiden, dass Informationen geheim zu halten sind, weil sie laufende Ermittlungen gefährden. In der Nebenklage haben Betroffene und Angehörige jedoch besondere Rechte. Dazu zählt es Einsicht über den Umfang der Ermittlungen und den Ermittlungsstand durch Akteneinsicht zu gewinnen.

Der Anwalt der Familie kritisierte, dass ihm dies damals als rechtlicher Vertreter der Familie mehr als üblich erschwert worden sei. Die Versuche scheiterten zum Beispiel daran, dass die Akten zwischen der Staatsanwaltschaft und dem Kommissariat hin und her gereicht worden seien und sich gerade dann beim Staatsanwalt befunden hätten, als sie beim Hauptkommissar angefragt wurden. Weiterhin seien die Akten teilweise unvollständig oder gar nicht vorgelegt worden.

Mit der Einstufung einer Information als „Verschlusssache, nur für den Dienstgebrauch“ hätte man teilweise ohne erkennbaren Grund ein Geheimhaltungserfordernis suggeriert, obwohl dies lediglich die Information schützte, dass die Ermittlungen zu keinem Ergebnis geführt hätten, so der Anwalt.

„Super genau und super zuverlässig“?

Die Tatort-Arbeit sei „super genau und super zuverlässig“ gelaufen, sagte der Hauptkommissar am vergangenen Freitag. Dass man keine Erfolge erzielt habe, hätte nicht am Vorgehen der Polizei gelegen. Der damalige Staatsanwalt vertraute ebenfalls voll und ganz in die Arbeit des Kommissariats. Seinen Vorschlag, die Ermittlungen einzustellen, habe man dort sogar abgelehnt.

Die Arbeit des Kommissariats und der Staatsanwaltschaft blieb jedoch in vielerlei Hinsicht undurchsichtig. Unterschiedliche Anwält:innen seien in den letzten Jahren ohne Erfolg mit Fragen an die Ermittelnden des Landeskriminalamtes herangetreten.

2020 forderte die Nebenklägerin und ihre anwaltliche Vertretung erfolglos die Übernahme der Ermittlungen durch die Generalstaatsanwaltschaft Berlin. Jedoch führte ein personeller Wechsel im selben Jahr doch noch zu einer verbesserten Kommunikation zwischen den Angehörigen, ihrer rechtlichen Vertretung sowie der leitenden Ermittlerin und der Staatsanwaltschaft. In der Folge habe die neue Kommissarin auch insgesamt 22 unbeantwortete Fragen der Anwält:innen beantwortet und herausgestellt, dass ihre Vorgänger:innen die Untersuchungsmethoden nicht gezielt eingesetzt hätten, um Verbindungen in die weit vernetzte Neonaziszene in Berlin-Neukölln auszuschließen.

An diesem Punkt angekommen zeigt sich, dass die Ermittlungen noch nicht am Ende sind. Nach zwölf Jahren sind Angehörige und die Initiative Burak Bektaş immer noch im Ungewissen, auch wenn alles darauf hindeute, das das Mordmotiv Rassismus war. Ihrer Ansicht nach sollten auch die Protokolle des öffentlichen Teils des Untersuchungsausschusses transparent gemacht werden, um die Aufklärung zu ermöglichen.

Die nächste öffentliche Sitzung des Untersuchungsausschusses findet am 26. April 2024 im Abgeordnetenhaus in Berlin in der Niederkirchnerstraße 5 statt.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

18.04.2024 15:28

Jeden Monat mehrere Euro abdrücken oder sich individuell überwachen lassen – vor dieser Wahl stehen derzeit etwa Nutzer*innen von Facebook und Instagram. Das ist nicht fair, sagt nun der Europäische Datenschutzausschuss.

Das bekannte Meme, in dem Batman eine Backpfeife an Robin verteilt. Robin sagt: Pay or okay. Batman sagt: Das ist keine echte Wahlmöglichkeit!
Einfach ausgedrückt sagt der Europäische Datenschutzausschuss: So nicht. (Symbolmeme)

Wenn man zwischen zwei unerfreulichen Optionen wählen muss – kann man dann noch von echtem Einverständnis sprechen? Diese Frage stellt sich bei den neuen Abo-Modellen von beispielsweise Facebook und Instagram. Die großen Plattformen geben Nutzer*innen seit November 2023 die Möglichkeit, sich von Tracking und personalisierter Werbung freizukaufen. Kostenpunkt aktuell: 9,99 Euro im Monat; also rund 120 Euro im Jahr.

Auf Englisch ist das Modell als „Pay or okay“ bekannt. Eine deutsche Übersetzung, die sich ebenso reimt, wäre: abonnieren oder akzeptieren.

Gegen das Modell gibt es seit der Einführung bei Meta und Instagram Widerstand von Datenschutzbehörden und Verbraucherschutz-Organisationen. Nun hat sich die Dachorganisation europäischer Datenschutzbehörden (Europäischer Datenschutzausschuss, kurz: EDSA) dazu geäußert. Er reagiert damit auf Anträge der Behörden aus den Niederlanden, Norwegen und Hamburg und bezieht sich nur auf große Plattformen.

Der Tenor: Für das Modell „abonnieren oder akzeptieren“ geben die EU-Datenschützer*innen einen Daumen runter. Personen sollten sich nicht durch eine Gebühr zur Zustimmung gezwungen fühlen, heißt es in der Pressemitteilung. Hierzu sagte die finnische EDSA-Vorsitzende Anu Talus:

Online-Plattformen sollten den Nutzern bei der Verwendung von ‚Zustimmungs- oder Bezahlmodellen‘ eine echte Wahl geben. Die Modelle, die wir heute haben, erfordern in der Regel von Einzelpersonen, entweder alle ihre Daten zu verschenken oder zu bezahlen. Infolgedessen stimmen die meisten Nutzer der Verarbeitung zu, um einen Dienst zu nutzen, und sie verstehen nicht die vollen Auswirkungen ihrer Entscheidungen.

Es braucht also Alternativen, wie aus der Stellungnahme hervorgeht. Konkret spricht die Dachorganisation etwa von einem kostenlosen, werbe-basierten Angebot, das weniger oder keine personenbezogenen Daten nutzt. Auf Anfrage von netzpolitik.org betont der Ausschuss, seine Stellungnahmen seien allgemein und würden sich nicht an spezifische Unternehmen richten.

Die rechtliche Grundlage für die Stellungnahme ist die Datenschutz-Grundverordnung (DSGVO). Sie verlangt, dass Menschen freiwillig und informiert in die Verarbeitung ihrer Daten einwilligen. Einfach ausgedrückt: Sie müssen wirklich verstehen, was mit ihren Daten passiert – und sie müssen das wirklich wollen. Die Frage nach dem Einverständnis ist besonders für sehr große Plattformen drängend. Für viele Menschen ist ein Verzicht auf Plattformen wie Instagram keine Alternative, weil sie ansonsten auf gesellschaftliche Teilhabe verzichten müssten.

Abo-Modell als „Trick“

Die gemeinnützige Organisation noyb („none of your business“) aus Wien setzt sich für Datenschutz in der EU ein. Ihr Vorsitzender Max Schrems hält das Modell „Abonnieren oder akzeptieren“ für den neusten „Trick, um das EU-Recht zu untergraben oder zumindest die Einhaltung um ein paar Jahre zu verzögern“.

Die EDPS-Stellungnahme folge laut noyb dem „einzig logischen Verständnis von freiwilliger Einwilligung“. Gerade eine dritte Option – also neben „abonnieren oder akzeptieren“ – ist ein Weg aus der Misere, wie aus einem Blogbeitrag von noyb hervorgeht.

In Wirklichkeit gibt es viele Möglichkeiten, eine Website zu monetarisieren, z. B. durch kontextbezogene Werbung, Produktplatzierung, bezahlte Inhalte oder Freemium-Modelle, bei denen bestimmte Inhalte nur gegen eine Gebühr verfügbar sind.

Kontextbezogene Werbung sind Anzeigen, die passend zu veröffentlichten Inhalten erscheinen. Ähnlich wie in einer gedruckten Zeitung, wo etwa Werbung für teure Uhren im Börsenteil erscheint. Der Konflikt zwischen Datenschutzbehörden und Meta könnte also verändern, wie kommerzielle Dienste im Internet für viele Millionen Nutzer*innen aussehen – oder zumindest, wie die zugrunde liegenden Geschäftsmodelle funktionieren.

Irische Behörde am Zug

Lob für die EDSA-Entscheidung kommt auch von Patrick Breyer, der für die Piraten ins Europa-Parlament gewählt wurde. Er bezeichnet das Abo-Modell als „Datenschutzgebühr“, die den Schutz der Privatsphäre untergrabe, indem sie wirtschaftlichen Zwang ausübe. „Meta muss jetzt einlenken, sein ‘Pay or okay’-System aufgeben und endlich unser Grundrecht auf anonyme Internetnutzung respektieren“, fordert der Abgeordnete.

Die EDSA-Entscheidung ist jedoch nicht bindend. Auf ihrer Grundlage werden nun die nationalen Datenschutzbehörden ihre eigenen Verfahren fortsetzen. Es steht wohl ein längeres Prozedere bevor.

„Die Stellungnahme ist nur eine Antwort auf Fragen verschiedener Datenschutzbehörden. In den Verfahren gegen Meta wird dagegen die irische Datenschutzbehörde (DPC) entscheiden“, erklärt noyb-Datenschutzjurist Felix Mikolasch auf Anfrage von netzpolitik.org. Es sei jedoch nicht auszuschließen, dass sich die irische Behörde auf die Seite von Meta stelle, weil dies in der Vergangenheit bereits der Fall war.

In diesem Szenario könnte es wiederum Streit mit anderen EU-Datenschutzbehörden geben, bis der EDSA einen verbindlichen Beschluss trifft, schätzt Mikolasch. Langfristig werde wohl der Europäische Gerichtshof das letzte Wort sprechen.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

18.04.2024 14:44

Der Computerspielpreis ist eines der großen Events in der Gamingszene in Deutschland. Doch um die heimische Spieleindustrie steht es schlecht und ihre Zukunft bleibt durch fehlende Förderung ungewiss. Ein Kommentar.

Game over auf einem Bildschirm
Der Computerspielpreis starte mit einem Förderstopp – Gemeinfrei-ähnlich freigegeben durch unsplash.com Rivage

Heute Abend wird der Deutsche Computerspielpreis verliehen. Seit 2009 wird er in Deutschland vergeben, abwechselnd in Berlin oder, wie dieses Jahr, in München. Es gibt 14 Kategorien, in denen mit Preisgeld dotierte Auszeichnungen vergeben werden. Drei dieser Kategorien sind international, alle anderen gelten für aus Deutschland stammende Spiele oder Akteure. Die Gewinner*innen werden von einer Jury gewählt, nur bei der undotierten Kategorie „Spieler*innen des Jahres“ darf die Community mit abstimmen. Ausgerichtet wird der Preis vom Branchenverband Game, dem Verband der deutschen Gaming-Branche, zusammen mit dem Bundesministerium für Wirtschaft und Klimaschutz (BMWK). Regelmäßig sind Politiker*innen auf der Veranstaltung zu Gast, unter anderem dieses Jahr wieder der bayerische Ministerpräsident Markus Söder (CSU).

Trotzdem wird der Preis nicht wirklich ernst genommen, da die Spiele oft eine pädagogische Botschaft haben oder Kinderschutz-konform sein müssen. Das vermittelt vielen den Eindruck, dass Spiele nicht unbedingt als Unterhaltungsmedium für jedes Alter in Deutschland gelten. Zudem spürt man immer noch einen leichten Hauch der vor Jahren in der Politik geführten „Killerspiele“-Debatte.

Gamingförderung in Deutschland

Der Preis ist die Spitze dessen, was Deutschland zur Förderung der Gaming-Industrie unternimmt. Seit inzwischen fünf Jahren versucht die Bundesregierung, dem Wirtschaftszweig auch finanziell unter die Arme zu greifen. Denn obwohl über die Hälfte der Deutschen Videospiele spielen und Deutschland der größte Markt Europas ist, schwächelt die heimische Industrie. Daher gibt es ein Förderpaket vom Bund für die deutsche Produktion. So können etwa neue Titel mit bis zu 50 Prozent gefördert werden.

Dieses Förderpaket wurde zwar positiv von der Industrie aufgenommen. Jedoch konnte es in den letzten Jahren kaum Wirkung zeigen, da die jährlich eingeplanten 70 Millionen Euro viel zu schnell aufgebraucht waren und es immer wieder zu Antragstopps kommt. Ein überarbeitetes Paket lässt bis heute auf sich warten. Die Gaming-Industrie fordert etwa seit Jahren, die Rahmenbedingungen zu ändern und wie manche Nachbarländer den Steuerhebel zu nutzen. In Frankreich gibt es beispielsweise eine Steuererleichterung von 30 Prozent der Entwicklungsausgaben, diese ist noch bis mindestens 2028 gültig.

Auch im E-Sport hat die Regierung erst letzte Woche im Branchendialog angekündigt, mehr tun zu wollen. Sie hat erkannt, dass der sportliche Wettkampf mit Computerspielen an Popularität in Deutschland gewonnen hat. Viele große Akteure im E-Sport haben ihre Standorte für ihre europäischen Ligen nach Deutschland verlegt. Unter anderem Riot Games, die mit „League of Legends“ das beliebteste E-Sport-Spiel der Welt vertreiben, haben jetzt eine feste Arena in Berlin für Spiele in der Europa-Liga. Die Politik hat dies durchaus auf dem Schirm, doch verfolgt sie das Ziel, E-Sport gemeinschaftlich zu machen. Wie genau man sich das vorstellen kann, bleibt bis heute offen.

Die schönen Worte bedeuten nichts

Die deutsche Politik scheint Gaming mehr für gute Presse bei jungen Leuten nutzen zu wollen, als den Bereich ernsthaft voranzubringen. Während etwa Frankreich seine Fördervorhaben ausbaut, werden die Mittel in Deutschland immer knapper. Es erweckt den Eindruck, dass die deutsche Politik aufgegeben hat, Deutschland zum Gaming-Standort zu machen. Das wurde einmal mehr deutlich, als Staatssekretär Michael Kellner (Grüne) im Twitch-Livestream vorbereitend auf die Preisverleihung sagte, dass der Bund nur noch größere Spieleprojekte ab 400.000 Euro fördern werde. Alles andere sei Ländersache, so Kellner.

Die Idee dahinter ist wohl, Deutschland attraktiver für große Spieleprojekte zu machen. Unter den Tisch fällt dabei, dass Deutschland eine lebhafte Indie-Game-Szene hat, deren Projekte meist nicht diese Größe erreichen. Künftig könnten diese Entwickler*innen davon abhängig werden, wie viel Geld ihr Bundesland für die Förderung bereitstellt, und das unterscheidet sich teils dramatisch von Bundesland zu Bundesland. Dadurch dürfte sich die Gaming-Industrie in Zukunft wohl auf einige wenige Bundesländer konzentrieren und könnte insgesamt schrumpfen – nicht zuletzt, wenn manche Hersteller womöglich in andere Länder auswandern.

Die deutsche Gaming-Industrie steht vor Herausforderungen, die über den Deutschen Computerspielpreis hinausgehen. Eine umfassende Strategie, die sowohl Förderung als auch Steuererleichterungen umfasst, könnte dabei helfen, die Branche zu stärken und Deutschland als Gaming-Standort wettbewerbsfähiger zu machen.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

18.04.2024 08:00

Am heutigen Donnerstag beginnt der Strafprozess gegen einen Redakteur von Radio Dreyeckland – wegen eines Links auf die Archivseite des verbotenen Portals Indymedia Linksunten. Journalismus-Verbände sehen die Pressefreiheit in Gefahr.

Das Logo von Radio Dreyeckland, Justitia und der Link von Indymedia Linksunten
Verbände sprechen von Einschüchterung (Symbolbild) – Logo: Radio Dreyeckland: Justitia: Pixabay; Montage: netzpolitik.org

Es soll der erste von bis zu neun Prozesstagen sein. Am heutigen Donnerstagmorgen muss sich der Radio-Journalist Fabian Kienert vom freien Sender Radio Dreyeckland vor dem Landgericht Karlsruhe verantworten. Ihm wird vorgeworfen, eine verbotene Vereinigung unterstützt zu haben, und zwar mit der Verlinkung auf die Seite linksunten.indymedia.org in einem Nachrichtenartikel. Bei einem „Verstoß gegen das Vereinigungsverbot“ sieht das Strafgesetzbuch eine Freiheitsstrafe bis zu drei Jahren oder eine Geldstrafe vor.

Indymedia Linksunten war eine der wichtigsten Anlaufstellen für die linke und linksradikale Szene in Deutschland. 2017 ist der Betrieb der Seite durch den damaligen Bundesinnenminister Thomas de Maizière (CDU) verboten worden. Schon damals kritisierte etwa die Organisation „Reporter ohne Grenzen“ das Verbot als „rechtsstaatlich fragwürdig“. Denn das Verbot wurde mit dem Vereinsrecht begründet; Linksunten Indymedia kurzerhand als „Vereinigung“ deklariert. Aus Sicht von „Repoter ohne Grenzen“ handelte es sich bei der Seite aber vielmehr „um ein informationelles Online-Angebot, das dem hohen Schutzstandard der Pressefreiheit unterliegt“.

Heute ist die Seite noch als Archiv online. Kienert verlinkte linksunten.indymedia.org in einer knappen Nachrichtenmeldung; sie handelte von eingestellten Ermittlungen der Staatsanwaltschaft gegen die mutmaßlichen Betreiber*innen.

Einfach ausgedrückt dreht sich der Fall also um zwei Dinge. Vordergründig geht es um die Frage: Kann es sein, dass ein Journalist wegen eines Links vor Gericht muss – oder gar in den Knast? Im Hintergrund steht jedoch eine weitere Frage, nämlich: Wie geht es weiter mit Indymedia Linksunten – einem Thema, das dem Staat offenbar auch sieben Jahre nach dem Verbot noch ein Dorn im Auge ist?

Rechtswidrige Razzia in Radio-Redaktion

Im Vorfeld des Prozesses gab es mehrere Hausdurchsuchungen, unter anderem im Januar 2023 bei Fabian Kienert selbst sowie beim Geschäftsführer von Radio Dreyeckland und in den Redaktionsräumen. Die letzten beiden Hausdurchsuchungen wurden später als rechtswidrig erklärt. Im August 2023 wurden zudem Wohnungen von fünf Verdächtigen durchsucht, die mit dem Archiv von Indymedia Linksunten in Verbindung stehen sollen.

Vertreten wird Kienert von der Rechtsanwältin Angela Furmaniak. Auf Anfrage von netzpolitik.org kritisiert sie: Die Staatsanwaltschaft verkenne mit der Erhebung der Anklage „den Bedeutungsgehalt der Pressefreiheit“. Es gehe unter anderem um die Frage, „unter welchen Umständen die Verlinkung fremder Quellen in einem journalistischen Textes nicht lediglich eine Information der Lesenden darstellt“.

Auch die Gesellschaft für Freiheitsrechte (GFF) unterstützt Kienert. Der gemeinnützige Verein schützt Grundrechte durch strategische Gerichtsverfahren. GFF-Anwalt David Werdermann schreibt auf Anfrage, die Verlinkung einschlägiger Quellen gehöre zur Pressefreiheit. „Das ermöglicht den Leser*innen, sich selbst ein Bild zu machen, und stärkt so das Vertrauen in die Medien.“ Die Anklage würde zudem mit der kritischen Berichterstattung von Radio Dreyeckland zum Verbot von Indymedia Linksunten begründet. „Es muss möglich sein, Vereinsverbote zu kritisieren, ohne sich den Vorwurf der Unterstützung einer verbotenen Vereinigung einzuhandeln“, schreibt Werdermann.

Einschüchterung von Journalist*innen

Für Journalismus-Verbände geht vom Fall Radio Dreyeckland schon jetzt eine negative Signalwirkung aus. Nicola Bier von „Reporter ohne Grenzen“ sagt, die bereits geschehenen Eingriffe in die Pressefreiheit müssten vor Gericht deutlich anerkannt werden. „Nur so kann das Gericht verhindern, dass das Vorgehen gegen den freien Radiosender zu einer großen Verunsicherung bei Redakteurinnen und Redakteuren in ganz Deutschland führt.“

Martin Gross, Landesbezirksleiter bei Verdi Baden-Württemberg, warnt: „Die vierte Gewalt kann nur stattfinden, wenn man nicht das Gefühl hat, in seiner Arbeit eingeschüchtert zu werden“. Mit der sogenannten vierten Gewalt ist Journalismus gemeint, der die Aufgabe hat, die Öffentlichkeit über den Staat und seine Institutionen zu informieren und sie kritisch zu begleiten. Das Vorgehen der Staatsanwaltschaft wirke sich nicht nur auf den Mut von Journalist*innen aus, sondern könne auch Menschen einschüchtern, die sich mit vertraulichen Informationen an Redaktionen wenden, sagt Gross. Der Gewerkschafter hat sein Statement für eine Solidaritätskundgebung zum Prozessauftakt aufgezeichnet.

So auch Fabian Ekstedt von Radio LORA München; er ist Vorstand im Bundesverband Freier Radios (BFR). Freie Radios sind kleine, nicht-kommerzielle Sender, die sich meist basisdemokratisch verwalten; eines davon ist Radio Dreyeckland. Ekstedt sagt, auch er verstehe die Hausdurchsuchungen als Einschüchterung. Und die betreffe alle, die sich in freien Radio betätigen, wenn nicht sogar alle Journalist*innen. Ekstedt nimmt Bezug darauf, dass die Polizei bei der Razzia auch Kienerts Laptops und Handys mitgenommen hat. „Die Beschlagnahmung von Smartphones und Computern ist in einer digitalen Gesellschaft eine Strafe in sich“, sagt er, „ein Entzug des digitalen Ichs“.

Kienert sagt gegenüber netzpolitik.org im Vorfeld des Prozesses, es sei „völlig unverhältnismäßig“ gewesen, auf eine sachlich gehaltene Meldung über die Einstellung eines Ermittlungsverfahrens mit einer Hausdurchsuchung zu reagieren. „Mit der Kriminalisierung eines Links kriminalisiert man das journalistische Bemühen mündigen Bürger:innen weitere Quellen für ihre Meinungsbildung zur Verfügung zu stellen.“

Das Landgericht Karlsruhe hatte die Anklage gegen Kienert im Mai 2023 zunächst nicht zugelassen, Beobachter*innen feierten das als Erfolg für die Pressefreiheit. Die Kehrtwende kam jedoch nur wenige Wochen später, als das Oberlandesgericht (OLG) Stuttgart den Beschluss des Landgerichts in zweiter Instanz aufhob.

Korrektur, 18. April, 22:30 Uhr: Die Höchststrafe für Paragraf 85, Absatz 2 StGB beträgt nicht fünf, sondern drei Jahre.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

17.04.2024 17:09

Warfare is becoming digitalized and automated. This is shifting the role of citizens within the Geneva Conventions. We urgently require new solutions and international agreements.

A wall of glowing red rectangles, in front of it the shadow of a person
Who makes the decisions in automated warfare? And who bears the responsibility? – Gemeinfrei-ähnlich freigegeben durch unsplash.com rishi

Technologies commonly referred to as AI have enjoyed a rapid uptake and growth over the last 18 months within the commercial space with the release of solutions such as Chat GPT. Recently, several news outlets reported that Israel was using AI in the Gaza Conflict. The IDF vehemently denies this; however, there is little doubt that advanced technologies will soon be on the battlefield.

Within warfare, computer automation can refer to significantly more sophisticated systems, for example, enabling Automated Weapons (AW) and Unmanned Vehicles (UV) that could make their own decisions in the field.  Other examples include technologies that facilitate faster decision-making by providing input to battle planning or enabling the speedy interception of enemy transmissions.

Much attention has been focused on the bias, discrimination, and possible job losses introduced by automated technologies in the commercial space. However, understanding the use of these solutions in warfare should be at the top of such discussions: Automated Decision-making or Automated Weapons do not just automate war; they can change and shift the roles of citizens within the Geneva Conventions.

The digitization of warfare

It is not uncommon to see a strong link between industry and defense forces; one prominent example is Eric Schmidt, ex-CEO of Google, who has also had roles as the Chair of the Advisory Committee for the Department of Defense and the National Security Commission on Artificial Intelligence. In his latest piece for Foreign Affairs, he has called for “warfare at the speed of computers, not the speed of people.” He evokes comparisons of AI to the conquistadors who defeated the Incan empire and wants to ensure the USA is capable of fully automated warfare, where “autonomous weaponized drones – not just unmanned aerial vehicles, but also ground-based ones – will replace soldiers and manned artillery altogether.”

The autonomous land and air vehicles that Mr. Schmidt wants the US to develop are still more experimental, but work has already started to enable military vehicles—including fighter jets and submarines—to operate alongside swarms of autonomous drones while AI coordinates the actions. So, while much of this may seem far-fetched, automated decision-making has a long head-start in the military – with Project Maven being funded by the USA in 2017, while alliances such as AUKUS have been actively co-developing automated and robotic weapons systems for several years. Systems are already aiding in detecting and classifying signals of interest, enabling them to be jammed or intercepted as deemed appropriate. AI can anticipate the trajectories of ballistic missiles to allow for pre-emptive interception or redirection. It can also help to decode – and automatically translate – encrypted communications of enemy forces.

Russia and China are all actively engaged in developing such automated systems, and this is one reason that the USA and the EU, through NATO, have placed such an emphasis on developing similar solutions; other nations are playing along as best they can, but automated intelligence identification and analysis has already started to play as crucial a role in warfare.

Implications for the Geneva Conventions

Automating systems and weapons within war can initially seem like a good idea – in principle, it is possible to wage war while putting fewer young people in the line of fire. Within the IDF statement that they were not using AI for targeting people, however, there was hidden one small sentence that should ask us to reconsider this idea:

“…a person who directly participates in hostilities is considered a lawful target.”

A critical question for the world as it enters the new era of AI-enabled and AI-driven warfare is what its impacts will be on the Geneva Conventions and the role of citizens in war. AI has the potential to shift this dramatically.

The Geneva Conventions and their Additional Protocols are the core of international humanitarian law and regulate the conduct of armed conflict. They seek to limit the impacts of war by protecting people who are not participating in hostilities and those who are no longer part of them. Each new generation of technology causes issues with the applicability of the Geneva Conventions, which were developed shortly after and in response to the horrific nature of WWII. However, most of the previous generations of technology have still been captured within the traditional realm of warfare. Automated data gathering and intelligence analysis threatens to change the notion of “who is directly participating in hostilities.”

The basis of this comes down to how such automated systems are built.  Regardless of how they are used, so-called AI applications require significant amounts of data that must be processed quickly enough to be used in battle. Military AI needs to parse millions of inputs to make sensible recommendations in battle.

Who counts as a civilian?

However, the risks associated with using AI in warfare are less publicly discussed. The digitalization of warfare has, however, led to a challenge for both militaries and international humanitarian law as the role of citizens has become increasingly blurred in some cases.

Examples include using cryptocurrencies to raise over $225 million in funds for the Ukraine war effort, e.g. “for weapons, ammunition, medical equipment and other crucial war supplies”. In comparison, a Czech crowdfunding campaign raised $1.3 million to purchase a tank for the Ukrainian forces.

In other spheres of war, we can see that civilians have either lent their computers to distributed denial-of-service attacks coordinated via AI or had them commandeered for these activities through computer viruses.

Digital technologies, therefore, challenge some of these assumptions of who is a civilian and who is not during war. This raises interesting challenges about who is an active participant in warfare. Through smartphone apps, civilians can become significant data input for war efforts – automated data sets rely on up-to-date information to provide recommendations to military decision-makers.

Threat of growing numbers of victims

If this data comes from civilian smartphones, these people could be viewed as active participants in the war.

The role of someone’s laptop or computer being used in distributed denial of service attacks makes it slightly more difficult to prove someone is a willing participant in hostilities; however, the active raising of funds – either via cryptocurrencies or through crowdfunding platforms is more straightforward to argue as active participation in war efforts. Digital technologies have enabled individuals globally to collect money and take a role previously reserved for national governments – the contribution of arms to a war effort.

Furthermore, when taking datasets from various sources, there is a broader risk that data sources may be poisoned—or have incorrect data injected into them—to disrupt the war effort. This means that AI could lead a scenario where it recommends actions that worsen warfare or lead to decisions that were taken far too quickly without waiting to see the enemy’s response. Far from reducing the number of casualties, therefore, Automated decision-making can unintentionally increase them dramatically.

How AI is different from nuclear bombs

During the Cold War, there were numerous near misses, thanks in part to the slower nature of communication but mainly due to humans‘ role in deploying missiles. Perhaps the most famous one came in 1983 when a computer system mistakenly reported that six nuclear missiles had been launched from the United States toward Russia. Stanislav Petrov, who was on duty, decided that the system must be faulty and, through deliberately disobeying orders, is credited as ‘saving the world’ from the all-out nuclear war that would have cascaded rapidly with retaliation from the USA and NATO if he had followed protocol.

Many people have likened AI to nuclear bombs. These technologies are, however, fundamentally different from nuclear ones. With nuclear weapons, humans‘ autonomy was preserved. From start to finish, humans were involved in every step of analyzing, interpreting, and acting upon the data presented to them by different computing systems for nuclear war.

The many supporters and developers of automation in warfare promote the idea of using the “human in the loop” approach. This is where a trained human operator is included at specific points in AI processes to ensure that a human makes the decisions rather than the algorithms themselves. The idea is that this will ensure the inclusion of human ethics and morals in decision-making processes and, therefore, ensure compliance with international humanitarian law.

Autonomy and control

The critical question here, however, comes down to autonomy. With automated systems, humans increasingly lose the autonomy to make decisions over datasets over time. The more data is used to create and refine models, and the more times those models run to improve the algorithms, the less depth of knowledge a human can have over that process. Therefore, the extent to which a human can claim autonomy or control over the decisions presented by AI is questionable. The sheer volume of data sources that are combined and crunched makes it a fundamentally different beast from previous generations of digitally enabled warfare. The human-in-the-loop solution, therefore, does not genuinely solve the shift in how civilians may become viewed as active participants in war efforts.

New solutions are required, and new international agreements are needed that focus not just on the application of these new weapons in the field of war, but also on how the data can be sources to feed them. What constitutes a participant in digital-enabled warfare must be clearly defined so governments, militaries, and civilians in war zones can make informed decisions. Failure to take appropriate actions now will mean that, yet again, it may come down to people brave enough to completely disobey orders to avoid horrific, fully automated consequences.

Cathy Mulligan is aexpert in digital technology and digital economy. She is currently a Richard von Weizsäcker Fellow at the Robert Bosch Foundation in Berlin.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

17.04.2024 17:09

Die Kriegsführung wird zunehmend digitalisiert und automatisiert. Damit verändert sich auch die Rolle der Bürger:innen innerhalb der Genfer Konventionen. Um dieser Entwicklung zu begegnen, brauchen wir dringend neue internationale Vereinbarungen.

Eine Wand aus leuchtenden roten Rechtecken, davor der Schatten einer Person
Wer trifft im automatisierten Krieg die Entscheidung – und wer trägt die Verantwortung? – Gemeinfrei-ähnlich freigegeben durch unsplash.com rishi

Die Technologien der sogenannten Künstlichen Intelligenz (KI) haben in den vergangenen 18 Monaten – etwa mit der Einführung von ChatGPT – einen rasanten Aufschwung und ein schnelles Wachstum im kommerziellen Bereich erfahren. Vor kurzem berichteten mehrere Nachrichtenagenturen, dass Israel im Gaza-Konflikt KI einsetzt, was die israelische Armee vehement bestreitet. Es besteht jedoch kaum ein Zweifel daran, dass neue Technologien schon bald auf dem Schlachtfeld zum Einsatz kommen werden.

Bei der Kriegsführung werden Computer und automatisierte Prozesse in wesentlich ausgefeilteren Systemen eingesetzt, zum Beispiel in Form von automatisierten Waffen und unbemannten Fahrzeugen, die im auf dem Kriegsschauplatz autonome Entscheidungen treffen können. Andere Beispiele sind Technologien, die eine schnellere Entscheidungsfindung ermöglichen, indem sie in die Gefechtsplanung einfließen oder das schnelle Abfangen feindlicher Funksprüche ermöglichen.

In der Wirtschaft und im Geschäftsleben haben die Verzerrungen, Diskriminierungen und möglichen Arbeitsplatzverluste viel Aufmerksamkeit auf sich gezogen, die durch die Verwendung von KI und automatisierten Technologien entstehen. An erster Stelle sollte jedoch die Diskussion darüber stehen, welche Auswirkungen der Einsatz dieser Lösungen auf die Kriegsführung hat: Automatisierte Entscheidungsfindung oder automatisierte Waffen automatisieren nicht nur den Krieg an sich, sondern sie können auch die Rollen der Bürger:innen innerhalb der Genfer Konventionen verändern und verschieben.

Die Digitalisierung der Kriegsführung

In den USA ist es nicht ungewöhnlich, dass es enge Verbindungen zwischen der Tech-Industrie und der Armee gibt. Ein prominentes Beispiel ist Eric Schmidt, ehemaliger CEO von Google, der daneben als Vorsitzender des Advisory Committee for the Department of Defense und der National Security Commission on Artificial Intelligence auch als Berater für die US-Streitkräfte tätig war. In seinem Beitrag für Foreign Affairs forderte er jüngst eine „Kriegsführung mit der Geschwindigkeit von Computern, nicht mit der Geschwindigkeit von Menschen“. Schmidt vergleicht KI mit den Konquistadoren, die das Inkareich besiegten, und will sicherstellen, dass die USA zu einer vollautomatischen Kriegsführung fähig sind. Bei dieser Art der Kriegsführung „werden autonome, waffenfähige Drohnen – das heißt, nicht nur unbemannte Luftfahrzeuge, sondern auch Landfahrzeuge – die Soldat:innen sowie die bemannte Artillerie vollständig ersetzen.“

Die autonomen Land- und Luftfahrzeuge, die die USA nach Schmidts Willen entwickeln sollen, sind noch im experimentellen Stadium. Doch es wird bereits daran gearbeitet, dass Militärfahrzeuge, darunter Kampfjets und U-Boote, neben Schwärmen autonomer Drohnen operieren können, während KI die Aktionen koordiniert.

Auch wenn vieles davon weit hergeholt erscheinen mag, sind automatisierte Entscheidungen im Militär weiter fortgeschritten als in anderen Bereichen: Das Projekt Maven wurde 2017 von den USA finanziert, während gemeinsame Projekte wie AUKUS von Australien, den USA und Großbritannien seit einigen Jahren aktiv an der Entwicklung automatisierter und robotischer Waffensysteme mitarbeiten. Die Systeme helfen bereits bei der Erkennung und Klassifizierung relevanter Signale, damit sie je nach Bedarf gestört oder abgefangen werden können. KI kann die Flugbahnen ballistischer Raketen im Voraus berechnen, um sie dann präventiv abzufangen oder umzulenken. Außerdem kann Künstliche Intelligenz die verschlüsselte Kommunikation feindlicher Streitkräfte entschlüsseln und automatisch übersetzen. Russland und China arbeiten aktiv an der Entwicklung derartiger automatisierter Systeme. Dies ist ein Grund dafür, dass die USA und die EU im Kontext der NATO so viel Gewicht auf die Entwicklung ähnlicher Lösungen gelegt haben.

Auswirkungen auf die Genfer Konventionen

Die Automatisierung von Systemen und Waffen im Krieg kann zunächst wie eine gute Idee erscheinen. Im Prinzip ist es möglich, Krieg zu führen und dabei weniger junge Menschen in die Schusslinie zu bringen. In der Erklärung der israelischen Armee, wonach sie keine KI für die gezielte Bekämpfung von Menschen einsetze, war jedoch ein kleiner Satz versteckt, der uns zum Nachdenken bringen sollte:

„… eine Person, die sich direkt an den Feindseligkeiten beteiligt, wird als rechtmäßiges Ziel betrachtet.“

Eine entscheidende Frage für die Welt, die in das neue Zeitalter der KI-gestützten und KI-gesteuerten Kriegsführung eintritt, ist, welche Auswirkungen dies auf die Genfer Konventionen und die Rolle der Bürger:innen im Krieg haben wird. KI hat das Potenzial, beides dramatisch zu verändern.

Die Genfer Konventionen und ihre Zusatzprotokolle bilden den Kern des humanitären Völkerrechts und regeln die Austragung bewaffneter Konflikte. Sie haben zum Ziel, die Auswirkungen des Krieges zu begrenzen, indem sie Menschen schützen, die nicht an den Feindseligkeiten teilnehmen, sowie jene, die nicht mehr Teil der Feindseligkeiten sind. Jede neue Technologiegeneration wirft Probleme bei der Anwendung der Genfer Konventionen auf, die kurz nach dem Zweiten Weltkrieg als Reaktion auf die Schrecken dieses Krieges formuliert wurden.

Die meisten der vorangegangenen Technologiegenerationen fallen jedoch noch in den Bereich der traditionellen Kriegsführung. Die automatisierte Datenerfassung und nachrichtendienstliche Analyse drohen jedoch das Verständnis davon zu verändern, „wer direkt an Feindseligkeiten beteiligt ist“.

Die Grundlage dieser Verschiebung liegt im Aufbau solcher automatisierten Systeme. Unabhängig davon, wie sie eingesetzt werden, erfordern sogenannte KI-Anwendungen erhebliche Datenmengen, die schnell genug verarbeitet werden müssen, um im Kampf eingesetzt werden zu können. Militärische KI muss Millionen von Eingaben analysieren, um im Gefecht sinnvolle Empfehlungen auszusprechen.

„Es braucht dringend klare Verbote und Vorschriften“

Wer ist noch Zivilist:in?

Die Risiken, die mit dem Einsatz von KI in der Kriegsführung verbunden sind, werden jedoch kaum öffentlich diskutiert. Die Digitalisierung der Kriegsführung hat zu einer Herausforderung sowohl für das Militär als auch für das humanitäre Völkerrecht geführt, weil die Rolle von Bürger:innen bei der Kriegsführung in einigen Fällen immer unschärfer wird.

Ein Beispiel dafür ist die Verwendung von Kryptowährungen für das Fundraising von Spenden von über 225 Millionen US-Dollar für die Kriegsanstrengungen in der Ukraine, zum Beispiel für Waffen, Munition und medizinische Ausrüstung sowie anderes kriegswichtiges Material. Im Vergleich dazu brachte eine tschechische Crowdfunding-Kampagne 1,3 Millionen Dollar für den Kauf eines Panzers für die ukrainischen Streitkräfte auf. In anderen Kriegsgebieten ist zu beobachten, dass Zivilist:innen ihre Computer entweder für über KI koordinierte Distributed-Denial-of-Service-Angriffe (DDoS) zur Verfügung gestellt haben oder sie durch Computerviren für diese Aktivitäten gehackt und genutzt wurden.

Digitale Technologien stellen daher einige Annahmen darüber infrage, wer im Krieg ein:e Zivilist:in ist. Dies wirft zudem die interessante und schwierige Fragen in Bezug darauf auf, wer als aktive Teilnehmer:innen an der Kriegsführung gilt. Mit Hilfe von Smartphone-Apps können Zivilist:innen selbst zu einem bedeutenden Dateninput für Kriegsanstrengungen werden.

Es drohen wachsende Opferzahlen

Automatisierte Datenbestände sind auf aktuelle Informationen angewiesen, um den militärischen Entscheidungsträgern Empfehlungen zu geben. Wenn diese Daten von zivilen Smartphones stammen, könnten diese Personen als aktive Kriegsteilnehmer betrachtet werden.

Wenn der Laptop oder Computer einer Person für DDoS-Angriffe genutzt wird, ist es etwas schwieriger zu beweisen, dass jemand bereitwillig an Feindseligkeiten teilnimmt. Die aktive Beschaffung von Geldern – entweder über Kryptowährungen oder über Crowdfunding-Plattformen – lässt sich jedoch leichter als aktive Teilnahme an Kriegsanstrengungen interpretieren.

Digitale Technologien haben es Einzelpersonen weltweit ermöglicht, Geld zu sammeln und eine Rolle zu übernehmen, die zuvor nationalen Regierungen vorbehalten war: die Bereitstellung von Waffen für den Kriegseinsatz.

Darüber hinaus besteht bei der Übernahme von Datensätzen aus verschiedenen Quellen ein größeres Risiko, dass Datenquellen mit digitalen Viren infiziert oder mit falschen Daten gefüttert werden, um die Kriegsanstrengungen zu behindern. Dadurch werden Szenarien möglich, in denen die KI-Maßnahmen empfiehlt, die die Kriegsführung verschlechtern oder die zu überstürzten Entscheidungen führen, ohne dass die Reaktion des Feindes abgewartet wird. Anstatt die Zahl der Opfer zu verringern, kann die automatisierte Entscheidungsfindung Opferzahlen also ungewollt dramatisch erhöhen.

Wie sich KI von Atombomben unterscheidet

Während des Kalten Krieges gab es zahlreiche Beinahe-Einsätze von Waffen, die teils durch die damalige Langsamkeit der Kommunikation, vor allem aber durch die Rolle des Menschen beim Abfeuern von Raketen verhindert wurden. Der vielleicht berühmteste Vorfall ereignete sich 1983, als ein Computersystem fälschlicherweise meldete, dass sechs Atomraketen von den Vereinigten Staaten in Richtung Russland gestartet worden waren. Der diensthabende Stanislaw Petrow entschied, dass das System fehlerhaft sein musste, und bewahrte durch bewusste Befehlsverweigerung die Welt vor einem totalen Atomkrieg, der durch Vergeltungsmaßnahmen der USA und der NATO rasch ausgelöst worden wäre, wenn Petrow das Protokoll befolgt hätte.

Viele Menschen haben die KI mit Atombomben verglichen. Diese Technologien unterscheiden sich jedoch grundlegend von Atomwaffen. Beim Einsatz von Atomwaffen blieb die Autonomie des Menschen gewahrt. Von Anfang bis Ende war der Mensch an jedem Schritt der Analyse, Interpretation und Reaktion auf die Daten beteiligt, die ihm von den verschiedenen Computersystemen für den Atomkrieg vorgelegt wurden.

Viele Befürworter und Entwickler der Automatisierung in der Kriegsführung propagieren die Idee des „Human-in-the-Loop“-Ansatzes. Dabei wird ein geschulter Entscheider an bestimmten Stellen in die KI-Prozesse einbezogen, um sicherzustellen, dass ein Mensch die Entscheidungen trifft und nicht die Algorithmen selbst. Auf diese Weise soll sichergestellt werden, dass menschliche Ethik und Moral in die Entscheidungsprozesse einfließen und somit die Einhaltung des humanitären Völkerrechts gewährleistet ist.

Autonomie und Kontrolle

Die entscheidende Frage ist hier jedoch die nach der Autonomie. Mit automatisierten Systemen verliert der Mensch mit der Zeit immer mehr die Autonomie, Entscheidungen über Datensätze zu treffen. Je mehr Daten zur Erstellung und Verfeinerung von Modellen verwendet werden und je öfter diese Modelle zur Verbesserung der Algorithmen ausgeführt werden, desto weniger Wissen kann ein Mensch über diesen Prozess haben. Daher ist es fraglich, inwieweit ein Mensch glaubhaft Autonomie oder Kontrolle über die von der KI getroffenen Entscheidungen beanspruchen kann.

Die schiere Menge an Datenquellen, die kombiniert und ausgewertet werden, unterscheidet die KI grundlegend von früheren Generationen digitaler Kriegsführung. Die „Human-in-the-Loop“-Lösung ist daher keine wirkliche Antwort auf die Frage, unter welchen Bedingungen Zivilist:innen als aktive Teilnehmer an Kriegsanstrengungen definiert werden können.

Wir brauchen neue Lösungen und neue internationale Vereinbarungen, die sich nicht nur auf die Anwendung neuer Kriegswaffen konzentrieren, sondern auch auf die Art und Weise, wie Datenquellen für diese Waffen genutzt werden können. Es muss klar definiert werden, was Teilnehmer:innen an einer digital gestützten Kriegsführung auszeichnet, damit Regierungen, Militärs und Zivilist:innen in Kriegsgebieten fundierte Entscheidungen treffen können.

Wenn jetzt keine geeigneten Maßnahmen ergriffen werden, wird es wieder einmal auf Menschen ankommen, die mutig genug sind, Befehle vollständig zu missachten, um schreckliche, vollautomatische Folgen zu vermeiden.

Cathy Mulligan ist Expertin für digitale Technologien und digitale Wirtschaft. Derzeit ist sie Richard von Weizsäcker Fellow bei der Robert-Bosch-Stiftung in Berlin.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

17.04.2024 15:08

Ein Zwischenbericht des polnischen Justizministeriums gibt erstmals Einblick in in die weitflächige Überwachung in Polen während der Amtszeit der PiS-Regierung. 578 Personen sollen mit der Spionage-Software Pegasus gehackt worden sein.

Unter dem Vorsitz der KO-Politikerin Magdalena Sroka untersucht der polnische Senat den Pegasus-Spionageskandal. – Alle Rechte vorbehalten IMAGO / newspix

Insgesamt 578 Personen soll die inzwischen abgewählte rechtskonservative PiS-Regierung in den Jahren 2017 bis 2023 mit der Spionagesoftware Pegasus überwacht haben. Das geht aus einem ersten Zwischenbericht des Justizministers und Generalstaatsanwalts Adam Bodnar an den polnischen Senat hervor, der gestern veröffentlicht wurde.

Derzeit arbeitet Polen umfassend die Regierungszeit der PiS-Partei zwischen 2015 und Ende 2023 auf. Dazu zählt auch der Pegasus-Überwachungsskandal, der im Jahr 2021 aufgeflogen war und nun von einer parlamentarischen Untersuchungskommission eingehend geprüft wird.

Als gesichert gilt, dass zahlreiche oppositionelle Politiker:innen und Jurist:innen mit der Spähsoftware gehackt worden waren. Das haben forensische Untersuchungen des kanadischen Citizen Lab ergeben, einem Forschungsinstitut der Universität Toronto. Medienberichten zufolge sollen indes auch damalige PiS-Regierungsmitglieder überwacht worden sein, unter anderem der Ex-Premier Mateusz Morawiecki.

Mächtiges Spionagewerkzeug

Pegasus ist eine Trojaner-Software des israelischen Herstellers NSO Group. Mit dem Werkzeug lassen sich unbemerkt IT-Geräte wie Smartphones aus der Ferne knacken. Damit erhalten Angreifer:innen praktisch unbegrenzten Zugriff auf das digitale Leben ihrer Opfer und ihres Umfelds. In Echtzeit lassen sich beispielsweise Gespräche belauschen, die Standorte der Opfer ermitteln und beliebige Daten vom Gerät abziehen, etwa verschlüsselte Chats, Fotos oder Passwörter.

Offiziell vertreibt die NSO Group den Trojaner nur an staatliche Akteure, die damit vermeintlich Terror und organisierte Kriminalität bekämpfen sollen. Doch schon seit Jahren finden sich Spuren der Überwachungssoftware auf Geräten von Regierungskritiker:innen, Journalist:innen und Aktivist:innen in aller Welt. Aufgrund der anhaltenden Verletzungen von Menschenrechten steht das Unternehmen inzwischen auf einer US-Sanktionsliste.

Überwachung in mehreren EU-Ländern

Polen ist nicht das einzige Land in Europa, in dem der mutmaßlich illegale Einsatz der Spionage-Software nachgewiesen werden konnte. Auch in Ungarn, Spanien und Griechenland wurden die Handys und Computer von oppositionellen Politiker:innen, Journalist:innen oder deren Angehörigen mit Pegasus oder vergleichbaren Trojanern wie Predator ins Visier genommen.

Allerdings stockt die Aufarbeitung des Skandals, weil sich die entsprechenden Regierungen wenig gewillt zeigen, Licht ins Dunkel zu bringen. Auch auf EU-Ebene biss sich bislang ein Untersuchungsausschuss des EU-Parlaments die Zähne daran aus. Nach dem jüngsten Regierungswechsel sind nun die Augen auf Polen gerichtet, das als erstes EU-Land im Februar mit einer systematischen Untersuchung begonnen hat.

Der aktuelle Zwischenbericht bleibt allerdings noch vage. „Pegasus“ wird in dem knappen Dokument mit keinem Wort erwähnt, die Rede ist von einer „operativen Kontrolle von Endgeräten“, die drei namentlich nicht genannte (Geheim-)Dienste erlangt haben sollen. Demnach waren im Jahr 2017 sechs Personen betroffen, 100 Personen im Jahr 2018, 140 Personen im Jahr 2019, 161 Personen im Jahr 2020, 162 Personen im Jahr 2021 und neun Personen im Jahr 2022.

Rechtsstaatliche Prozesse ignoriert

Auch über Pegasus hinaus wurden in den vergangenen Jahren tausende Personen in Polen überwacht, wobei nicht alles davon illegal gewesen sein dürfte. Allerdings wurde offenbar in zahlreichen Fällen der rechtsstaatlich vorgesehene Weg nicht eingehalten, auch das geht aus dem Bericht hervor – etwa wenn keine Zustimmung der Staatsanwaltschaft eingeholt wurde. Mit demokratischen Standards steht die nationalkonservative PiS-Partei ohnehin auf Kriegsfuß, der konsequente Abbau des Rechtsstaats und der Pressefreiheit handelte dem damals von der PiS regierten Land unter anderem ein EU-Vertragsverletzungsverfahren ein.

Dass über 500 Personen mit Pegasus gehackt worden sind, überrascht die Abgeordnete Magdalena Sroka nicht. Die Senatorin der Regierungspartei KO ist Vorsitzende der Untersuchungskommission. So seien im untersuchten Zeitraum allein beim Bezirksgericht Warschau über 50.000 Anträge auf „operative Kontrolle“ gestellt worden, sagte Sroka der Tageszeitung Gazeta.

Die Aufklärung dürfte langwierig ausfallen, sagt die KO-Politikerin. Zum einen unterlägen die angeforderten Dokumente in der Regel strenger Geheimhaltung, zum anderen mauerten vom Ausschuss befragte Zeug:innen, etwa der ehemalige stellvertretende PiS-Justizminister Michał Woś oder der einflussreiche PiS-Politiker Jarosław Kaczyński. Zudem erhalte der Ausschuss ständig neue Dokumente, über die sie noch nicht öffentlich sprechen könne. „Ich kann nur sagen, dass einige Dokumente für die vorherige Regierung verheerend sind“, sagte Sroka.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

17.04.2024 13:12

Internet-Dienste, die Anonymität und Verschlüsselung anbieten, sollen als erste eine Chatkontrolle durchführen. Das geht aus Dokumenten der belgischen Ratspräsidentschaft hervor, die wir veröffentlichen. Bürgerrechtsorganisationen aus ganz Europa fordern die Ablehnung des Vorschlags.

Ein übergroßes Auge schaut einem menschen aufs Handy
Bild aus der Kampagne von „Chatkontrolle stoppen“ CC-BY-SA 4.0 Digitale Freiheit

Aus Dokumenten der belgischen Ratspräsidentschaft geht hervor, dass sichere und die Privatsphäre schützende Dienste besonders im Visier der geplanten Chatkontrolle stehen sollen. Nach dem Motto „Je sicherer, desto mehr Chatkontrolle“ führen Sicherheitsfeatures wie Anonymität oder Ende-zu-Ende-Verschlüsselung dazu, dass eine andere Risikobewertung vorgenommen wird.

Die belgische Ratspräsidentschaft hatte zuletzt einen „Kompromissvorschlag“ bei der Chatkontrolle ins Spiel gebracht, der technisch die Quadratur des Kreises versucht und nichts an der Tatsache einer anlasslosen Massenüberwachung ändert. Dieser Vorschlag hat bei den Verhandlungen im Rat nicht zu einer Einigung geführt, wie Dokumente belegen, die netzpolitik.org veröffentlicht hat.

Die EU-Kommission fordert eine anlasslose und massenhafte Chatkontrolle und hat eine entsprechende Verordnung vorgeschlagen. Das EU-Parlament kritisiert diese Massenüberwachung und fordert, die Chatkontrolle auf unverschlüsselte Inhalte von Verdächtigen zu beschränken. Die EU-Staaten sind gespalten. Manche Länder unterstützen den Vorschlag der Kommission, andere eher die Position des Parlaments. Derzeit sieht es so aus, als müsse sich die Ratspräsidentschaft etwas Neues einfallen lassen, um eine Einigung erzielen zu können.

„Bestätigt all unsere Bedenken“

Laut einer Präsentation aus dem März, die wir veröffentlichen, soll es vier Risikostufen geben, in die Dienste kategorisiert werden sollen. Je nach Kategorisierung ergeben sich verschiedene Maßnahmen, Aufdeckungsanordnungen und Überwachungspflichten. In der Präsentation wird dies als ein Ansatz verkauft, der „gezielter“ sein soll als die vorherigen Versionen der Verordnung. In einem weiteren eingestuften Dokument aus dem Februar 2024, das wir veröffentlichen, werden diese Kategorisierungen in Textform detaillierter erklärt.

Präsentation
Auszug aus der Präsentation der belgischen Ratspräsidentschaft. - Belgische Ratspräsidentschaft

Für Elina Eickstädt, Sprecherin des Chaos Computer Clubs, bestätigen die Dokumente „alle unsere Bedenken“ und stellten keine Verbesserung dar. „Ganz im Gegenteil zeigen sie, dass jegliche Technologie, die dem Schutz der Privatsphäre dient, zu schärferen Aufdeckungsanordnungen führt“, so Eichstädt gegenüber netzpolitik.org. „Es ist eine Illusion zu glauben, dass mit Hilfe dieses Umsetzungskatalogs differenziertere oder gezieltere Überwachung erfolgen kann.“

Der Vorschlag der belgischen Ratspräsidentschaft stößt auch auf Widerstand in der Zivilgesellschaft: 48 Organisationen aus ganz Europa rufen in einem offenen Brief dazu auf, diesen „faulen Kompromiss“ abzulehnen.

Die Organisationen und Einzelpersonen kommen in ihrem offenen Brief zu einem ähnlichen Schluss: „Trotz einiger nomineller Änderungen des Rahmens für die Risikokategorisierung erlaubt der neue Vorschlag nach wie vor die Anwendung von Aufdeckungsanordnungen auf breiter Basis und ohne gezielte Ausrichtung.“

Breiter Widerspruch gegen die Chatkontrolle

Die Chatkontrolle, die sich laut der EU-Kommission gegen Darstellungen von Kindesmissbrauch richten soll, hat breiten Widerspruch hervorgerufen. Dabei ist auffällig, dass der Deutsche Kinderschutzbund wie auch Vertreter:innen von Ermittlungsbehörden das anlasslose Durchleuchten privater Dateien und Kommunikation gleichsam als unverhältnismäßig ablehnen. Diese Kritik äußern auch weltweit führende IT-Sicherheitsforscher:innen, zahlreiche Wissenschaftler:innen und der Menschenrechtskommissar der Vereinten Nationen.

Die Chatkontrolle wird auch von europäischen und deutschen Datenschutzbehörden sowie von mehr als 100 internationalen Digital- und Bürgerrechtsorganisationen abgelehnt. Tech-Firmen wie Apple halten es mittlerweile für technisch unmöglich, Daten automatisch zu scannen, ohne dabei die Privatsphäre und die IT-Sicherheit zu gefährden. In deutschen Fußballstadien protestieren Fans gegen diese neue Form der Massenüberwachung. Auch zwei Drittel aller Jugendlichen in Europa lehnen die Chatkontrolle ab.

Bei Jurist:innen fällt das Projekt ebenfalls durch: So warnt der Deutsche Anwaltsverein vor einem „massiven Eingriff in die Freiheitsrechte“, während der Rechtsausschuss des irischen Parlaments kein gutes Haar an der Chatkontrolle lässt.

Rechtlich begründete Kritik am Vorhaben kommt auch vom Juristischen Dienst des EU-Rats, der die Chatkontrolle für rechtswidrig hält. Eine Studie des Wissenschaftlichen Dienstes des EU-Parlaments kritisiert die Pläne ebenfalls scharf – und sogar eine Bewertung der EU-Kommission warnt vor dem Vorhaben des eigenen Hauses.

Update 14:37 Uhr:
Der Abgeordnete der Piraten im Europaparlament, Patrick Breyer, schreibt in einer Pressemitteilung:

Ausgerechnet die bisher datenschutzfreundlich anonym nutzbaren Kommunikationsdienste wie Protonmail sollen per Verpflichtung zur Chatkontrolle zu den extremüberwachtesten Diensten werden. Ausgerechnet die bisher sicher verschlüsselten Messengerdienste wie Signal sollen durch verpflichtendes ‚client-side scanning‘ zu Spionen auf unseren Smartphones werden.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

17.04.2024 12:42

Unser Rezept fürs Jahresende: Verrühre den Stress mit einer großen Packung Humor und einer wohldosierten Prise Selbstironie aus den 80ern. Heraus kommt etwas, das uns allen viel Spaß gemacht hat.

Ölgemälde, das ein Feuerwerk über einer Stadt an einem Hügel zeigt.
Es war ein Feuerwerk, in vielerlei Hinsicht! – Public Domain Frederick George Cotman

Während sich die Mär vom Ideal eines besinnlichen Jahresendes hartnäckig hält, ist der Dezember für uns so ziemlich die anstrengendste Zeit des Jahres. Es fehlen immer noch jede Menge Euros, um uns ausfinanzieren, weil Menschen nun einmal traditionell eher zum Jahresende spenden. Es müssen Texte vorproduziert werden, damit ihr auch über die Weihnachtsfeiertage was von uns lesen könnt und nicht auf dem Trockenen sitzt. Und dann, als Sahnehäubchen, sind viele von uns auch noch auf dem Chaos Communication Congress. Halten und hören Vorträge, schmieden neue Pläne und Kontakte und lernen jede Menge Neues dazu.

Auch wenn es stressig war – der Dezember war dann zum Glück doch meist geprägt von diesem positiven sogenannten Eustress. Der heftet einem so kleine Flügelchen an, mit denen man dann ganzen Berg an Aufgaben überwinden kann. Und dabei hatten wir zwischendurch jede Menge Spaß und das lag nicht zuletzt an unserer Bullshit-Busters-Spendenkampagne. Dabei haben wir gelernt: Wenn wir eines so richtig gut können, dann ist es, uns selbst nicht zu ernst zu nehmen.

Im Overall und mit selbstgebastelten Accessoires ausgestattet Videoclips drehen und uns dabei zum Obst machen? Kein Problem! Mit dem Feuerlöscherschlauch gegen Cookie-Monster und Chatkontrolle antreten? Natürlich! Einen ernsthaften Spendenaufruf in die Kamera sagen, während man so aussieht, als hätte einen die 80er-Zeitmaschine ausgespuckt? Ok, das hat nicht geklappt. Was stattdessen dabei rausgekommen ist, fanden wir dann aber auch ziemlich gut: „Wir können alles. Außer Werbung.“

Es war uns ein Fest. Und dank eurer Unterstützung konnten wir wieder die Million knacken. Und so frohgemut in ein neues Jahr starten. Die Pläne gehen uns nicht aus, der Humor auch nicht. Dass ihr uns das ermöglicht, dafür danken wir euch sehr!

Die harten Zahlen

Der Dezember ist für unsere Finanzen der aufregendste Monat im Jahr. Jeden Tag sichten wir die Spendeneinnahmen und versuchen eine Tendenz im Vergleich zur Vorjahresentwicklung abzulesen. Dank eurer verlässlichen Unterstützung haben wir beachtliche 317.580 Euro an Spenden eingenommen. Mit dem nicht steigerbaren Ausruf unserer Finanzbuchhalterin gesprochen: Das ist mega! Insgesamt belaufen sich unsere Einnahmen im Dezember auf 318.480 Euro. Aus dem Merch-Store erhielten wir etwas mehr als 400 Euro.

Bei den Ausgaben liegen wir bei den Personalkosten mit 83.787 Euro über dem Jahresdurchschnitt. Wir haben beschlossen, den im September an uns ausgezahlten Verlagsanteil der VG Wort als Einmalzahlung vor allem an die Nichtredaktionsmitglieder auszuschütten. Dies soll einen gewissen Ausgleich im Team schaffen, da die Redaktionsmitglieder alljährlich individuelle Ausschüttungen direkt von der VG Wort erhalten. Wer uns kennt, weiß, dass wir Einheitslohn zahlen.

Hier klicken, um den Inhalt von datawrapper.dwcdn.net anzuzeigen

Die Raumkosten bilden mit knapp 3.000 Euro nicht die volle Büromiete in der Boyenstraße ab, für die wir monatlich circa 4.760 Euro zahlen. Zum Jahresende haben wir eine Vorauszahlung für nicht benötigte Reparaturen von etwas mehr als 2.280 Euro aus den Mietzahlungen für die vorherigen Büroräume zurückerhalten. Zudem haben wir noch rund 500 Euro für die Ausstattung der neuen Büroräume ausgegeben.

Hier klicken, um den Inhalt von datawrapper.dwcdn.net anzuzeigen

Die Höhe der Fremdleistungen mit 21.121 Euro ist ungewöhnlich hoch. Das liegt zum einen an der Abrechnung von freien Autor:innen für mehrere zurückliegende Monate, an den fortan monatlichen Kosten einer für die Entwicklung von WordPress beauftragten Agentur sowie den einmaligen Ausgaben für die Netzwerkinstallation in den neuen Büroräumen. Zudem haben wir letztmalig die Unterstützung unseres Steuerberatungsbüros für die Einarbeitung in der Finanzbuchhaltung in Anspruch genommen. Die Aufwendungen für unseren Betriebsbedarf sind mit rund 1.400 Euro unauffällig. In den Kosten für Reisen und Bewirtung von 1.135 Euro sind die Ausgaben für unsere Jahresendfeier enthalten. Die Fortbildungskosten von etwa 2.760 Euro setzen sich aus den Rechnungen unserer Schreibtrainerin für alle Workshops im Jahr 2023 zusammen.

An Versicherungen haben wir lediglich 65 Euro für eine Nachberechnung aufgewendet. Die Ausgaben für Verwaltung und technische Infrastruktur des Büros fallen mit etwa 5.255 Euro im Dezember höher aus. Das liegt an den Kosten des Steuerberatungsbüros für den Jahresabschluss 2022 in Höhe von 2.466 Euro.

Aufgrund der hohen Einnahmen aus der Spendenkampagne liegen die Kosten für den Zahlungsverkehr mit etwas mehr als 2.260 Euro erwartbar weit über dem Jahresdurchschnitt. Unterm Strich beenden wir den Dezember erfolgreich mit einem Ertrag von 197.645 Euro. Das ist ein gutes Polster, um die nächsten Monate mit routinemäßig weniger Spendeneinnahmen zu überbrücken.

Noch ein Hinweis am Ende: Ab 2024 werden wir den Transparenzbericht von monatlich auf quartalsweise umstellen. Unsere Ausgaben setzen sich aus etwa 70 Prozent Personalkosten und etwa 30 Prozent Sachkosten zusammen, wobei uns die Sachkosten für die monatliche Darstellung als zu volatil erscheinen. Einige unserer freien Autor:innen schreiben zum Beispiel vorzugsweise alle drei Monate Rechnungen. Auch bei den technischen Dienstleistungen versprechen wir uns mittels der Darstellung der Kosten über drei Monate belastbarere Aussagen, als wenn wir monatliche Ausreißer erklären.

Insgesamt kommen die Berichte alle Vierteljahre auch unserer eigenen Haushaltsplanung näher, in der wir nicht planbare monatliche Schwankungen der Kosten über das Jahr verteilen. Die Veröffentlichung des Transparenzberichts für das erste Quartal 2024 planen wir für Ende Mai. Wir freuen uns schon jetzt über eure Rückmeldungen!

Danke für Eure Unterstützung!

Wenn ihr uns unterstützen wollt, findet ihr hier alle Möglichkeiten. Am besten ist ein Dauerauftrag. Er ermöglicht uns, langfristig zu planen:

Inhaber: netzpolitik.org e.V.
IBAN: DE62430609671149278400
BIC: GENODEM1GLS
Zweck: Spende netzpolitik.org

Wir freuen uns auch über Spenden via Paypal.

Wir sind glücklich, die besten Unterstützerinnen und Unterstützer zu haben.

Unseren Transparenzbericht aus dem November findet ihr hier.

Vielen Dank an euch alle!


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

17.04.2024 11:41

Der jüngst vom Europäischen Parlament beschlossene „Neue Migrationspakt“ erweitert Überwachungstechnologien und KI-Anwendungen an den EU-Außengrenzen – und erfährt Gegenwind.

Im Hintergrund ist ein Stacheldrahtzaun zu sehen, über den ein blau-violetter Filter gelegt ist. Davor ist das Logo von #ProtectNotSurveil abgebildet. Es zeigt eine Wortmarke des Namens sowie eine Hand, die eine Blume hält und eine Überwachungskamera.
Organisationen, Aktivist:innen und Forscher:innen setzen sich dafür ein, dass die EU-Verordnung Menschen auf der Flucht vor Schäden durch KI-Systeme schützt. CC-BY-SA 4.0 #ProtectNotSurveil

Vergangenen Mittwoch verabschiedete das Europäische Parlament den neuen Pakt zu Migration und Asyl. Das ist ein Reformpaket aus acht Gesetzen, die unter anderem dafür sorgen sollen, dass Asylsuchende in der EU überall gleich behandelt werden. Aber durch das Paket weitet die EU auch die digitale Überwachung und Kriminalisierung von Migrant:innen aus.

Ein Bündnis verschiedener Organisationen, die sich für Datenschutz und Menschenrechte einsetzen, hat die darin beschlossenen Inhalte kritisiert. Unter dem Motto #ProtectNotSurveil – schützen, nicht überwachen – fordert es die Europäische Union auf, den Einsatz schädlicher Überwachungstechnologien gegen Geflüchtete zu verbieten. Außerdem setzt es sich dafür ein, den Einsatz sogenannter Künstliche Intelligenz (KI) im Migrationskontext zu regulieren.

Teil des Bündnisses sind unter anderem AlgorithmWatch, Amnesty International, European Digital Rights (EDRi) und DigitalCourage. Auch Privacy International (PI) hat sich angeschlossen und veröffentlichte das gemeinsame Statement. Es beschreibt, wie die Reform es ermöglicht – und teils sogar vorschreibt – Migrant:innen zu überwachen.

Viel Kritik am Migrationspakt

#ProtectNotSurveil kritisiert, der Migrationspakt stelle Menschen auf der Flucht unter Generalverdacht und überwache sie flächendeckend. Insbesondere die Eurodac-Verordnung verpflichte dazu, biometrische Daten zu erheben und für zehn Jahre zu speichern. Die Inhalte der riesigen Datenbanken können zwischen verschiedenen Polizeibehörden ausgetauscht werden. Auch die Daten von Kindern dürfen erhoben werden – nach dem neuen Gesetz schon ab einem Alter von 6 statt 14 Jahren – und dies zur Not auch unter Zwang.

Im Rahmen der Screening-Verordnung werden in Zukunft umfassende Checks aller irregulär Einreisenden durchgeführt. Die Kontrollen, bei denen die Identität sowie Biometrie- und Gesundheitsdaten erhoben werden, können bis zu sieben Tage dauern.

Neue Kontrollverfahren an den Grenzen würden dazu führen, dass mehr Menschen in gefängnisähnlichen Einrichtungen festgehalten werden. #ProtectNotSurveil fürchtet Zentren nach griechischem Vorbild – mit intensiver biometrischer Überwachung und allgegenwärtigen Kameras und Bewegungsmeldern.

Die Reform des Schengener Grenzkodex, deren Verabschiedung noch aussteht, soll in Zukunft allgemeine Polizeikontrollen erleichtern. Sie fördere den Einsatz von Überwachungstechnologien, kritisiert das Bündnis – sowohl im EU-Inneren als auch an den Außengrenzen.

Bereits im Vorfeld des Beschlusses hatten mehr als 50 gemeinnützige Organisationen einen offenen Brief an die Europäische Kommission gerichtet. Sie sorgten sich, dass der Migrationspakt zu einem teuren, schlecht funktionierenden und unmenschlichen System führen werde.

KI-Einsatz bei der Migration

Der Migrationspakt stützt sich auf bestehende europäische Gesetze wie die KI-Verordnung. Auch die wurde von #ProtectNotSurveil kritisiert. Die Koalition forderte, KI-Praktiken im Bereich der Migration zu regulieren, um die Menschen an den EU-Außengrenzen zu schützen. Auch wollte sie Praktiken verbieten, die in die Grundrechte von Migrant:innen eingreifen.

Am 13. März wurde die KI-Verordnung beschlossen. Viele Anmerkungen der Datenschützer:innen blieben aber ungehört. In einer Analyse erklären EDRi und andere Organisationen, wie das endgültige Gesetz im Vergleich zu den Forderungen abschneidet. #ProtectNotSurveil sorgt sich nun um den verstärkten Einsatz invasiver Technologien – etwa von automatisiertem Profiling, Dialekterkennungssystemen und pseudowissenschaftlichen Technologien wie Lügenendetektoren.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

16.04.2024 15:47

Nach langem Hin und Her und einem vielkritisierten Auswahlprozess soll die Bonner Professorin Specht-Riemenschneider neue Bundesdatenschutzbeauftragte werden. Sie folgt auf Ulrich Kelber.

Louisa Specht-Riemenschneider
Prof. Dr. Louisa Specht-Riemenschneider (Archivbild) – Alle Rechte vorbehalten IMAGO / Metodi Popow

Nach einem verkorksten Auswahlverfahren, das für Unmut unter zivilgesellschaftlichen Organisationen gesorgt hatte, hat die Bundesregierung sich auf eine Nachfolgekandidatin für den bisherigen Bundesdatenschutzbeauftragten Ulrich Kelber geeinigt. Auf den SPD-Mann Kelber, der seit 2019 das Amt innehatte, soll demnächst die parteilose Professorin Louisa Specht-Riemenschneider folgen. Kelber ist noch bis maximal Anfang Juli kommissarisch tätig. Er hätte gerne weitergemacht, wurde aber offenbar von der SPD nicht weiter gehalten.

Die 1985 geborene Professorin für Bürgerliches Recht sowie Informations- und Datenrecht an der Universität Bonn war und ist bereits im Dienst der Bundesregierung. So ist sie derzeit Vorsitzende des Sachverständigenrats für Verbraucherfragen beim Umweltministerium (BMUV) und war Vorsitzende des Digitalbeirates beim Bundesministerium für Digitales und Verkehr (BMDV) und Mitglied der Gründungskommission des Dateninstituts. Mit ihr folgt eine ausgewiesene Datenschutz- und Datenrechtsexpertin auf den Informatiker Kelber.

Louisa Specht-Riemenschneider hat laut der Uni Bonn Rechtswissenschaft an der Universität Bremen studiert und im Jahr 2011 mit der Schrift „Konsequenzen der Ökonomisierung informationeller Selbstbestimmung – Die zivilrechtliche Erfassung des Datenhandels“ an der Universität Freiburg promoviert. Für diese Arbeit erhielt sie den Wissenschaftspreis der Deutschen Stiftung für Recht und Informatik. Nach ihrer Habilitation zum Thema „Diktat der Technik – Regulierungskonzepte technischer Vertragsinhaltsgestaltung am Beispiel von Bürgerlichem Recht und Urheberrecht“ erhielt sie im Jahr 2018 einen Ruf an die Universität Bonn, wo sie bis heute lehrt.

Minister will „ermöglichenden Datenschutz“

Zu der Berufung, bei der Grüne und FDP das Vorschlagsrecht hatten, twitterte Justizminister Marco Buschmann, dass er sie „für einen exzellenten Vorschlag“ halte. „Sie ist eine herausragende Expertin auf dem Gebiet des Datenschutzes und der Rechtsinformatik und besitzt alle Eigenschaften, um das Amt glänzend auszufüllen“, so Buschmann weiter. Er sorgte allerdings mit dem Tweet für Kritik, weil über die Personalie das Kabinett befinden muss und er als Minister nicht zuständig ist.

Verkehrs- und Digitalminister Volker Wissing verbindet mit der Wahl von Specht-Riemenschneider nun einen „ermöglichenden Datenschutz“, das Land brauche eine „neue offene Datenkultur“, so der Minister in einer Presseerklärung. Mit Louisa Specht-Riemenschneider sei eine ausgewiesene Expertin im Bereich Datenschutz und Datenpolitik nominiert worden, mit der er in der Vergangenheit bereits sehr gut und pragmatisch zusammengearbeitet habe.

Der EU-Piratenabgeordnete Patrick Breyer freute sich über die Wahl einer „qualifizierten neuen Bundesdatenschutzbeauftragten“, kritisiert aber das Auswahlverfahren. Dieses müsse sich dringend ändern, so Breyer auf Mastodon. Der ehemalige D64-Vorsitzende Henning Tillmann spricht im Bezug auf die neue Bundesdatenschutzbeauftragte von einer „großartigen Wahl“.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

16.04.2024 12:19

Am 13. September findet in der Alten Münze in Berlin unsere Konferenz statt. Heute startet der Call for Participation – und wir freuen uns auf Eure Einreichungen!

Ein Mikrofonständer vor orangenem Hintergrund mit Netz-Textur
Wir sind gespannt auf eure Beiträge!

In einem halben Jahr findet unsere große Konferenz zum 20. Geburtstag von netzpolitik.org statt! Die Veranstaltung am 13. September 2024 steht unter dem Motto „Bildet Netze!“ und sowohl die Konferenz als auch die anschließende Party werden in der Alten Münze in Berlin stattfinden. Mehr Informationen findet ihr auf unserer Konferenz-Webseite. Dort informieren wir euch auch, sobald der Ticketverkauf losgeht.

Es ist aber nicht nur unser Geburtstag, sondern noch ein anderes Jubiläum: Vor 40 Jahren entstand die erste Version der Hackerethik. Sie beschreibt noch heute gültige Prinzipien – auch für unsere Arbeit. Im Fokus stehen der freie Zugang zu Informationen, Misstrauen gegenüber Autoritäten sowie das Streben, die Welt mit Hilfe von Computern zu verbessern.

Diese Grundsätze stehen heute mehr denn je unter Druck und scheinen teils in Vergessenheit geraten: Eine Handvoll Techkonzerne beherrscht den Markt. Die „Künstliche Intelligenz“ verwandelt die digitale Welt in eine Blackbox. Zahlreiche Staaten höhlen Grundrechte aus, während Rechtsradikale nach der politischen Macht greifen. Es scheint, als wären wir in einen Abwehrkampf geraten, in dem die Utopie auf der Strecke bleibt.

Zuhören und mitmachen!

Gemeinsam wollen wir deshalb darüber debattieren, wie eine lebenswerte und solidarische digitale Gesellschaft aussieht – in Vorträgen, Workshops und Diskussionsrunden. Wie verteidigen wir digitale Freiheitsrechte? Wie stellen wir technologischen Wandel in den Dienst der Gesellschaft? Welche Netze müssen wir spannen, um das Netz gemeinsam voranzubringen?

Wir wollen Ideen finden, wie wir unsere Ideale erreichen können – im Großen und im Kleinen. Vor allem aber wollen wir einen Ort der Begegnung und Vernetzung schaffen. Für die digitale Zivilgesellschaft und alle anderen, die für Grund- und Freiheitsrechte einstehen. Denn wir sind viele.

Wir freuen uns, wenn ihr vorbeikommt, zum Zuhören und hoffentlich auch Diskutieren. Wenn ihr selbst etwas beitragen wollt, könnt ihr eure Ideen bis zum 16. Juni beim Call for Participation einreichen. Wir suchen nach Vorträgen und Workshops, aber auch nach weiteren Vernetzungsideen. Wir sind gespannt, von euch zu hören!


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

16.04.2024 07:00

Wie setzen große Plattformen die neuen EU-Vorgaben für Transparenz bei Online-Werbung um? Schlecht, sagt eine Analyse der Mozilla Foundation. Die Plattformen würden Zivilgesellschaft, Journalismus und Forschung weiter Steine in den Weg legen.

Historisches Foto eines Platzes in Paris, an den Wänden sehr viele unterschiedliche Werbeaufschriften
Im Paris des 19. Jahrhunderts war das mit der Werbetransparenz ganz anders. – Alle Rechte vorbehalten IMAGO / Bridgeman Images

Schwer zu bedienen, kaum vergleichbar und zu wenig aussagekräftig: Das Zeugnis, das die Mozilla Foundation den Transparenzarchiven großer Plattformen ausstellt, ist verheerend. „Keines der von den elf größten Technologieunternehmen der Welt geschaffenen Tools zur Transparenz von Werbung funktioniert so effektiv wie nötig.“ So lautet das Fazit einer heute veröffentlichten Studie, die die Mozilla-Stiftung zusammen mit CheckFirst durchgeführt hat.

Das Digitale-Dienste-Gesetz der EU schreibt in Artikel 39 vor, dass Online-Plattformen und Suchmaschinen mit mehr als 45 Millionen Nutzer:innen über so genannte „Werbearchive“ verfügen müssen, die sie der Öffentlichkeit zur Verfügung stellen. Diese Archive sollen Einblick geben, welche Akteure welche Art von Werbung auf welchen Plattformen schalten – und so mehr Transparenz über Online-Werbung und politische Einflussnahme geben. Archiviert werden die Inhalte der Werbeanzeigen von Unternehmen, Verbänden oder politische Parteien. Außerdem enthalten die Archive Meta-Informationen zu Platzierung, Kosten oder Reichweite der Anzeigen.

Doch wie einfach sind diese Bibliotheken für Journalismus, Wissenschaft und Interessierte abrufbar? Wie gut und aussagekräftig sind die Daten selbst? Werden Sie in strukturierter, maschinenlesbarer und vergleichbarer Form angeboten? Die Mozilla Foundation untersucht diese für Werbearchive von folgenden Dienste: AliExpress, Apple App Store, Bing, Booking.com, Alphabet (Google Search und YouTube), LinkedIn, Meta (Facebook und Instagram), Pinterest, Snapchat, TikTok, X und Zalando.

Das Ergebnis ist mehr als ernüchternd. Die Analyse findet große Unterschiede zwischen den Plattformen, aber auch eine Gemeinsamkeit: „Kein Werbearchiv ist voll funktionsfähig“ und keines biete Forscher:innen und zivilgesellschaftlichen Gruppen die Werkzeuge und Daten, die sie benötigen, um die Auswirkungen zum Beispiel auf die bevorstehenden EU-Wahlen effektiv zu überwachen.

Alle Transparenzarchive fallen durch

Tools zur Werbetransparenz seien für die Rechenschaftspflicht von Plattformen unerlässlich – eine erste Verteidigungslinie, wie Rauchmelder, sagt Claire Pershan von Mozilla. „Unsere Untersuchungen haben jedoch gezeigt, dass die meisten der weltweit größten Plattformen keine funktional nützlichen Werbearchive bereitstellen. Die aktuellen Tools existieren, ja – aber in einigen Fällen ist das auch schon alles, was man über sie sagen kann“, so Pershan weiter.

Konkret untersucht die Studie Faktoren wie die Tiefe der bereitgestellten Informationen über die Werbung und ihre Inserenten, die verwendeten Targeting-Kriterien und die Reichweite der Werbung. „Außerdem bewerten wir die Vollständigkeit des Werbespeichers, die Verfügbarkeit historischer Daten sowie die Zugänglichkeit, Konsistenz und Dokumentation der bereitgestellten Tools“. Auch Schnittstellen für automatisierte Datenabrufe werden untersucht, sofern die Plattformen sie anbieten.

Vergleichstabelle
Der gesamte Vergleich ist in der Studie abrufbar. - Alle Rechte vorbehalten Mozilla Foundation

Grundsätzlich kritisiert die Studie, dass die Datenformate nicht vergleichbar seien, weil alle die gesetzlichen Anforderungen anders aufbereiten würden. Als Negativbeispiele nennt die Studie AliExpress, Twitter/X, Bing, Snapchat und Zalando, deren Angebote besonders schlecht seien. Ihnen fehlten aussagekräftige Daten und Funktionalität.

Die Mängel der Umsetzungen sind sehr verschiedenen: Während AliExpress keine Schnittstelle bietet, lässt sich bei Apple das Werbe-Targeting nicht auf Länderebene auslesen, bei Booking.com lässt sich schwer herausfinden, welche Werbung gemeint ist, bei Alphabet (Google) kann man nicht nach Schlagworten suchen, während Twitter/X gar keine Weboberfläche, sondern nur CSV-Dateien zum Download anbietet.

Die Studie kommt zum Schluss, dass keine der Plattformen die Werbedaten in zufriedenstellender Form bereitstelle. „Zwar sehen wir gegenüber unseren Bewertungen für 2019 deutliche Verbesserungen bei Google und Facebook, wie die kritische Einbeziehung von Targeting- und Engagement-Daten (wie sie im Rahmen des DSA vorgeschrieben sind), doch selbst diese sollten angesichts der anhaltenden Einschränkungen bei Funktionalität und Zugang nicht als Beispiel dafür dienen, was ein gutes Werbearchiv für Forscher oder die breite Öffentlichkeit ausmacht.“

Plattformen sollen nachbessern

Von den Plattformen fordert die Mozilla Foundation, dass diese Zugangshindernisse beseitigen. Grundsätzlich sollten umfassendere Daten über Werbekampagnen und detailliertere Informationen über Werbeabsichten und -wirksamkeit enthalten sein – und diese Daten auch besser durchsuchbar sein. Luft nach oben gäbe es auch bei der Dokumentation und der Bedienbarkeit, sowie bei einer Harmonisierung der genutzten Schnittstellen.

Dem Gesetzgeber schlägt die Studie vor, gemeinsam mit Wissenschaft und Zivilgesellschaft Leitlinien für die Ausgestaltung der Archive zu entwickeln, sowie standardisierte Schnittstellen verpflichtend einzuführen, damit eine Vergleichbarkeit hergestellt werden kann. Zudem müssten Offenlegungsregeln für Influencer-Werbung verschärft werden.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.