legal contact rss
 

netzpolitik.org

22.04.2024 08:21

Doctolib ist hierzulande die führende Plattform für Online-Arzttermine. Trotz wachsender Kritik von Datenschützer:innen ist das Unternehmen seit Jahren auf Erfolgskurs – und auf bestem Wege, die Datenverarbeitung im Gesundheitswesen von ethischen Prinzipien zu befreien. Ein Kommentar.

Innenaufnahme des Doctolib-Büros bei Paris
Wer hierzulande einen Arzttermin benötigt, kommt an diesem Unternehmen kaum noch vorbei. – Alle Rechte vorbehalten IMAGO / ABACAPRESS

Einer Patientin des Universitäts-Schlaflabors in Mannheim ist nach eigenen Angaben eine Behandlung verweigert worden, weil sie ihre Termine nicht über den IT-Dienstleister Doctolib abwickeln wollte. Ein angestellter Arzt befürchtet, sich strafbar zu machen, weil seine Praxis Termine über den Dienst vermittelt. Und Patienten, die Termine mündlich und fernmündlich bei ihrem Arzt verabredet haben, erhalten überraschend von Doctolib per SMS oder E-Mail eine Terminbestätigung und fragen sich, wie das Unternehmen an ihre vertraulichen Daten gekommen ist.

Die Zahl solcher Anfragen und Beschwerden, die bei Datenschutzaufsichtsbehörden und Ärztekammern zu Doctolib eingehen, wächst. Dessen ungeachtet ist das Unternehmen seit Jahren auf Erfolgskurs und auf bestem Wege, die Datenverarbeitung im Gesundheitswesen von ethischen Prinzipien zu befreien.

Vom Start-up zum Unicorn

Doctolib wurde 2013 in Frankreich gegründet. Drei Jahre später verfügte das Unternehmen landesweit schon über mehrere Dutzend Standorte und rund 230 Beschäftigte. Im Jahr 2016 expandierte es nach Deutschland, und bereits 2019 wurde Doctolibs Marktwert mit mehr als einer Milliarde Euro bemessen. Das Unternehmen war damit in nur sechs Jahren zum „Unicorn“ aufgestiegen.

Nach etlichen Finanzierungsrunden und weiteren Expansionen nach Italien und in die Niederlande erreichte Doctolib vor zwei Jahren einen Marktwert von rund 5,8 Milliarden Euro. Zum Vergleich: Der mit Blick auf den Umsatz weitaus größere Konkurrent CompuGroup Medical (CGM) wurde im vergangenen Jahr mit „nur“ zwei Milliarden Euro bewertet.

Doctolib agiert in einer Doppelrolle, nämlich als externer Auftragsverarbeiter und als eigenständiger Dienstleister. Zum einen ist Doctolib ein Terminmanager für Ärzte und weitere Gesundheitseinrichtungen. Sie zahlen für den Dienst jeweils knapp 140 Euro im Monat. Zum anderen ist Doctolib ein Dienstleister für Patienten. Für sie ist der Dienst kostenfrei, allerdings können sie Doctolib nur dann nutzen, wenn sie sich bei dem Dienst registrieren. Das Unternehmen erhält die Nutzerdaten damit unabhängig vom direkten Arztkontakt.

Doctolib leitet aus der Doppelfunktion das Recht ab, diese Daten auch zu weiteren Zwecken nutzen zu dürfen. Sie unterlägen demnach nicht dem besonderen Schutz des Patientengeheimnisses. Das Unternehmen bestreitet zugleich, Zugriff auf die Patientendaten zu haben oder diese zu anderen Zwecken zu verwenden. Überprüfen lässt sich das jedoch kaum.

Marktanteil von 60 Prozent

Gegenüber den Gesundheitseinrichtungen erklärt das Unternehmen, dass es die Stammdaten der Patienten benötige, um das Terminmanagement zu betreiben. Dazu gehören Namen, Geschlecht, Geburtsdatum, Telefonnummer, Patientennummer, Versichertenstatus sowie die Notizen und Termindaten der Ärzte, zu denen auch der „Besuchsgrund“ zählt.

Für viele Gesundheitseinrichtungen ist das Angebot bequem. Zugleich zwingen sie ihre Patienten faktisch dazu, bei Doctolib ein Konto zu eröffnen, um mit ihrer Arztpraxis zu kommunizieren. Auf diese Weise sammelt Doctolib seit Jahren die Daten von Patientinnen und Patienten – und erhielt dafür im Jahr 2021 den Big Brother Award.

Bei der Terminvermittlung von Ärzten erreichte das Unternehmen im November 2023 bundesweit einen Marktanteil von 60 Prozent. In Frankreich liegt er mutmaßlich noch höher.

Nach eigenen Angaben hat das Unternehmen aktuell insgesamt rund 80 Millionen Personen in seinen Datenbanken erfasst. Europaweit nutzen etwa 900.000 Angehörige von Heilberufen den Dienst, hierzulande sind es etwa 70.000 niedergelassene Ärzte und Therapeuten sowie 400 Kliniken. Zu Letzteren zählen Einrichtungen des Sana-Konzerns, der St. Augustinus Gruppe, der Atos-Kliniken und viele weitere. Jeden Monat kommen nach Unternehmensangaben rund 300.000 Kunden hinzu.

Steter Ausbau des Angebots

Das Unternehmen erweitert kontinuierlich seine IT-Angebote für Gesundheitseinrichtungen. Dazu gehören Dienste für Arztsuche und Videosprechstunden, zur Dokumentation von Gesundheitsunterlagen sowie zur Kommunikation zwischen Patienten und Gesundheitseinrichtung. Und mitunter kommt es dabei auch zu ungewöhnlichen Kooperationen wie etwa mit dem größten Verkehrsklub hierzulande.

So bietet etwa das Angebot Doctolib Hospital nicht nur die Vermittlung von Terminen, sondern auch eine „Optimierung des Zuweismanagements und eine intersektorale Vernetzung“ an. Unternehmen, die das Angebot nutzen, werden „vollständig mit Ihrem Krankenhausinformationssystem (KIS) verbunden“, wodurch etwa Dokumente „vom Patientenportal ins KIS und zurück sowie in die elektronische Patientenakte (ePA) übertragen werden“ können.

Anfang 2023 kaufte Doctolib das Unternehmen „Siilo“. Der bis dahin größte Anbieter für Gesundheitsmessenger in Europa vernetzte nach eigenen Angaben rund 450.000 Gesundheitsanbieter miteinander.

Und am 14. März dieses Jahres gab Doctolib bekannt, dass es die Ausschreibung der Charité gewonnen hat. Die europaweit größte Universitätsklink mit Sitz in Berlin plant die Einführung eines Patientenportals, das gemäß dem Krankenhauszukunftsgesetz gefördert wird. Die Charité hat an vier Standorten mehr als 100 Kliniken und Institute.

Bereits im Januar verkündete Doctolib eine Kooperation mit dem ADAC. Konkret geht es dabei um einen gemeinsamen „niederschwelligen Zugang zur gesundheitlichen Versorgung“. Ermöglichen soll dies die Integration von Doctolibs Arztterminbuchung in die „ADAC Medical App“. Nutzer können damit „von unterwegs oder bequem zu Hause sowie rund um die Uhr Termine vereinbaren und behalten dank aller relevanten Informationen jederzeit den Überblick“.

Zweifelhafte Zertifikate

In der Vergangenheit versicherte das Unternehmen, mit jenen Behörden zusammenzuarbeiten, „die für den Schutz von personenbezogenen Daten zuständig sind“. Wie diese „Zusammenarbeit“ aussieht, lässt sich den Jahresberichten der Berliner Datenschutzaufsicht aus den Jahren 2019 bis 2022 entnehmen: Demnach ignoriert Doctolib vor allem deren Kritik.

Gleichzeitig schmückt sich das Unternehmen gerne mit einer Vielzahl an Zertifikaten. Schaut man aber auch hier genauer hin, erweist sich deren Qualität mitunter als zweifelhaft.

So stammt etwa die Zertifizierung ISO/IEC 27001/27701 durch die BSI-Group – anders als man auf den ersten Blick vermuten könnte – nicht vom Bundesamt für die Sicherheit in der Informationstechnik (BSI), sondern von einer British Standards Institution, ohne dass Doctolib für die Vergabe auf Nachfrage vertiefte Nachweise vorlegte. Nach der Intervention des Netzwerks Datenschutzexpertise änderte das Unternehmen die entsprechende Presseerklärung nachträglich.

Darüber hinaus wirbt Doctolib mit einem deutschen C5-Testat, das tatsächlich auf einen Kriterienkatalog des Bundesamtes für Sicherheit in der Informationstechnik zurückgeht und Mindestanforderungen an sicheres Cloud Computing spezifiziert. Allerdings wird dieses Testat durch eine Selbstzertifizierung etwa gegenüber einem Wirtschaftsprüfer vergeben. Zudem ist das Zertifikat – zumindest hinsichtlich des Einsatzes des Terminmanagements – mutmaßlich ungültig. Denn es gilt nur für Auftragsverarbeiter, Doctolib verarbeitet jedoch eigenverantwortlich Daten.

Mehrere Datenschutz-Gutachten kritisieren Doctolib

Die Zertifikate können somit nicht über Zweifel daran hinwegtäuschen, dass Doctolibs Angebote durchweg datenschutzkonform sind. Das untermauern auch mehrere Gutachten des Netzwerks Datenschutzexpertise, an denen der Autor maßgeblich mitgewirkt hat.

Bereits das erste von bislang drei Gutachten aus dem Jahr 2021 kommt zu dem Schluss, dass Doctolib entgegen seiner eigenen Darstellung nicht als Auftragsverarbeiter, sondern als verantwortlicher Dienstleister tätig sei. Das aber verletzt nicht nur den Datenschutz, sondern auch das Patientengeheimnis.

Nach § 203 StGB machen sich Personen, die Heilberufe ausüben, und an der ärztlichen Berufstätigkeit Mitwirkende – zu denen auch Doctolib zählt – strafbar, wenn sie Patientengeheimnisse offenbaren oder dazu Beihilfe und Anstiftung leisten. Der Vorwurf der Strafbarkeit trifft nicht nur den Dienstleister selbst, sondern auch Ärzte und sonstige Gesundheitsfachkräfte, die das Terminmanagement von Doctolib verwenden.

Im Juli 2022 folgte ein aktualisiertes Datenschutz-Gutachten. Der Veröffentlichung waren zwar einige Änderungen in den Allgemeinen Geschäftsbedingungen von Doctolib vorausgegangen. Dessen ungeachtet kommt auch das zweite Gutachten zu dem Schluss, dass Doctolibs Angebot nicht datenschutzkonform sei.

Ein mageres Gesprächsangebot

Nach der Veröffentlichung des zweiten Gutachtens unterbreitete das Netzwerk dem Unternehmen das Angebot, miteinander ins Gespräch zu kommen. Auf entsprechende Anfragen reagierte Doctolib jedoch damals nicht.

Konkurrierenden Unternehmen, die sich auf die Gutachten des Netzwerks Datenschutzexpertise beriefen, mahnte Doctolib wegen unlauteren Wettbewerbs ab. Dabei forderte das Unternehmen zum Teil Schadenersatz in Höhe von rund 50.000 Euro. Diese Abmahnungen veranlassten das Netzwerk Datenschutzexpertise dazu, Ende Oktober vergangenen Jahres ein drittes Gutachten zu veröffentlichen, in dem es darlegte, warum die Abmahnungen unberechtigt seien.

Wenige Wochen nach der Veröffentlichung erklärte sich der Geschäftsführer von Doctolib Deutschland, Nikolay Kolev, zu einem Gespräch mit dem Netzwerk Datenschutzexpertise bereit. Kolev versicherte bei dieser Gelegenheit zwar, dass sein Unternehmen dem Datenschutz eine hohe Bedeutung einräume. Der Forderung des Netzwerks Datenschutzexpertise, von weiteren Abmahnungen abzusehen, wollte er aber nicht explizit entsprechen. Seitdem sind aber immerhin keine weiteren Abmahnungen öffentlich bekannt geworden.

Doctolib ignoriert weitgehend Kritik von Datenschutzaufsicht

Auch die Kritik der Berliner Beauftragten für Datenschutz und Informationsfreiheit (BlnBDI) ließ Doctolib weitgehend an sich abprallen.

So beauftragte die Berliner Senatsverwaltung für Gesundheit das Unternehmen Ende 2020 damit, die Corona-Impftermine für Bewohner der Bundeshauptstadt zu vermitteln. Dafür mussten sich die Impfwilligen auf dem Webportal von Doctolib ein Konto einrichten, über das die Impftermine vergeben wurden. Mehr als zwei Millionen Berlinerinnen und Berliner haben sich daraufhin bei dem Unternehmen registriert.

Für die Stadt war dies eine kostengünstige Lösung. Es fielen lediglich 0,16 Cent pro Terminerinnerung an. Für Doctolib war es hingegen eine wirksame Werbemaßnahme, mit dem es nicht nur seine Nutzerbasis, sondern auch seinen Bekanntheitsgrad vergrößerte.

Dass die BlnBDI die Sammlung der sensiblen Gesundheitsdaten während der Pandemie als rechtswidrig kritisierte, störte offenbar weder die Gesundheitsverwaltung noch das Unternehmen. Bereits in ihrem Tätigkeitsbericht für das Jahr 2019 hatte die BlnBDI die unzulässige Datenverarbeitung bei Ärzten angeprangert. In den Tätigkeitsberichten zu 2021 und 2022 bekräftigte die Berliner Datenschutzaufsicht ihre Kritik.

Gänzlich folgenlos blieb die anhaltende Kritik nicht. Anfang 2022 änderte Doctolib immerhin seine Allgemeinen Geschäftsbedingungen. Offenbar versuchte das Unternehmen einige mutmaßliche Rechtsverstöße, die der BlnBDI angemahnt hatte, zu beheben, ohne das zugrundeliegende Geschäftsmodell zu ändern. So wurde etwa die Cookie-Übermittlung an Google gestoppt und wohl auch bei der Datensicherheit nachgebessert.

Zu weitergehenden Schritten zeigt sich das Unternehmen indes nicht bereit, auch weil es die BlnBDI in seinem Fall als nicht zuständig erachtet. Nach eigenen Angaben unterliege Doctolib, da die Konzernmutter ihren Sitz in Frankreich hat, der Aufsicht der „Commission Nationale de l’Informatique et des Libertés“ (CNIL).

Eine solche Argumentation ist juristisch zumindest fragwürdig, da laut DSGVO ausschlaggebend ist, an welchem Ort die Entscheidungen über die Datenverarbeitung getroffen werden – und das ist mutmaßlich die Doctolib GmbH in Berlin.

Doctolib endlich in die Schranken weisen

Es geht hier aber nicht „nur“ um Datenschutz, sondern auch um das Patientengeheimnis. Dieses dient dem Vertrauen der Patienten in die Heilberufler und in das gesamte Gesundheitssystem. Doctolib ist somit auf dem besten Weg, die Datenverarbeitung im Gesundheitswesen von ethischen Prinzipien zu „befreien“.

Zudem erinnert die Expansion des Unternehmens an den Aufstieg der Unternehmen des Silicon Valleys in den zurückliegenden Jahrzehnten. Auch sie sicherten sich ihre informationstechnische Dominanz und ihren Profit zulasten der digitalen Grundrechte. All das verdeutlicht, dass Doctolibs Angebote endlich entschiedener kontrolliert und reguliert werden müssen.

Ein Patient sollte sich weigern können, die Dienste von Doctolib zu nutzen, ohne dass er deshalb bei einem Arzt oder einer Gesundheitseinrichtung Nachteile erleidet. Ist dies nicht der Fall, sollten sich Betroffene bei der zuständigen Datenschutzaufsichtsbehörde des Bundeslandes oder bei der Heilberufekammer der jeweiligen Region beschweren.

Außerdem kann ein Patient einen Antrag bei Doctolib stellen, um gemäß Art. 15 Datenschutzgrundverordnung (DSGVO) Auskunft darüber zu erhalten, welche Daten das Unternehmen über sie gespeichert hat. Einen umfassenden Einblick in den Datenschatz sollten einzelne Nutzer allerdings nicht erwarten. Denn Doctolib wird ihnen voraussichtlich nicht mitteilen, welche Daten es als vermeintlicher „Auftragsverarbeiter“ vom behandelnden Arzt erhalten hat.

Wer über ein Konto bei Doctolib verfügt und möchte, dass die dort gespeicherten Daten gelöscht werden, kann seinen Account kündigen. Doctolib ist verpflichtet, dem Ersuchen nachzukommen. Sicherheitshalber sollten Nutzerinnen und Nutzer das Unternehmen auch noch explizit zur Löschung der eigenen Daten auffordern.

Einzelne Kündigungen werden aber nicht ausreichen, damit das Unternehmen sein Geschäftsgebaren auch nachhaltig ändert. Es ist daher an den Aufsichtsbehörden, aber auch an den Heilberufekammern, dem Verbraucherschutz, den Standes- und den Patientenvertretungen den datenschutzrechtlichen Verstößen von Doctolib endlich Einhalt zu gebieten.

Thilo Weichert, Jurist und Politologe, ist Vorstandsmitglied der Deutschen Vereinigung für Datenschutz e. V. (DVD) und Mitglied des Netzwerks Datenschutzexpertise. Von 2004 bis Juli 2015 war er Datenschutzbeauftragter von Schleswig-Holstein und damit Leiter des Unabhängigen Landeszentrums für Datenschutz (ULD) in Kiel.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

20.04.2024 09:57

Schaden digitale Lernmittel mehr, als dass sie nutzen? Schweden und Dänemark wollen eine Kehrtwende in der Schuldigitalisierung vollziehen. Und auch hierzulande fragt man sich: Müssen unsere Klassenzimmer wieder analoger werden? Doch ganz so einfach ist es dann doch nicht.

Drei Schüler:innen im Unterricht malen auf Tablets
Tablet oder Kreidetafel – womit lernt es sich besser? – Alle Rechte vorbehalten IMAGO / Funke Foto Services

Nicht erst seit der Corona-Pandemie wird gefordert: Die Schulen müssen digitaler werden! Tablets statt Schulbücher in alle Klassenzimmer!

Zuletzt kamen jedoch Zweifel an dieser Forderung auf. Nutzen Schüler:innen digitale Geräte, lernen sie angeblich schlechter. Mancherorts haben diese Bedenken nun zu einer drastischen Umkehr in der Bildungspolitik geführt. Schweden und Dänemark galten bislang als strahlende Vorbilder in der Schuldigitalisierung. Nun aber wollen beide Länder ihre Schulen wieder analoger machen.

Diese Kehrtwende facht auch in Deutschland die Diskussion wieder an: Schadet die Schuldigitalisierung den Schüler:innen mehr, als dass sie ihnen nutzt?

Kehrtwende in Schweden und Dänemark

Der Grund für die Kehrtwende in Schweden und Dänemark ist eine Stellungnahme des renommierten Karolinska-Instituts vor knapp einem Jahr. Die Forschenden aus Medizin und Psychologie kommen darin zu einem erstaunlichen Urteil: „Die Digitalisierung der Schulen [hat] große negative Auswirkungen auf den Wissenserwerb der Schüler“.

Bis vor Kurzem hatte die schwedische Bildungsbehörde noch ganz andere Töne verlauten lassen: Man wolle die Schulen noch digitaler machen, von der Vorschule an. So hatte es die Behörde in ihrem Vorschlag zur „nationalen Digitalisierungsstrategie für das Schulsystem 2023-2027“ vorgestellt. Ebendiese Empfehlung hatten die Verfasser:innen der Stellungnahme nun überprüft. Ihr Fazit: Das schwedische Bildungsministerium solle den Vorschlag der Bildungsbehörde rundweg ablehnen.

Schwedens Bildungsministerin Lotta Edholm kündigte daraufhin an, die Digitalisierung von Lernmitteln auszubremsen: „Wir wissen, dass Lesen am besten durch Bücher gefördert wird und dass wir ein großes Problem in schwedischen Schulen haben, mit zu vielen Bildschirmen und zu wenigen Büchern“, so Edholm.

Dänische Schüler beklagen Mangel an Medienkompetenz

Die Wellen der schwedischen Kehrtwende schlugen bis nach Dänemark. Bislang galt das Nachbarland als europäischer Vorreiter in Sachen Schuldigitalisierung. Doch selbst Schüler:innen beklagen dort inzwischen, in der Schule nicht genügend über den Umgang mit neuen Technologien unterrichtet zu werden: „Das dänische Bildungssystem versagt noch immer darin, uns auf die digitale Welt vorzubereiten“, erklärt Asger Kjær Sørensen auf Anfrage auf Englisch. Sørensen ist der Vorsitzende der Danske Gymnasieelevers Sammenslutning – der Vereinigung von Schüler:innen der höheren Oberschulen (vergleichbar mit deutschen Oberstufen) in Dänemark.

Und auch Dänemarks Bildungsminister Tesfaye schlägt inzwischen reumütige Töne an: Er entschuldigte sich, die Schüler:innen zu „Versuchskaninchen in einem digitalen Experiment“ gemacht zu haben.

Sørensen wird hier konkreter: „Aktuell würde ich sagen, dienen wir in einer anderen Hinsicht als Versuchskaninchen: Denn wir verlassen das Schulsystem ohne die nötigen Kompetenzen zu besitzen“, so der Schüler, „um durch die digitalisierte Welt zu navigieren und ohne ein Verständnis für die Technologien entwickelt zu haben, die entscheidend für die Reste unserer Leben und Karrieren sein werden.“. Die neuen Geräte seien an Schulen eingeführt worden, ohne darüber zu reflektieren, wie sie genutzt werden sollten und wie sie sich auf das Lernen auswirken. Eine bessere Schuldigitalisierung würde bedeuten, die bestehenden Technologien auf eine Weise in den Unterricht einzubeziehen, die die Schüler:innen dazu anregt, sich kritisch und konstruktiv mit ihnen auseinanderzusetzen, meint Asger Sørensen.

Das dänische Bildungsministerium will nun ein Gleichgewicht zwischen analogem und digitalem Unterricht herstellen, wie es in einer Pressemittelung des dänischen Bildungsministeriums heißt. Bildschirme sollen in Klassenzimmern nur noch dann eingesetzt werden, wenn es pädagogisch und didaktisch sinnvoll ist. So lautet eine von zwölf Empfehlungen, die ab sofort an dänischen Schulen umgesetzt werden sollen.

Droht „Digitale Demenz“?

Auch in Deutschland wird die Debatte um die Schuldigitaliserung derzeit wieder intensiver geführt – auch unter dem Eindruck der Maßnahmen der Corona-Jahre, die nun rückblickend bewertet werden sollen. Über Monate waren damals die Schulen geschlossen und etliche Kinder wurden vorwiegend mit digitalen Mitteln unterrichtet. Seitdem haben die Kompetenzen der Schüler:innen abgenommen – auch wenn Bildungsforschende dies nur zum Teil auf die damaligen Maßnahmen zurückführen.

Die aktuelle Debatte ist auch Wasser auf die Mühlen jener Mahner, die seit Jahren vor der Digitalisierung warnen. Dazu zählt unter anderem der Neurowissenschaftler Manfred Spitzer. Er argumentierte bereits 2012 in seinem umstrittenen Buch „Digitale Demenz“, dass digitale Medien die Entwicklung des Gehirns beeinträchtigten. In mitunter alarmistischen Tönen kritisiert er auch politische Initiativen, die vorsahen, „alle Schüler mit Notebooks auszustatten und die Computerspiel-Pädagogik zu fördern“.

Kritik des Karolinska-Instituts an schwedischer Strategie

Auf den ersten Blick scheint das Karolinska-Institut Spitzers Behauptungen recht zu geben. So kommt dessen Stellungnahme unter anderem zu dem Schluss, dass Schüler:innen, die Texte auf Tablets lesen, in der Entwicklung zurück hingen. Es sei schwieriger, sich an Informationen zu erinnern, die auf einem Bildschirm statt in einem Buch gelesen wurden, so die Forschenden. Das Entwicklungsdefizit in der Lesekompetenz jener Schüler:innen, die auf einem Bildschirm lesen, betrüge etwa zwei Jahre gegenüber solchen, die auf Papier lesen.

Der Einsatz digitaler Medien führe zudem zu mehr Multitasking und dies wiederum zu schlechterem Lernen. Unser Gehirn sei jedoch nur begrenzt in der Lage, relevante Informationen im Arbeitsgedächtnis zu speichern, so die Forschenden. Auch personalisierte Online-Werbung würde immer wieder dafür sorgen, dass wir abschweifen.

Kinder unter zwei Jahren sollten digitale Werkzeuge überhaupt nicht nutzen, das empfehle auch die Weltgesundheitsorganisation (WHO). Kinder unter sechs Jahre sollten täglich weniger als eine Stunde vor einem Bildschirm verbringen. Auch das steht im Widerspruch zur Strategie der schwedischen Bildungsbehörde, die auch an Vorschulen den Einsatz digitaler Lernmittel verstärken wollte.

Bedingte Aussagekraft der Stellungnahme

Eine „Digitale Demenz“, wie von Spitzer heraufbeschworen, befürchten die Forschenden indes nicht: „Wir möchten darauf hinweisen, dass es trotz der eindeutigen Risiken der Digitalisierung von Schulen auch Belege dafür gibt, dass sich bestimmte digitale Lernmaterialien positiv auf das Lernen auswirken können“. Deshalb sei es dringend notwendig, dass verschiedene Akteure zusammen daran arbeiten, wirksame digitale Lernmaterialien zu entwickeln.

Die Studie erntet jedoch auch Widerspruch. Kritiker:innen bemängeln etwa, dass sich die Verfasser:innen lediglich mit digitalen Lehrbüchern befasst hätten, nicht aber mit den zahlreichen anderen Lernmitteln, für die digitale Geräte eingesetzt werden können.

Die Verfasser:innen selbst räumen ein, ausschließlich medizinische und psychologische Folgen des Einsatzes digitaler Lernmittel betrachtet zu haben. Unter anderem pädagogische und soziologische Aspekte seien zu kurz gekommen, weil die Nationale Agentur für Bildung keine heterogenere Forschungsgruppe zusammengestellt hatte. Um die Auswirkungen der unterschiedlichen Maßnahmen auf den Wissenserwerb und die digitale Kompetenz umfassend zu bewerten, brauche es daher Folgestudien, so die Forschenden.

Mehr Medienkompetenz statt mehr digitale Geräte

Vor allem aber liege das Problem, so die Wissenschaftler:innen, nicht grundsätzlich in der Nutzung digitaler Lernendgeräte begründet, sondern vielmehr darin, wie diese eingesetzt werden. Statt die Klassenräume mit Tablets zu fluten, sollte der Fokus stattdessen stärker darauf gelegt werden, wie Medienkompetenz vermittelt wird.

So habe die schwedische Digitalstrategie an Schulen bisher hauptsächlich darin bestanden, analoge durch digitale Lernmittel zu ersetzen. Die nötigen Kompetenzen seien dabei kaum vermittelt worden. Auch deshalb habe sich der Wissenserwerb der Schüler:innen verschlechtert.

Damit die Digitalisierungsstrategie erfolgreich ist, so die Empfehlung der schwedischen Wissenschaftler:innen, müssten Lehrkräfte wie Schüler:innen gezielt hinsichtlich ihrer digitalen Fähigkeiten und Medienkompetenzen weitergebildet werden.

Zum Teil nur „Klicken und Wischen“

Mehr Medienerziehung, wie das Karolinska-Institut fordert, wäre auch für deutsche Schüler:innen dringend notwendig. Das verdeutlicht bereits die International Computer and Information Literacy Study (ICILS) aus dem Jahr 2018. Die Studie vergleicht international die Medienkompetenz von Achtklässler:innen. Auch die Ausstattung von Schulen mit digitalen Lern-Endgeräten wird dabei erfasst.

Demnach erreichte damals ein Drittel der Schüler:innen in Deutschland nur die unteren beiden Kompetenzstufen. „Damit konnten diese Schüler:innen eigentlich nur ‚Klicken und Wischen‘“, stellt Birgit Eickelmann auf Anfrage fest. Sie ist Professorin an der Universität Paderborn und wissenschaftliche Leiterin der ICIL-Studie in Deutschland. Insgesamt lag die Bundesrepublik 2018 in der ICIL-Studie im internationalen Vergleich im Mittelfeld. Große Defizite zeigten sich damals auch in der Ausstattung der Schulen hierzulande – etwa mit WLAN, Endgeräten und Lernplattformen.

Die Studienergebnisse von 2018 sind aus heutiger Sicht mit Vorsicht zu genießen. Der Digitalpakt Schule ist erst seit 2019 in Kraft, und auch die Corona-Pandemie hat den digitalen Schulalltag nachhaltig verändert. Die Auswirkungen der vergangenen Jahre werden sich daher erst in den Ergebnissen der ICIL-Studie 2023 niederschlagen, die Ende dieses Jahres veröffentlicht wird.

Im vergangenen Jahr nahm Schweden erstmals an der ICILS teil. Gerade mit Blick auf die aktuelle Debatte werden die Ergebnisse dort mit Spannung erwartet.

Die Digitalisierung pausieren?

Dass sich die Lage hierzulande in den vergangenen Jahren erheblich verbessert habe, glaubt der deutsche Digitalexperte Ralf Lankau indes nicht. Lankau ist Professor für Medientheorie und Mediengestaltung an der Hochschule Offenburg. Er kritisiert, dass Kinder und Jugendliche durch Streamingdienste, TikTok und Co. zu „suchtgesteuerten Konsumäffchen“ gemacht werden, statt dass die Potenziale der Techniken und Dienste genutzt würden.

Lankau meint, dass die Kompetenz im Gebrauch darüber entscheidet, ob digitale Lernmittel den Lernenden eher nutzen oder schaden. Die qualifizierte Lehrkraft müsse entscheiden, wann der Einsatz von digitalen Medien den Unterricht voranbringt. Relevant dafür seien unter anderem das Alter der Schüler:innen, das jeweilige Fach sowie die Schulform.

Damit ihr Einsatz möglich ist, müssten deutsche Schulen aber genauso gut mit Endgeräten wie Tablets, Laptops und PCs ausgestattet werden wie Schulen in skandinavischen Ländern. Außerdem müssten flächendeckend Bildungsserver zur Verfügung stehen.

Der Forscher war im November 2023 einer der Unterzeichner eines Papiers, das ein Moratorium der Digitalisierung an deutschen Schulen fordert. Mehr als 40 Forschende verschiedener wissenschaftlicher Disziplinen aus ganz Deutschland haben es unterzeichnet.

Sie fordern eine Pause in der Schuldigitalisierung sowie eine interdisziplinäre Überprüfung der Schuldigitalisierung und ihrer möglichen Folgen. „Die Wirkungen und Nebenwirkungen digitaler Medien auf Entwicklungs-, Lern- und Bildungsprozesse [sind] wissenschaftlich oft ungeklärt“, so der Brief. „Vielmehr verdichten sich die wissenschaftlichen Hinweise auf enorme Nachteile und Schäden für die Entwicklungs- und Bildungsprozesse von Kindern und Jugendlichen durch digitale Medien.“

Für ein „Primat der Pädagogik“

Dass digitale Geräte allein noch keine Digitalisierung bedeuten, darüber ist man sich im deutschen Diskurs offenbar weitgehend einig. Auch im Digitalpakt ist das „Primat der Pädagogik“ verankert. Demnach seien technische Hilfsmittel kein Selbstzweck, sondern sollten dazu genutzt werden, um pädagogische Ziele zu erreichen.

„Die Anschaffung von Whiteboards und Laptops allein ist kein Garant für pädagogische Qualität – dies gilt im Übrigen auch für das Buch, das Schreibheft und die Kreidetafel“, schreibt das Bundesministerium für Bildung und Forschung (BMBF) auf digitalpaktschule.de. „Es sind immer die pädagogischen Konzepte, die aus der Vielfalt an Angeboten gute Bildung machen“.

2021 erarbeitete die Kultusministerkonferenz (KMK) eine ergänzende Empfehlung zur Strategie „Bildung in der digitalen Welt“. Darin konkretisieren die Bildungsminister:innen der Länder die Strategie zur pädagogischen Umsetzung des Digitalpakts. Sie erachten es als notwendig, unter anderem die Lehrkräftebildung in Sachen Digitales auszubauen, Prüfungskriterien anzupassen und Inhalte für den Einsatz digitaler Unterrichtstechnologien forschungsbasiert zu entwickeln.

GEW sieht deutliche Unterschiede zu skandinavischen Ländern

Für ein „Primat der Pädagogik“ plädiert auch die Gewerkschaft für Erziehung und Wissenschaft (GEW). Digitale Lernmittel sollten allen Schüler:innen und Lehrkräften gleichermaßen zur Verfügung stehen, teilt ein GEW-Sprecher  auf Anfrage mit. Die Geräte sollten demnach nur dann genutzt werden, wenn es pädagogisch und didaktisch sinnvoll sei.

Gleichzeitig brauche es eine stärkere Förderung der Medienkompetenz bei Lernenden und Lehrenden. Medienkompetenz bedeute etwa das Erlernen eines kritischen, mündigen und kreativen Gebrauchs digitaler Medien – und auch die Fähigkeit „abschalten“ zu können. Dazu seien auch mehr Fortbildungen für Lehrkräfte notwendig.

Dieser Ansatz entspricht den Empfehlungen des Karolinska-Instituts sowie verschiedener Expert:innenen für digitale Bildung. Allerdings sei die Situation in Deutschland kaum mit der in Schweden und Dänemark zu vergleichen, sagt der GEW-Sprecher. Hierzulande sei die digitale Infrastruktur an Schulen noch immer nicht flächendeckend eingeführt. Zudem klaffe eine Kluft zwischen sehr gut und kaum ausgestatteten Schulen in Deutschland. „Manche Schulen haben noch immer kein WLAN, andere wiederum arbeiten wie selbstverständlich mit Tablets und Co.“, sagt der Sprecher der GEW.

Die GEW fordert „eine nachhaltige und sinnvolle digitale Infrastruktur an Schulen, eine sozial gerechte Mittelverteilung der Digitalisierung an Schulen sowie eine gute Qualität der Arbeits- und Lernbedingungen“. Zukünftig müsse die Qualität im Zentrum der Schuldigitalisierung stehen.

Keine Rückkehr zur Kreidetafel

Die Debatte lässt sich somit – im Sinne Manfred Spitzers – nicht darauf verkürzen, dass digitale Geräte Kinder „dümmer“ machen. Vielmehr braucht es für deren schulischen Einsatz bessere pädagogische Konzepte und mehr Medienbildung – und zwar sowohl für die Schüler:innen als auch für die Lehrkräfte.

An eben diesem Punkt muss auch die Bildungspolitik hierzulande ansetzen. Und zwar so schnell wie möglich: Denn die Ergebnisse der jüngsten PISA-Studie lassen kaum Zeit für Aufschub. Deutsche Schüler:innen schnitten in der Vergleichsstudie zuletzt so schlecht ab wie noch nie zuvor.

Dabei wäre es fatal, in den Schulen zu Kreidetafel und zum Overheadprojektor zurückzukehren. Stattdessen ist es erforderlich, an allen Schulen flächendeckend digitale Endgeräte zur Verfügung zu stellen. Erst dann können Lehrer:innen überhaupt erst qualifizierte Entscheidung darüber treffen, wann es pädagogisch und didaktisch wertvoll ist, diese auch einzusetzen.

Alle Schüler:innen haben das Recht, bestmöglich auf das Leben in einer digitalen Welt vorbereitet zu werden. Nichts Geringeres sollte auch der Anspruch der deutschen Bildungspolitik sein.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

19.04.2024 17:07

Die 16. Kalenderwoche geht zu Ende. Wir haben 18 neue Texte mit insgesamt 113.491 Zeichen veröffentlicht. Willkommen zum netzpolitischen Wochenrückblick.

Grün-gelbes Fraktal
Fraktal, generiert mit MandelBrowser von Tomasz Śmigielski

Liebe Leser:innen,

dass es dieses Jahr im September wieder eine Konferenz von uns geben wird, haben wir euch ja schon verraten. In dieser Woche konnten wir euch endlich mehr dazu sagen: Wir werden am 13. September in der Alten Münze in Berlin sein. Dort wollen wir diskutieren, zuhören, alte und neue Weggefährt:innen wiedersehen und kennenlernen, gemeinsam in den Pausen quatschen und am Ende des Tages natürlich auch feiern. Das ganze steht in diesem Jahr unter dem Motto „Bildet Netze!“.

Bildet Netze, das ist für mich mehr als eine Wortspiel-Adaption des 70er-Jahre-Slogans „Bildet Banden!“, oft illustriert mit dem Konterfei von Pippi Langstrumpf. Sondern auch eine Gelegenheit, mal nachzudenken, was das für uns bedeutet.

Wir wollen „das Netz“ gestalten – und meinen dabei nicht die zentralisierten Strukturen, die in den Händen weniger, riesiger Konzerne liegen. Wir wollen viele Netze im Netz, so wie sie uns gefallen. Und so, wie sie gut für uns sind und unser aller Leben besser, schöner und gerechter machen. Mit Teilhabe für alle, mit einer gemeinwohlorientierten Ausrichtung, abseits von rein wirtschaftlichen und staatlichen Interessen.

Aber damit wir das schaffen, brauchen wir auch Netze untereinander und müssen uns ver-netzen. In der digitalen Zivilgesellschaft, aber ganz besonders auch darüber hinaus. Wir müssen zusammenkommen und voneinander lernen. Zum Beispiel von denen, die sich vielleicht noch vor allem in der analogen Welt mit sozialer Gerechtigkeit beschäftigen, dem Abbau von Barrieren oder sich der Diskriminierung marginalisierter Gruppen entgegenstellen.

Und am Ende brauchen wir alle auch Netze, die uns halten, wenn es mal schwierig wird. Wenn Faschist:innen in die Parlamente drängen und der braune Sumpf immer größer zu werden scheint. Wenn eine:r nicht mehr kann und sich klein fühlt. Dann brauchen wir ein Netz aus Solidarität, das uns auffängt, ohne dass wir uns verheddern. Damit wir gemeinsam weitermachen können.

Netze gibt es in vielen Formen und genauso wollen wir auch viele Aspekte davon auf unserer Konferenz betrachten. Das machen wir nicht allein, dafür freuen wir uns auch über eure Ideen und Beiträge. Deshalb haben wir diese Woche auch einen Call for Participation gestartet, bei dem ihr noch bis zum 16. Juni etwas einreichen könnt. Wovon könnt ihr uns erzählen? Wie wollt ihr euch vernetzen? Welche Netze müssen wir spannen, um das Netz gemeinsam voranzubringen?

Wir sind gespannt wie ein Tennisnetz, was euch dazu einfällt. Aber egal, ob auf der Bühne, am Workshop-Tisch oder im Publikum: Wir freuen uns vor allem, wenn ihr im September dabei seid.

Ein gutes Wochenende wünscht euch
anna


Degitalisierung: Infinite Money Glitch

Immer mehr Geld für sogenannte Künstliche Intelligenz, ohne Rücksicht auf die Konsequenzen. Dazu absurdes Marketing mit Warnungen vor Gefahren. Das ist kein Spiel, das betrifft uns am Ende alle. Von Bianca Kastl –
Artikel lesen

Bundesinnenministerium: Pseudo-Beteiligung beim Digitalen Wallet

Geht es nach der Bundesregierung, sind die Jahre des Personalausweises als Plastikkarte gezählt. An seine Stelle soll eine digitale Brieftasche treten. Wie diese konkret aussehen wird, soll ein Innovationswettbewerb entscheiden. Die Zivilgesellschaft sieht sich dabei außen vor. Von Daniel Leisegang –
Artikel lesen

Werbearchive der großen Plattformen: Zu wenig Daten, kaum vergleichbar und schlecht zu bedienen

Wie setzen große Plattformen die neuen EU-Vorgaben für Transparenz bei Online-Werbung um? Schlecht, sagt eine Analyse der Mozilla Foundation. Die Plattformen würden Zivilgesellschaft, Journalismus und Forschung weiter Steine in den Weg legen. Von Markus Reuter –
Artikel lesen

Konferenz von netzpolitik.org: Call for Participation – Bildet Netze!

Am 13. September findet in der Alten Münze in Berlin unsere Konferenz statt. Heute startet der Call for Participation – und wir freuen uns auf Eure Einreichungen! Von netzpolitik.org –
Artikel lesen

Louisa Specht-Riemenschneider: Einigung auf neue Bundesdatenschutzbeauftragte

Nach langem Hin und Her und einem vielkritisierten Auswahlprozess soll die Bonner Professorin Specht-Riemenschneider neue Bundesdatenschutzbeauftragte werden. Sie folgt auf Ulrich Kelber. Von Markus Reuter –
Artikel lesen

EU-Migrationspakt: Kritik an der digitalen Überwachung von Migrant:innen

Der jüngst vom Europäischen Parlament beschlossene „Neue Migrationspakt“ erweitert Überwachungstechnologien und KI-Anwendungen an den EU-Außengrenzen – und erfährt Gegenwind. Von Lea Binsfeld –
Artikel lesen

Transparenzbericht Dezember 2023: Unsere Einnahmen und Ausgaben und eine Menge Spaß

Unser Rezept fürs Jahresende: Verrühre den Stress mit einer großen Packung Humor und einer wohldosierten Prise Selbstironie aus den 80ern. Heraus kommt etwas, das uns allen viel Spaß gemacht hat. Von netzpolitik.org –
Artikel lesen

Chatkontrolle: Verschlüsselte Dienste sollen als erstes durchleuchtet werden

Internet-Dienste, die Anonymität und Verschlüsselung anbieten, sollen als erste eine Chatkontrolle durchführen. Das geht aus Dokumenten der belgischen Ratspräsidentschaft hervor, die wir veröffentlichen. Bürgerrechtsorganisationen aus ganz Europa fordern die Ablehnung des Vorschlags. Von Markus Reuter, Andre Meister –
Artikel lesen

Polnische Untersuchung: Knapp 600 Menschen mit Pegasus gehackt

Ein Zwischenbericht des polnischen Justizministeriums gibt erstmals Einblick in in die weitflächige Überwachung in Polen während der Amtszeit der PiS-Regierung. 578 Personen sollen mit der Spionage-Software Pegasus gehackt worden sein. Von Tomas Rudl –
Artikel lesen

„Künstliche Intelligenz“: Automatisierte Kriegsführung und die Genfer Konvention

Die Kriegsführung wird zunehmend digitalisiert und automatisiert. Damit verändert sich auch die Rolle der Bürger:innen innerhalb der Genfer Konventionen. Um dieser Entwicklung zu begegnen, brauchen wir dringend neue internationale Vereinbarungen. Von Gastbeitrag, Cathy Mulligan –
Artikel lesen

„Artificial Intelligence“: Automated Warfare and the Geneva Convention

Warfare is becoming digitalized and automated. This is shifting the role of citizens within the Geneva Conventions. We urgently require new solutions and international agreements. Von Gastbeitrag, Cathy Mulligan –
Artikel lesen

Link auf Linksunten: Freiburger Journalist muss sich vor Gericht verantworten

Am heutigen Donnerstag beginnt der Strafprozess gegen einen Redakteur von Radio Dreyeckland – wegen eines Links auf die Archivseite des verbotenen Portals Indymedia Linksunten. Journalismus-Verbände sehen die Pressefreiheit in Gefahr. Von Sebastian Meineck –
Artikel lesen

Deutscher Computerspielpreis: Es hat sich ausgespielt für die deutsche Gaming-Industrie

Der Computerspielpreis ist eines der großen Events in der Gamingszene in Deutschland. Doch um die heimische Spieleindustrie steht es schlecht und ihre Zukunft bleibt durch fehlende Förderung ungewiss. Ein Kommentar. Von Nora Nemitz –
Artikel lesen

Abonnieren oder akzeptieren: EU-Datenschützer*innen watschen Abo-Modelle ab

Jeden Monat mehrere Euro abdrücken oder sich individuell überwachen lassen – vor dieser Wahl stehen derzeit etwa Nutzer*innen von Facebook und Instagram. Das ist nicht fair, sagt nun der Europäische Datenschutzausschuss. Von Sebastian Meineck –
Artikel lesen

Rechte Anschlagsserie: Erschwerte Einsicht in die Ermittlungsakten

Informationen zum Mord an Burak Bektaş habe die Polizei den Angehörigen lange vorenthalten, wirft ein Anwalt den Ermittlungsbehörden und der Staatsanwaltschaft vor. Im parlamentarischen Untersuchungsausschuss weisen die eine Schuld von sich. Von hekta –
Artikel lesen

Vorratsdatenspeicherung: Schäbige Verkürzung auf Kosten der Grundrechte

Mit einem altbekannten Fehlschluss aus der Kriminalstatistik holt die Innenministerkonferenz den Zombie „Vorratsdatenspeicherung“ aus dem Keller. Doch die Angstmache vor Kindesmissbrauch ist schäbig, um damit mehr Überwachung zu rechtfertigen. Ein Kommentar. Von Markus Reuter –
Artikel lesen

Telekommunikation: EU bereitet sich auf Marktliberalisierung vor

Die EU muss den gemeinsamen Binnenmarkt radikal neu denken, fordert der italienische Ex-Ministerpräsident Enrico Letta. Trotzdem strotzt der umfangreiche Bericht im Auftrag der EU-Länder vor lauter alten Ideen: mehr Markt, weniger Regulierung und Abbau der Netzneutralität. Von Tomas Rudl –
Artikel lesen

Digitale-Dienste-Gesetz: Unsicherheit für kleine Anbieter

Das Internet besteht nicht nur aus Google und Meta, sondern auch aus Hobby-Foren und Back-Blogs mit Kommentarspalte. Doch welche Regeln des europäischen Digitale-Dienste-Gesetzes für sie gelten, ist nicht vollständig klar. Dabei ist das Gesetz bereits seit Februar in Kraft. Von Anna Biselli –
Artikel lesen


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

19.04.2024 15:48

Das Internet besteht nicht nur aus Google und Meta, sondern auch aus Hobby-Foren und Back-Blogs mit Kommentarspalte. Doch welche Regeln des europäischen Digitale-Dienste-Gesetzes für sie gelten, ist nicht vollständig klar. Dabei ist das Gesetz bereits seit Februar in Kraft.

Illustration von einem Mann mit Megaphon. Er kämpft darum, zwischen vielen Sprechblasen gehört zu werden
Kommentarspalten gibt es an vielen Orten im Netz. – Alle Rechte vorbehalten IMAGO / Ikon Images

Der Digital Services Act (DSA) gilt seit Februar. Dieses Digitale-Dienste-Gesetz der EU regelt, welche Pflichten Online-Diensteanbieter haben, wie sie mit rechtswidrigen Inhalten umgehen sollen und welche Rechte Nutzer:innen etwa bei Moderationsentscheidungen haben. Besonders hohe Anforderungen gelten dabei für die ganz Großen: also für Google, Meta und Co. Aber wie es für manche der „Kleinen“ aussieht und an welche Regeln sie sich genau und wie halten müssen, ist an vielen Punkten noch ungeklärt.

Eine konkrete Auskunft zu bekommen, ist schwer, wie Versuche von netzpolitik.org zeigen. Weder mit dem Thema vertraute Fachleute noch die EU-Kommission oder die Bundesnetzagentur (BNetzA) als künftige deutsche Koordinierungsbehörde konnten klare Informationen dazu geben, was kleinere Anbieter fortan beachten müssen. Das gilt besonders für Online-Angebote, für deren Kernangebot der Digital Services Act keinerlei Bedeutung hat, die aber beispielsweise eine Kommentarfunktion bieten. Also: Angebote wie netzpolitik.org, ein beliebiges Hobby-Back-Blog oder andere Nachrichtenmedien.

Vermittlung, Hosting oder Plattform?

Es ergeben sich vor allem zwei Fragen. Die erste: Gelten die Regeln des DSA für diese kleinen Anbieter überhaupt? Und wenn ja: Welche sind das? Im DSA gibt es drei verschiedene Kategorien von Diensten, die hier relevant sind: Vermittlungsdienste, Hostingdienste und Online-Plattformen. Letztere haben besonders viele Pflichten, die ersten beiden etwas weniger. Welche das sind, baut aufeinander auf. Ein Hostingdienst hat also alle Pflichten, die ein Vermittlungsdienst auch hat – plus weitere. Eine Online-Plattform wiederum hat alle Pflichten eines Hostingdienstes sowie weitere.

Zu den Basis-Pflichten für Vermittlungsdiensten gehört es unter anderem, klare Kontaktinformationen für Behörden und Nutzende bereitzustellen. Hosting-Dienste müssen zusätzlich etwa Meldeverfahren für rechtswidrige Inhalte anbieten. Online-Plattformen haben dazu noch Transparenzberichtspflichten. Und je nach Größe des dahinterstehenden Unternehmens müssen sie auch ein Beschwerdemanagement einrichten.

Informationen speichern und öffentlich verbreiten

Eine Online-Plattform ist nach dem DSA ein Dienst, der im „Auftrag eines Nutzers Informationen speichert und öffentlich verbreitet“. Diese Einstufung ist vergleichsweise einfach, auf jeden Fall gehören Facebook oder Twitter dazu. Aber auch eine Kommentarfunktion des oben bemühten Back-Blogs würde dazu passen. Oder ein Forum für Hobby-Aquarianer:innen. Denn die Nutzer:innen geben Beiträge in ein Feld ein, schicken sie ab und die werden dann – direkt oder nach Freigabe – veröffentlicht. Immerhin soweit ist das Gesetz klar: Nicht jede Kommentierfunktionalität macht einen Dienst automatisch zur Online-Plattform.

In den Begriffsbestimmungen des DSA heißt es dazu: „sofern es sich bei dieser Tätigkeit nicht nur um eine unbedeutende und reine Nebenfunktion eines anderen Dienstes oder um eine unbedeutende Funktion des Hauptdienstes handelt, die aus objektiven und technischen Gründen nicht ohne diesen anderen Dienst genutzt werden kann“.

In anderen Worten: Ohne die kuratierten Back-Tipps auf dem Blog wäre die Kommentarfunktion gar nicht da.

Was ist eine Nebenfunktion?

Einen weiteren Hinweis, wie das Gesetz gemeint ist, geben die Erwägungsgründe des DSA. Dort heißt es:

Ein Kommentarbereich einer Online-Zeitung etwa könnte eine solche Funktion darstellen, die eindeutig eine Nebenfunktion des Hauptdienstes ist, nämlich der Veröffentlichung von Nachrichten unter der redaktionellen Verantwortung des Verlegers.

Also: Keine Einstufung als Online-Plattform, aber als Hostingdienst. Rechtlich bindend sind solche Erwägungsgründe jedoch im Ernstfall nicht.

In einer Studie, die die Bundesnetzagentur in Auftrag gab, heißt es hingegen: „Die Nebenfunktion hat keinen Einfluss auf die Typologisierung eines Anbieters, sofern nicht ihr einziger Zweck ist, die Verordnung zu umgehen.“ Also doch gar keine Geltung des DSA, weil der Hauptdienst trumpft? Der Gesetzestext selbst lässt diese Deutung unwahrscheinlich wirken.

Die Frage ist bekannt, die Antwort wird gesucht

Eine Nachfrage bei der BNetzA blieb ohne konkretes Ergebnis. „Die von Ihnen gestellten Fragen nach der Auslegung der Definitionen im DSA wurden auch schon von Branchenverbänden an die Bundesnetzagentur herangetragen.“ Man bespreche sie in einem informellen Netzwerk aus designierten Koordinierungsstellen in der EU. „In diesem Netzwerk wird momentan auch die Frage diskutiert, was eine Nebenfunktion ist und wann ein Dienst unter welche Regelungen des DSA fällt.“

Momentan ist die BNetzA formell noch nicht für den DSA zuständig, sie soll es aber bald sein. Das liegt daran, dass das deutsche Gesetz zur Umsetzung des DSA zum Stichtag im Februar noch nicht fertig war. Der Bundestag beschloss es Ende März, am 26. April soll es dann die finale Runde im Bundesrat drehen. Ganz offiziell zuständig wäre die BNetzA dann einen Tag nach Verkündung des Regelwerks.

Ob es dann Klarheit gibt? Die BnetzA macht wenig Hoffnung: „Ob bis dahin auf europäischer Ebene eine einheitliche Auslegung der Definitionen erzielt werden kann, ist noch nicht absehbar“, heißt es in der Antwort auf unsere Anfrage. Man will aber auf der eigenen Website „alle hilfreichen Inhalte oder Hinweise für Unternehmen und Verbraucher veröffentlichen“.

Es kommt drauf an. Aber worauf eigentlich?

Im Gegensatz zur BNetzA ist die EU-Kommission schon länger für die Aufsicht über die ganz großen Anbieter zuständig, zudem kommt das Ursprungsgesetz aus ihrer Feder. Aber auch hier brachte eine Nachfrage nach der konkreten Anwendung bei der Vertretung der EU-Kommission in Deutschland keine zufriedenstellende Antwort: Eine Sprecherin teilt uns mit, dass „der Kommentarbereich in einer Online-Zeitung als Hosting-Dienst angesehen werden könnte, wenn klar ist, dass er eine Ergänzung zu dem Hauptdienst darstellt“.

Bei einem Angebot wie dem erwähnten Hobby-Back-Blog „müsste eine Bewertung des Kommentarbereichs im Einzelfall vorgenommen werden, um die Art der angebotenen Dienstleistung zu bestimmen“, so die Kommission. Es kommt also drauf an. Worauf, das bleibt schwer zu sagen.

Aber auch wenn man einfach annimmt, dass ein Backblog unter die Regeln für Hostingdienste fällt: Nicht alle passen zur Realität eines solchen Angebots. So sollen sie etwa in ihren „Allgemeinen Geschäftsbedingungen“ angeben, welche „Leitlinien, Verfahren, Maßnahmen und Werkzeuge“zur Moderation von Inhalten eingesetzt werden. Doch Geschäftsbedingungen sucht man oft vergeblich, wenn es kein Geschäft gibt. Was passiert in diesem Fall? Erfüllen eine „Netiquette“ oder Kommentarregeln die Vorgaben auch?

Regulierung nur für die Großen führt zu einem Internet nur mit Großen

Es bleibt ungewiss, fast zwei Jahre nach Verabschiedung des DSA im EU-Parlament und zwei Monate nach Inkrafttreten aller Regeln. Das bringt für die betroffenen Dienste, die wohl teilweise von ihrer Betroffenheit noch gar nichts wissen, Unsicherheit mit sich.

Svea Windwehr leitet bei der Gesellschaft für Freiheitsrechte das Center for User Rights, das sich besonders mit dem DSA beschäftigt. Sie sieht die Unschärfen der Regulierung als Ausdruck eines größeren Problems: „Die vielen offenen Fragen, die gerade kleine Anbieter zu ihren Pflichten unter dem Digital Services Act haben, zeigt einmal mehr, dass der DSA und ähnliche Gesetze oft in erster Linie anhand der Produkte und Probleme der größten Player wie Google, Meta und Co. entwickelt werden“, so die Expertin für Nutzerrechte.

Das führe zu Rechtsunsicherheiten, vor allem für „Blogs, kleine Foren oder andere Projekte, die oft von Freiwilligen mit limitierten Ressourcen unterhalten werden“. Was laut Windwehr ein Folgeproblem schafft: „Wenn es kleinen Anbieter schwer gemacht wird, sich rechtssicher zu verhalten, ist das auch ein Problem für diejenigen, die Alternativen zu den großen und etablierten Akteuren schaffen wollen – und damit für die Diversität und Wettbewerbsfähigkeit des digitalen Raums.“


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

19.04.2024 14:54

Die EU muss den gemeinsamen Binnenmarkt radikal neu denken, fordert der italienische Ex-Ministerpräsident Enrico Letta. Trotzdem strotzt der umfangreiche Bericht im Auftrag der EU-Länder vor lauter alten Ideen: mehr Markt, weniger Regulierung und Abbau der Netzneutralität.

Der italienische Ex-Ministerpräsident Enrico Letta (rechts im Bild) mit EU-Kommissionspräsidentin Ursula von der Leyen und EU-Ratspräsident Charles Michel beim Sondertreffen des Europäischen Rats. – Alle Rechte vorbehalten IMAGO / Xinhua

Zurück hält sich der frühere italienische Ministerpräsident Enrico Letta nicht: Die EU drohe, den Anschluss an die USA und China zu verlieren, so der Sozialdemokrat. Um diesen Trend umzukehren, sei eine tiefgreifende Reform des EU-Binnenmarktes notwendig, heißt es in einem knapp 150-seitigen Papier, das Letta am Mittwoch auf einem Sondertreffen des Europäischen Rats vorgestellt hat.

Monatelang reiste der italienische Politiker im Auftrag der EU-Länder durch ganz Europa, führte laut eigener Aussage tausende Gespräche und hörte dabei unterschiedliche Stimmen, von Regierungen und Parlamentsgruppen, Gewerkschaften, Universitäten oder zivilgesellschaftlichen Organisationen. Sie alle sollen in seinen Bericht eingeflossen sein, den EU-Ratspräsident Charles Michel als „fundamental“ und „inspirierend“ bezeichnet und der dem EU-Rat als Richtschnur dienen soll.

Bindend oder gar kurzfristig umsetzbar sind die umfangreichen Vorschläge indes nicht, die sein Bericht zur Debatte stellt – und die bislang auf eine gemischte Resonanz gestoßen sind.

EU-Konzerne sollen wachsen

Vor allem in drei Sektoren gebe es besonderen Nachholbedarf, macht Letta aus. Deutlich mehr Integration brauche es in den EU-Märkten für Finanzen, Energie und Telekommunikation. „Heutzutage leiden europäische Unternehmen unter einem atemberaubenden Größendefizit im Vergleich zu ihren globalen Konkurrenten, vor allem aus den USA und China“, schreibt Letta. Dies würde der EU bei der Innovation, Produktivität und auch in Sicherheitsfragen schaden. Daher sei es „von entscheidender Bedeutung, große EU-Unternehmen dabei zu unterstützen, größer zu werden und auf der globalen Bühne zu konkurrieren“, heißt es im Bericht.

Solche Töne ließen sich schon in der Vergangenheit regelmäßig vernehmen, auch im Telekommunikationssektor. Für „europäische Champions“ hatten sich unter anderem die ehemaligen EU-Kommissar:innen Neelie Kroes oder Günther Oettinger eingesetzt und nicht zuletzt der amtierende Binnenmarktkommissar Thierry Breton. In seinem jüngst vorgestellten Weißbuch hatte Breton mehr Deregulierung, größere Konzerne und neue Geschäftsmodelle wie eine Datenmaut durch die Hintertür gefordert.

Auf das Weißbuch nimmt Letta ausdrücklich und lobend Bezug: Es erkläre detailliert die gegenwärtigen ökonomischen und technologischen Trends und mache den Weg frei für ein tiefgreifendes Neudenken des Sektors, so der Bericht. Tatsächlich soll das Weißbuch die Grundlage für ein neues EU-Gesetz bilden, den Digital Networks Act. Bis Ende Juni läuft hierzu eine öffentliche Konsultation. Es wird erwartet, dass die nächste EU-Kommission die Arbeit daran nach den EU-Wahlen fortführen wird. Scharfer Gegenwind ist ihr dabei praktisch gesichert. Auch Letta räumt ein, dass der von ihm geforderte Umbau des Sektors „komplex“ wäre und ein schrittweiser Ansatz vorzuziehen sei.

Zuckerbrot und Peitsche

Im Zentrum einer Reform müsse die Verbraucherwohlfahrt stehen, beginnt Letta. Diese stehe seit der Marktliberalisierung von Mitte der 1990er-Jahre auf den Säulen billiger Preise, Wahlmöglichkeiten und Qualität. Doch der völlig neue Investitionszyklus, der mit dem Ausbau von Glasfaser- und 5G-Mobilfunknetzen einhergehe, störe das bewährte Gefüge, warnt Letta – insbesondere wenn die Branche nicht die erforderlichen Investitionen tätigt.

Als Ziel hatte die Kommission in ihrem Programm für die „Digitale Dekade“ ausgegeben, den Ausbau bis 2030 flächendeckend umgesetzt zu haben. Dazu seien zusätzliche Investitionen in Höhe von bis zu 200 Milliarden Euro erforderlich, schätzt Brüssel.

Zugleich drohe den Netzbetreibern auch von anderer Seite Gefahr, insbesondere von Online-Diensteanbietern wie Google oder Meta. Für diese würden viele Vorschriften nicht gelten, an die sich traditionelle Anbieter halten müssten. Um einen wirklich integrierten Binnenmarkt für elektronische Kommunikationsdienste zu schaffen, müssten zunächst die Regeln für Verbraucherschutz „maximal harmonisiert“ werden, fordert Letta.

Allein dies wäre schon ein gewaltiger Brocken: In der Vergangenheit hatten Verbraucherschutzorganisationen Vorstöße in Richtung einer Vollharmonisierung oft kritisch beäugt, weil sie in manchen Bereichen eine Absenkung nationaler Standards fürchteten. So warnt auch BEUC, der Dachverband europäischer Verbraucherschützer:innen, ausdrücklich vor Rufen nach mehr Marktkonzentration im Telekommunikationssektor. „Wettbewerb und globale Wettbewerbsfähigkeit europäischer Unternehmen sind keine binäre Wahl, und beide können nebeneinander bestehen, wenn die richtigen Regeln gelten“, sagt BEUC-Chefin Monique Goyens.

Nicht weniger schwierig wäre auch die Umsetzung anderer Vorschläge, darunter eine Harmonisierung der Verwaltung des Funkspektrums für Mobilfunkbetreiber, die Einrichtung einer gesamteuropäischen Regulierungsbehörde für den Sektor sowie die Konsolidierung des Marktes. „Das bloße Schaffen eines Binnenmarktes würde zu keinem erkennbar anderen Ergebnis als bislang führen, es sei denn, es erleichtert das Wachstum der Betreiber“, konstatiert der Bericht.

Netzneutralität – ja, aber

Unter Beschuss soll zudem die Netzneutralität geraten, geht es nach Letta. Zwar sei die entsprechende EU-Verordnung als „ein echter Meilenstein beim Schutz von Verbrauchern und Anbietern digitaler Dienste vor Diskriminierung durch Telekommunikationsbetreiber zu betrachten“, schreibt er. Einige Jahre nach ihrer Verabschiedung und angesichts des technologischen Wandels brauche es jedoch eine „sorgfältige Evaluation“ der Regeln, heißt es im Bericht.

Als Beispiel führt Letta etwa „KI-gestützte Anwendungen wie autonomes Fahren“ an, die von Techniken wie Spezialdiensten profitieren würden. Damit sind Überholspuren für bestimmte Dienste gemeint, die in Netzen besser behandelt würden als andere Verbindungen. Freilich sind solche Angebote heute schon legal möglich, wenn auch unter Auflagen – die durchaus mit den von Letta skizzierten Visionen kompatibel wären.

Kurzfristig wären zusätzliche Leitlinien der EU-Kommission ratsam, die Netzbetreibern mehr Rechtssicherheit bei der Implementierung bestimmter Anwendungen wie industrieller Automation bieten sollten, schlägt Letta vor. In welchen Punkten die bereits geltenden Leitlinien von BEREC nicht ausreichen, bleibt unklar.

Langfristig empfiehlt Letta jedoch eine „umfassendere, gehaltvolle Überarbeitung der Regeln für das Offene Internet“, die alle glücklich machen soll. Nutzer:innen sollen demnach weiterhin vom offenen Internet und voller Wahlfreiheit profitieren, aber gleichzeitig – wie wohl auch die Industrie – ausreichend Möglichkeiten haben, „die Vorteile künftiger neuer Netzwerktechnologien voll ausschöpfen zu können, die in beträchtlichem Ausmaß auf Künstliche Intelligenz setzen werden, um das beste Benutzererlebnis in verschiedenen Szenarien zu liefern.“


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

19.04.2024 12:56

Mit einem altbekannten Fehlschluss aus der Kriminalstatistik holt die Innenministerkonferenz den Zombie „Vorratsdatenspeicherung“ aus dem Keller. Doch die Angstmache vor Kindesmissbrauch ist schäbig, um damit mehr Überwachung zu rechtfertigen. Ein Kommentar.

Michael Stübgen, mit Brille, lachend
Michael Stübgen, Innenminister von Brandenburg und Vorsitzender der Innenministerkonferenz. – Alle Rechte vorbehalten IMAGO / epd

Nur ein paar Tage ist die angebliche Einigung der Ampel zu „Quick Freeze statt Vorratsdatenspeicherung“ alt, da steigt die Leiche schon wieder als Zombie aus dem Keller. Erst forderte die im Koalitions-Kompromiss übergangene SPD-Innenministerin Nancy Faeser die Vorratsdatenspeicherung, dann legte BKA-Präsident Holger Münch nach – nun fordern auch die Innenminister der Bundesländer unisono die anlasslose Massenüberwachung.

Soweit, so erwartbar. Seit Jahren ist die Vorratsdatenspeicherung nicht totzukriegen, allen Gerichtsurteilen und Protesten zum Trotz. Man fragt sich aber schon, warum Grüne und FDP, wo sie an Regierungen beteiligt sind, nicht darauf drängen, dass die Landesinnenminister solche Forderungen sein lassen.

Verkürzen und Panik machen

Früher wurde die Vorratsdatenspeicherung gegen islamistischen Terrorismus gefordert. Heute ist der Kindesmissbrauch und die Verbreitung von Inhalten sexualisierter Gewalt gegen Kinder das argumentative Steckenpferd, mit der die Befürworter:innen  die umstrittene Überwachung diskursiv durchsetzen wollen. Das Feld Kindesmissbrauch eignet sich dabei aus zweierlei Gründen zur Instrumentalisierung: Erstens handelt es sich um abscheulichste Taten, da ist sich die Gesellschaft übergreifend einig. Wer gegen eine Vorratsdatenspeicherung protestiert, der hat es also besonders schwierig, denn „es geht doch um die Kinder.“

Der andere Punkt ist die Polizeiliche Kriminalstatistik: Seit mehreren Jahren gehen die Fallzahlen in diesem Kriminalitätsfeld stetig nach oben. Wer nur oberflächlich auf die Statistik schaut, muss denken: „Verdammt nochmal, es wird immer gefährlicher für unsere Kinder. Wir müssen etwas tun!“

Genau das nutzen überwachungsinteressierte Behörden und Innenpolitiker:innen immer wieder: „Wir verzeichnen seit Jahren einen stetigen Anstieg im Bereich des Kindesmissbrauchs und der Verbreitung kinderpornografischer Inhalte“, sagte dann auch der Vorsitzende der Innenministerkonferenz Michael Stübgen von der CDU am Rande des Treffens.

Das ist eine gefährliche Verkürzung und vor allem Panikmache, bei der die Bürger:innen in Angst versetzt werden, damit Überwachungsmaßnahmen gerechtfertigt erscheinen. Denn was formal in der Statistik richtig ist, heißt noch lange nicht, dass immer mehr Kinder in Gefahr geraten. Auch nicht, dass immer mehr Menschen Inhalte sexualisierter Gewalt gegen Kinder konsumieren. Es heißt lediglich, dass die Polizei von immer mehr Fällen Kenntnis erlangt, dass also immer mehr Täter:innen in den Fokus der Polizei gelangen und im besten Fall auch verurteilt werden können.

Aufhellung des Dunkelfeldes

Dieser Fakt ist hinlänglich bekannt und ein Landesinnenminister sollte diese Fakten kennen, wenn er seinen Job gut macht. Schon auf eine Kleine Anfrage aus dem Jahr 2022 (PDF) antwortete die Bundesregierung zu den steigenden Fallzahlen:

Die starke Zunahme der Entdeckung von Darstellungen sexualisierter Gewalt an Kindern im Netz, welche sich letztlich in der Polizeilichen Kriminalstatistik abbildet, ist ein Ergebnis der verstärkten Aufhellung des hohen Dunkelfeldes.

Nach einer Meldung einer strafbaren Verbreitungshandlung folgen Ermittlungsmaßnahmen, bei denen in der Mehrheit der Fälle wiederum zahlreiche neue kinderpornografische Inhalte sichergestellt werden und die zumeist zu weiteren Tatverdächtigen führen. Gleichzeitig werden im Nachgang wieder neue Ermittlungsverfahren eingeleitet, bei denen abermals große Datenmengen inkriminierten Materials sichergestellt werden.

Durch immer bessere technische Detektionsmöglichkeiten und immer umfangreichere Beteiligung einzelner Provider an der aktiven Suche nach entsprechenden Dateien und Sachverhalten wird immer mehr inkriminiertes Material entdeckt und den Strafverfolgungsbehörden gemeldet.

Steigende Zahlen der Polizeilichen Kriminalstatistik sind demnach ein Indikator dafür, dass die zusammen mit der Wirtschaft entwickelten Kontrollmechanismen immer besser greifen, mehr Fälle aufgedeckt und damit auch mehr laufende Missbrauchshandlungen beendet werden.

Es zeigt sich wieder einmal: Die Kriminalstatistik ist vor allem ein Tätigkeitsbericht der Polizei und ein Instrument um Stimmung zu machen – ob nun für Überwachungsbefugnisse oder gegen Menschen ohne deutschen Pass. Sie eignet sich hervorragend für schäbige Verkürzungen auf Kosten der Grundrechte. Das hat der Brandenburgische Innenminister Stübgen einmal mehr unter Beweis gestellt.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

19.04.2024 12:28

Informationen zum Mord an Burak Bektaş habe die Polizei den Angehörigen lange vorenthalten, wirft ein Anwalt den Ermittlungsbehörden und der Staatsanwaltschaft vor. Im parlamentarischen Untersuchungsausschuss weisen die eine Schuld von sich.

Zu sehen sind gelbe Plakate vor einem dunklen Hintergrund. Sie Fordern die Aufklärung des Neukölln Komplexes und Jamil Amadi.
Vor dem Abgeordneten Haus und vor jeder Sitzung des Untersuchungsausschusses fordern die Menschen die Aufklärung von rechter Gewalt. – CC0 netzpolitik.org

Seit Februar 2023 beschäftigen sich Mitglieder des Berliner Abgeordnetenhauses wieder in einem parlamentarischen Untersuchungsausschuss mit dem sogenannten Neukölln-Komplex. Dabei handelt es sich um eine rechtsextreme Anschlagsserie zwischen den Jahren 2009 bis 2021. Wie viele Straftaten genau zu der Serie gehören, ist nicht eindeutig. Die mobile Beratung gegen Rechtsextremismus geht von mindesten 157 Straftaten aus, während von behördlicher Seite mehr als 70 Straftaten dazu gezählt werden.

Die Ermittlungen gegen die rechtsradikalen Straftäter verliefen schleppend und waren unter anderem von IT-Pannen, fragwürdigen Ermittlungsansätzen und Skandalen begleitet – sogar der Vorwurf von Beteiligten aus den Sicherheitsbehörden steht im Raum.

Im Jahr 2022 wurde schon einmal ein Untersuchungsausschuss einberufen, dessen Sitzungen aber wegen der Wiederholungswahlen im Februar 2023 unterbrochen wurden. Das Ziel der parlamentarischen Untersuchungen ist vor allem, das Ermittlungsvorgehen der Behörden zu untersuchen. Hierzu werden Zeug:innen aus den Behörden befragt, genauso wie die Anwält:innen der Angehörigen und Mitglieder von Beratungsstellen für Betroffene von rechter Gewalt.

Befragung zum Mord an Burak Bektaş

Am vergangenen Freitag fand die 28. Sitzung des Parlamentarischen Untersuchungsausschusses Neukölln II statt. An diesem Tag sollte es um das behördliche Ermittlungsvorgehen zum Mord an Burak Bektaş und dem Mordversuch an seinen Freunden am 5. April 2012 gehen. Bektaş wurde in Neukölln erschossen, die Tat ist seit zwölf Jahren nicht aufgeklärt.

Die letzten Sitzungen hatten gezeigt, dass sich viele der geladenen Zeug:innen aus den Behörden nicht zu relevanten Sachverhalten äußern: Sie begründen dies mit mit mangelnder Erinnerung oder weil ihnen keine Aussagegenehmigung vorliege. Hinzu kommt, dass manche Zeug:innen sich zu bestimmten Fragen nur im nicht-öffentlichen Teil der Sitzungen äußern wollen.

Vergangene Woche waren der ehemalige Hauptkommissar Alexander H. und der Staatsanwalt Dieter H. als Zeugen geladen. Sie waren von 2012 bis 2019 für die Ermittlungen am ungeklärten Mord an Burak Bektaş sowie dem Mordversuch an seinen Freunden zuständig. Zusätzlich war auch der Anwalt, der die Familie im Strafprozess in der Nebenklage vertritt, geladen.

Behörden mauerten bei den Akten

Hauptkommissar H. und die Staatsanwaltschaft hätten Informationen in Bezug zu die Ermittlungen zum Mord an Burak Bektaş auch gegenüber der Familie Bektaş zurückgehalten, war einer der Vorwürfe. Die Staatsanwaltschaft konnte zwar entscheiden, dass Informationen geheim zu halten sind, weil sie laufende Ermittlungen gefährden. In der Nebenklage haben Betroffene und Angehörige jedoch besondere Rechte. Dazu zählt es Einsicht über den Umfang der Ermittlungen und den Ermittlungsstand durch Akteneinsicht zu gewinnen.

Der Anwalt der Familie kritisierte, dass ihm dies damals als rechtlicher Vertreter der Familie mehr als üblich erschwert worden sei. Die Versuche scheiterten zum Beispiel daran, dass die Akten zwischen der Staatsanwaltschaft und dem Kommissariat hin und her gereicht worden seien und sich gerade dann beim Staatsanwalt befunden hätten, als sie beim Hauptkommissar angefragt wurden. Weiterhin seien die Akten teilweise unvollständig oder gar nicht vorgelegt worden.

Mit der Einstufung einer Information als „Verschlusssache, nur für den Dienstgebrauch“ hätte man teilweise ohne erkennbaren Grund ein Geheimhaltungserfordernis suggeriert, obwohl dies lediglich die Information schützte, dass die Ermittlungen zu keinem Ergebnis geführt hätten, so der Anwalt.

„Super genau und super zuverlässig“?

Die Tatort-Arbeit sei „super genau und super zuverlässig“ gelaufen, sagte der Hauptkommissar am vergangenen Freitag. Dass man keine Erfolge erzielt habe, hätte nicht am Vorgehen der Polizei gelegen. Der damalige Staatsanwalt vertraute ebenfalls voll und ganz in die Arbeit des Kommissariats. Seinen Vorschlag, die Ermittlungen einzustellen, habe man dort sogar abgelehnt.

Die Arbeit des Kommissariats und der Staatsanwaltschaft blieb jedoch in vielerlei Hinsicht undurchsichtig. Unterschiedliche Anwält:innen seien in den letzten Jahren ohne Erfolg mit Fragen an die Ermittelnden des Landeskriminalamtes herangetreten.

2020 forderte die Nebenklägerin und ihre anwaltliche Vertretung erfolglos die Übernahme der Ermittlungen durch die Generalstaatsanwaltschaft Berlin. Jedoch führte ein personeller Wechsel im selben Jahr doch noch zu einer verbesserten Kommunikation zwischen den Angehörigen, ihrer rechtlichen Vertretung sowie der leitenden Ermittlerin und der Staatsanwaltschaft. In der Folge habe die neue Kommissarin auch insgesamt 22 unbeantwortete Fragen der Anwält:innen beantwortet und herausgestellt, dass ihre Vorgänger:innen die Untersuchungsmethoden nicht gezielt eingesetzt hätten, um Verbindungen in die weit vernetzte Neonaziszene in Berlin-Neukölln auszuschließen.

An diesem Punkt angekommen zeigt sich, dass die Ermittlungen noch nicht am Ende sind. Nach zwölf Jahren sind Angehörige und die Initiative Burak Bektaş immer noch im Ungewissen, auch wenn alles darauf hindeute, das das Mordmotiv Rassismus war. Ihrer Ansicht nach sollten auch die Protokolle des öffentlichen Teils des Untersuchungsausschusses transparent gemacht werden, um die Aufklärung zu ermöglichen.

Die nächste öffentliche Sitzung des Untersuchungsausschusses findet am 26. April 2024 im Abgeordnetenhaus in Berlin in der Niederkirchnerstraße 5 statt.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

18.04.2024 15:28

Jeden Monat mehrere Euro abdrücken oder sich individuell überwachen lassen – vor dieser Wahl stehen derzeit etwa Nutzer*innen von Facebook und Instagram. Das ist nicht fair, sagt nun der Europäische Datenschutzausschuss.

Das bekannte Meme, in dem Batman eine Backpfeife an Robin verteilt. Robin sagt: Pay or okay. Batman sagt: Das ist keine echte Wahlmöglichkeit!
Einfach ausgedrückt sagt der Europäische Datenschutzausschuss: So nicht. (Symbolmeme)

Wenn man zwischen zwei unerfreulichen Optionen wählen muss – kann man dann noch von echtem Einverständnis sprechen? Diese Frage stellt sich bei den neuen Abo-Modellen von beispielsweise Facebook und Instagram. Die großen Plattformen geben Nutzer*innen seit November 2023 die Möglichkeit, sich von Tracking und personalisierter Werbung freizukaufen. Kostenpunkt aktuell: 9,99 Euro im Monat; also rund 120 Euro im Jahr.

Auf Englisch ist das Modell als „Pay or okay“ bekannt. Eine deutsche Übersetzung, die sich ebenso reimt, wäre: abonnieren oder akzeptieren.

Gegen das Modell gibt es seit der Einführung bei Meta und Instagram Widerstand von Datenschutzbehörden und Verbraucherschutz-Organisationen. Nun hat sich die Dachorganisation europäischer Datenschutzbehörden (Europäischer Datenschutzausschuss, kurz: EDSA) dazu geäußert. Er reagiert damit auf Anträge der Behörden aus den Niederlanden, Norwegen und Hamburg und bezieht sich nur auf große Plattformen.

Der Tenor: Für das Modell „abonnieren oder akzeptieren“ geben die EU-Datenschützer*innen einen Daumen runter. Personen sollten sich nicht durch eine Gebühr zur Zustimmung gezwungen fühlen, heißt es in der Pressemitteilung. Hierzu sagte die finnische EDSA-Vorsitzende Anu Talus:

Online-Plattformen sollten den Nutzern bei der Verwendung von ‚Zustimmungs- oder Bezahlmodellen‘ eine echte Wahl geben. Die Modelle, die wir heute haben, erfordern in der Regel von Einzelpersonen, entweder alle ihre Daten zu verschenken oder zu bezahlen. Infolgedessen stimmen die meisten Nutzer der Verarbeitung zu, um einen Dienst zu nutzen, und sie verstehen nicht die vollen Auswirkungen ihrer Entscheidungen.

Es braucht also Alternativen, wie aus der Stellungnahme hervorgeht. Konkret spricht die Dachorganisation etwa von einem kostenlosen, werbe-basierten Angebot, das weniger oder keine personenbezogenen Daten nutzt. Auf Anfrage von netzpolitik.org betont der Ausschuss, seine Stellungnahmen seien allgemein und würden sich nicht an spezifische Unternehmen richten.

Die rechtliche Grundlage für die Stellungnahme ist die Datenschutz-Grundverordnung (DSGVO). Sie verlangt, dass Menschen freiwillig und informiert in die Verarbeitung ihrer Daten einwilligen. Einfach ausgedrückt: Sie müssen wirklich verstehen, was mit ihren Daten passiert – und sie müssen das wirklich wollen. Die Frage nach dem Einverständnis ist besonders für sehr große Plattformen drängend. Für viele Menschen ist ein Verzicht auf Plattformen wie Instagram keine Alternative, weil sie ansonsten auf gesellschaftliche Teilhabe verzichten müssten.

Abo-Modell als „Trick“

Die gemeinnützige Organisation noyb („none of your business“) aus Wien setzt sich für Datenschutz in der EU ein. Ihr Vorsitzender Max Schrems hält das Modell „Abonnieren oder akzeptieren“ für den neusten „Trick, um das EU-Recht zu untergraben oder zumindest die Einhaltung um ein paar Jahre zu verzögern“.

Die EDPS-Stellungnahme folge laut noyb dem „einzig logischen Verständnis von freiwilliger Einwilligung“. Gerade eine dritte Option – also neben „abonnieren oder akzeptieren“ – ist ein Weg aus der Misere, wie aus einem Blogbeitrag von noyb hervorgeht.

In Wirklichkeit gibt es viele Möglichkeiten, eine Website zu monetarisieren, z. B. durch kontextbezogene Werbung, Produktplatzierung, bezahlte Inhalte oder Freemium-Modelle, bei denen bestimmte Inhalte nur gegen eine Gebühr verfügbar sind.

Kontextbezogene Werbung sind Anzeigen, die passend zu veröffentlichten Inhalten erscheinen. Ähnlich wie in einer gedruckten Zeitung, wo etwa Werbung für teure Uhren im Börsenteil erscheint. Der Konflikt zwischen Datenschutzbehörden und Meta könnte also verändern, wie kommerzielle Dienste im Internet für viele Millionen Nutzer*innen aussehen – oder zumindest, wie die zugrunde liegenden Geschäftsmodelle funktionieren.

Irische Behörde am Zug

Lob für die EDSA-Entscheidung kommt auch von Patrick Breyer, der für die Piraten ins Europa-Parlament gewählt wurde. Er bezeichnet das Abo-Modell als „Datenschutzgebühr“, die den Schutz der Privatsphäre untergrabe, indem sie wirtschaftlichen Zwang ausübe. „Meta muss jetzt einlenken, sein ‘Pay or okay’-System aufgeben und endlich unser Grundrecht auf anonyme Internetnutzung respektieren“, fordert der Abgeordnete.

Die EDSA-Entscheidung ist jedoch nicht bindend. Auf ihrer Grundlage werden nun die nationalen Datenschutzbehörden ihre eigenen Verfahren fortsetzen. Es steht wohl ein längeres Prozedere bevor.

„Die Stellungnahme ist nur eine Antwort auf Fragen verschiedener Datenschutzbehörden. In den Verfahren gegen Meta wird dagegen die irische Datenschutzbehörde (DPC) entscheiden“, erklärt noyb-Datenschutzjurist Felix Mikolasch auf Anfrage von netzpolitik.org. Es sei jedoch nicht auszuschließen, dass sich die irische Behörde auf die Seite von Meta stelle, weil dies in der Vergangenheit bereits der Fall war.

In diesem Szenario könnte es wiederum Streit mit anderen EU-Datenschutzbehörden geben, bis der EDSA einen verbindlichen Beschluss trifft, schätzt Mikolasch. Langfristig werde wohl der Europäische Gerichtshof das letzte Wort sprechen.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

18.04.2024 14:44

Der Computerspielpreis ist eines der großen Events in der Gamingszene in Deutschland. Doch um die heimische Spieleindustrie steht es schlecht und ihre Zukunft bleibt durch fehlende Förderung ungewiss. Ein Kommentar.

Game over auf einem Bildschirm
Der Computerspielpreis starte mit einem Förderstopp – Gemeinfrei-ähnlich freigegeben durch unsplash.com Rivage

Heute Abend wird der Deutsche Computerspielpreis verliehen. Seit 2009 wird er in Deutschland vergeben, abwechselnd in Berlin oder, wie dieses Jahr, in München. Es gibt 14 Kategorien, in denen mit Preisgeld dotierte Auszeichnungen vergeben werden. Drei dieser Kategorien sind international, alle anderen gelten für aus Deutschland stammende Spiele oder Akteure. Die Gewinner*innen werden von einer Jury gewählt, nur bei der undotierten Kategorie „Spieler*innen des Jahres“ darf die Community mit abstimmen. Ausgerichtet wird der Preis vom Branchenverband Game, dem Verband der deutschen Gaming-Branche, zusammen mit dem Bundesministerium für Wirtschaft und Klimaschutz (BMWK). Regelmäßig sind Politiker*innen auf der Veranstaltung zu Gast, unter anderem dieses Jahr wieder der bayerische Ministerpräsident Markus Söder (CSU).

Trotzdem wird der Preis nicht wirklich ernst genommen, da die Spiele oft eine pädagogische Botschaft haben oder Kinderschutz-konform sein müssen. Das vermittelt vielen den Eindruck, dass Spiele nicht unbedingt als Unterhaltungsmedium für jedes Alter in Deutschland gelten. Zudem spürt man immer noch einen leichten Hauch der vor Jahren in der Politik geführten „Killerspiele“-Debatte.

Gamingförderung in Deutschland

Der Preis ist die Spitze dessen, was Deutschland zur Förderung der Gaming-Industrie unternimmt. Seit inzwischen fünf Jahren versucht die Bundesregierung, dem Wirtschaftszweig auch finanziell unter die Arme zu greifen. Denn obwohl über die Hälfte der Deutschen Videospiele spielen und Deutschland der größte Markt Europas ist, schwächelt die heimische Industrie. Daher gibt es ein Förderpaket vom Bund für die deutsche Produktion. So können etwa neue Titel mit bis zu 50 Prozent gefördert werden.

Dieses Förderpaket wurde zwar positiv von der Industrie aufgenommen. Jedoch konnte es in den letzten Jahren kaum Wirkung zeigen, da die jährlich eingeplanten 70 Millionen Euro viel zu schnell aufgebraucht waren und es immer wieder zu Antragstopps kommt. Ein überarbeitetes Paket lässt bis heute auf sich warten. Die Gaming-Industrie fordert etwa seit Jahren, die Rahmenbedingungen zu ändern und wie manche Nachbarländer den Steuerhebel zu nutzen. In Frankreich gibt es beispielsweise eine Steuererleichterung von 30 Prozent der Entwicklungsausgaben, diese ist noch bis mindestens 2028 gültig.

Auch im E-Sport hat die Regierung erst letzte Woche im Branchendialog angekündigt, mehr tun zu wollen. Sie hat erkannt, dass der sportliche Wettkampf mit Computerspielen an Popularität in Deutschland gewonnen hat. Viele große Akteure im E-Sport haben ihre Standorte für ihre europäischen Ligen nach Deutschland verlegt. Unter anderem Riot Games, die mit „League of Legends“ das beliebteste E-Sport-Spiel der Welt vertreiben, haben jetzt eine feste Arena in Berlin für Spiele in der Europa-Liga. Die Politik hat dies durchaus auf dem Schirm, doch verfolgt sie das Ziel, E-Sport gemeinschaftlich zu machen. Wie genau man sich das vorstellen kann, bleibt bis heute offen.

Die schönen Worte bedeuten nichts

Die deutsche Politik scheint Gaming mehr für gute Presse bei jungen Leuten nutzen zu wollen, als den Bereich ernsthaft voranzubringen. Während etwa Frankreich seine Fördervorhaben ausbaut, werden die Mittel in Deutschland immer knapper. Es erweckt den Eindruck, dass die deutsche Politik aufgegeben hat, Deutschland zum Gaming-Standort zu machen. Das wurde einmal mehr deutlich, als Staatssekretär Michael Kellner (Grüne) im Twitch-Livestream vorbereitend auf die Preisverleihung sagte, dass der Bund nur noch größere Spieleprojekte ab 400.000 Euro fördern werde. Alles andere sei Ländersache, so Kellner.

Die Idee dahinter ist wohl, Deutschland attraktiver für große Spieleprojekte zu machen. Unter den Tisch fällt dabei, dass Deutschland eine lebhafte Indie-Game-Szene hat, deren Projekte meist nicht diese Größe erreichen. Künftig könnten diese Entwickler*innen davon abhängig werden, wie viel Geld ihr Bundesland für die Förderung bereitstellt, und das unterscheidet sich teils dramatisch von Bundesland zu Bundesland. Dadurch dürfte sich die Gaming-Industrie in Zukunft wohl auf einige wenige Bundesländer konzentrieren und könnte insgesamt schrumpfen – nicht zuletzt, wenn manche Hersteller womöglich in andere Länder auswandern.

Die deutsche Gaming-Industrie steht vor Herausforderungen, die über den Deutschen Computerspielpreis hinausgehen. Eine umfassende Strategie, die sowohl Förderung als auch Steuererleichterungen umfasst, könnte dabei helfen, die Branche zu stärken und Deutschland als Gaming-Standort wettbewerbsfähiger zu machen.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

18.04.2024 08:00

Am heutigen Donnerstag beginnt der Strafprozess gegen einen Redakteur von Radio Dreyeckland – wegen eines Links auf die Archivseite des verbotenen Portals Indymedia Linksunten. Journalismus-Verbände sehen die Pressefreiheit in Gefahr.

Das Logo von Radio Dreyeckland, Justitia und der Link von Indymedia Linksunten
Verbände sprechen von Einschüchterung (Symbolbild) – Logo: Radio Dreyeckland: Justitia: Pixabay; Montage: netzpolitik.org

Es soll der erste von bis zu neun Prozesstagen sein. Am heutigen Donnerstagmorgen muss sich der Radio-Journalist Fabian Kienert vom freien Sender Radio Dreyeckland vor dem Landgericht Karlsruhe verantworten. Ihm wird vorgeworfen, eine verbotene Vereinigung unterstützt zu haben, und zwar mit der Verlinkung auf die Seite linksunten.indymedia.org in einem Nachrichtenartikel. Bei einem „Verstoß gegen das Vereinigungsverbot“ sieht das Strafgesetzbuch eine Freiheitsstrafe bis zu drei Jahren oder eine Geldstrafe vor.

Indymedia Linksunten war eine der wichtigsten Anlaufstellen für die linke und linksradikale Szene in Deutschland. 2017 ist der Betrieb der Seite durch den damaligen Bundesinnenminister Thomas de Maizière (CDU) verboten worden. Schon damals kritisierte etwa die Organisation „Reporter ohne Grenzen“ das Verbot als „rechtsstaatlich fragwürdig“. Denn das Verbot wurde mit dem Vereinsrecht begründet; Linksunten Indymedia kurzerhand als „Vereinigung“ deklariert. Aus Sicht von „Repoter ohne Grenzen“ handelte es sich bei der Seite aber vielmehr „um ein informationelles Online-Angebot, das dem hohen Schutzstandard der Pressefreiheit unterliegt“.

Heute ist die Seite noch als Archiv online. Kienert verlinkte linksunten.indymedia.org in einer knappen Nachrichtenmeldung; sie handelte von eingestellten Ermittlungen der Staatsanwaltschaft gegen die mutmaßlichen Betreiber*innen.

Einfach ausgedrückt dreht sich der Fall also um zwei Dinge. Vordergründig geht es um die Frage: Kann es sein, dass ein Journalist wegen eines Links vor Gericht muss – oder gar in den Knast? Im Hintergrund steht jedoch eine weitere Frage, nämlich: Wie geht es weiter mit Indymedia Linksunten – einem Thema, das dem Staat offenbar auch sieben Jahre nach dem Verbot noch ein Dorn im Auge ist?

Rechtswidrige Razzia in Radio-Redaktion

Im Vorfeld des Prozesses gab es mehrere Hausdurchsuchungen, unter anderem im Januar 2023 bei Fabian Kienert selbst sowie beim Geschäftsführer von Radio Dreyeckland und in den Redaktionsräumen. Die letzten beiden Hausdurchsuchungen wurden später als rechtswidrig erklärt. Im August 2023 wurden zudem Wohnungen von fünf Verdächtigen durchsucht, die mit dem Archiv von Indymedia Linksunten in Verbindung stehen sollen.

Vertreten wird Kienert von der Rechtsanwältin Angela Furmaniak. Auf Anfrage von netzpolitik.org kritisiert sie: Die Staatsanwaltschaft verkenne mit der Erhebung der Anklage „den Bedeutungsgehalt der Pressefreiheit“. Es gehe unter anderem um die Frage, „unter welchen Umständen die Verlinkung fremder Quellen in einem journalistischen Textes nicht lediglich eine Information der Lesenden darstellt“.

Auch die Gesellschaft für Freiheitsrechte (GFF) unterstützt Kienert. Der gemeinnützige Verein schützt Grundrechte durch strategische Gerichtsverfahren. GFF-Anwalt David Werdermann schreibt auf Anfrage, die Verlinkung einschlägiger Quellen gehöre zur Pressefreiheit. „Das ermöglicht den Leser*innen, sich selbst ein Bild zu machen, und stärkt so das Vertrauen in die Medien.“ Die Anklage würde zudem mit der kritischen Berichterstattung von Radio Dreyeckland zum Verbot von Indymedia Linksunten begründet. „Es muss möglich sein, Vereinsverbote zu kritisieren, ohne sich den Vorwurf der Unterstützung einer verbotenen Vereinigung einzuhandeln“, schreibt Werdermann.

Einschüchterung von Journalist*innen

Für Journalismus-Verbände geht vom Fall Radio Dreyeckland schon jetzt eine negative Signalwirkung aus. Nicola Bier von „Reporter ohne Grenzen“ sagt, die bereits geschehenen Eingriffe in die Pressefreiheit müssten vor Gericht deutlich anerkannt werden. „Nur so kann das Gericht verhindern, dass das Vorgehen gegen den freien Radiosender zu einer großen Verunsicherung bei Redakteurinnen und Redakteuren in ganz Deutschland führt.“

Martin Gross, Landesbezirksleiter bei Verdi Baden-Württemberg, warnt: „Die vierte Gewalt kann nur stattfinden, wenn man nicht das Gefühl hat, in seiner Arbeit eingeschüchtert zu werden“. Mit der sogenannten vierten Gewalt ist Journalismus gemeint, der die Aufgabe hat, die Öffentlichkeit über den Staat und seine Institutionen zu informieren und sie kritisch zu begleiten. Das Vorgehen der Staatsanwaltschaft wirke sich nicht nur auf den Mut von Journalist*innen aus, sondern könne auch Menschen einschüchtern, die sich mit vertraulichen Informationen an Redaktionen wenden, sagt Gross. Der Gewerkschafter hat sein Statement für eine Solidaritätskundgebung zum Prozessauftakt aufgezeichnet.

So auch Fabian Ekstedt von Radio LORA München; er ist Vorstand im Bundesverband Freier Radios (BFR). Freie Radios sind kleine, nicht-kommerzielle Sender, die sich meist basisdemokratisch verwalten; eines davon ist Radio Dreyeckland. Ekstedt sagt, auch er verstehe die Hausdurchsuchungen als Einschüchterung. Und die betreffe alle, die sich in freien Radio betätigen, wenn nicht sogar alle Journalist*innen. Ekstedt nimmt Bezug darauf, dass die Polizei bei der Razzia auch Kienerts Laptops und Handys mitgenommen hat. „Die Beschlagnahmung von Smartphones und Computern ist in einer digitalen Gesellschaft eine Strafe in sich“, sagt er, „ein Entzug des digitalen Ichs“.

Kienert sagt gegenüber netzpolitik.org im Vorfeld des Prozesses, es sei „völlig unverhältnismäßig“ gewesen, auf eine sachlich gehaltene Meldung über die Einstellung eines Ermittlungsverfahrens mit einer Hausdurchsuchung zu reagieren. „Mit der Kriminalisierung eines Links kriminalisiert man das journalistische Bemühen mündigen Bürger:innen weitere Quellen für ihre Meinungsbildung zur Verfügung zu stellen.“

Das Landgericht Karlsruhe hatte die Anklage gegen Kienert im Mai 2023 zunächst nicht zugelassen, Beobachter*innen feierten das als Erfolg für die Pressefreiheit. Die Kehrtwende kam jedoch nur wenige Wochen später, als das Oberlandesgericht (OLG) Stuttgart den Beschluss des Landgerichts in zweiter Instanz aufhob.

Korrektur, 18. April, 22:30 Uhr: Die Höchststrafe für Paragraf 85, Absatz 2 StGB beträgt nicht fünf, sondern drei Jahre.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

17.04.2024 17:09

Warfare is becoming digitalized and automated. This is shifting the role of citizens within the Geneva Conventions. We urgently require new solutions and international agreements.

A wall of glowing red rectangles, in front of it the shadow of a person
Who makes the decisions in automated warfare? And who bears the responsibility? – Gemeinfrei-ähnlich freigegeben durch unsplash.com rishi

Technologies commonly referred to as AI have enjoyed a rapid uptake and growth over the last 18 months within the commercial space with the release of solutions such as Chat GPT. Recently, several news outlets reported that Israel was using AI in the Gaza Conflict. The IDF vehemently denies this; however, there is little doubt that advanced technologies will soon be on the battlefield.

Within warfare, computer automation can refer to significantly more sophisticated systems, for example, enabling Automated Weapons (AW) and Unmanned Vehicles (UV) that could make their own decisions in the field.  Other examples include technologies that facilitate faster decision-making by providing input to battle planning or enabling the speedy interception of enemy transmissions.

Much attention has been focused on the bias, discrimination, and possible job losses introduced by automated technologies in the commercial space. However, understanding the use of these solutions in warfare should be at the top of such discussions: Automated Decision-making or Automated Weapons do not just automate war; they can change and shift the roles of citizens within the Geneva Conventions.

The digitization of warfare

It is not uncommon to see a strong link between industry and defense forces; one prominent example is Eric Schmidt, ex-CEO of Google, who has also had roles as the Chair of the Advisory Committee for the Department of Defense and the National Security Commission on Artificial Intelligence. In his latest piece for Foreign Affairs, he has called for “warfare at the speed of computers, not the speed of people.” He evokes comparisons of AI to the conquistadors who defeated the Incan empire and wants to ensure the USA is capable of fully automated warfare, where “autonomous weaponized drones – not just unmanned aerial vehicles, but also ground-based ones – will replace soldiers and manned artillery altogether.”

The autonomous land and air vehicles that Mr. Schmidt wants the US to develop are still more experimental, but work has already started to enable military vehicles—including fighter jets and submarines—to operate alongside swarms of autonomous drones while AI coordinates the actions. So, while much of this may seem far-fetched, automated decision-making has a long head-start in the military – with Project Maven being funded by the USA in 2017, while alliances such as AUKUS have been actively co-developing automated and robotic weapons systems for several years. Systems are already aiding in detecting and classifying signals of interest, enabling them to be jammed or intercepted as deemed appropriate. AI can anticipate the trajectories of ballistic missiles to allow for pre-emptive interception or redirection. It can also help to decode – and automatically translate – encrypted communications of enemy forces.

Russia and China are all actively engaged in developing such automated systems, and this is one reason that the USA and the EU, through NATO, have placed such an emphasis on developing similar solutions; other nations are playing along as best they can, but automated intelligence identification and analysis has already started to play as crucial a role in warfare.

Implications for the Geneva Conventions

Automating systems and weapons within war can initially seem like a good idea – in principle, it is possible to wage war while putting fewer young people in the line of fire. Within the IDF statement that they were not using AI for targeting people, however, there was hidden one small sentence that should ask us to reconsider this idea:

“…a person who directly participates in hostilities is considered a lawful target.”

A critical question for the world as it enters the new era of AI-enabled and AI-driven warfare is what its impacts will be on the Geneva Conventions and the role of citizens in war. AI has the potential to shift this dramatically.

The Geneva Conventions and their Additional Protocols are the core of international humanitarian law and regulate the conduct of armed conflict. They seek to limit the impacts of war by protecting people who are not participating in hostilities and those who are no longer part of them. Each new generation of technology causes issues with the applicability of the Geneva Conventions, which were developed shortly after and in response to the horrific nature of WWII. However, most of the previous generations of technology have still been captured within the traditional realm of warfare. Automated data gathering and intelligence analysis threatens to change the notion of “who is directly participating in hostilities.”

The basis of this comes down to how such automated systems are built.  Regardless of how they are used, so-called AI applications require significant amounts of data that must be processed quickly enough to be used in battle. Military AI needs to parse millions of inputs to make sensible recommendations in battle.

Who counts as a civilian?

However, the risks associated with using AI in warfare are less publicly discussed. The digitalization of warfare has, however, led to a challenge for both militaries and international humanitarian law as the role of citizens has become increasingly blurred in some cases.

Examples include using cryptocurrencies to raise over $225 million in funds for the Ukraine war effort, e.g. “for weapons, ammunition, medical equipment and other crucial war supplies”. In comparison, a Czech crowdfunding campaign raised $1.3 million to purchase a tank for the Ukrainian forces.

In other spheres of war, we can see that civilians have either lent their computers to distributed denial-of-service attacks coordinated via AI or had them commandeered for these activities through computer viruses.

Digital technologies, therefore, challenge some of these assumptions of who is a civilian and who is not during war. This raises interesting challenges about who is an active participant in warfare. Through smartphone apps, civilians can become significant data input for war efforts – automated data sets rely on up-to-date information to provide recommendations to military decision-makers.

Threat of growing numbers of victims

If this data comes from civilian smartphones, these people could be viewed as active participants in the war.

The role of someone’s laptop or computer being used in distributed denial of service attacks makes it slightly more difficult to prove someone is a willing participant in hostilities; however, the active raising of funds – either via cryptocurrencies or through crowdfunding platforms is more straightforward to argue as active participation in war efforts. Digital technologies have enabled individuals globally to collect money and take a role previously reserved for national governments – the contribution of arms to a war effort.

Furthermore, when taking datasets from various sources, there is a broader risk that data sources may be poisoned—or have incorrect data injected into them—to disrupt the war effort. This means that AI could lead a scenario where it recommends actions that worsen warfare or lead to decisions that were taken far too quickly without waiting to see the enemy’s response. Far from reducing the number of casualties, therefore, Automated decision-making can unintentionally increase them dramatically.

How AI is different from nuclear bombs

During the Cold War, there were numerous near misses, thanks in part to the slower nature of communication but mainly due to humans‘ role in deploying missiles. Perhaps the most famous one came in 1983 when a computer system mistakenly reported that six nuclear missiles had been launched from the United States toward Russia. Stanislav Petrov, who was on duty, decided that the system must be faulty and, through deliberately disobeying orders, is credited as ‘saving the world’ from the all-out nuclear war that would have cascaded rapidly with retaliation from the USA and NATO if he had followed protocol.

Many people have likened AI to nuclear bombs. These technologies are, however, fundamentally different from nuclear ones. With nuclear weapons, humans‘ autonomy was preserved. From start to finish, humans were involved in every step of analyzing, interpreting, and acting upon the data presented to them by different computing systems for nuclear war.

The many supporters and developers of automation in warfare promote the idea of using the “human in the loop” approach. This is where a trained human operator is included at specific points in AI processes to ensure that a human makes the decisions rather than the algorithms themselves. The idea is that this will ensure the inclusion of human ethics and morals in decision-making processes and, therefore, ensure compliance with international humanitarian law.

Autonomy and control

The critical question here, however, comes down to autonomy. With automated systems, humans increasingly lose the autonomy to make decisions over datasets over time. The more data is used to create and refine models, and the more times those models run to improve the algorithms, the less depth of knowledge a human can have over that process. Therefore, the extent to which a human can claim autonomy or control over the decisions presented by AI is questionable. The sheer volume of data sources that are combined and crunched makes it a fundamentally different beast from previous generations of digitally enabled warfare. The human-in-the-loop solution, therefore, does not genuinely solve the shift in how civilians may become viewed as active participants in war efforts.

New solutions are required, and new international agreements are needed that focus not just on the application of these new weapons in the field of war, but also on how the data can be sources to feed them. What constitutes a participant in digital-enabled warfare must be clearly defined so governments, militaries, and civilians in war zones can make informed decisions. Failure to take appropriate actions now will mean that, yet again, it may come down to people brave enough to completely disobey orders to avoid horrific, fully automated consequences.

Cathy Mulligan is aexpert in digital technology and digital economy. She is currently a Richard von Weizsäcker Fellow at the Robert Bosch Foundation in Berlin.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

17.04.2024 17:09

Die Kriegsführung wird zunehmend digitalisiert und automatisiert. Damit verändert sich auch die Rolle der Bürger:innen innerhalb der Genfer Konventionen. Um dieser Entwicklung zu begegnen, brauchen wir dringend neue internationale Vereinbarungen.

Eine Wand aus leuchtenden roten Rechtecken, davor der Schatten einer Person
Wer trifft im automatisierten Krieg die Entscheidung – und wer trägt die Verantwortung? – Gemeinfrei-ähnlich freigegeben durch unsplash.com rishi

Die Technologien der sogenannten Künstlichen Intelligenz (KI) haben in den vergangenen 18 Monaten – etwa mit der Einführung von ChatGPT – einen rasanten Aufschwung und ein schnelles Wachstum im kommerziellen Bereich erfahren. Vor kurzem berichteten mehrere Nachrichtenagenturen, dass Israel im Gaza-Konflikt KI einsetzt, was die israelische Armee vehement bestreitet. Es besteht jedoch kaum ein Zweifel daran, dass neue Technologien schon bald auf dem Schlachtfeld zum Einsatz kommen werden.

Bei der Kriegsführung werden Computer und automatisierte Prozesse in wesentlich ausgefeilteren Systemen eingesetzt, zum Beispiel in Form von automatisierten Waffen und unbemannten Fahrzeugen, die im auf dem Kriegsschauplatz autonome Entscheidungen treffen können. Andere Beispiele sind Technologien, die eine schnellere Entscheidungsfindung ermöglichen, indem sie in die Gefechtsplanung einfließen oder das schnelle Abfangen feindlicher Funksprüche ermöglichen.

In der Wirtschaft und im Geschäftsleben haben die Verzerrungen, Diskriminierungen und möglichen Arbeitsplatzverluste viel Aufmerksamkeit auf sich gezogen, die durch die Verwendung von KI und automatisierten Technologien entstehen. An erster Stelle sollte jedoch die Diskussion darüber stehen, welche Auswirkungen der Einsatz dieser Lösungen auf die Kriegsführung hat: Automatisierte Entscheidungsfindung oder automatisierte Waffen automatisieren nicht nur den Krieg an sich, sondern sie können auch die Rollen der Bürger:innen innerhalb der Genfer Konventionen verändern und verschieben.

Die Digitalisierung der Kriegsführung

In den USA ist es nicht ungewöhnlich, dass es enge Verbindungen zwischen der Tech-Industrie und der Armee gibt. Ein prominentes Beispiel ist Eric Schmidt, ehemaliger CEO von Google, der daneben als Vorsitzender des Advisory Committee for the Department of Defense und der National Security Commission on Artificial Intelligence auch als Berater für die US-Streitkräfte tätig war. In seinem Beitrag für Foreign Affairs forderte er jüngst eine „Kriegsführung mit der Geschwindigkeit von Computern, nicht mit der Geschwindigkeit von Menschen“. Schmidt vergleicht KI mit den Konquistadoren, die das Inkareich besiegten, und will sicherstellen, dass die USA zu einer vollautomatischen Kriegsführung fähig sind. Bei dieser Art der Kriegsführung „werden autonome, waffenfähige Drohnen – das heißt, nicht nur unbemannte Luftfahrzeuge, sondern auch Landfahrzeuge – die Soldat:innen sowie die bemannte Artillerie vollständig ersetzen.“

Die autonomen Land- und Luftfahrzeuge, die die USA nach Schmidts Willen entwickeln sollen, sind noch im experimentellen Stadium. Doch es wird bereits daran gearbeitet, dass Militärfahrzeuge, darunter Kampfjets und U-Boote, neben Schwärmen autonomer Drohnen operieren können, während KI die Aktionen koordiniert.

Auch wenn vieles davon weit hergeholt erscheinen mag, sind automatisierte Entscheidungen im Militär weiter fortgeschritten als in anderen Bereichen: Das Projekt Maven wurde 2017 von den USA finanziert, während gemeinsame Projekte wie AUKUS von Australien, den USA und Großbritannien seit einigen Jahren aktiv an der Entwicklung automatisierter und robotischer Waffensysteme mitarbeiten. Die Systeme helfen bereits bei der Erkennung und Klassifizierung relevanter Signale, damit sie je nach Bedarf gestört oder abgefangen werden können. KI kann die Flugbahnen ballistischer Raketen im Voraus berechnen, um sie dann präventiv abzufangen oder umzulenken. Außerdem kann Künstliche Intelligenz die verschlüsselte Kommunikation feindlicher Streitkräfte entschlüsseln und automatisch übersetzen. Russland und China arbeiten aktiv an der Entwicklung derartiger automatisierter Systeme. Dies ist ein Grund dafür, dass die USA und die EU im Kontext der NATO so viel Gewicht auf die Entwicklung ähnlicher Lösungen gelegt haben.

Auswirkungen auf die Genfer Konventionen

Die Automatisierung von Systemen und Waffen im Krieg kann zunächst wie eine gute Idee erscheinen. Im Prinzip ist es möglich, Krieg zu führen und dabei weniger junge Menschen in die Schusslinie zu bringen. In der Erklärung der israelischen Armee, wonach sie keine KI für die gezielte Bekämpfung von Menschen einsetze, war jedoch ein kleiner Satz versteckt, der uns zum Nachdenken bringen sollte:

„… eine Person, die sich direkt an den Feindseligkeiten beteiligt, wird als rechtmäßiges Ziel betrachtet.“

Eine entscheidende Frage für die Welt, die in das neue Zeitalter der KI-gestützten und KI-gesteuerten Kriegsführung eintritt, ist, welche Auswirkungen dies auf die Genfer Konventionen und die Rolle der Bürger:innen im Krieg haben wird. KI hat das Potenzial, beides dramatisch zu verändern.

Die Genfer Konventionen und ihre Zusatzprotokolle bilden den Kern des humanitären Völkerrechts und regeln die Austragung bewaffneter Konflikte. Sie haben zum Ziel, die Auswirkungen des Krieges zu begrenzen, indem sie Menschen schützen, die nicht an den Feindseligkeiten teilnehmen, sowie jene, die nicht mehr Teil der Feindseligkeiten sind. Jede neue Technologiegeneration wirft Probleme bei der Anwendung der Genfer Konventionen auf, die kurz nach dem Zweiten Weltkrieg als Reaktion auf die Schrecken dieses Krieges formuliert wurden.

Die meisten der vorangegangenen Technologiegenerationen fallen jedoch noch in den Bereich der traditionellen Kriegsführung. Die automatisierte Datenerfassung und nachrichtendienstliche Analyse drohen jedoch das Verständnis davon zu verändern, „wer direkt an Feindseligkeiten beteiligt ist“.

Die Grundlage dieser Verschiebung liegt im Aufbau solcher automatisierten Systeme. Unabhängig davon, wie sie eingesetzt werden, erfordern sogenannte KI-Anwendungen erhebliche Datenmengen, die schnell genug verarbeitet werden müssen, um im Kampf eingesetzt werden zu können. Militärische KI muss Millionen von Eingaben analysieren, um im Gefecht sinnvolle Empfehlungen auszusprechen.

„Es braucht dringend klare Verbote und Vorschriften“

Wer ist noch Zivilist:in?

Die Risiken, die mit dem Einsatz von KI in der Kriegsführung verbunden sind, werden jedoch kaum öffentlich diskutiert. Die Digitalisierung der Kriegsführung hat zu einer Herausforderung sowohl für das Militär als auch für das humanitäre Völkerrecht geführt, weil die Rolle von Bürger:innen bei der Kriegsführung in einigen Fällen immer unschärfer wird.

Ein Beispiel dafür ist die Verwendung von Kryptowährungen für das Fundraising von Spenden von über 225 Millionen US-Dollar für die Kriegsanstrengungen in der Ukraine, zum Beispiel für Waffen, Munition und medizinische Ausrüstung sowie anderes kriegswichtiges Material. Im Vergleich dazu brachte eine tschechische Crowdfunding-Kampagne 1,3 Millionen Dollar für den Kauf eines Panzers für die ukrainischen Streitkräfte auf. In anderen Kriegsgebieten ist zu beobachten, dass Zivilist:innen ihre Computer entweder für über KI koordinierte Distributed-Denial-of-Service-Angriffe (DDoS) zur Verfügung gestellt haben oder sie durch Computerviren für diese Aktivitäten gehackt und genutzt wurden.

Digitale Technologien stellen daher einige Annahmen darüber infrage, wer im Krieg ein:e Zivilist:in ist. Dies wirft zudem die interessante und schwierige Fragen in Bezug darauf auf, wer als aktive Teilnehmer:innen an der Kriegsführung gilt. Mit Hilfe von Smartphone-Apps können Zivilist:innen selbst zu einem bedeutenden Dateninput für Kriegsanstrengungen werden.

Es drohen wachsende Opferzahlen

Automatisierte Datenbestände sind auf aktuelle Informationen angewiesen, um den militärischen Entscheidungsträgern Empfehlungen zu geben. Wenn diese Daten von zivilen Smartphones stammen, könnten diese Personen als aktive Kriegsteilnehmer betrachtet werden.

Wenn der Laptop oder Computer einer Person für DDoS-Angriffe genutzt wird, ist es etwas schwieriger zu beweisen, dass jemand bereitwillig an Feindseligkeiten teilnimmt. Die aktive Beschaffung von Geldern – entweder über Kryptowährungen oder über Crowdfunding-Plattformen – lässt sich jedoch leichter als aktive Teilnahme an Kriegsanstrengungen interpretieren.

Digitale Technologien haben es Einzelpersonen weltweit ermöglicht, Geld zu sammeln und eine Rolle zu übernehmen, die zuvor nationalen Regierungen vorbehalten war: die Bereitstellung von Waffen für den Kriegseinsatz.

Darüber hinaus besteht bei der Übernahme von Datensätzen aus verschiedenen Quellen ein größeres Risiko, dass Datenquellen mit digitalen Viren infiziert oder mit falschen Daten gefüttert werden, um die Kriegsanstrengungen zu behindern. Dadurch werden Szenarien möglich, in denen die KI-Maßnahmen empfiehlt, die die Kriegsführung verschlechtern oder die zu überstürzten Entscheidungen führen, ohne dass die Reaktion des Feindes abgewartet wird. Anstatt die Zahl der Opfer zu verringern, kann die automatisierte Entscheidungsfindung Opferzahlen also ungewollt dramatisch erhöhen.

Wie sich KI von Atombomben unterscheidet

Während des Kalten Krieges gab es zahlreiche Beinahe-Einsätze von Waffen, die teils durch die damalige Langsamkeit der Kommunikation, vor allem aber durch die Rolle des Menschen beim Abfeuern von Raketen verhindert wurden. Der vielleicht berühmteste Vorfall ereignete sich 1983, als ein Computersystem fälschlicherweise meldete, dass sechs Atomraketen von den Vereinigten Staaten in Richtung Russland gestartet worden waren. Der diensthabende Stanislaw Petrow entschied, dass das System fehlerhaft sein musste, und bewahrte durch bewusste Befehlsverweigerung die Welt vor einem totalen Atomkrieg, der durch Vergeltungsmaßnahmen der USA und der NATO rasch ausgelöst worden wäre, wenn Petrow das Protokoll befolgt hätte.

Viele Menschen haben die KI mit Atombomben verglichen. Diese Technologien unterscheiden sich jedoch grundlegend von Atomwaffen. Beim Einsatz von Atomwaffen blieb die Autonomie des Menschen gewahrt. Von Anfang bis Ende war der Mensch an jedem Schritt der Analyse, Interpretation und Reaktion auf die Daten beteiligt, die ihm von den verschiedenen Computersystemen für den Atomkrieg vorgelegt wurden.

Viele Befürworter und Entwickler der Automatisierung in der Kriegsführung propagieren die Idee des „Human-in-the-Loop“-Ansatzes. Dabei wird ein geschulter Entscheider an bestimmten Stellen in die KI-Prozesse einbezogen, um sicherzustellen, dass ein Mensch die Entscheidungen trifft und nicht die Algorithmen selbst. Auf diese Weise soll sichergestellt werden, dass menschliche Ethik und Moral in die Entscheidungsprozesse einfließen und somit die Einhaltung des humanitären Völkerrechts gewährleistet ist.

Autonomie und Kontrolle

Die entscheidende Frage ist hier jedoch die nach der Autonomie. Mit automatisierten Systemen verliert der Mensch mit der Zeit immer mehr die Autonomie, Entscheidungen über Datensätze zu treffen. Je mehr Daten zur Erstellung und Verfeinerung von Modellen verwendet werden und je öfter diese Modelle zur Verbesserung der Algorithmen ausgeführt werden, desto weniger Wissen kann ein Mensch über diesen Prozess haben. Daher ist es fraglich, inwieweit ein Mensch glaubhaft Autonomie oder Kontrolle über die von der KI getroffenen Entscheidungen beanspruchen kann.

Die schiere Menge an Datenquellen, die kombiniert und ausgewertet werden, unterscheidet die KI grundlegend von früheren Generationen digitaler Kriegsführung. Die „Human-in-the-Loop“-Lösung ist daher keine wirkliche Antwort auf die Frage, unter welchen Bedingungen Zivilist:innen als aktive Teilnehmer an Kriegsanstrengungen definiert werden können.

Wir brauchen neue Lösungen und neue internationale Vereinbarungen, die sich nicht nur auf die Anwendung neuer Kriegswaffen konzentrieren, sondern auch auf die Art und Weise, wie Datenquellen für diese Waffen genutzt werden können. Es muss klar definiert werden, was Teilnehmer:innen an einer digital gestützten Kriegsführung auszeichnet, damit Regierungen, Militärs und Zivilist:innen in Kriegsgebieten fundierte Entscheidungen treffen können.

Wenn jetzt keine geeigneten Maßnahmen ergriffen werden, wird es wieder einmal auf Menschen ankommen, die mutig genug sind, Befehle vollständig zu missachten, um schreckliche, vollautomatische Folgen zu vermeiden.

Cathy Mulligan ist Expertin für digitale Technologien und digitale Wirtschaft. Derzeit ist sie Richard von Weizsäcker Fellow bei der Robert-Bosch-Stiftung in Berlin.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

17.04.2024 15:08

Ein Zwischenbericht des polnischen Justizministeriums gibt erstmals Einblick in in die weitflächige Überwachung in Polen während der Amtszeit der PiS-Regierung. 578 Personen sollen mit der Spionage-Software Pegasus gehackt worden sein.

Unter dem Vorsitz der KO-Politikerin Magdalena Sroka untersucht der polnische Senat den Pegasus-Spionageskandal. – Alle Rechte vorbehalten IMAGO / newspix

Insgesamt 578 Personen soll die inzwischen abgewählte rechtskonservative PiS-Regierung in den Jahren 2017 bis 2023 mit der Spionagesoftware Pegasus überwacht haben. Das geht aus einem ersten Zwischenbericht des Justizministers und Generalstaatsanwalts Adam Bodnar an den polnischen Senat hervor, der gestern veröffentlicht wurde.

Derzeit arbeitet Polen umfassend die Regierungszeit der PiS-Partei zwischen 2015 und Ende 2023 auf. Dazu zählt auch der Pegasus-Überwachungsskandal, der im Jahr 2021 aufgeflogen war und nun von einer parlamentarischen Untersuchungskommission eingehend geprüft wird.

Als gesichert gilt, dass zahlreiche oppositionelle Politiker:innen und Jurist:innen mit der Spähsoftware gehackt worden waren. Das haben forensische Untersuchungen des kanadischen Citizen Lab ergeben, einem Forschungsinstitut der Universität Toronto. Medienberichten zufolge sollen indes auch damalige PiS-Regierungsmitglieder überwacht worden sein, unter anderem der Ex-Premier Mateusz Morawiecki.

Mächtiges Spionagewerkzeug

Pegasus ist eine Trojaner-Software des israelischen Herstellers NSO Group. Mit dem Werkzeug lassen sich unbemerkt IT-Geräte wie Smartphones aus der Ferne knacken. Damit erhalten Angreifer:innen praktisch unbegrenzten Zugriff auf das digitale Leben ihrer Opfer und ihres Umfelds. In Echtzeit lassen sich beispielsweise Gespräche belauschen, die Standorte der Opfer ermitteln und beliebige Daten vom Gerät abziehen, etwa verschlüsselte Chats, Fotos oder Passwörter.

Offiziell vertreibt die NSO Group den Trojaner nur an staatliche Akteure, die damit vermeintlich Terror und organisierte Kriminalität bekämpfen sollen. Doch schon seit Jahren finden sich Spuren der Überwachungssoftware auf Geräten von Regierungskritiker:innen, Journalist:innen und Aktivist:innen in aller Welt. Aufgrund der anhaltenden Verletzungen von Menschenrechten steht das Unternehmen inzwischen auf einer US-Sanktionsliste.

Überwachung in mehreren EU-Ländern

Polen ist nicht das einzige Land in Europa, in dem der mutmaßlich illegale Einsatz der Spionage-Software nachgewiesen werden konnte. Auch in Ungarn, Spanien und Griechenland wurden die Handys und Computer von oppositionellen Politiker:innen, Journalist:innen oder deren Angehörigen mit Pegasus oder vergleichbaren Trojanern wie Predator ins Visier genommen.

Allerdings stockt die Aufarbeitung des Skandals, weil sich die entsprechenden Regierungen wenig gewillt zeigen, Licht ins Dunkel zu bringen. Auch auf EU-Ebene biss sich bislang ein Untersuchungsausschuss des EU-Parlaments die Zähne daran aus. Nach dem jüngsten Regierungswechsel sind nun die Augen auf Polen gerichtet, das als erstes EU-Land im Februar mit einer systematischen Untersuchung begonnen hat.

Der aktuelle Zwischenbericht bleibt allerdings noch vage. „Pegasus“ wird in dem knappen Dokument mit keinem Wort erwähnt, die Rede ist von einer „operativen Kontrolle von Endgeräten“, die drei namentlich nicht genannte (Geheim-)Dienste erlangt haben sollen. Demnach waren im Jahr 2017 sechs Personen betroffen, 100 Personen im Jahr 2018, 140 Personen im Jahr 2019, 161 Personen im Jahr 2020, 162 Personen im Jahr 2021 und neun Personen im Jahr 2022.

Rechtsstaatliche Prozesse ignoriert

Auch über Pegasus hinaus wurden in den vergangenen Jahren tausende Personen in Polen überwacht, wobei nicht alles davon illegal gewesen sein dürfte. Allerdings wurde offenbar in zahlreichen Fällen der rechtsstaatlich vorgesehene Weg nicht eingehalten, auch das geht aus dem Bericht hervor – etwa wenn keine Zustimmung der Staatsanwaltschaft eingeholt wurde. Mit demokratischen Standards steht die nationalkonservative PiS-Partei ohnehin auf Kriegsfuß, der konsequente Abbau des Rechtsstaats und der Pressefreiheit handelte dem damals von der PiS regierten Land unter anderem ein EU-Vertragsverletzungsverfahren ein.

Dass über 500 Personen mit Pegasus gehackt worden sind, überrascht die Abgeordnete Magdalena Sroka nicht. Die Senatorin der Regierungspartei KO ist Vorsitzende der Untersuchungskommission. So seien im untersuchten Zeitraum allein beim Bezirksgericht Warschau über 50.000 Anträge auf „operative Kontrolle“ gestellt worden, sagte Sroka der Tageszeitung Gazeta.

Die Aufklärung dürfte langwierig ausfallen, sagt die KO-Politikerin. Zum einen unterlägen die angeforderten Dokumente in der Regel strenger Geheimhaltung, zum anderen mauerten vom Ausschuss befragte Zeug:innen, etwa der ehemalige stellvertretende PiS-Justizminister Michał Woś oder der einflussreiche PiS-Politiker Jarosław Kaczyński. Zudem erhalte der Ausschuss ständig neue Dokumente, über die sie noch nicht öffentlich sprechen könne. „Ich kann nur sagen, dass einige Dokumente für die vorherige Regierung verheerend sind“, sagte Sroka.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

17.04.2024 13:12

Internet-Dienste, die Anonymität und Verschlüsselung anbieten, sollen als erste eine Chatkontrolle durchführen. Das geht aus Dokumenten der belgischen Ratspräsidentschaft hervor, die wir veröffentlichen. Bürgerrechtsorganisationen aus ganz Europa fordern die Ablehnung des Vorschlags.

Ein übergroßes Auge schaut einem menschen aufs Handy
Bild aus der Kampagne von „Chatkontrolle stoppen“ CC-BY-SA 4.0 Digitale Freiheit

Aus Dokumenten der belgischen Ratspräsidentschaft geht hervor, dass sichere und die Privatsphäre schützende Dienste besonders im Visier der geplanten Chatkontrolle stehen sollen. Nach dem Motto „Je sicherer, desto mehr Chatkontrolle“ führen Sicherheitsfeatures wie Anonymität oder Ende-zu-Ende-Verschlüsselung dazu, dass eine andere Risikobewertung vorgenommen wird.

Die belgische Ratspräsidentschaft hatte zuletzt einen „Kompromissvorschlag“ bei der Chatkontrolle ins Spiel gebracht, der technisch die Quadratur des Kreises versucht und nichts an der Tatsache einer anlasslosen Massenüberwachung ändert. Dieser Vorschlag hat bei den Verhandlungen im Rat nicht zu einer Einigung geführt, wie Dokumente belegen, die netzpolitik.org veröffentlicht hat.

Die EU-Kommission fordert eine anlasslose und massenhafte Chatkontrolle und hat eine entsprechende Verordnung vorgeschlagen. Das EU-Parlament kritisiert diese Massenüberwachung und fordert, die Chatkontrolle auf unverschlüsselte Inhalte von Verdächtigen zu beschränken. Die EU-Staaten sind gespalten. Manche Länder unterstützen den Vorschlag der Kommission, andere eher die Position des Parlaments. Derzeit sieht es so aus, als müsse sich die Ratspräsidentschaft etwas Neues einfallen lassen, um eine Einigung erzielen zu können.

„Bestätigt all unsere Bedenken“

Laut einer Präsentation aus dem März, die wir veröffentlichen, soll es vier Risikostufen geben, in die Dienste kategorisiert werden sollen. Je nach Kategorisierung ergeben sich verschiedene Maßnahmen, Aufdeckungsanordnungen und Überwachungspflichten. In der Präsentation wird dies als ein Ansatz verkauft, der „gezielter“ sein soll als die vorherigen Versionen der Verordnung. In einem weiteren eingestuften Dokument aus dem Februar 2024, das wir veröffentlichen, werden diese Kategorisierungen in Textform detaillierter erklärt.

Präsentation
Auszug aus der Präsentation der belgischen Ratspräsidentschaft. - Belgische Ratspräsidentschaft

Für Elina Eickstädt, Sprecherin des Chaos Computer Clubs, bestätigen die Dokumente „alle unsere Bedenken“ und stellten keine Verbesserung dar. „Ganz im Gegenteil zeigen sie, dass jegliche Technologie, die dem Schutz der Privatsphäre dient, zu schärferen Aufdeckungsanordnungen führt“, so Eichstädt gegenüber netzpolitik.org. „Es ist eine Illusion zu glauben, dass mit Hilfe dieses Umsetzungskatalogs differenziertere oder gezieltere Überwachung erfolgen kann.“

Der Vorschlag der belgischen Ratspräsidentschaft stößt auch auf Widerstand in der Zivilgesellschaft: 48 Organisationen aus ganz Europa rufen in einem offenen Brief dazu auf, diesen „faulen Kompromiss“ abzulehnen.

Die Organisationen und Einzelpersonen kommen in ihrem offenen Brief zu einem ähnlichen Schluss: „Trotz einiger nomineller Änderungen des Rahmens für die Risikokategorisierung erlaubt der neue Vorschlag nach wie vor die Anwendung von Aufdeckungsanordnungen auf breiter Basis und ohne gezielte Ausrichtung.“

Breiter Widerspruch gegen die Chatkontrolle

Die Chatkontrolle, die sich laut der EU-Kommission gegen Darstellungen von Kindesmissbrauch richten soll, hat breiten Widerspruch hervorgerufen. Dabei ist auffällig, dass der Deutsche Kinderschutzbund wie auch Vertreter:innen von Ermittlungsbehörden das anlasslose Durchleuchten privater Dateien und Kommunikation gleichsam als unverhältnismäßig ablehnen. Diese Kritik äußern auch weltweit führende IT-Sicherheitsforscher:innen, zahlreiche Wissenschaftler:innen und der Menschenrechtskommissar der Vereinten Nationen.

Die Chatkontrolle wird auch von europäischen und deutschen Datenschutzbehörden sowie von mehr als 100 internationalen Digital- und Bürgerrechtsorganisationen abgelehnt. Tech-Firmen wie Apple halten es mittlerweile für technisch unmöglich, Daten automatisch zu scannen, ohne dabei die Privatsphäre und die IT-Sicherheit zu gefährden. In deutschen Fußballstadien protestieren Fans gegen diese neue Form der Massenüberwachung. Auch zwei Drittel aller Jugendlichen in Europa lehnen die Chatkontrolle ab.

Bei Jurist:innen fällt das Projekt ebenfalls durch: So warnt der Deutsche Anwaltsverein vor einem „massiven Eingriff in die Freiheitsrechte“, während der Rechtsausschuss des irischen Parlaments kein gutes Haar an der Chatkontrolle lässt.

Rechtlich begründete Kritik am Vorhaben kommt auch vom Juristischen Dienst des EU-Rats, der die Chatkontrolle für rechtswidrig hält. Eine Studie des Wissenschaftlichen Dienstes des EU-Parlaments kritisiert die Pläne ebenfalls scharf – und sogar eine Bewertung der EU-Kommission warnt vor dem Vorhaben des eigenen Hauses.

Update 14:37 Uhr:
Der Abgeordnete der Piraten im Europaparlament, Patrick Breyer, schreibt in einer Pressemitteilung:

Ausgerechnet die bisher datenschutzfreundlich anonym nutzbaren Kommunikationsdienste wie Protonmail sollen per Verpflichtung zur Chatkontrolle zu den extremüberwachtesten Diensten werden. Ausgerechnet die bisher sicher verschlüsselten Messengerdienste wie Signal sollen durch verpflichtendes ‚client-side scanning‘ zu Spionen auf unseren Smartphones werden.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

17.04.2024 12:42

Unser Rezept fürs Jahresende: Verrühre den Stress mit einer großen Packung Humor und einer wohldosierten Prise Selbstironie aus den 80ern. Heraus kommt etwas, das uns allen viel Spaß gemacht hat.

Ölgemälde, das ein Feuerwerk über einer Stadt an einem Hügel zeigt.
Es war ein Feuerwerk, in vielerlei Hinsicht! – Public Domain Frederick George Cotman

Während sich die Mär vom Ideal eines besinnlichen Jahresendes hartnäckig hält, ist der Dezember für uns so ziemlich die anstrengendste Zeit des Jahres. Es fehlen immer noch jede Menge Euros, um uns ausfinanzieren, weil Menschen nun einmal traditionell eher zum Jahresende spenden. Es müssen Texte vorproduziert werden, damit ihr auch über die Weihnachtsfeiertage was von uns lesen könnt und nicht auf dem Trockenen sitzt. Und dann, als Sahnehäubchen, sind viele von uns auch noch auf dem Chaos Communication Congress. Halten und hören Vorträge, schmieden neue Pläne und Kontakte und lernen jede Menge Neues dazu.

Auch wenn es stressig war – der Dezember war dann zum Glück doch meist geprägt von diesem positiven sogenannten Eustress. Der heftet einem so kleine Flügelchen an, mit denen man dann ganzen Berg an Aufgaben überwinden kann. Und dabei hatten wir zwischendurch jede Menge Spaß und das lag nicht zuletzt an unserer Bullshit-Busters-Spendenkampagne. Dabei haben wir gelernt: Wenn wir eines so richtig gut können, dann ist es, uns selbst nicht zu ernst zu nehmen.

Im Overall und mit selbstgebastelten Accessoires ausgestattet Videoclips drehen und uns dabei zum Obst machen? Kein Problem! Mit dem Feuerlöscherschlauch gegen Cookie-Monster und Chatkontrolle antreten? Natürlich! Einen ernsthaften Spendenaufruf in die Kamera sagen, während man so aussieht, als hätte einen die 80er-Zeitmaschine ausgespuckt? Ok, das hat nicht geklappt. Was stattdessen dabei rausgekommen ist, fanden wir dann aber auch ziemlich gut: „Wir können alles. Außer Werbung.“

Es war uns ein Fest. Und dank eurer Unterstützung konnten wir wieder die Million knacken. Und so frohgemut in ein neues Jahr starten. Die Pläne gehen uns nicht aus, der Humor auch nicht. Dass ihr uns das ermöglicht, dafür danken wir euch sehr!

Die harten Zahlen

Der Dezember ist für unsere Finanzen der aufregendste Monat im Jahr. Jeden Tag sichten wir die Spendeneinnahmen und versuchen eine Tendenz im Vergleich zur Vorjahresentwicklung abzulesen. Dank eurer verlässlichen Unterstützung haben wir beachtliche 317.580 Euro an Spenden eingenommen. Mit dem nicht steigerbaren Ausruf unserer Finanzbuchhalterin gesprochen: Das ist mega! Insgesamt belaufen sich unsere Einnahmen im Dezember auf 318.480 Euro. Aus dem Merch-Store erhielten wir etwas mehr als 400 Euro.

Bei den Ausgaben liegen wir bei den Personalkosten mit 83.787 Euro über dem Jahresdurchschnitt. Wir haben beschlossen, den im September an uns ausgezahlten Verlagsanteil der VG Wort als Einmalzahlung vor allem an die Nichtredaktionsmitglieder auszuschütten. Dies soll einen gewissen Ausgleich im Team schaffen, da die Redaktionsmitglieder alljährlich individuelle Ausschüttungen direkt von der VG Wort erhalten. Wer uns kennt, weiß, dass wir Einheitslohn zahlen.

Hier klicken, um den Inhalt von datawrapper.dwcdn.net anzuzeigen

Die Raumkosten bilden mit knapp 3.000 Euro nicht die volle Büromiete in der Boyenstraße ab, für die wir monatlich circa 4.760 Euro zahlen. Zum Jahresende haben wir eine Vorauszahlung für nicht benötigte Reparaturen von etwas mehr als 2.280 Euro aus den Mietzahlungen für die vorherigen Büroräume zurückerhalten. Zudem haben wir noch rund 500 Euro für die Ausstattung der neuen Büroräume ausgegeben.

Hier klicken, um den Inhalt von datawrapper.dwcdn.net anzuzeigen

Die Höhe der Fremdleistungen mit 21.121 Euro ist ungewöhnlich hoch. Das liegt zum einen an der Abrechnung von freien Autor:innen für mehrere zurückliegende Monate, an den fortan monatlichen Kosten einer für die Entwicklung von WordPress beauftragten Agentur sowie den einmaligen Ausgaben für die Netzwerkinstallation in den neuen Büroräumen. Zudem haben wir letztmalig die Unterstützung unseres Steuerberatungsbüros für die Einarbeitung in der Finanzbuchhaltung in Anspruch genommen. Die Aufwendungen für unseren Betriebsbedarf sind mit rund 1.400 Euro unauffällig. In den Kosten für Reisen und Bewirtung von 1.135 Euro sind die Ausgaben für unsere Jahresendfeier enthalten. Die Fortbildungskosten von etwa 2.760 Euro setzen sich aus den Rechnungen unserer Schreibtrainerin für alle Workshops im Jahr 2023 zusammen.

An Versicherungen haben wir lediglich 65 Euro für eine Nachberechnung aufgewendet. Die Ausgaben für Verwaltung und technische Infrastruktur des Büros fallen mit etwa 5.255 Euro im Dezember höher aus. Das liegt an den Kosten des Steuerberatungsbüros für den Jahresabschluss 2022 in Höhe von 2.466 Euro.

Aufgrund der hohen Einnahmen aus der Spendenkampagne liegen die Kosten für den Zahlungsverkehr mit etwas mehr als 2.260 Euro erwartbar weit über dem Jahresdurchschnitt. Unterm Strich beenden wir den Dezember erfolgreich mit einem Ertrag von 197.645 Euro. Das ist ein gutes Polster, um die nächsten Monate mit routinemäßig weniger Spendeneinnahmen zu überbrücken.

Noch ein Hinweis am Ende: Ab 2024 werden wir den Transparenzbericht von monatlich auf quartalsweise umstellen. Unsere Ausgaben setzen sich aus etwa 70 Prozent Personalkosten und etwa 30 Prozent Sachkosten zusammen, wobei uns die Sachkosten für die monatliche Darstellung als zu volatil erscheinen. Einige unserer freien Autor:innen schreiben zum Beispiel vorzugsweise alle drei Monate Rechnungen. Auch bei den technischen Dienstleistungen versprechen wir uns mittels der Darstellung der Kosten über drei Monate belastbarere Aussagen, als wenn wir monatliche Ausreißer erklären.

Insgesamt kommen die Berichte alle Vierteljahre auch unserer eigenen Haushaltsplanung näher, in der wir nicht planbare monatliche Schwankungen der Kosten über das Jahr verteilen. Die Veröffentlichung des Transparenzberichts für das erste Quartal 2024 planen wir für Ende Mai. Wir freuen uns schon jetzt über eure Rückmeldungen!

Danke für Eure Unterstützung!

Wenn ihr uns unterstützen wollt, findet ihr hier alle Möglichkeiten. Am besten ist ein Dauerauftrag. Er ermöglicht uns, langfristig zu planen:

Inhaber: netzpolitik.org e.V.
IBAN: DE62430609671149278400
BIC: GENODEM1GLS
Zweck: Spende netzpolitik.org

Wir freuen uns auch über Spenden via Paypal.

Wir sind glücklich, die besten Unterstützerinnen und Unterstützer zu haben.

Unseren Transparenzbericht aus dem November findet ihr hier.

Vielen Dank an euch alle!


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

17.04.2024 11:41

Der jüngst vom Europäischen Parlament beschlossene „Neue Migrationspakt“ erweitert Überwachungstechnologien und KI-Anwendungen an den EU-Außengrenzen – und erfährt Gegenwind.

Im Hintergrund ist ein Stacheldrahtzaun zu sehen, über den ein blau-violetter Filter gelegt ist. Davor ist das Logo von #ProtectNotSurveil abgebildet. Es zeigt eine Wortmarke des Namens sowie eine Hand, die eine Blume hält und eine Überwachungskamera.
Organisationen, Aktivist:innen und Forscher:innen setzen sich dafür ein, dass die EU-Verordnung Menschen auf der Flucht vor Schäden durch KI-Systeme schützt. CC-BY-SA 4.0 #ProtectNotSurveil

Vergangenen Mittwoch verabschiedete das Europäische Parlament den neuen Pakt zu Migration und Asyl. Das ist ein Reformpaket aus acht Gesetzen, die unter anderem dafür sorgen sollen, dass Asylsuchende in der EU überall gleich behandelt werden. Aber durch das Paket weitet die EU auch die digitale Überwachung und Kriminalisierung von Migrant:innen aus.

Ein Bündnis verschiedener Organisationen, die sich für Datenschutz und Menschenrechte einsetzen, hat die darin beschlossenen Inhalte kritisiert. Unter dem Motto #ProtectNotSurveil – schützen, nicht überwachen – fordert es die Europäische Union auf, den Einsatz schädlicher Überwachungstechnologien gegen Geflüchtete zu verbieten. Außerdem setzt es sich dafür ein, den Einsatz sogenannter Künstliche Intelligenz (KI) im Migrationskontext zu regulieren.

Teil des Bündnisses sind unter anderem AlgorithmWatch, Amnesty International, European Digital Rights (EDRi) und DigitalCourage. Auch Privacy International (PI) hat sich angeschlossen und veröffentlichte das gemeinsame Statement. Es beschreibt, wie die Reform es ermöglicht – und teils sogar vorschreibt – Migrant:innen zu überwachen.

Viel Kritik am Migrationspakt

#ProtectNotSurveil kritisiert, der Migrationspakt stelle Menschen auf der Flucht unter Generalverdacht und überwache sie flächendeckend. Insbesondere die Eurodac-Verordnung verpflichte dazu, biometrische Daten zu erheben und für zehn Jahre zu speichern. Die Inhalte der riesigen Datenbanken können zwischen verschiedenen Polizeibehörden ausgetauscht werden. Auch die Daten von Kindern dürfen erhoben werden – nach dem neuen Gesetz schon ab einem Alter von 6 statt 14 Jahren – und dies zur Not auch unter Zwang.

Im Rahmen der Screening-Verordnung werden in Zukunft umfassende Checks aller irregulär Einreisenden durchgeführt. Die Kontrollen, bei denen die Identität sowie Biometrie- und Gesundheitsdaten erhoben werden, können bis zu sieben Tage dauern.

Neue Kontrollverfahren an den Grenzen würden dazu führen, dass mehr Menschen in gefängnisähnlichen Einrichtungen festgehalten werden. #ProtectNotSurveil fürchtet Zentren nach griechischem Vorbild – mit intensiver biometrischer Überwachung und allgegenwärtigen Kameras und Bewegungsmeldern.

Die Reform des Schengener Grenzkodex, deren Verabschiedung noch aussteht, soll in Zukunft allgemeine Polizeikontrollen erleichtern. Sie fördere den Einsatz von Überwachungstechnologien, kritisiert das Bündnis – sowohl im EU-Inneren als auch an den Außengrenzen.

Bereits im Vorfeld des Beschlusses hatten mehr als 50 gemeinnützige Organisationen einen offenen Brief an die Europäische Kommission gerichtet. Sie sorgten sich, dass der Migrationspakt zu einem teuren, schlecht funktionierenden und unmenschlichen System führen werde.

KI-Einsatz bei der Migration

Der Migrationspakt stützt sich auf bestehende europäische Gesetze wie die KI-Verordnung. Auch die wurde von #ProtectNotSurveil kritisiert. Die Koalition forderte, KI-Praktiken im Bereich der Migration zu regulieren, um die Menschen an den EU-Außengrenzen zu schützen. Auch wollte sie Praktiken verbieten, die in die Grundrechte von Migrant:innen eingreifen.

Am 13. März wurde die KI-Verordnung beschlossen. Viele Anmerkungen der Datenschützer:innen blieben aber ungehört. In einer Analyse erklären EDRi und andere Organisationen, wie das endgültige Gesetz im Vergleich zu den Forderungen abschneidet. #ProtectNotSurveil sorgt sich nun um den verstärkten Einsatz invasiver Technologien – etwa von automatisiertem Profiling, Dialekterkennungssystemen und pseudowissenschaftlichen Technologien wie Lügenendetektoren.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

16.04.2024 15:47

Nach langem Hin und Her und einem vielkritisierten Auswahlprozess soll die Bonner Professorin Specht-Riemenschneider neue Bundesdatenschutzbeauftragte werden. Sie folgt auf Ulrich Kelber.

Louisa Specht-Riemenschneider
Prof. Dr. Louisa Specht-Riemenschneider (Archivbild) – Alle Rechte vorbehalten IMAGO / Metodi Popow

Nach einem verkorksten Auswahlverfahren, das für Unmut unter zivilgesellschaftlichen Organisationen gesorgt hatte, hat die Bundesregierung sich auf eine Nachfolgekandidatin für den bisherigen Bundesdatenschutzbeauftragten Ulrich Kelber geeinigt. Auf den SPD-Mann Kelber, der seit 2019 das Amt innehatte, soll demnächst die parteilose Professorin Louisa Specht-Riemenschneider folgen. Kelber ist noch bis maximal Anfang Juli kommissarisch tätig. Er hätte gerne weitergemacht, wurde aber offenbar von der SPD nicht weiter gehalten.

Die 1985 geborene Professorin für Bürgerliches Recht sowie Informations- und Datenrecht an der Universität Bonn war und ist bereits im Dienst der Bundesregierung. So ist sie derzeit Vorsitzende des Sachverständigenrats für Verbraucherfragen beim Umweltministerium (BMUV) und war Vorsitzende des Digitalbeirates beim Bundesministerium für Digitales und Verkehr (BMDV) und Mitglied der Gründungskommission des Dateninstituts. Mit ihr folgt eine ausgewiesene Datenschutz- und Datenrechtsexpertin auf den Informatiker Kelber.

Louisa Specht-Riemenschneider hat laut der Uni Bonn Rechtswissenschaft an der Universität Bremen studiert und im Jahr 2011 mit der Schrift „Konsequenzen der Ökonomisierung informationeller Selbstbestimmung – Die zivilrechtliche Erfassung des Datenhandels“ an der Universität Freiburg promoviert. Für diese Arbeit erhielt sie den Wissenschaftspreis der Deutschen Stiftung für Recht und Informatik. Nach ihrer Habilitation zum Thema „Diktat der Technik – Regulierungskonzepte technischer Vertragsinhaltsgestaltung am Beispiel von Bürgerlichem Recht und Urheberrecht“ erhielt sie im Jahr 2018 einen Ruf an die Universität Bonn, wo sie bis heute lehrt.

Minister will „ermöglichenden Datenschutz“

Zu der Berufung, bei der Grüne und FDP das Vorschlagsrecht hatten, twitterte Justizminister Marco Buschmann, dass er sie „für einen exzellenten Vorschlag“ halte. „Sie ist eine herausragende Expertin auf dem Gebiet des Datenschutzes und der Rechtsinformatik und besitzt alle Eigenschaften, um das Amt glänzend auszufüllen“, so Buschmann weiter. Er sorgte allerdings mit dem Tweet für Kritik, weil über die Personalie das Kabinett befinden muss und er als Minister nicht zuständig ist.

Verkehrs- und Digitalminister Volker Wissing verbindet mit der Wahl von Specht-Riemenschneider nun einen „ermöglichenden Datenschutz“, das Land brauche eine „neue offene Datenkultur“, so der Minister in einer Presseerklärung. Mit Louisa Specht-Riemenschneider sei eine ausgewiesene Expertin im Bereich Datenschutz und Datenpolitik nominiert worden, mit der er in der Vergangenheit bereits sehr gut und pragmatisch zusammengearbeitet habe.

Der EU-Piratenabgeordnete Patrick Breyer freute sich über die Wahl einer „qualifizierten neuen Bundesdatenschutzbeauftragten“, kritisiert aber das Auswahlverfahren. Dieses müsse sich dringend ändern, so Breyer auf Mastodon. Der ehemalige D64-Vorsitzende Henning Tillmann spricht im Bezug auf die neue Bundesdatenschutzbeauftragte von einer „großartigen Wahl“.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

16.04.2024 12:19

Am 13. September findet in der Alten Münze in Berlin unsere Konferenz statt. Heute startet der Call for Participation – und wir freuen uns auf Eure Einreichungen!

Ein Mikrofonständer vor orangenem Hintergrund mit Netz-Textur
Wir sind gespannt auf eure Beiträge!

In einem halben Jahr findet unsere große Konferenz zum 20. Geburtstag von netzpolitik.org statt! Die Veranstaltung am 13. September 2024 steht unter dem Motto „Bildet Netze!“ und sowohl die Konferenz als auch die anschließende Party werden in der Alten Münze in Berlin stattfinden. Mehr Informationen findet ihr auf unserer Konferenz-Webseite. Dort informieren wir euch auch, sobald der Ticketverkauf losgeht.

Es ist aber nicht nur unser Geburtstag, sondern noch ein anderes Jubiläum: Vor 40 Jahren entstand die erste Version der Hackerethik. Sie beschreibt noch heute gültige Prinzipien – auch für unsere Arbeit. Im Fokus stehen der freie Zugang zu Informationen, Misstrauen gegenüber Autoritäten sowie das Streben, die Welt mit Hilfe von Computern zu verbessern.

Diese Grundsätze stehen heute mehr denn je unter Druck und scheinen teils in Vergessenheit geraten: Eine Handvoll Techkonzerne beherrscht den Markt. Die „Künstliche Intelligenz“ verwandelt die digitale Welt in eine Blackbox. Zahlreiche Staaten höhlen Grundrechte aus, während Rechtsradikale nach der politischen Macht greifen. Es scheint, als wären wir in einen Abwehrkampf geraten, in dem die Utopie auf der Strecke bleibt.

Zuhören und mitmachen!

Gemeinsam wollen wir deshalb darüber debattieren, wie eine lebenswerte und solidarische digitale Gesellschaft aussieht – in Vorträgen, Workshops und Diskussionsrunden. Wie verteidigen wir digitale Freiheitsrechte? Wie stellen wir technologischen Wandel in den Dienst der Gesellschaft? Welche Netze müssen wir spannen, um das Netz gemeinsam voranzubringen?

Wir wollen Ideen finden, wie wir unsere Ideale erreichen können – im Großen und im Kleinen. Vor allem aber wollen wir einen Ort der Begegnung und Vernetzung schaffen. Für die digitale Zivilgesellschaft und alle anderen, die für Grund- und Freiheitsrechte einstehen. Denn wir sind viele.

Wir freuen uns, wenn ihr vorbeikommt, zum Zuhören und hoffentlich auch Diskutieren. Wenn ihr selbst etwas beitragen wollt, könnt ihr eure Ideen bis zum 16. Juni beim Call for Participation einreichen. Wir suchen nach Vorträgen und Workshops, aber auch nach weiteren Vernetzungsideen. Wir sind gespannt, von euch zu hören!


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

16.04.2024 07:00

Wie setzen große Plattformen die neuen EU-Vorgaben für Transparenz bei Online-Werbung um? Schlecht, sagt eine Analyse der Mozilla Foundation. Die Plattformen würden Zivilgesellschaft, Journalismus und Forschung weiter Steine in den Weg legen.

Historisches Foto eines Platzes in Paris, an den Wänden sehr viele unterschiedliche Werbeaufschriften
Im Paris des 19. Jahrhunderts war das mit der Werbetransparenz ganz anders. – Alle Rechte vorbehalten IMAGO / Bridgeman Images

Schwer zu bedienen, kaum vergleichbar und zu wenig aussagekräftig: Das Zeugnis, das die Mozilla Foundation den Transparenzarchiven großer Plattformen ausstellt, ist verheerend. „Keines der von den elf größten Technologieunternehmen der Welt geschaffenen Tools zur Transparenz von Werbung funktioniert so effektiv wie nötig.“ So lautet das Fazit einer heute veröffentlichten Studie, die die Mozilla-Stiftung zusammen mit CheckFirst durchgeführt hat.

Das Digitale-Dienste-Gesetz der EU schreibt in Artikel 39 vor, dass Online-Plattformen und Suchmaschinen mit mehr als 45 Millionen Nutzer:innen über so genannte „Werbearchive“ verfügen müssen, die sie der Öffentlichkeit zur Verfügung stellen. Diese Archive sollen Einblick geben, welche Akteure welche Art von Werbung auf welchen Plattformen schalten – und so mehr Transparenz über Online-Werbung und politische Einflussnahme geben. Archiviert werden die Inhalte der Werbeanzeigen von Unternehmen, Verbänden oder politische Parteien. Außerdem enthalten die Archive Meta-Informationen zu Platzierung, Kosten oder Reichweite der Anzeigen.

Doch wie einfach sind diese Bibliotheken für Journalismus, Wissenschaft und Interessierte abrufbar? Wie gut und aussagekräftig sind die Daten selbst? Werden Sie in strukturierter, maschinenlesbarer und vergleichbarer Form angeboten? Die Mozilla Foundation untersucht diese für Werbearchive von folgenden Dienste: AliExpress, Apple App Store, Bing, Booking.com, Alphabet (Google Search und YouTube), LinkedIn, Meta (Facebook und Instagram), Pinterest, Snapchat, TikTok, X und Zalando.

Das Ergebnis ist mehr als ernüchternd. Die Analyse findet große Unterschiede zwischen den Plattformen, aber auch eine Gemeinsamkeit: „Kein Werbearchiv ist voll funktionsfähig“ und keines biete Forscher:innen und zivilgesellschaftlichen Gruppen die Werkzeuge und Daten, die sie benötigen, um die Auswirkungen zum Beispiel auf die bevorstehenden EU-Wahlen effektiv zu überwachen.

Alle Transparenzarchive fallen durch

Tools zur Werbetransparenz seien für die Rechenschaftspflicht von Plattformen unerlässlich – eine erste Verteidigungslinie, wie Rauchmelder, sagt Claire Pershan von Mozilla. „Unsere Untersuchungen haben jedoch gezeigt, dass die meisten der weltweit größten Plattformen keine funktional nützlichen Werbearchive bereitstellen. Die aktuellen Tools existieren, ja – aber in einigen Fällen ist das auch schon alles, was man über sie sagen kann“, so Pershan weiter.

Konkret untersucht die Studie Faktoren wie die Tiefe der bereitgestellten Informationen über die Werbung und ihre Inserenten, die verwendeten Targeting-Kriterien und die Reichweite der Werbung. „Außerdem bewerten wir die Vollständigkeit des Werbespeichers, die Verfügbarkeit historischer Daten sowie die Zugänglichkeit, Konsistenz und Dokumentation der bereitgestellten Tools“. Auch Schnittstellen für automatisierte Datenabrufe werden untersucht, sofern die Plattformen sie anbieten.

Vergleichstabelle
Der gesamte Vergleich ist in der Studie abrufbar. - Alle Rechte vorbehalten Mozilla Foundation

Grundsätzlich kritisiert die Studie, dass die Datenformate nicht vergleichbar seien, weil alle die gesetzlichen Anforderungen anders aufbereiten würden. Als Negativbeispiele nennt die Studie AliExpress, Twitter/X, Bing, Snapchat und Zalando, deren Angebote besonders schlecht seien. Ihnen fehlten aussagekräftige Daten und Funktionalität.

Die Mängel der Umsetzungen sind sehr verschiedenen: Während AliExpress keine Schnittstelle bietet, lässt sich bei Apple das Werbe-Targeting nicht auf Länderebene auslesen, bei Booking.com lässt sich schwer herausfinden, welche Werbung gemeint ist, bei Alphabet (Google) kann man nicht nach Schlagworten suchen, während Twitter/X gar keine Weboberfläche, sondern nur CSV-Dateien zum Download anbietet.

Die Studie kommt zum Schluss, dass keine der Plattformen die Werbedaten in zufriedenstellender Form bereitstelle. „Zwar sehen wir gegenüber unseren Bewertungen für 2019 deutliche Verbesserungen bei Google und Facebook, wie die kritische Einbeziehung von Targeting- und Engagement-Daten (wie sie im Rahmen des DSA vorgeschrieben sind), doch selbst diese sollten angesichts der anhaltenden Einschränkungen bei Funktionalität und Zugang nicht als Beispiel dafür dienen, was ein gutes Werbearchiv für Forscher oder die breite Öffentlichkeit ausmacht.“

Plattformen sollen nachbessern

Von den Plattformen fordert die Mozilla Foundation, dass diese Zugangshindernisse beseitigen. Grundsätzlich sollten umfassendere Daten über Werbekampagnen und detailliertere Informationen über Werbeabsichten und -wirksamkeit enthalten sein – und diese Daten auch besser durchsuchbar sein. Luft nach oben gäbe es auch bei der Dokumentation und der Bedienbarkeit, sowie bei einer Harmonisierung der genutzten Schnittstellen.

Dem Gesetzgeber schlägt die Studie vor, gemeinsam mit Wissenschaft und Zivilgesellschaft Leitlinien für die Ausgestaltung der Archive zu entwickeln, sowie standardisierte Schnittstellen verpflichtend einzuführen, damit eine Vergleichbarkeit hergestellt werden kann. Zudem müssten Offenlegungsregeln für Influencer-Werbung verschärft werden.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

15.04.2024 18:13

Geht es nach der Bundesregierung, sind die Jahre des Personalausweises als Plastikkarte gezählt. An seine Stelle soll eine digitale Brieftasche treten. Wie diese konkret aussehen wird, soll ein Innovationswettbewerb entscheiden. Die Zivilgesellschaft sieht sich dabei außen vor.

Dient die Einbindung der Zivilgesellschaft nur als Feigenblatt? – Public Domain Albrecht Dürer: Adam und Eva

Von der Konsultation geht es nun in den „Innovationswettbewerb“ – und damit von der Theorie in die Praxis. „Wir suchen nach einem Prototyp, der praktisch beweist, wie eine Wallet funktionieren kann“, sagte Bundes-CIO Markus Richter zum Wettbewerbsstart am vergangenen Donnerstag. Bis zum 5. Mai können sich Teams beim Bundesinnenministerium (BMI) für eine Teilnahme bewerben. Nach 13 Monaten soll ein Prototyp für eine digitale Brieftasche stehen.

Hintergrund des Entwicklungsprozesses ist die Ende Februar novellierte eIDAS-Verordnung der Europäischen Union, die voraussichtlich im Mai in Kraft treten wird. Bis zum Herbst 2026 müssen dann alle EU-Mitgliedstaaten ihren Bürger:innen eine sogenannte „European Digital Identity Wallet“ anbieten, mit der sie sich on- wie offline und in fast allen Lebensbereichen ausweisen können.

Ein bewusst offener Beteiligungsprozess und Wettbewerb soll dabei – unter Einbindung der Zivilgesellschaft – verhindern, wie Markus Richter vergangene Woche betonte, „dass sich am Ende ein Monopolist draufsetzt“ und hierzulande eine fertige Wallet bereitstellt. Ob das Verfahren den gesetzten Ansprüchen gerecht wird, ist aus Sicht verschiedener beteiligter Nichtregierungsorganisationen aber zunehmend fragwürdig.

Sicherheit und Datenschutz stehen im Fokus

Den Konsulationsprozess startete das BMI im Juli vergangenen Jahres mit der Maßgabe, dass dieser „transparent und partizipativ“ gestaltet wird. Vor wenigen Wochen brachte das Verfahren ein 155-seitiges Architekturkonzept in der zweiten Version hervor.

Im Wettbewerb geht es nun darum, auf Grundlage dieses Konzepts einen Prototypen für eine EUDI-Wallet zu entwickeln und zu erproben – in Form einer App für iOS und Android sowie eines Backend-Systems. Den Wettbewerb führt die Bundesagentur für Sprunginnovationen (Sprind) durch. Dazu hat sie eine Ausschreibung unter dem Namen „Funke“ gestartet.

Die Prototypen sollen vor allem in den Bereichen Sicherheit und Datenschutz überzeugen, sagte Torsten Lodderstedt, der das Projekt bei Sprind betreut, in einem Pressegespräch vergangene Woche. Ebenso wichtig sei aber die Unlinkability, dass also verschiedene Identifikationsvorgänge nicht miteinander verknüpft werden. Außerdem sollten die Wallets nutzerfreundlich sein, eine große Reichweite aufweisen können und als Open Source umgesetzt werden.

Und auch die Interoperabilität sei entscheidend, so Lodderstedt. Nutzer:innen sollen die digitale Brieftasche europaweit einsetzen können. Dazu brauche es bestenfalls ein gemeinsames Authentifizierungsverfahren für alle 27 EU-Staaten.

Sichere Identifizierungsfunktion als „hart zu knackende Nuss“

Die Latte liegt also hoch und der Wettbewerb soll nun den praktisch umgesetzten Beweis erbringen, all diese Prinzipien abzubilden, so Richter. Eine besondere Herausforderung sieht er außerdem darin, das Konzept eines hardwarebasierten Sicherheitsankers umzusetzen. Konkret geht es dabei um die Frage, wie sich Nutzer:innen sicher gegenüber der Wallet identifizieren können.

Das Architekturkonzept nennt hier als Möglichkeit unter anderem den elektronischen Personalausweis – dessen breiter Einsatz derzeit vor hohen Hürden steht –, ein cloudbasiertes System und ein Sicherheitselement auf dem Smartphone, etwa ein besonders geschützter Mikrochip. Gerade bei Geräten von Apple, wie dem iPhone, stelle Letzteres jedoch noch ein Problem dar. Daher richte sich der Fokus nun darauf, gegebenenfalls die eSIM als Sicherheitsanker zu nutzen. „Das ist eine schwer zu knackende Nuss“, räumt Richter ein.

Sechs Teams erhalten Förderung

Die ausgewählten Teams, die diese Nuss knacken sollen, werden von Sprind finanziell gefördert. Für den Aufbau der Wallet und die dazugehörigen Prozesse stehen dem BMI rund 40 Millionen Euro bereit. Ein Teil davon soll auch für Aufwandsentschädigungen verwendet werden.

Konkret heißt es auf der Projektseite dazu:

Der Sprind Funke hat eine Laufzeit von 13 Monaten in 3 Stufen. Dabei wird Sprind in Stufe 1 bis zu sechs Teams unterstützen, in Stufe 2 bis zu vier Teams und in Stufe 3 bis zu zwei Teams. In den drei Monaten von Stufe 1 unterstützt Sprind die teilnehmenden Teams mit bis zu 300.000 Euro abhängig von den finanziellen Anforderungen, welche die Teams mit ihrer Bewerbung einreichen. Für die Finanzierung in Stufe 2 sind bis zu 300.000 Euro pro Team und für Stufe 3 sind bis zu 350.000 Euro pro Team geplant.

Aber auch nicht-geförderte Teams können – „unter Einhaltung der Regeln für den Wettbewerb“, wie das BMI betont – ihre Lösungskonzepte einreichen.

Das BMI will nun „systematisch“ auf die Zivilgesellschaft zugehen

Aus allen Einreichungen soll eine Jury aus rund zehn Mitgliedern Ende Juli sechs Teams auswählen. Wer genau in der Jury sitzen wird, sei laut Markus Richter noch nicht entschieden. Fest stehe aber, dass ihr nationale wie internationale Expert:innen sowie Vertreter:innen der Zivilgesellschaft angehören werden. Aus Richters Sicht sei nun der richtige Zeitpunkt, „systematisch“ auf die Zivilgesellschaft zuzugehen. „Wir haben bislang noch auf den regulativen Rahmen gewartet“, so Richter.

Allerdings hat das BMI den richtigen Zeitpunkt offenbar verschlafen. Denn viele der NGOs, die sich bislang am Konsultationsprozess beteiligt haben, zeigen sich auf Anfrage von netzpolitik.org zögerlich, nun auch an dem Wettbewerb teilzunehmen.

Absage aus Ressourcengründen

So habe epicenter.works „aus Ressourcengründen“ nur am Anfang des Konsultationsprozesses teilnehmen können, wie Thomas Lohninger, Geschäftsführer des Vereins, auf Anfrage von netzpolitik.org mitteilt. Industrievertreter seien hingegen durchweg am Prozess beteiligt gewesen. „Das merkt man leider auch an vielen Stellen, wo die Frage des Geschäftsmodells des Umgangs mit staatlichen Identitäten wichtiger war als der Charakter als öffentliche Infrastruktur im Allgemeinwohl“, so Lohninger.

Zwar sei das Architekturkonzept an einigen Stellen „wirklich vorbildlich“, wie Lohninger schreibt, insbesondere beim Datenschutz: „Wenn das ernsthaft umgesetzt wird, könnte Deutschland eine datenschutzfreundliche Open-Source-Wallet entwickeln, die hoffentlich auf andere Länder abfärben kann“. Zugleich kritisiert die NGO, dass über die Wallet personenbezogene Daten an die Privatwirtschaft übergeben werden. Daraus wachse „die große Gefahr von parallelen Identitätssystemen und dem Einspeisen staatlich beglaubigter personenbezogener Daten in die bestehenden Systeme im Überwachungskapitalismus“. Wallets mit staatlich beglaubigten Identitätsdaten seien „ein zweischneidiges Schwert“, so Lohninger.

epicenter.works werde sich weiter auf die EU-Ebene konzentrieren. Bis zum Sommer werden dort die verbindlichen technischen Standards für die Umsetzung der eIDAS-Verordnung festgelegt.

Kein Raum für grundlegende Fragen

Auch die Digitale Gesellschaft zeigt sich vom bisherigen Beteiligungsverfahren enttäuscht. Auf Seiten des BMI gebe es wenig Verständnis dafür, „wie eine teilweise ehrenamtlich beziehungsweise mit knappen Ressourcen arbeitende Zivilgesellschaft funktioniert“, sagt Tom Jennissen. In dem Prozess sei es mehr darum gegangen, den technischen Sachverstand der Tech-Community nutzbar zu machen, als die Zivilgesellschaft in politische Aushandlungsprozesse einzubinden. „Für grundlegendere Fragen gab es somit nur wenig Raum“, kritisiert Jennissen.

Letztlich sei der gesamte Prozess so strukturiert gewesen, „dass Wirtschaftsvertreter:innen, die in dem Markt mitspielen wollen und die entsprechenden Kapazitäten haben, sich sehr breitmachen und die Diskussionen dominieren konnten.“ Immerhin, so Jennissen, sei der gesamte Prozess um Transparenz bemüht. „Und das ja auch nicht ganz selbstverständlich im BMI“.

Jennissen hofft nun, dass „zumindest in der bewertenden Jury kompetente und kritische Menschen aus der Zivilgesellschaft vertreten sind“. Das minimiere die Gefahr, „direkt ins nächste Wallet-Fiasko zu rennen“.

„Alibi-Platzhalter für einen inklusiven Dialog“

Auch OpenPetition hoffte im Konsultationsprozess, „auf Augenhöhe mitzudiskutieren“, sah sich am Ende aber „als Alibi-Platzhalter für einen inklusiven Dialog – auch weil es gar nicht genug Zivilgesellschaft gibt, mit den notwendigen Ressourcen und dem Know-how“, so Joerg Mitzlaffs Resümee. Der NGO-Gründer bezweifelt gegenüber netzpolitik.org, dass der Prozess im weiteren Verlauf gemeinwohlorientierte Lösungen hervorbringe. In der nun anstehenden Wettbewerbsphase „haben nur große Plattformen und von Venture Capital getriebene Start-ups eine Chance“, so Mitzlaff.

Auch Gregor Bransky vom Innovationsverbund Öffentliche Gesundheit (InÖG) zeigt sich zurückhaltend, was die weitere Beteiligung angeht. In den Wettbewerb werde sich der InÖG einbringen, „soweit uns das als zivilgesellschaftliche Organisation möglich ist“. Bransky erkennt an, dass sich das BMI ernsthaft bemühe, neue Wege zu gehen. “Bisher wurde aber die Zivilgesellschaft nicht ’systematisch‘ einbezogen“, so Bransky. „Es bleibt abzuwarten, inwieweit es noch zu so einer echten Beteiligung kommen wird.“

In dem Artikel waren die Aussagen von Thomas Lohninger von epicenter.works nicht korrekt zugeordnet. Wir haben das berichtigt und bedauern den Fehler.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

14.04.2024 07:55

Immer mehr Geld für sogenannte Künstliche Intelligenz, ohne Rücksicht auf die Konsequenzen. Dazu absurdes Marketing mit Warnungen vor Gefahren. Das ist kein Spiel, das betrifft uns am Ende alle.

Schild mit Aufschrift: "Attention. Don't throw coin in to the holy pond. Very dangerous."
Sehr gefährlich! Auf keinen Fall machen! – Gemeinfrei-ähnlich freigegeben durch unsplash.com Odd Fellow

Gehen Sie in die Kirche. Weihwasser. Spenden Sie den Mönchen so viel, dass Sie im Negativen landen. Gehen Sie aus der Kirche und sogleich wieder hinein. Weihwasser. Spenden Sie dem Bettler zwei Mal und ihre Geldsorgen haben ein Ende.

Die sonntägliche Ausgabe von Degitalisierung beginnt mit einem Trick. Einem sehr alten Trick, einem für nahezu unendlich viel Reichtum. Die beschriebene Weihwasser-Verschulde-Zeremonie hätte in bestimmten Versionen des Handelsspiels Der Patrizier von 1992 für nahezu unendlich viele Taler gesorgt, der Währung im Spiel.

Der Patrizier spielt zur Zeit der Hanse um das Jahr 1400. Das Anhäufen von großen Reichtümern ist dort erst einmal harte Arbeit. Handel mit Waren, die für gute Preise durch Nord- und Ostsee geschippert werden wollen. Matrosen, die angeheuert werden wollen – gegen Geld natürlich. Piraten abwehren, die ansonsten die eigenen Handelskonvois plündern. Schiffe, die gewartet und teuer neu gebaut werden müssen. Viel Risiko für ein paar Taler Gewinn.

Da liegt es vielleicht nahe, als Spieler*in nach einer Abkürzung zu suchen, einem Trick, einem Cheat oder auch einem Glitch. Einen Fehler im System zu finden, der einen unverhofften Vorteil verschafft. Der Patrizier hatte so einen Glitch. Einen Money Glitch.

Seit längerem macht sich Big Tech auf, seinen eigenen Money Glitch zu finden; und geht dabei ähnlich erratisch vor wie das scheinbar unlogische, aber doch irgendwie gezielte Herumklicken in Der Patrizier. Nur geht es diesmal um echtes Geld, es geht um echte Konsequenzen des Handelns und es ist kein Spiel, sondern betrifft uns alle.

Leider müssen wir in dieser Ausgabe wohl über das Thema der sogenannten Künstlichen Intelligenz und Big Tech reden. Insbesondere werden wir reden müssen: über das Erschleichen von unermesslichem Reichtum ohne Rücksicht auf die Konsequenzen für uns alle.

Stargate und Fusionsreaktoren

Soviel ausgeben, dass der Kontostand im Negativen landet – ganz so schlimm wird es für Microsoft vielleicht nicht werden, aber die Details zu Plänen neuer Rechenzentren gehen doch ziemlich ins Geld. Stargate, so der Codename für einen neuen Rechenzentrumskomplex, soll an die 100 Milliarden Dollar kosten. Komplett neue Systeme für künstliche Intelligenz, dazu passend eigene KI-Chips und eine Wertschöpfungskette „vom Silizium bis zur Dienstleistung“.

Microsofts Pläne wirken dabei trotz ihrer Monstrosität aber geradezu lächerlich im Vergleich zur Ankündigung des Chefs von OpenAI, Sam Altman. Er will Billionen Dollar in neue Chips investieren. Das sind Bereiche von 1.000 Milliarden, so als Vergleich. Nicht alle finden das realistisch. Der Google-Forscher François Chollet, einer der Beitragenden zum Machine-Learning-Framework TensorFlow, bewertet die Investitionen als um den Faktor 1.000 zu hoch.

Rechenzentren oder Supercomputer dieser Größe werden, ungeachtet ihrer Rentabilität, eine Menge Energie brauchen. Der Energieverbrauch der Rechenzentren, besonders getrieben von der KI-Industrie, ist schwer genau zu schätzen. Aber er übersteigt bereits heute wohl den gesamten Energieverbrauch von kleinen Ländern und wird wahrscheinlich allzu bald den gesamten Energieverbrauch von Ländern wie Schweden oder Deutschland übersteigen.

In den USA steigt der Energiebedarf besonders stark an. Oftmals werden nun Rechenzentren irgendwo in der Peripherie gebaut, weil dort eben noch Platz im Netz und Nähe zu Kraftwerken ist. Nur wird das nicht reichen. Allzu logisch aus kapitalistischer Sichtweise scheinen dann die Forderungen zum Erschließen neuer oder alter stabiler Energiequellen.

Microsoft etwa versucht, den Ausbau von Kernenergie zu beschleunigen – durch Mikroreaktoren und durch das Schreiben von Anträgen mit KI-Hilfe. Sam Altman wiederum investiert zusätzlich in Unternehmen zur Erforschung der Kernfusion und hofft auf deren Durchbruch in naher Zukunft.

Weil das alles aber nicht so schnell Energie bringen wird, freut sich die Fossilindustrie über die steigende Nachfrage nach Gaskraftwerken, wie etwa die Financial Times [€] feststellt.

Der Weg in die vermeintliche Zukunft geht wohl erst mal ohne Rücksicht auf irgendwelche aktuellen Umweltschäden über das energietechnische Mittelalter.

Die Abhängigkeitsspirale

Bemerkenswert ist an so ausufernden Forderungen von Tech-Konzernen aber deren eigene Abhängigkeit von einigen wenigen Zulieferern. Klar, Microsoft etwa will, wie schon erwähnt, vermehrt eigene KI-Chips nutzen. Intel und Google steigen jeweils selbst in den KI-Chip-Markt ein, um die Abhängigkeit von Nvidia loszuwerden.

Doch aktuell hängen die großen Player in Big Tech stark an Chips von Nvidia. Nvidias gefragte H100-Chips, oftmals als der Standard für maschinelles Lernen gesehen, sind zwar aktuell wieder etwas besser verfügbar, allerdings hat Nvidia bereits die nächste Chip-Generation angekündigt. Die wiederum wird um Faktor X besser als die Vorgängergeneration sein.

Bei der Geschwindigkeit, in der Chip-Hersteller neue Chips mit neuen Leistungsrekorden vorstellen, hätte in den 80er und 90er Jahren wahrscheinlich der sogenannte Osborne-Effekt greifen müssen: Eine aktuelle Generation von Produkt verkauft sich nicht mehr so gut, weil bereits eine wesentlich leistungsfähigere Nachfolge-Produktgeneration angekündigt ist. Die Nachfrage müsste eigentlich einbrechen, weil sich so eine kurzfristige Investition in absehbar alte Hardware ja nicht mehr rentieren würde.

Nur führt der aktuelle KI-Hype in seiner Überhitzung dazu, dass auch problemlos kaum ein Jahr alte Hardware eingekauft und wiederverkauft wird, weil die Nachfrage nach KI-Beschleunigern und den dadurch möglichen Anwendungen so immens hoch ist.

Neben dem Energieverbrauch ergibt sich hier eine Unmenge von Elektromüll in absehbarer Zeit – aus oftmals seltenen und aufwändig zu produzierenden Materialien.

Aber für den Geldfluss von einigen wenigen Techunternehmen ist das erstmal herzlich egal.

Spiel ’s noch einmal, Doomer

Zum teils absurden technologischen Vorgehen der KI-Unternehmen gehört auch absurdes Marketing.

Marketing in der Form wie etwa:

Wir haben da ein Tool veröffentlicht, das ist mächtig und so menschlich und so überzeugend, dass wir es für gefährlich halten, das jetzt zu veröffentlichen. … Scherz … Machen wir dann aber später trotzdem, wollten nur die Nachfrage checken und etwas künstlich hochtreiben. Und wir wollten dabei etwas ethisch wirken. Schließlich wollen wir ja doch auch nur Geld verdienen.

Das macht OpenAI in der Form seit mindestens 5 Jahren schon, das passierte etwa bereits bei GPT-2 im Jahr 2019 in sehr ähnlicher Form.

Das macht OpenAI beim Videogenerator Sora. Das Unternehmen kündigt mehr oder weniger den Untergang Hollywoods an, kooperiert dann mit Hollywood, damit Hollywood nicht untergeht, und so weiter.

Das macht OpenAI beim Stimmgenerator Voice Engine, kündigt mehr oder weniger den Untergang der Integrität politischer Reden an, verzögert dann den Release, aber am Ende kommt das Produkt halt doch.

Medial geht das regelmäßig auf und führt zu so Stilblüten wie Beitragen an Ostersamstag in der Tagesschau. Dort wird dann die Funktionsweise eines nicht öffentlich zugänglichen digitalen Tools mit einem ähnlichen digitalen Tool zur Stimmsynthese nachgestellt, um zu zeigen, wie realistisch das sein kann – also so prinzipiell.

Normalisierung durch Aufmerksamkeit

Das Problem beim Wiederkäuen von solchen Doomer-Narrativen: Sie höhlen den kritischen Kern der eigentlichen Doomer-Szenarien aus. Die Gefahr wird zwar genannt, durch den eigens gesetzten Spin der Unternehmen aber gleich wieder entkräftet. Und bis zum Release eines Produkts hat sich die Stimmung wieder normalisiert.

Die Gefahr von Desinformation durch Deepfakes in Audio und Video wird zwar dabei ein wenig thematisiert, aber gleichzeitig wieder normalisiert, weil dem Thema ja durch etwas Bedenkzeit Aufmerksamkeit gewidmet wurde. Ohne am Ende irgendetwas am Produkt verantwortungsvoll zu verändern, es vielleicht – Achtung, Blasphemie – gar nicht weiterzuentwickeln oder sich durch irgendwelche durch Gesetze auferlegte Regulation einschränken lassen zu wollen.

Da braucht es gar keine aufgesetzten KI-Ethik-Boards mehr, die ohnehin nichts anderes machen können als Vorschläge, die aber kaum gegen das eigene kapitalistisch geprägte Unternehmenshandeln gehen werden. Das Level an ethischem Handeln von generativen KI-Systemen ist ohnehin eher sehr, sehr niedrig. Allerhand selbst auferlegte Regeln und Gesetze beim Datenbeschaffen werden komplett ignoriert.

Wir befinden uns in einem Umfeld, in dem Bildgeneratoren hemmungslos visuellen Content stehlen, der eine Bildgenerator beim anderen klaut und der vermeintlich „ethische“ Generator auch wieder nur auf den geklauten Bildern des anderen basiert, wie Bloomberg [€] bei Adobe Firefly feststellt.

Am Ende wirkt alles das wie aufgesetztes mediales Weihwasser, mit dem man sich benetzt, damit das eigene Handeln doch irgendwie verantwortungsbewusst wirkt. Letztlich ist es eiskalt berechnet, um eine Stimmung oder eine Nachfrage zu erzeugen, die weniger negativ den eigenen Produkten gegenüber eingestellt ist. Am Ende ist alles nur ein Infinite Money Glitch, um unsere möglichen berechtigen Widerstände vor den negativen Folgen von KI zu übergehen.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

12.04.2024 18:32

Die 15. Kalenderwoche geht zu Ende. Wir haben 23 neue Texte mit insgesamt 154.122 Zeichen veröffentlicht. Willkommen zum netzpolitischen Wochenrückblick.

Liebe Leser:innen,

die Vorratsdatenspeicherung lebt: als Debatte und als Leiche im Keller der Gesetzgebung. Daran ändert auch die vermeintliche Einigung zu Quick Freeze nichts, mit der die Ampel diese Woche überraschte, denn nur einen Tag später ist die anlasslose Speicherung unserer IP-Adressen wieder Thema. Mehr als 1.000 Artikel zur Vorratsdatenspeicherung haben wir auf netzpolitik.org bislang veröffentlicht und es wird einfach nicht aufhören – allen Protesten, Bedenken und Gerichtsurteilen zum Trotz, die immer wieder auf die Unvereinbarkeit dieser Überwachungsmaßnahme mit Grundrechten hingewiesen haben.

Die Vorratsdatenspeicherung ist eine Art Zombie, der immer wieder kommt. Und weil das so ist, habe ich mir diese Woche die Wortherkunft von Zombie angeschaut. Laut Wikipedia leitet sich der Begriff Zombie von dem Wort nzùmbe aus einer in Nord-Angola beheimateten Sprache ab und hat sich über die Welt verbreitet. Nach der Definition des Ethnologen Michel Leiris  von 1929 sind Zombies „Individuen, die man künstlich in einen Scheintodzustand versetzt, beerdigt, dann wieder ausgegraben und geweckt hat und die infolgedessen folgsam wie Lasttiere sind, da sie ja gutgläubig annehmen müssen, dass sie tot sind.“

Neu und alles andere als ein Zombie ist hingegen der neue Ticker, den wir auf der Startseite und als Archiv-Übersicht eingeführt haben. Mit diesem Ticker verlinken wir auf spannende Artikel, Dokumente, Veranstaltungen und vieles mehr, was uns als Redaktion über den Weg läuft. Weil wir schon lange nicht mehr alle netzpolitischen Themen abdecken können, wollen wir mit dem Ticker zumindest alles, was es nicht in unsere Berichterstattung schafft, prominent verlinken. Damit ihr Euch umfassend informieren könnt.

Wir möchten Euch kuratiert an unserem redaktionellen Screening teilhaben lassen, mit dem wir als Team international Digitalthemen verfolgen. Die Sache mit dem Ticker ist natürlich ein Wagnis, wenn man auf der Startseite gleich und megaprominent auf andere Seiten verlinkt. Aber wir vertrauen darauf, dass ihr uns treu bleibt, auch wenn wir auch mal etwas woanders empfehlen. Angst vor hohen Absprungraten haben nur die, die ihren Leser:innen nicht zutrauen wiederzukommen. Und Links sind für uns eben Liebe – und ein Kernprinzip des Internets. Viel Spaß damit.

Ein schönes Frühlingswochenende wünscht Euch
Markus Reuter


Öffentliches Geld – Öffentliches Gut!: Creative-Commons-Lizenzen in der Verwaltung gehen wohl!

Die EU empfiehlt öffentlichen Stellen die Verwendung der international akzeptierten Creative-Commons-Lizenzen. Trotzdem lehnen einige deutsche Behörden diese Lizenzen bis heute ab. Ein neues Gutachten hat die typischen Vorbehalte analysiert und stellt fest: In der Praxis spielen sie allesamt keine Rolle. Von Stefan Kaufmann –
Artikel lesen

Interview zu Fediverse an Hochschulen: „Souveränität über eigene, zentrale Kommunikationsräume“

Seit Kurzem ermöglicht die Universität Innsbruck sämtlichen ihrer 5.000 Beschäftigten die Nutzung ihrer selbstbetriebenen Mastodon-Instanz – einfach per Login mit dem Uni-Account. Wie es zu dieser Initiative kam und ob die Instanz auch für Studierende geöffnet wird, erklärt Projektleiterin Melanie Bartos. Von Leonhard Dobusch –
Artikel lesen

Eurodac: Der biometrische Albtraum im Herzen des EU-Asylsystems

Die anstehende Eurodac-Reform ist viel mehr als reine technische Anpassung des Fingerabdruck-Systems. Sie können im Kontext des „Neuen Migrationspakts“ der EU die Gewalt gegen Menschen auf der Flucht massiv verschärfen. Von Gastbeitrag, Laurence Meyer, Chloé Berthélémy –
Artikel lesen

Pressefreiheit in China: Schikaniert, bedroht und mit Drohnen verfolgt

Die Spielräume für Berichterstattung werden auch für die ausländische Presse in China immer enger. In einer Umfrage beklagen drei Viertel der Auslandskorrespondent:innen im Land Schikanen und Behinderungen ihrer Berichterstattung. Von Markus Reuter –
Artikel lesen

Weizenbaum Report 2024: Politische Partizipation verlagert sich ins Netz

Eine aktuelle Studie des Weizenbaum-Instituts beleuchtet, wie sich die politische Teilhabe hierzulande entwickelt. Im Fokus steht auch das Thema Künstliche Intelligenz – und wie die Menschen diese nutzen und bewerten. Von Lea Binsfeld –
Artikel lesen

Prominente Links: Wir tickern!

Ab heute haben wir einen Nachrichten-Ticker auf der Startseite. Damit wollen wir euch noch besser auf dem Laufenden halten, euch an unserem täglichen Monitoring teilhaben und einen Grundgedanken des Internets aufleben lassen. Von netzpolitik.org –
Artikel lesen

Autonome Waffensysteme: „Es braucht dringend klare Verbote und Vorschriften“

Die israelische Armee soll im Gaza-Krieg sogenannte künstliche Intelligenz einsetzen, um Hamas-Ziele zu identifizieren. Die israelischen Streitkräfte widersprechen entsprechenden Medienberichten. Dessen ungeachtet fordert Thomas Küchenmeister von der Internationalen Kampagne zum Verbot der Killerroboter, autonome Waffensysteme weltweit strenger zu regulieren. Von Nora Nemitz –
Artikel lesen

Leistungen für Asylsuchende: Anwaltsverein lehnt Bezahlkarte ab

Der Deutsche Anwaltverein schaltet sich in die Diskussion um Bezahlkarten ein: Das Existenzminimum sei nicht mehr sicher, wenn Bundesländer selbst etwa entscheiden könnten, wie viel Bargeld mit den Karten abgehoben werden kann. Das könnte zu einer Welle an Klagen führen. Von Chris Köver –
Artikel lesen

Reporter ohne Grenzen: Viele Angriffe auf Journalist:innen in Deutschland

Obwohl die Gewalt gegen Journalist:innen in Deutschland in 2023 zurückgegangen ist, liegt die Zahl der Übergriffe immer noch weit über jener vor der Corona-Pandemie. Das konstatiert ein neuer Bericht von Reporter ohne Grenzen. Die Gefahr kommt meist von rechts, betroffen war auch netzpolitik.org. Von Tomas Rudl –
Artikel lesen

Kriminalstatistik: Wenn der Polizeichef die Innenminister bremst

Mehr Kriminalität von Menschen ohne deutschen Pass weist die Polizeiliche Kriminalstatistik aus. Doch während die Innenminister:innen bei der Vorstellung des Berichts erwartbare Hardliner-Floskeln klopfen, überrascht der Chef des Bundeskriminalamts mit Einordnungen und Kontext. Ein Kommentar. Von Markus Reuter –
Artikel lesen

Europäischer Datenschutzbeauftragter: Migration, KI und Chatkontrolle dominierten das letzte Jahr

Wojciech Wiewiórowski kontrolliert, dass die Institutionen der EU sich an den Datenschutz halten. Er hat nun seinen Jahresbericht für 2023 veröffentlicht, der klare Schwerpunkte zeigt. Von Maximilian Henning –
Artikel lesen

Deepfakes: Influencer:innen montieren fremde Gesichter auf echte Frauenkörper

Angeblich virtuelle Influencer:innen wollen Menschen mit sexy Videos auf Bezahlseiten locken. Virtuell ist aber offenbar nur das Gesicht, wie die Recherche eines US-Mediums zeigt – die Grundlage sind reale Aufnahmen von Models, die einem solchen Gesichtertausch nicht zugestimmt haben. Von Markus Reuter –
Artikel lesen

Panopticon für Geflüchtete: Griechenland soll Strafe für Überwachung in Grenzcamps zahlen

Wie weit darf die EU bei der Überwachung von Asylsuchenden an ihren Grenzen gehen? Griechenland testet das in neuen Lagern auf den Ägäischen Inseln. Nun hat die griechische Datenschutzbehörde dafür eine Strafe verhängt. Bürgerrechtler:innen hoffen auf eine Entscheidung mit Signalwirkung. Von Chris Köver –
Artikel lesen

Einigung zu Quick Freeze: Vorratsdatenspeicherung ist jetzt „Leiche im Keller“

Offenbar an Innenministerin Nancy Faeser vorbei hat sich die Ampel auf die Einführung des Quick-Freeze-Verfahrens geeinigt, das als Alternative zur Vorratsdatenspeicherung gilt. Doch auch dieses Verfahren bietet Schlupflöcher für größere Überwachungen – zudem bleibt eine Leiche als möglicher Zombie im Keller. Von Tomas Rudl, Markus Reuter –
Artikel lesen

Digitalzwang: In zweifacher Hinsicht abgehängt

Drei Millionen Menschen sind hierzulande dauerhaft offline. Sie sind damit doppelt benachteiligt: Denn erstens sind „Offliner*innen“ meist auch im Analogen weniger privilegiert. Und zweitens gibt es mehr und mehr Service-Angebote nur noch im digitalen Raum. Doch auch für alle anderen bietet die Zwangsdigitalisierung nicht nur Vorteile. Von Anne Roth –
Artikel lesen

Selbstbestimmungsgesetz: Keine Datenweitergabe an den gesamten Sicherheitsapparat

Am Freitag soll der Bundestag über das Selbstbestimmungsgesetz entscheiden. Dass Änderungen von Namen und Geschlecht automatisch an bis zu zehn Behörden gemeldet werden sollen, ist gestrichen. Aber die Datenweitergabe könnte nur aufgeschoben sein und an anderer Stelle wieder auftauchen. Von Chris Köver –
Artikel lesen

Wohnungseinbruchdiebstahl: Justizministerium will Überwachungsbefugnisse verlängern

Die Union will, dass Strafverfolgungsbehörden bei Einbrüchen in Wohnungen weiter Kommunikation auch mit Staatstrojanern überwachen können, sogar wenn es um Einzeltäter geht. Ihr Gesetzentwurf dazu wird heute wohl abgelehnt, doch das Justizministerium plant bereits eine eigene Verlängerung. Von Anna Biselli –
Artikel lesen

Wikileaks: Biden denkt über Ende der Strafverfolgung von Assange nach

Die Auslieferung von Julian Assange an die USA scheint möglicherweise doch noch abwendbar. Die Andeutungen des US-Präsidenten geben Anlass zur Hoffnung für den kranken und inhaftierten Wikileaks-Aktivisten. Von Markus Reuter –
Artikel lesen

Netzsperre für Wissenschaft: Größte deutsche Provider blockieren Sci-Hub

Millionen wissenschaftliche Aufsätze sind auf Sci-Hub ohne Bezahlschranke verfügbar. Der Verlagsbranche ist die Seite deshalb ein Dorn im Auge. Die „Clearingstelle Urheberrecht im Internet“ hat jüngst eine Netzsperre empfohlen. Fachleute warnen vor Overblocking. Von Sebastian Meineck –
Artikel lesen

Zwischenbericht zu Doppelausbau: Marktmacht der Telekom spielt eine Rolle

Ein Zwischenbericht der Bundesnetzagentur soll Klarheit darüber schaffen, ob die Telekom Deutschland ihre Marktmacht missbraucht und strategisch die Glasfasernetze ihrer Konkurrenz überbaut. Eine belastbare wettbewerbliche Bewertung liefert die Bestandsaufnahme aber ausdrücklich nicht. Von Tomas Rudl –
Artikel lesen

Auch AfD stimmt dafür: Bundestag beschließt Bezahlkartengesetz

Der Bundestag hat dem Gesetz zu Bezahlkarten zugestimmt. Sowohl die Regelungen als auch die Karten für Asylsuchende selbst wurden im Vorfeld viel kritisiert. Denn sie machen es denen noch schwerer, die sowieso schon wenig haben. Von Anna Biselli –
Artikel lesen

Internes Protokoll: EU-Staaten drehen sich bei Chatkontrolle im Kreis

Die EU-Staaten haben „diametral gegensätzliche Positionen“ bei der Chatkontrolle, eine Einigung ist weiterhin nicht in Sicht. Das geht aus internen Verhandlungs-Dokumenten hervor, die wir veröffentlichen. Die Bundesregierung will ihre Position aktualisieren, aber auch diese Verhandlungen ziehen sich. Von Andre Meister –
Artikel lesen

Selbstbestimmungsgesetz beschlossen: Das Ende des Wartens

Das Selbstbestimmungsgesetz soll es für trans, inter und nicht-binäre Menschen einfacher machen, Namen und Geschlechtseintrag zu ändern. Die Ampel löst damit ein Versprechen ein. Und doch steckt der Text voller Misstrauen und Angst. Von Chris Köver –
Artikel lesen


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

12.04.2024 16:47

Das Selbstbestimmungsgesetz soll es für trans, inter und nicht-binäre Menschen einfacher machen, Namen und Geschlechtseintrag zu ändern. Die Ampel löst damit ein Versprechen ein. Und doch steckt der Text voller Misstrauen und Angst.

Blau-rosa-weiße Trans-Flagge vor dem Bundestag
Demonstrant:innen versammeln sich vor dem Reichstagsgebäude, während drinnen über das Selbstbestimmungsgesetz abgestimmt wird. – Alle Rechte vorbehalten IMAGO

Am Ende wird es doch noch laut. Und auch keiner der schrillen Begriffe in dieser Debatte durfte fehlen, von „Trans-Hype“ über „Kindeswohlgefährdung“. Dass niemand niedergeschrien wurde oder mit falscher Ansprache beleidigt, es ist schon ein Erfolg.

Freitagnachmittag im Plenum des Bundestags, das Selbstbestimmungsgesetz wird debattiert. Über Monate hatte das Gesetz im Familienausschuss gehangen, einige glaubten schon nicht mehr, dass es nochmal zur Abstimmung kommen würde. Es geht darin um die Änderung von Vornamen und Geschlechtseintrag im Personenstandsregister – eine Formalität, würde man meinen. Doch weil es auch um Fragen der Identität geht, um Definitionshoheit und Geschlechterkampf, ist die Aufregung greifbar. Die CDU spricht von „gesellschaftlichem Sprengstoff“ und „Wasser auf die Mühlen derjenigen, die unseren gesellschaftlichen Diskurs vergiften wollen“. Und Sahra Wagenknecht warnt vor Männern, die nun im Frauenhaus einfallen könnten.

Verhindern können sie das Ergebnis nicht: Das Gesetz wird verabschiedet. In einer namentlichen Abstimmung haben die Ampelfraktionen und die Linke für das Gesetz gestimmt, lediglich bei der FDP kam es zu Gegenstimmen und Enthaltungen. Gegen das Gesetz stimmten die Union, die AfD und die Gruppe des BSW um Wagenknecht.

Unzumutbare Bedingungen unter dem Transsexuellengesetz

Zunächst hatte aber die Grünen-Abgeordnete Nyke Slawik das Wort. Sie berichtet, wie sie selbst vor zehn Jahren nach dem Transsexuellengesetz (TSG) ihr Geschlecht angepasst hat. Zwei psychiatrische Gutachten brauchte sie dazu, die 2.000 Euro dafür hätte sie lieber in einen Führerschein investiert. „Mit dem heutigen Gesetz machen wir einen ersten großen Schritt in eine selbstbestimmtere Gesellschaft“, sagt Slawik.

Auch die SPD-Abgeordnete Anke Hennig freut sich: „Ein Stück Geschichte“ werde heute geschrieben. Nach über vier Jahrzehnten würden das TSG und seine unwürdigen Praktiken abgeschafft. Gerade Kinder und Jugendliche hätten ein Recht darauf, sich frei zu entfalten, dazu gehöre auch die geschlechtliche Identität.

Das Transsexuellengesetz galt seit 1981 und hat die Änderung des Geschlechtseintrags von teils unzumutbaren Bedingungen wie Sterilisation und Scheidung abhängig gemacht. Das Bundesverfassungsgericht hat die Regelungen mehrmals für verfassungswidrig erklärt. Die Ampelregierung hatte schon im Koalitionsvertrag versprochen, all das zu beenden. Das Selbstbestimmungsgesetz soll nun den Betroffenen die Entscheidung überlassen, welchen Namen und Geschlechtseintrag sie führen – ohne vorherige psychiatrische Begutachtung.

Sorge, dass Kriminelle per Standesamt abtauchen

Doch nicht alle im Plenum sehen das als Fortschritt. Die Union sorgt sich um den gesellschaftlichen Frieden. Die Abgeordnete Susanne Hierl etwa kritisiert Sicherheitslücken: Kriminelle würden das Gesetz nun ausnützen, um unter neuer Identität unterzutauchen und Deutschland zu verlassen.

Im Kabinettsentwurf war auf Drängen des Bundesinnenministeriums noch eine Regelung eingefügt worden, die Standesämter verpflichtet hätte, jede Änderung von Namen und Geschlechtseintrag automatisch an eine Liste von Sicherheitsbehörden zu melden – von Bundeskriminalamt bis zum Verfassungsschutz. Diese Klausel hatte der Familienausschuss wieder gestrichen, will die Pflicht nun aber womöglich Ende des Jahres im Namensänderungsrecht noch etablieren. Dann würde sie auch für andere Formen der Namensänderung gelten, sodass die „Ordnungsinteressen“ des Staates gewahrt bleiben.

Keine Datenweitergabe an den gesamten Sicherheitsapparat

„Jede Sorge ernst genommen“

Auch die Sorge um die Kinder treibt die Union vermeintlich weiter um. Das Gesetz würde nicht verhindern, dass Jugendliche einen Weg einschlagen, der sich später als falsch herausstellt, sagt CDU-Abgeordnete Wulf.

Das klingt, als sei hier etwas Unwiderrufliches im Spiel. Das Gesetz hat allerdings gar nichts mit operativen Maßnahmen zu tun, es ebnet auch nicht den Weg dahin. Es geht lediglich um den Eintrag des Geschlechts im Personenstandsregister, ein Verwaltungsakt auf dem Standesamt. Jugendliche ab dem Alter von 14 Jahren können selbst eine Änderung beantragen, wenn ihre Eltern zustimmen. Für Minderjährige unter 14 Jahren können die Eltern das tun. Bei Streit entscheidet ein Gericht. Die Union hatte eine Beratungspflicht gefordert und diese Dank der FDP nun auch bekommen.

Deren Abgeordnete Katrin Helling-Plahr berichtet stolz im Bundestag, die Liberalen hätten die Beratungspflicht ebenso ins Gesetz gebracht wie auch die Klarstellung, dass das Hausrecht gelte. „In diesem Gesetz ist kein Detail unbedacht und jede Sorge ernst genommen.“

Die Debatten um das Hausrecht und eine vermeintliche Bedrohung in Frauensaunen und Umkleiden hatten im vergangenen Jahr die Debatte geprägt, nachdem Bundesjustizminister Marco Buschmann und Bundesfamilienministerin Lisa Paus den Entwurf für das Gesetz vorgestellt haben. Buschmann hatte daraufhin einen Absatz ins Gesetz schreiben lassen, der nochmal klarstellt, was ohnehin rechtlich klar war: Das Hausrecht gilt auch für Frauensaunen.

Verbände und Fachleute kritisieren diesen Abschnitt ebenso wie eine dreimonatige Wartefrist vor der Änderung als unnötig und diskriminierend. Auch dass eine Änderung des Geschlechtseintrags nur für Personen mit einem Aufenthaltstitel in Deutschland zugänglich sein soll, wurde in der Anhörung zum Gesetz immer wieder kritisiert.

Zustimmung und Kritik

Draußen vor dem Bundestag haben trans Verbände und Aktivist*innen zur Demonstration aufgerufen. Sie wollen den Raum nicht jenen überlassen, die trans Personen wahlweise als psychisch krank oder gefährlich darstellen.

Für viele ist der Tag heute ein Grund zum Feiern, aber man bemüht sich um Ausgewogenheit. „Leider bleiben im Gesetz Einschränkungen für bestimmte Personengruppen bestehen: Kinder und Jugendliche, Menschen in Duldung, Menschen mit kognitiver oder psychischer Beeinträchtigung“, sagt René_ Rain Hornstein, Anmelder*in der Versammlung. „Wir müssen uns jetzt umso mehr für die Rechte der durch das Selbstbestimmungsgesetz benachteiligten Personengruppen einsetzen.“ Der Kampf um Grundrechte für trans Menschen, so scheint es, ist mit dieser Abstimmung noch lange nicht zu Ende.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

12.04.2024 15:44

Die EU-Staaten haben „diametral gegensätzliche Positionen“ bei der Chatkontrolle, eine Einigung ist weiterhin nicht in Sicht. Das geht aus internen Verhandlungs-Dokumenten hervor, die wir veröffentlichen. Die Bundesregierung will ihre Position aktualisieren, aber auch diese Verhandlungen ziehen sich.

Belgische Innenministerin Annelies Verlinden
Belgische Innenministerin Annelies Verlinden beim Rat für Justiz und Inneres. CC-BY 2.0 Belgische EU-Ratspräsidentschaft

Sollen Internetdienste wie Messenger die Inhalte ihrer Nutzer mitlesen, um Straftaten zu suchen und an Behörden auszuleiten? Seit zwei Jahren streiten die EU-Institutionen über diese Chatkontrolle.

Die EU-Kommission fordert eine anlasslose und massenhafte Chatkontrolle und hat eine entsprechende Verordnung vorgeschlagen. Das EU-Parlament kritisiert diese Massenüberwachung und fordert, die Chatkontrolle auf unverschlüsselte Inhalte von Verdächtigen zu beschränken.

Die EU-Staaten sind gespalten. Manche Länder unterstützen den Vorschlag der Kommission, andere eher die Position des Parlaments. Letzte Woche hat der Rat erneut in der Arbeitsgruppe Strafverfolgung verhandelt. Wir veröffentlichen ein weiteres Mal das eingestufte Protokoll der Sitzung und die Verhandlungsposition Deutschlands.

Deutschland fordert wesentliche Änderungen

Die deutsche Bundesregierung ist sich nicht immer einig. Die Ampel-Ministerien haben ein Jahr verhandelt, um eine erste gemeinsame Position zu beschließen.

Demnach lehnt Deutschland einige besonders umstrittene Teile der Chatkontrolle ab, darunter das Scannen verschlüsselter Kommunikation und Client-Side-Scanning. Andere Aspekte verhandelt die Bundesregierung jedoch weiterhin, zum Beispiel das Scannen unverschlüsselter Kommunikation, das Scannen von Cloud-Speichern und nach welchen Inhalten eigentlich gesucht werden soll.

Deshalb arbeiten die Ministerien zur Zeit daran, ihr Positionspapier zu aktualisieren. Dabei will sich die Bundesregierung der Position des EU-Parlaments annähern. Die bezeichnet sie als „gute Grundlage für die weiteren Verhandlungen“.

Gleichzeitig fordert die Bundesregierung, dass die Zahl der gemeldeten Inhalte mit dem neuen Gesetz nicht weniger wird. Aktuell führen einige Tech-Konzerne eine freiwillige Chatkontrolle durch. Das ist eigentlich verboten, Opfer klagen dagegen. Facebook Messenger ist zudem gerade dabei, das Scannen zu beenden und Kommunikation zu verschlüsseln. Die Zahlen werden also drastisch sinken. Daher ist die deutsche Position mindestens irreführend.

Wann die Bundesregierung ihre aktualisierte Verhandlungsposition beschließen will, ist noch nicht bekannt. Nach Informationen aus Regierungskreisen haben sich die Ministerien eigentlich bereits im Dezember geeinigt, aber nur mündlich. Eine schriftliche Version lässt jedoch weiter auf sich warten, wohl weil die Details doch noch nicht geklärt sind.

Diametral gegensätzliche Positionen

Die Verhandlungen der EU-Staaten sind ebenso zäh. Im Dezember ist die damalige spanische Ratspräsidentschaft gescheitert, eine Einigung zu erzielen. Die aktuelle belgische Ratspräsidentschaft hat ein paar neue Formulierungen vorgeschlagen, die die grundsätzlichen Probleme nicht lösen. Daran hat auch die aktuelle Verhandlungsrunde nichts geändert.

Eine grundsätzliche Frage ist, ob Anbieter verschlüsselte Kommunikation scannen sollen, zum Beispiel mit Client-Side-Scanning. Auch dieses mal sprachen sich einige Staaten dafür aus, darunter Irland und Dänemark. Andere Staaten lehnen das ab, darunter Deutschland, Frankreich und Österreich. Eine Einigung ist weiterhin nicht in Sicht.

Spanien bat den Juristischen Dienst des Rats um Hilfe, einen Kompromiss zu finden. Die Juristen lehnen das ab: „Eine Patentlösung, die allen Interessen der MS gerecht werde, liege nicht auf der Hand.“ Stattdessen verwies der Juristische Dienst auf sein Gutachten, laut dem die Chatkontrolle grundrechtswidrig ist und scheitern wird.

Daraufhin kritisierte die Kommission den Juristischen Dienst. Die Rats-Juristen seien „nicht konstruktiv“, ihr Verhalten entspreche weder ihrer Aufgabe noch ihrem Selbstbild. Die Kommission bezeichnet es als „nicht verantwortbar“, interpersonelle Kommunikation von der Chatkontrolle auszunehmen. Die Beamten hoffen, dass der Juristische Dienst „zu einer konstruktiven Arbeitsweise zurückkehrt“ und am „gemeinsamen Ziel“ mitarbeitet.

Spanien fasste erneut zusammen, dass sich „diametral gegensätzliche Positionen“ gegenüberstehen. Um „eine mehrheitsfähige Position zu finden“ müssen sich „alle EU-Staaten bewegen“ und ihre Positionen aufweichen.

Entgegenkommen oder zu weit gehen

Eine weitere grundsätzliche Frage ist, ob Anbieter die Inhalte aller Nutzer anlasslos scannen sollen – also auch die überwiegende Mehrheit, die nicht einmal indirekt mit Straftaten zu tun hat. Das ist eine wesentliche Forderung der EU-Kommission. Das EU-Parlament und der Juristische Dienst des Rats bezeichnen das jedoch als illegal. Die EU-Staaten sind weiterhin gespalten.

Die Ratspräsidentschaft versucht auch in dieser Frage einen Kompromiss. Dienste sollen weiterhin alle Nutzer überwachen, aber nicht mehr alle gefundenen Inhalte sofort an eine EU-Behörde ausleiten, sondern erst ab einer bestimmten Schwelle. Damit sollen „falsch-positive Treffer“ reduziert werden.

Das lehnen die Chatkontrolle-Befürworter jedoch ab. Sechs Staaten bezeichnen den Vorschlag als „nicht nachvollziehbar“, darunter Rumänien, Ungarn und Bulgarien. Sie fordern weiterhin, verdächtige Inhalte sofort auszuleiten, sonst könnten Kriminelle das Verfahren „durch die Nutzung unterschiedlicher Konten“ umgehen.

Auch in anderen Fragen gab es keinen Fortschritt. Die Niederlande forderten, wie jedes mal, nicht nach „unbekannter Kinderpornografie“ und Grooming zu suchen, weil das nicht zuverlässig geht. Frankreich fragte erneut, wie Dienste minderjährige Nutzer feststellen sollen. Die EU-Kommission verwies auf „zahlreiche Tools“ zur Altersverifikation und auf eine Taskforce zur Altersverifikation, an der auch die EU-Staaten teilnehmen.

Einigung weiterhin nicht in Sicht

Bereits am Tag nach der Verhandlung haben wir berichtet:

Die EU-Staaten haben gestern über die Chatkontrolle verhandelt. Sie sind einer Einigung nicht viel näher. Die Positionen der Staaten haben sich nicht groß geändert. Die alten Gräben existieren weiter. Die einen wollen eine möglichst massenhafte und anlasslose Chatkontrolle, die anderen wollen sie möglichst einschränken. Zugeständnisse an die eine Seite vergrätzen möglicherweise die andere Seite.

Das Protokoll bestätigt diese Einschätzung. Die EU-Staaten haben keine einzige der strittigen Fragen gelöst. In den Worten der Ratspräsidentschaft: „Es hat eine umfangreiche Debatte stattgefunden, wobei eindeutige Schlussfolgerungen nicht möglich sind.“ Zu einzelnen Vorschlägen gibt es „widerstreitende Positionen“ beziehungsweise „Unterstützung wie Kritik“.

Die belgische Ratspräsidentschaft macht trotzdem einfach weiter. Am Montag tagt die Arbeitsgruppe erneut.


  • Datum: 18.03.2024
  • Von: BMI, Referat CI 6 – Grundsatz Cyberfähigkeiten der Sicherheitsbehörden
  • Abgestimmt mit: BMJ, BMDV, BMWK, BKAmt, BMFSFJ, BMF, AA
  • Betreff: Sitzung der RAGS am 19. März 2024
  • Hier: TOP 1: Proposal for a Regulation of the European Parliament and of the Council laying down rules to prevent and combat child sexual abuse – Exchange of views on the refined approach suggested by the Presidency (7462/24)

Weisung

1. Ziel des Vorsitzes

Austausch über den weiterentwickelten Vorschlag zur CSAVO.

2. Deutsches Verhandlungsziel/ Weisungstenor

Vortrag DEU Position zum weiterentwickelten Vorschlag zur CSAVO und Bekräftigung der Notwendigkeit eines Ausschlusses von Ende-zu-Ende verschlüsselter Kommunikation vom Anwendungsbereich der CSAVO.

3. Sprechpunkte

Allgemein

Aus Sicht der Bundesregierung sind weiterhin wesentliche Änderungen im CSA-Verordnungsentwurf erforderlich, damit dieser aus deutscher Sicht zustimmungsfähig wird, insbesondere ein umfassender Schutz verschlüsselter Kommunikation.

Auch wenn wir daher die Kompromisse der ESP Präsidentschaft – insbesondere im Hinblick auf die Ausgestaltung von Aufdeckungsanordnungen – nicht mittragen konnten, werden wir uns weiterhin aktiv und konstruktiv in die Verhandlungen der CSAVO einbringen.

Wir sind dabei unsere DEU Stellungnahme nochmals aktualisieren und werden sie dann zirkulieren. Das EP-Mandat, dem wir uns annähern wollen, stellt aus unserer Sicht grundsätzlich eine gute Grundlage für die weiteren Verhandlungen dar. Dabei muss allerdings sichergestellt werden, dass der Status quo an CSAM-Meldungen gehalten werden kann. Eine Vergrößerung des Dunkelfeldes ist zu verhindern: Auch nach einem Inkrafttreten der CSAVO muss CSAM qualitativ und quantitativ in gleichem Umfang wie heute aufgedeckt und gemeldet werden können. Ziel muss weiterhin eine wirksame Bekämpfung von CSA unter Beachtung der Grundrechte der betroffenen Kinder und Jugendlichen sowie aller Nutzerinnen und Nutzer sein.

Da die Prüfungen innerhalb der Bundesregierung insgesamt noch nicht abgeschlossen sind, legen wir weiterhin einen Prüfvorbehalt ein.

Wir bedanken uns bei der BEL Präsidentschaft für die Erstellung und Übermittlung des weiterentwickelten Diskussionspapiers nebst Textvorschlägen. Das Bemühen, die verpflichtenden Aufdeckungsanordnungen zielgerichteter auszugestalten, unterstützen wir.

Ein Rückschritt hinter den Status Quo und eine Vergrößerung des Dunkelfeldes ist aus unserer Sicht grundsätzlich zu verhindern.

Ende-zu-Ende-Verschlüsselung muss durch und trotz CSAVO umfassend geschützt sein; Ende-zu-Ende-verschlüsselte Kommunikation ist vom Anwendungsbereich auszunehmen.

Unser Prüfvorbehalt auch für den neuen Kompromisstext besteht ausdrücklich fort.

Zum (weiterentwickelten) Konzept allgemein

Den Vorschlag, Dienste oder Teilbereiche von Diensten in Kategorien einzuteilen, abhängig davon, wie risikobehaftet der jeweilige Dienst ist, prüfen wir. Aus hiesiger Sicht handelt es sich dabei teilweise um eine Annäherung an die DEU Position.

Aus unserer Sicht kann das vorgeschlagene Konzept zum einen zielgerichtete und dienstspezifische Risikominimierungsmaßnahmen und zum anderen einen besser auf den jeweiligen Dienst zugeschnittenen Umgang des Diensteanbieters mit Restrisiken, die auch nach entsprechenden Risikominimierungsmaßnahmen noch bestehen bleiben, ermöglichen.

Unabhängig davon darf eine etwaige Klassifizierung der verschiedenen Dienste anhand ihres Risikos in Bezug auf die Verbreitung CSAM nicht dazu führen, dass die Eingriffsschwelle für verpflichtende Aufdeckungsanordnungen abgesenkt wird, insbesondere in Bezug auf den Schutz von Verschlüsselung.

Anbietern von Diensten der höchsten Risikokategorie zu ermöglichen, die Koordinierungsbehörde auf die mögliche Notwendigkeit einer Aufdeckungsanordnung hinzuweisen, könnte eine praktikable Lösung darstellen, die Eigeninitiative der Anbieter sowie deren Wunsch nach Rechtssicherheit zu berücksichtigen .

Wir unterstützen die Ergänzung weiterer Safeguards etwa in Gestalt von Erwägungsgrund 9a und Art. 1 (3a) des EP-Mandats.

Wir bitten um Erläuterung, wie die in Phase 1 (Unterpunkt (a) „Users of interest“ based reporting, Seite 6 des Dokuments 7462/24) beschriebene Ermittlung von Personen technisch realisiert werden kann. Unserem Verständnis nach ist für die Ermittlung Client-Side-Scanning-Technologie vorgesehen. Wir bitten um Bestätigung dieses Verständnisses.

Vorsorglich weisen wir nochmal auf unsere bereits bekannte Position hin: Maßnahmen, die zu einem Bruch, einer Schwächung, einer Modifikation oder einer Umgehung von Ende-zu-Ende-verschlüsselter Kommunikation führen, schließen wir aber weiterhin aus. Dies gilt auch für Maßnahmen, die auf dem Endgerät des Nutzers stattfinden (Client-Side-Scanning).

Zu den unterbreiteten Formulierungsvorschlägen im (weiterentwickelten) Konzept (ANNEX I)

Artikel 1

Ergänzung (etwa in Art. 1 (2a): Ende-zu-Ende verschlüsselte Kommunikation ist vom Anwendungsbereich der VO ausgenommen (umfassender Schutz von Verschlüsselung).

Wiederaufnahme des gestrichenen Art. 1 (5) alte Fassung.

Präzisierung von Art. 1 (5) neue Fassung, dass Zugang zu E2E-verschlüsselter Kommunikation auch nicht durch freiwillige Maßnahmen der Diensteanbieter möglich.

Artikel 5

Die Risikoanalyse zunächst durch den jeweiligen Diensteanbieter selbst vornehmen zu lassen, ist aus hiesiger Sicht sinnvoll, da dieser seinen eigenen Dienst am besten kennt und am besten einschätzen kann, in Bezug auf welche (Teil-) Bereiche des Dienstes welche Risiken bestehen.

Wir bitten um Erläuterung, wie sich der Einsatz von E2EE – aber auch von VPNs – auf die Risikobewertung des jeweiligen Dienstes auswirkt.

Die Einführung von einheitlichen Bewertungsstandards mittels Templates um der Koordinierungsbehörde die Einordnung zu erleichtern wird begrüßt.

Anbietern von Diensten der höchsten Risikokategorie zu ermöglichen, die Koordinierungsbehörde auf die mögliche Notwendigkeit einer Aufdeckungsanordnung hinzuweisen, könnte eine praktikable Lösung darstellen: Auf diese Weise wird sowohl die Eigeninitiative der Anbieter, als auch deren Wunsch nach Rechtssicherheit berücksichtigt. Wir bitten JD-Rat insoweit höflich um eine Bewertung des Vorschlags.

Artikel 5a

Dass der Vorschlag abgestufte Maßnahmen in Abhängigkeit von der jeweiligen Risikokategorie vorsieht, wird grundsätzlich begrüßt.

Aus unserer Sicht muss in der VO festgehalten werden, wer überprüft, ob die zusätzlichen Maßnahmen durchgeführt wurden und ob diese zur Risikominimierung beitragen konnten.

Eine erneute Risikobewertung nach Abschluss der zusätzlichen Maßnahmen unterstützen wir daher.

Artikel 7

Die Ausnahme von Diensten mit geringem Risiko aus dem Anwendungsbereich von Aufdeckungsanordnungen nebst regelmäßiger Prüfung der Kategorisierung wird begrüßt.

Die Bemühungen der Präsidentschaft, Aufdeckungsanordnungen zielgerichteter auszugestalten und zu berücksichtigende Aspekte im Hinblick auf die Verhältnismäßigkeit von Aufdeckungsanordnungen festzuschreiben, unterstützen wir.

Dabei stellt das EP-Mandat, dem wir uns annähern wollen, aus unserer Sicht eine gute Grundlage für die weiteren Verhandlungen dar. Dabei muss allerdings sichergestellt werden, dass der Status quo an CSAM-Meldungen gehalten werden kann. Eine Vergrößerung des Dunkelfeldes ist zu verhindern: Auch nach einem Inkrafttreten der CSAVO muss CSAM qualitativ und quantitativ in gleichem Umfang wie heute gemeldet werden können. Ziel muss weiterhin eine wirksame Bekämpfung von CSA unter Beachtung der Grundrechte der betroffenen Kinder und Jugendlichen sowie aller Nutzerinnen und Nutzer sein.

Wir bitten um Erläuterung, wie die Ermittlung von Personen bzw. Personengruppen technisch realisiert werden soll. Unserem Verständnis nach ist für die Ermittlung Client-Side-Scanning-Technologie vorgesehen. Wir bitten um Bestätigung dieses Verständnisses.

Anstelle von Art. 7 (10) schlagen wir eine Klarstellung vor, dass Ende-zu-Ende verschlüsselte Kommunikation nicht Gegenstand einer Aufdeckungsanordnung sein kann.

Vorsorglich weisen wir nochmal auf unsere bereits bekannte Position hin: Maßnahmen, die zu einem Bruch, einer Schwächung, einer Modifikation oder einer Umgehung von Ende-zu-Ende-verschlüsselter Kommunikation führen, schließen wir aber weiterhin aus. Dies gilt auch für Maßnahmen, die auf dem Endgerät des Nutzers stattfinden (Client-Side-Scanning).

Wir treten außerdem dafür ein, Art. 7 (7) zu streichen, und die Erweiterung des Anwendungsbereichs der Aufdeckungsanordnungen auf Grooming von der „review clause“ abhängig zu machen (3 Jahre nach Inkrafttreten der CSAVO).

Aus hiesiger Sicht kann das vorgeschlagene Vorgehen zu einem deutlichen Rückfall hinter den Status Quo in Bezug auf CSAM-Meldungen und eine deutliche Vergrößerung des Dunkelfeldes führen. Wir bitten höflich um nachvollziehbare Einschätzung,

Wir bitten um Aufnahme von einer Korrekturpflicht fälschlicherweise erfolgter Markierungen, sollte ein Inhalt fälschlicherweise als CSAM bzw. Grooming klassifiziert und im Nachgang korrigiert worden sein.

Artikel 10

Wir begrüßen die Bemühungen, Cybersicherheit deutlicher zu thematisieren und unterstützen die Einführung weiterer Anforderungen an die Anbieter in Bezug auf Cybersicherheit, wenn gleich diese auch nichts an unserer bekannten Position (Maßnahmen, die zu einem Bruch, einer Schwächung, einer Modifikation oder einer Umgehung von Ende-zu-Ende-verschlüsselter Kommunikation führen, schließen wir aber weiterhin aus. Dies gilt auch für Maßnahmen, die auf dem Endgerät des Nutzers stattfinden (Client-Side-Scanning) ändern.

4. Hintergrund/Sachstand

Präsidentschaft hat für den März JI-Rat eine Allgemeine Ausrichtung angekündigt. Ende Februar 2024 übermittelte Präsidentschaft ein neues Diskussionspapier, das u.a. eine Konkretisierung der Risikobewertung von Diensten und darauf aufbauend abgestufte Verpflichtungen der Anbieter vorsieht. Die Prüfung des Vorschlags innerhalb der BReg dauert an.

ESP-Vorsitz legte im AStV am 20. Dezember 2023 einen Fortschrittsbericht vor. Darin stellte Vorsitz fest, dass eine Mehrheit für die CSAVO derzeit nicht vorliege. Zuvor waren (mehrfach angekündigte) Übermittlungen konkreter Texte für eine Allgemeine Ausrichtung ausgeblieben. DEU hatte im AStV für eine Verschiebung des TOPs im JI-Rat votiert.

Am 13.04.2023 hat DEU eine erste grundsätzliche Stellungnahme vorgelegt und wesentliche Änderungen gefordert. Die DEU Forderungen wurden allerdings vom Vorsitz nicht aufgegriffen. Am 27.09.2023 wurde ein DEU Onepager zur Forderung nach einer Aufspaltung des CSAVO-Entwurfes in einen wesentlich unstrittigen und einen strittigen Teil an die ESP Präsidentschaft sowie die JI-Referenten in der RAG übermittelt. Eine Veröffentlichung im Delegates Portal durch die ESP Präs. erfolgte erst mit deutlicher Zeitverzögerung am 12.10.2023. Auch diese Forderung wurde bisher vom Vorsitz nicht aufgegriffen.

Der Vorschlag der Kommission für eine Verordnung zur wirksameren Bekämpfung des sexuellen Missbrauchs von Kindern zielt auf die Bekämpfung der Verbreitung von bereits bekannten und neuen Missbrauchsdarstellungen sowie die Verhinderung von Kontaktaufnahmen zu Kindern zu Missbrauchszwecken, sog. „Grooming“ (zusammengefasst: „CSAM“), im digitalen Raum. Der Entwurf verfolgt zwei wesentliche Regelungsbereiche:

1) Abgestufte Verpflichtungen für Anbieter von Online-Diensten: Anbieter sollen zu einem Risikomanagement verpflichtet werden. Wird dabei ein „signifikantes“ Risiko festgestellt, können gezielten Aufdeckungsanordnungen erlassen werden. Erlangen Anbieter Kenntnis von CSAM auf ihren Diensten, muss dieses umgehend an das EU-Zentrum gemeldet werden. Anbieter sollen zur Entfernung einzelner oder mehrerer konkreter Inhalte verpflichtet werden können. Daneben ist die Verpflichtung für App-Stores vorgesehen, Kinder am Herunterladen von Apps zu hindern, die ein hohes Risiko für Grooming darstellen. Internetdiensteanbieter sollen zur Sperrung von URLs verpflichtet werden können.

2) Errichtung eines EU-Zentrums: Gründung dezentraler Agentur mit Sitz in Den Haag und enger Angliederung an Europol. Aufgaben: Verwaltung von Datenbank mit Indikatoren, die bei der Aufdeckung von CSAM verwendet werden müssen; (kostenlose) Zurverfügungstellung von Aufdeckungstechnologien, zentrale Meldestelle, Betroffenenunterstützung. Auf Grundlage der am 14.06.2022 veröffentlichten EuGH-Entscheidung ist die Beteiligung der MS bei Sitzfragen mit KOM neu auszugestalten. Die durch KOM ursprünglich vorgesehene Governance-Struktur wurde im Laufe der Verhandlungen an etablierte Strukturen angeglichen.


  • Geheimhaltungsgrad: Verschlusssache – Nur für den Dienstgebrauch
  • Datum: 04.04.2024
  • Von: Ständige Vertretung der BRD bei der EU
  • An: Auswärtiges Amt
  • Kopie: BMI, BMJ, BMWK, BMDV, BMFSFJ, BMF, BKAmt
  • Betreff: Sitzung der RAGS am 3. April 2024
  • Zweck: Zur Unterrichtung
  • Geschäftszeichen: 350.80

Sitzung der RAGS am 3. April 2024

I. Zusammenfassung und Wertung

Die Sitzung befasste sich ausschließlich mit der Diskussion der CSAVO. Im Schwerpunkt wurden die Artikel 1, 5, 7 und 10 behandelt. Auf Grund des unterschiedlichen Meinungsbildes der MS stellte Vorsitz fest, eindeutige Schlussfolgerungen zu seinen neuen Vorschlägen seien noch nicht möglich. Zahlreiche MS hatten aufgrund der kurzfristigen Übermittlung des Kompromissvorschlags Prüfvorbehalte eingelegt.

Die nächste Sitzung findet am 15. April 2024 statt und soll sich auch mit der CSAVO befassen.

II. Im Einzelnen

TOP 1: Information der Präsidentschaft

Vorsitz kündigte Vorgehen gegen „migrant smuggeling“ und Zusammenarbeit bei der Strafverfolgung als weitere Schwerpunkte der zweiten Hälfte der Präsidentschaft an. Mögliche zusätzliche RAGS Termine seien der 7. und 21. Mai 2024.

Verlängerung des Mandats des stellvertretenden Europol Exekutivdirektors Lecouff sei eingeleitet worden (schriftliches Verfahren).

Hinweis auf Mayor Sports Event Treffen am 11. April 2024 in Brüssel, Informationen lägen den Delegationen bereits vor.

TOP 2: Proposal for a Regulation of the European Parliament and of the Council laying down rules to prevent and combat child sexual abuse

Vorsitz begann mit der Aussprache zur Methodologie. Diese müsse zukunftsoffen sein, daher delegierte Rechtsakte. Gleichzeitig bedürfe es hinreichend konkreter Vorgaben im VO-Text, um grundrechtlich relevante Inhalte angemessen zu adressieren. Auf der Grundlage erster Rückmeldungen der MS habe Vorsitz u.a. Angleichungen an Artikel 33 DSA vorgenommen sowie Zahl der Kategorien reduziert. Ziffer 3 lehne sich an Vorschlag der ESP Präsidentschaft und EP Position an.

DEU trug zu allen Punkten anhand der abgestimmten Weisung vor. Es werden im Folgenden daher die relevanten Wortmeldungen der anderen MS dargestellt.

CZE präferierte Durchführungsrechtsakte an Stelle delegierter Rechtsakte. Vorsitz verwies auf JD-Rat, der delegierte Rechtsakte für angemessen halte. Letztlich hinge es davon ab, was in Artikel 5 Absatz 2a bzw. in den Anhängen geregelt werde. KOM wies daraufhin, dass es bei der Kategorisierung besonders großer Dienste in Ziffer 1 zu Überschneidungen kommen könnte.

NLD legte PV ein; Ansatz weiterer Kategorisierung werde grundsätzlich begrüßt. Allerdings lehne NLD dies für Grooming weiter ab. Hinzukomme, dass sich die Medienlandschaft schnell ändere, Einstufungen könnten künftig ggf. eine kurze Halbwertszeit haben. Vorsitz erläuterte auf DEU Nachfrage, dass Aussagen zur tatsächlichen Nutzung der Dienste durch Kinder weiterer Konkretisierung bedürften. KOM äußerte Bedenken bzgl. Kategorisierung auf Grundlage von Safety-by-Design Maßnahmen. In Angleichung an die Vorgaben des DSA seien folgende drei Kategorien zur Einstufung von Diensten vorzugswürdig: (1) Type of Service, (2) Struktur/Aufbau des Dienstes, (3) Nutzung des Dienstes. HUN legte positiven PV ein. FRA äußerte Skepsis gegenüber der vorgeschlagenen binären Methodik. Erforderlich seien Fragen, die von allen Diensten beantwortet werden können, ja/nein Antworten dürften dem nicht gerecht werden. Eine Kombination von Methoden, d.h. vier hierarchische Ebenen + Stichprobenverfahren, könne dagegen zielführend sein. ESP stimmte FRA Position weitgehend zu. FIN legte PV ein. Das vorgeschlagene Verfahren sei sehr kompliziert, es bestünden Zweifel, ob alle Dienste derartige Auskünftige geben könnten. Eine Kombination von Methoden sei vorzugswürdig.

Vorsitz führte die Debatte zum VO-Text fort. Anpassungen der Präsidentschaft entsprächen mehrheitlich den Kommentaren der MS aus der letzten RAGS. Vorsitz bat Delegationen konkrete Positionen zu den vorgeschlagenen Neuerungen vorzutragen.

Artikel 1: Gegenstand und Anwendungsbereich

FRA – unterstützt durch AUT und DEU – forderte Wiederaufnahme der alten Fassung des Absatz 5. Aus NLD-Sicht seien EG an aktuelle Fassung von Absatz 5 anzupassen.

Auf Nachfrage erläuterte Vorsitz, die Streichung von Absatz 2a, 2b und 4a sei unter ESP-Präsidentschaft auf Bitten mehrerer MS erfolgt. KOM erinnerte daran, dass Inhalte der gestrichenen Absätze in EG verschoben worden seien.

POL legte PV ein. Grundsätzlich seien Änderungen positiv zu bewerten. Insbesondere die Einführung eines Verdachtsmoments sei zu begrüßen. Die neuen KOM-Befugnisse, Rechtsakte zu erlassen (vgl. Artikel 10), seien ebenfalls positiv. Insgesamt bleibe aber Verhältnismäßigkeit zu wahren.

IRL stimmte neuer Fassung von Absatz 5 zu, die alte Fassung werde dagegen weiterhin abgelehnt. CZE legte PV ein und hielt an der Streichung von Absätzen 2a und 2b ausdrücklich fest. LUX legte PV ein. Auch HUN legte PV ein und sagte Vorsitz konstruktive Arbeit bei der Kompromissfindung zu. DNK trug Absatz 5 grundsätzlich mit.

ESP wiederholte Unterstützung für das Dossier. Ziel müsse sein, eine rechtlich sichere und politisch akzeptable Lösung zu finden. Dazu könne ggf. auch JD-Rat mit seiner Expertise beitragen. CYP und CZE unterstützten diesen Vortrag. Vorsitz stellte klar, dass es Aufgabe der RAGS sei, politisch tragbare Lösungen zu finden.

JD-Rat betonte seine beratende Funktion. Eine Patentlösung, die allen Interessen der MS gerecht werde, liege nicht auf der Hand. Im Übrigen verwies JD-Rat auf seine Stellungnahme.

KOM stellte fest, dass sich JD-Rat bei den Verhandlungen des Dossiers in den vergangen zwei Jahren nicht konstruktiv gezeigt habe. Dies Verhalten entspreche weder der Aufgabe noch dem Selbstbild von JD-Rat. Ein Ausschluss von interpersoneller Kommunikation aus dem Anwendungsbereich sei nicht verantwortbar. Es bestehe daher die Hoffnung, dass JD-Rat künftig zu einer konstruktiven Arbeitsweise zurückkehren und an dem gemeinsamen Ziel einer politisch tragfähigen Lösung zum Schutz von Kindern und Jugendlichen mitarbeiten werde.

ESP stellte klar, dass nicht notwendigerweise eine neue Stellungnahme von JD-Rat, sondern vielmehr Hilfestellung erbeten werde. Es seien viele Fortschritte erzielt worden, RAGS sei in der Verantwortung eine politische Lösung zu finden. Allerdings stünden sich in der RAGS diametral gegensätzliche Positionen gegenüber. Es gelte eine mehrheitsfähige Position zu finden, bei der sich alle MS bewegen müssten.

Artikel 3: Risikobewertung

Vorsitz schlussfolgerte grundsätzliche Zustimmung zu den vorgeschlagenen Änderungen.

Artikel 5: Risikoberichte und -kategorisierung / EG 18b

FRA regte Ergänzung an, wonach Anbieter selber Neu-Kategorisierung seines Dienstes beantragen können soll. Vorsitz erläuterte, dass die Möglichkeit des Flaggens eigener Risiken gem. Absatz 1 Unterabsatz 2 unabhängig von der Risikokategorisierung bestehe. Die Koordinierungsbehörde könne in Folge eines solchen Hinweises auch eine Neu-Kategorisierung vornehmen. Mit Blick auf Artikel 5b bestehe ggf. eine Missbrauchsgefahr, dieses Risiko sei weiter auszuloten.

LVA legte PV ein. Offen bleibe, in welchem Verhältnis Risikokategorisierung zu Artikel 5b stehen. Zu Artikel 3 reichte LVA die Frage nach, wie sich Zeitpläne zum Erlass von Aufdeckungsanordnungen zur jährlichen Risikobewertung verhalte. Vorsitz erläuterte, Risikobewertung unterliege einer Frist, könne aber auch früher durchgeführt/wiederholt werden.

Auf DEU Nachfrage erläuterte Vorsitz, dass Kategorisierung der Dienste nicht öffentlich werde. Es handele sich um interne Informationen der Koordinierungsbehörden (vgl. EG 18b).

Artikel 5a/5b

LVA wiederholte, dass es im Zusammenhang mit Artikel 5b auch begrifflicher Abgrenzung zur Risikokategorisierung bedürfe. Vorsitz stellte grundsätzliche Zustimmung zu den Änderungen fest.

Artikel 7: Erlass von Aufdeckungsanordnungen / EG 22a/ EG 23a

NLD erinnerte an verfassungsrechtliche Bedenken hinsichtlich Vorgaben zur anordnenden Behörde. Im Übrigen würden zusätzliche Anforderungen, insbesondere Konkretisierung auf Dienste mit hohem Risiko, begrüßt. Bezüglich der Zielgerichtetheit von Anordnungen bestünden weiter Zweifel. Neues CSAM und Grooming sollten aus Anwendungsbereich gestrichen werden. Kürzere Anordnungsdauer könnte zur Verhältnismäßigkeit beitragen.

FRA kritisierte die Streichung der Verwaltungsbehörde als mögliche Anordnungsbehörde. Unabhängige Verwaltungsbehörden seien in FRA Justizbehörden grundsätzlich gleichgestellt, Schaffung eines Präzedenzfalls sei zu verhindern. Wahl, welche Behörde eine Anordnung erlässt, sollte MS überlassen bleiben. Bzgl. der Begrenzung der Aufdeckungen von Grooming auf Kommunikation, bei der einer der beiden Teilnehmer ein Kind ist, stelle sich die Frage, wie dies festgestellt werden könne. Im Zusammenhang mit Absatz 10 bestünden Zweifel an Berechnungsmethoden, dazu werde Austausch auf Expertenebene angeregt.

BEL erläuterte, die Addition von Treffern sei Ausgangspunkt zur Reduzierung von Fehlerquote.

KOM erläuterte zur Altersverifikation stünden zahlreiche Tools zur Verfügung. Verweis u.a. auf „Taskforce zur Altersverifikation“ an der MS teilnähmen. Zusage eines Austausches mit FRA Experten.

SWE legte PV für gesamten Vorschlag ein. Auch SWE sprach sich für Wiederaufnahme unabhängiger Verwaltungsbehörde in Absatz 1 aus. Die Reduzierung der Fehlerquote gem. Absatz 10 werde grundsätzlich begrüßt, es bedürfe allerdings Abwägung zwischen Verbrechensbekämpfung und Reduzierung der Fehlerquote. Die Anhebung der Schwelle, insbes. für bekanntes Material, dürfte materielle Konsequenzen haben.

Vorsitz erinnerte an Ziel, falsch-positive Treffer zu reduzieren.

In Absatz 4 lit. ca regte IRL an, auf „intrusiveness“ abzustellen. Im Übrigen dankte IRL für Änderungen und legte PV zu dem zusätzlichen Kriterium der „users of interest“ in Absatz 10 ein. IRL verstehe, dass Vorsitz anderen MS entgegenkommen wolle. Allerdings sei es fragwürdig, einen CSAM-„Hit“ zu ignorieren. In Fällen, in denen es ggf. nur einen Treffer gebe, würden Täter dann nicht verfolgt werden können. Dies sei für IRL – unterstützt durch CYP, BGR, ROM, LVA und HUN – nicht nachvollziehbar. Technologien mit minimaler Fehlerrate gebe es bereits seit mehreren Jahren.

Aus CYP-Sicht sollte bereits ein „Hit“ genügen, um ein Verdachtsmoment auszulösen. Absatz 10 ermögliche Tätern u.a. durch die Nutzung unterschiedlicher Konten, das „Hit-Verfahren“ zu umgehen. Tätern dürften keine Schlupflöcher gegeben werden.

AUT dankte für Bestrebungen zielgerichteter Ausgestaltung. AUT grundsätzliche Bedenken bestünden allerdings weiterhin fort, man beziehe sich dabei auch auf JD-Rat.

SVN legte PV ein und wiederholte Wunsch nach zielgerichteten Anordnungen. Es bedürfe Konkretisierung dessen, was ein „Hit“ im Sinne von Absatz 10 darstelle.

Vorsitz sagte auf Nachfrage zu, den relevanten Zeitraum für die Addition von „Hits“ in einem EG zu konkretisieren.

CZE begrüßte Absatz 10 unter der Bedingung, dass für bekanntes CSAM ein „Hit“, für unbekanntes CSAM zwei und für Grooming drei „Hits“ vorgesehen werden. HUN und LVA unterstützten diesen Vorschlag.

Für IRL und LVA wäre es leichter Absatz 10 zu unterstützen, wenn – angesichts technologischen Fortschritts – künftig eine Änderung der Schwelle möglich sei.

DNK legte PV ein.

Vorsitz stellte unterschiedliche Positionen zu Artikel 7 – insbesondere Absatz 10 – fest.

Artikel 10: Technologien und Schutzvorkehrungen / EG 26/EG 26a

Zu Absatz 1 widersprach FRA neuer KOM-Kompetenz, Technologien zu zertifizieren. FRA setze sich vielmehr für eine starke Rolle des Technologieausschusses ein. Im Rahmen weisungsgemäßen Vortrags unterstützte DEU Stärkung des Technologieausschusses.

KOM reagierte, MS hätten ausschließlichen Einsatz validierter Technologien gefordert. Eine solche Aufgabe könne rechtlich nicht an Agenturen übertragen, sondern müsse durch MS oder KOM durchgeführt werden. MS wären eng in die Umsetzung involviert.

Vorsitz bat DEU um Vorschläge, inwieweit identifizierte Cybersecurity-Risiken bei künftigen Anordnungen Berücksichtigung finden könnten. Die Definition von E2EE sei auf Wunsch mehrerer MS aufgenommen worden, diese MS seien eingeladen ggf. Ergänzungen zu übermitteln.

Artikel 43/47a/50/53a/85

FRA begrüßte die Stärkung des Technologieausschusses in Artikel 50.

Vorsitz schlussfolgerte, dass eine umfangreiche Debatte stattgefunden habe, wobei eindeutige Schlussfolgerungen nicht möglich seien. Zu Artikel 1 habe umfassende Aussprache stattgefunden, hier zeigten sich die widerstreitenden Positionen im Rat. Zu Artikel 7 – insbes. Absatz 10 – habe es Unterstützung wie Kritik gegeben, CZE habe einen Kompromissvorschlag gemacht. Zu Artikel 10 habe es nur wenige Kommentare gegeben, die beratende Funktion des Technologieausschusses könnte im Rahmen weiterer Textarbeit gestärkt werden.

Nächste Schritte: Artikel 5 Absatz 2a werde durch Vorsitz ergänzt. Vorsitz werde Schlüsselkriterien festhalten und auch die Anhänge anpassen. Vorsitz bat um schriftliche Kommentare der MS bis Freitag, 5. April 2024. Nächste Sitzung finde am 15. April 2024 statt, dort werde auch die CSAVO weiter behandelt.

Vorsitz kündigte an, für den Zuständigkeitsbereich der RAGS ggf. weitere RAG- oder JI-Referentensitzungen anzuberaumen. Auf Nachfrage von FIN und FRA gab Vorsitz an, hierfür noch keine Planungen für evtl. Termine oder Themen mitteilen zu können. Dafür sei es noch zu früh, da dies von verschiedenen Faktoren abhänge.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

12.04.2024 11:51

Der Bundestag hat dem Gesetz zu Bezahlkarten zugestimmt. Sowohl die Regelungen als auch die Karten für Asylsuchende selbst wurden im Vorfeld viel kritisiert. Denn sie machen es denen noch schwerer, die sowieso schon wenig haben.

Markus Söder hält eine Bezahlkarte in die Kamera
Markus Söder darf sie präsentieren, aber nutzen muss er sie nicht: die Bezahlkarte in Bayern. – Alle Rechte vorbehalten IMAGO / Bihlmayerfotografie

Der Bundestag hat am heutigen Freitag über das Gesetz zu Datenübermittlungsvorschriften im Ausländer- und Sozialrecht abgestimmt. Obwohl es in dem Vorhaben ursprünglich vor allem über Ausweitungen des Ausländerzentralregisters ging, drehte sich die morgendliche Bundestagsdebatte mehrheitlich um Bezahlkarten. Denn der Innenausschuss des Bundestags hat den Gesetzentwurf in seiner Beschlussempfehlung erweitert und zusätzlich Änderungen des Asylbewerberleistungsgesetzes vorgeschlagen. Die sollen bundesweit den Einsatz von Bezahlkarten für Asylsuchende ermöglichen.

Dem Gesetz und der Beschlussempfehlung zugestimmt haben die Bundestagsfraktionen der Ampel – mit einer Ausnahme bei den Grünen – sowie die AfD und die Gruppe des BSW. Dagegen gestimmt haben die Unionsfraktion, die einen eigenen Vorschlag vorgelegt hatte, und die Gruppe der Linken.

Bezahlkarten gab es schon vor dem Gesetz

Dass die Bezahlkarte kommt, war schon vor der Abstimmung klar. Ihre Einführung war lange vor dem Gesetz beschlossen, die Frist für die gemeinsame Ausschreibung von 14 Bundesländern ist bereits verstrichen. In Bayern sowie einzelnen Kommunen und Kreisen sind die Karten bereits im Einsatz. Ob es überhaupt ein solches Gesetz braucht, war also lange umstritten, vor allem die Grünen zweifelten das an. Nun ist es dennoch da.

Die Änderungen im Asylbewerberleistungsgesetz nennen die Bezahlkarte jetzt als weitere Möglichkeit neben Geld- und Sachleistungen, um den Bedarf Asylsuchender zu decken. Zuletzt hatten sich die Regierungsfraktionen noch darauf geeinigt, explizit in den Entwurf zu schreiben: Bedarfe, die nicht durch Bezahlkarten gedeckt werden können, müssen trotzdem als Geldleistungen erbracht werden. Damit wollen sie offenbar Bedenken begegnen, dass mit einer Bezahlkarte nicht sicher das Existenzminimum der Betroffenen gedeckt werden kann, wenn etwa Bargeldabhebungen und Überweisungen eingeschränkt sind.

Viel Spielraum für die Bundesländer

Denn zum einen lässt sich nicht alles in Deutschland direkt vor Ort mit Karte bezahlen – sei es das Eis für die Kinder an der Theke oder eine Anwaltsrechnung. Zum anderen können Asylsuchende mit einer eingeschränkten Bezahlkarte nicht frei bestimmen, wie sie ihr Geld einsetzen. Und viele Länder und Kommunen wollen Einschränkungen implementieren – laut dem Gesetz steht ihnen das auch frei. Von einem Abhebelimit von 50 Euro im Monat bis hin zum Ausschluss bestimmter Händlergruppen geistern viele Forderungen durch die Debatte.

Einschränkungen bedrohen das Existenzminimum

Für die Betroffenen werden diese Einschränkungen schnell zum Problem: Ein günstiges Fahrrad auf dem Flohmarkt wird unerreichbar, wenn es sich nicht bar bezahlen lässt. Die Asylsuchenden müssten dann womöglich eine teurere Option wählen – oder ganz verzichten, weil ihnen sowieso sehr wenig Geld zur Verfügung steht.

Kritik zur Bezahlkarte gab es im Vorfeld von zahlreichen Fachleuten, etwa in der Bundestagsanhörung am vergangenen Montag. Neben den deutlichen Einschränkungen für die Nutzer:innen der Karte zweifeln Migrationsexpert:innen an, ob ein proklamiertes Ziel der Karten überhaupt erreicht werden kann: Die Karten sollen Asylsuchende abschrecken, nach Deutschland zu kommen. So bezeichneten etwa FPD-Politiker die Sozialleistungen hierzulande als Pull-Faktor – also als Anreiz, nach Deutschland zu fliehen.

Eine Idee aus den 90ern

Die Theorie der einfachen Pull-Faktoren gilt jedoch seit langem als überholt. Dass die Höhe oder Art solcher Leistungen maßgeblich relevant für eine Fluchtentscheidung ist, lässt sich nicht belegen. Wesentlich maßgeblicher sind hingegen Kriegs- und Krisensituationen in den Herkunftsländern der Schutzsuchenden. Rechtsstaatlichkeit und Meinungsfreiheit sind für viele relevanter als die Höhe der Sozialleistungen.

Worum es im Gesetz ursprünglich ging

Im ursprünglichen Kern des Gesetzes zu Datenübermittlungsvorschriften im Ausländer- und Sozialrecht ging es etwa um die Ausweitung des Ausländerzentralregisters um Sozialdaten und neue Behörden, die automatisiert Daten aus einem der größten Datenbestände des Landes abrufen können sollen. Daran änderte sich im Vergleich zum Entwurfsstand Anfang des Jahres nicht viel.

Jedoch gab es eine Nachbesserung bei der viel kritisierten Volltextspeicherung von Asylbescheiden und Gerichtsurteilen. Die wird nunmehr begrenzt, zumindest bei positiven Entscheidungen. Da reiche ein Grundtenor aus.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.