legal contact rss
 

netzpolitik.org

22.05.2025 17:51

Eine neue Studie der Antidiskriminierungsstelle des Bundes fasst erstmals zusammen, auf wie vielen Ebenen Diskriminierung durch die Polizei geschehen kann – auch unter den Beamt:innen selbst. Ein Katalog an Forderungen soll das ändern.

Schild bei einem Protest mit der Aufschrift: "Wo wart ihr in Hanau?"
Bei einem Protest anlässlich des Jahrestages von Hanau wird auf die Rolle der Polizei verwiesen. – Alle Rechte vorbehalten IMAGO / aal.photo

Die Antidiskriminierungsstelle des Bundes hat eine Studie „Polizei und Diskriminierung“ veröffentlicht. Darin werden sowohl Diskriminierung durch die Polizei als auch Diskriminierung innerhalb der Polizei untersucht. Ein Ergebnis der Studie ist, dass Diskriminierung in nahezu allen Bereichen des polizeilichen Handelns auftreten kann, es aber Schwerpunkte und Gruppen gibt, die stärker betroffen sind.

Eine der größten Problemfelder sind Polizeikontrollen, wo laut der Studie (PDF) bestimmte Gruppen zum Beispiel durch Racial Profiling, also anhand rassistischer Auswahlkriterien, dem sogenannten Overpolicing ausgesetzt sind. Das heißt, dass sie stärker in den Fokus polizeilicher Maßnahmen geraten als andere. Hierzu zählt die Studie insbesondere junge, männliche Personen mit Migrationshintergrund, aber auch generell Muslim:innen und People of Color. Auch Menschen mit zugeschriebenem niedrigen „sozialen Status“ gerieten öfter in den Fokus; Auswahlkriterium sei hier oftmals die Kleidung.

Die Diskriminierung könne sich zudem nicht nur in der Auswahl der kontrollierten Personen, sondern auch in der Intensität der Kontrollen und im Umgang mit den kontrollierten Personen zeigen.

Neben dem Overpolicing gibt es auch das Phänomen der Underprotection, worunter verstanden wird, dass Personen oder Gruppen mit bestimmten Diskriminierungsmerkmalen weniger geschützt werden als andere. Hier spielen laut der Studie „Alter, Milieuzugehörigkeit und rassistische Zuschreibungen eine Rolle“.

Unzureichende Hilfe

Auch bei der Aufnahme von Strafanzeigen kommt es zu Diskriminierung. „Bei der Anzeigenerstattung können Bürger*innen aufgrund ihres sozialen Status, ihrer Herkunft, ihres Geschlechts, ihrer sexuellen Orientierung, einer Behinderung oder ihrer Lese- und Schreibkompetenz diskriminiert werden“, stellt die Studie fest. „Frauen, insbesondere solche mit Migrationshintergrund oder in prekären Situationen wie Sexarbeiter*innen, wird von der Polizei häufig misstraut“. Sie erfahren laut der Studie mitunter Victim Blaming – so nennt man es, wenn Betroffenen die Verantwortung für etwas zugeschoben wird, das ihnen angetan wurde. Außerdem werde ihnen von der Polizei unzureichend geholfen.

Bei polizeilichen Ermittlungen gibt es durch Diskriminierungen oftmals eine Täter-Opfer-Umkehr. Hier verweist die Studie unter anderem auf den Anschlag von Hanau oder die NSU-Ermittlungen, wo lange von „Dönermorden“ die Rede war und die Ermittlungen in die falsche Richtung liefen, anstatt rassistische, neonazistische Strukturen in den Fokus zu nehmen.

Stereotype und Stigmatisierung

Diskriminierungsrisiken sieht die Studie auch beim Umgang der Polizei mit Protesten: „Gefahrenprognosen können aufgrund stereotyper Annahmen je nach Protestgruppe unterschiedlich ausfallen, was zu selektiven Festnahmen oder übermäßiger Gewaltanwendung führen kann. Meist basiert die Unterscheidung auf der (zugeschriebenen) politischen Ausrichtung der Gruppen.“

Auch polizeiliche Datenbanken und sogenannte Künstlicher Intelligenz geben Anlass zu Sorge. Die Nutzung von Datenbanken bergen der Studie zufolge Risiken der Diskriminierung – insbesondere durch die Überrepräsentation bestimmter Gruppen und stereotypisierende Markierungen. Zudem könnten diskriminierende Muster reproduziert und verstärkt werden. Als ein Beispiel nennt die Studie die „antiziganistische Diskriminierung, bei der Sinti*zze und Rom*nja in Datenbanken und Lagebildern mit bestimmten Kriminalitätsformen in Verbindung gebracht werden.“

Bei der Kriminalprävention sieht die Studie wiederum Risiken der Underprotection, beispielsweise für Menschen mit Migrationshintergrund. Gleichzeitig kann es bei der Präventionsarbeit der Polizei zu Stigmatisierung von Gruppen kommen, die in dieser Arbeit gegenüber den Bürger:innen als potentielle Täter:innen beschrieben werden.

Diskriminierung auch innerhalb der Polizei

Auch innerhalb der Polizei gibt es Diskriminierung. Hier nennt die Studie vor allem Frauen, trans* Personen und Menschen mit Migrationshintergrund als Betroffene. Recht gut erforscht seien Ausschlussmechanismen gegenüber Frauen, die schlechtere Beförderungschancen hätten und teilweise sexuelle Belästigung erfahren würden. Diskriminierungen stellt die Studie aber auch gegenüber homosexuellen Beamten:innen, gegenüber Älteren und chronisch Kranken, sowie gegenüber als politisch links wahrgenommenen Kolleg:innen fest.

Auch bei Pressearbeit und in den sozialen Medien seien Diskriminierungen zu beobachten. Die Polizei sei oft keine neutrale Beobachterin, sondern Akteurin, was die Perspektive beeinflusse. „In dynamischen Situationen wie bei Protesten können schnelle, ungenaue Meldungen zu Falschdarstellungen und Stigmatisierungen führen. Eine emotionale Aufladung von Inhalten in sozialen Medien kann zudem Ängste schüren und Stereotype verstärken“, heißt es weiter.

Als Problem wird auch die sogenannte Cop Culture genannt, deren informelle Wertvorstellungen zur institutionellen Diskriminierung beitragen würden.

Weniger strenge Regeln für den Staat

Grundsätzlich seien Diskriminierungen durch das Allgemeine Gleichbehandlungsgesetz (AGG) verboten. „Staatliches Handeln von Behörden und Hoheitsträger*innen, wie etwa Handlungen der Polizei gegenüber Bürger*innen, fällt allerdings nicht in den Anwendungsbereich des AGG“, stellt die Studie fest. Damit gelten für den Staat weniger strenge Vorgaben als für diskriminierendes Handeln von Staatsbürger*innen untereinander, kritisiert die Studie. Lediglich im Land Berlin gäbe es ein Landesantidiskriminierungsgesetz (LADG), auf dass sich Bürger:innen auch gegenüber dem Staat berufen könnten.

Die Studie empfiehlt zudem, dass die Polizei internationale Entscheidungen, insbesondere des Europäischen Gerichtshofs für Menschenrechte (EGMR) und der UN-Menschenrechtsausschüsse stärker berücksichtigen solle.

Das empfiehlt die Studie

In den Empfehlungen der Kurzfassung der Studie (PDF) heißt es, dass es sich bei der polizeilichen Diskriminierung um ein komplexes Problem handele, das kontinuierliche Aufmerksamkeit und konkrete Maßnahmen erfordere.

Daraus ergibt sich ein umfangreicher Empfehlungskatalog, den wir hier in Gänze zitieren:

  • Umfassende Reformen organisationaler Strukturen und Prozesse in der Polizei zur Prävention diskriminierender Praktiken, zum Beispiel Anpassung von Dienstvorschriften und Einsatzplanung, die Festlegung von Erfassungskategorien polizeilicher Datenbanken und Vorgangsbearbeitungssysteme oder von Standards für die Kommunikation mit Menschen, die sich an die Polizei wenden.
  • Regelmäßige Schulungen und Sensibilisierungsmaßnahmen für Polizist*innen unter Berücksichtigung der Erkenntnisse aus der Antidiskriminierungsforschung, um Vorurteile zu erkennen und abzubauen.
  • Implementierung von Kontroll- und Bewertungssystemen zur kontinuierlichen Überprüfung polizeilichen Handelns. Eine Umsetzung kann durch unabhängige Kontrollinstanzen erfolgen.
  • Opfer von Diskriminierung sollten mehr Beschwerdemöglichkeiten bekommen und besser unterstützt werden.
  • Unabhängige Polizeibeschwerde- und Ombudsstellen sollten mit ausreichenden Ermittlungskompetenzen und Ressourcen ausgestattet werden.
  • Ausbau der Kooperation zwischen Polizei und zivilgesellschaftlichen Organisationen.
  • Intensivierung der Forschung zu institutionellen und strukturellen Formen der Diskriminierung in der Polizei, Schließung der bestehenden Forschungslücken und stärkere Berücksichtigung intersektionaler Perspektiven in Forschung und Praxis.
  • Überarbeitung diskriminierend wirkender gesetzlicher Regelungen: Auch Reformen des gesetzlichen Rahmens, etwa in Bezug auf anlassunabhängige Personenkontrollen, den Einsatz von Bodycams oder von Predictive Policing, können helfen, Diskriminierung vorzubeugen.

Es ist fraglich, inwiefern solche Empfehlungen beispielsweise bei der schwarz-roten Regierung verfangen. So hatte sich etwa die CDU im Jahr 2020 vor dem Hintergrund der Debatte um Rassismus bei der Polizei dagegen ausgesprochen, „Misstrauen“ gegen Beamt:innen zu schüren; stattdessen brauche es Vertrauen. Hinzu kommen Berichte über mangelnde Fehlerkultur bei der Polizei.

Bei der Vorstellung der Studie zu Polizei und Diskriminierung sagte Ferda Ataman, Unabhängige Bundesbeauftragte für Antidiskriminierung: Wer das ändern will, braucht den Mut zur Verbesserung und muss Diskriminierungen klar benennen.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

22.05.2025 14:00

Nächste Woche findet die größte Konferenz für die digitale Gesellschaft in Europa statt: die re:publica. Das Programm verspricht spannende Themen und Formate, darunter aus unserer Redaktion auch Ingo, Sebastian und Constanze.

Viele Menschen stehen auf einer Bühne. Im Hintergrund steht "re:publica".
Vom 26.- 28. Mai findet die re:publica statt. CC-BY-SA 4.0 Stefanie Loos/re:publica

Die re:publica steht vor der Tür. Unter dem diesjährigen Motto „Generation XYZ“ gibt es vom 26. bis 28. Mai 2025 auf der Konferenz in Berlin Vorträge, Diskussionen, Workshops, Performances, Ausstellungen und vieles mehr rund um die digitale Gesellschaft. Auch Redakteur:innen von netzpolitik.org werden vor Ort sein und über aktuelle netzpolitische Themen sprechen.

Am Montag spricht Ingo Dachwitz über den Digitalen Kolonialismus. Er erklärt, wie die Ausbeutung hinter der Digitalisierung aussieht und warum wir sie beenden müssen. Bereits im Februar erschien sein Buch: „Digitaler Kolonialismus: Wie Tech-Konzerne und Großmächte die Welt unter sich aufteilen“. Jetzt spricht er zu diesem Thema um 14:15 Uhr auf Stage 3.

Zwei Stunden später, um 16:15 Uhr auf Stage 6, spricht unser Redakteur Sebastian Meineck zusammen mit Rebecca Ciesielski vom Bayerischen Rundfunk darüber, wie Databroker die Handy-Standortdaten von vielen Millionen Menschen weltweit verkaufen. Die Zuhörenden erfahren den aktuellen Stand der Databroker-Recherchen und können selbst prüfen, ob auch ihr eigenes Handy betroffen ist.

Constanze Kurz nimmt am Mittwoch um 12:30 Uhr an einer Podiumsdiskussion auf Stage 2 teil. Dabei diskutiert sie mit Annika Brockschmidt, Nadia Zaboura und Georg Restle die Frage, ob wir eine öffentlich-rechtliche Plattform brauchen, um Musk und Co. etwas entgegensetzen zu können.

Von Deepfakes bis digitale Teilhabe

Die frühere netzpolitik.org-Autorin Marie Bröckling spricht am Mittwoch um 16:45 Uhr auf Stage 4 darüber, dass Hunderttausende Deepfake-Pornos straffrei bleiben, und überlegt, wie eine Regelung zum besseren Schutz davor aussehen kann.

Gleich vier Mal ist Leonhard Dobusch zu sehen. Am Dienstag um 11:15 Uhr und am Mittwoch um 15:30 Uhr spricht er über öffentlich-rechtliche Medien. Außerdem führt er ein Gespräch mit Felix Hlatky über Mastodon und kann außerdem am Dienstag um 18:45 Uhr als Teil der #rp25 Track Teams kennengelernt werden.

An einem Gespräch um Jugendschutz und die digitale Teilhabe nimmt auch unsere Kolumnistin Svea Windwehr teil. Sie spricht am Mittwoch um 15:30 Uhr mit Simone Ruf, Sanya Lehmann und Carla Roggenbuck.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

22.05.2025 07:09

Der Amazon-Konzern weigert sich, die Cloud-Verträge mit dem Schweizer Staat öffentlich zu machen – obwohl der Staat einer Veröffentlichung schon längst zugestimmt hat. Das Thema berührt die digitale Souveränität. Auch in Deutschland gibt es Kooperationen mit Amazon.

Smartphone mit Aufschrift AWS, im Hintergrund verschwommene Schrift
Der Schweizer Staat nutzt die Amazon Cloud AWS, die Verträge aber bleiben intransparent. (Symbolbild) – Alle Rechte vorbehalten IMAGO / imagebroker

Der Schweizer Staat nutzt Cloud-Dienste verschiedener internationaler Konzerne wie Microsoft, Amazon, IBM, Oracle und Alibaba. Die Verträge dieser Zusammenarbeit wollte das Schweizer Medium „Republik“ schon vor zwei Jahren einsehen, doch drei der Unternehmen wehrten sich. Dabei hatte die Schweizer Bundeskanzlei grünes Licht für die Veröffentlichung gegeben. Am Ende fügten sich die anderen, es blieb nur noch ein Unternehmen auf Konfrontationskurs: Amazon.

Jeff Bezos‘ Konzern reichte Beschwerde beim schweizerischen Bundesverwaltungsgericht gegen die Herausgabe der Verträge ein – und zwar auch gegen die Veröffentlichung der Verträge von Konkurrenten, die mit dem Schweizer Staat zusammenarbeiten. An diesem Fall entscheide sich, ob die Geschäftsinteressen eines US-Konzerns überwiegen oder die Datenschutzrechte sowie die digitale Souveränität eines Nationalstaats, schreibt Adrienne Fichter nun in einem Artikel in der „Republik“.

Wie kann Europa digital unabhängiger werden?

Das Thema digitale Unabhängigkeit wird zunehmend brisanter durch die derzeitigen weltpolitischen und geostrategischen Veränderungen sowie die aggressive Zoll- und Außenpolitik der Trump-Regierung. Die Abhängigkeiten zeigen sich heute deutlich, wenn etwa Microsoft beim internationalen Strafgerichtshof Mailadressen auf Anordnung der US-Regierung sperrt oder Multimilliardär Elon Musk laut darüber nachdenkt, der Ukraine das Satelliteninternet über Starlink abzuschalten.

Die digitalen Abhängigkeiten gehen aber über das Verhältnis zur USA hinaus. Sie betreffen die physische Ebene wie Rohstoffe und Chips, die Ebene von Quelltexten, Programmen und Dienstleistungen sowie die Ebene der Daten, Standards und Protokolle. Bei den Cloud-Diensten dominieren die USA, aber auch zunehmend China den Markt.

„Souveränitätswashing“

Um die wachsende Nachfrage nach digitaler Souveränität abzudecken, bieten US-Unternehmen wie Amazon nun Produkte wie die „European Sovereign Cloud“ an. Sie suggerieren Unabhängigkeit, können dieses Versprechen aber nur in Grenzen einhalten. So müssen US-Unternehmen beispielsweise durch den US-Cloud-Act amerikanischer Strafverfolgung Zugriff auf Daten geben, auch wenn diese in Europa gespeichert sind. Eine Nutzung der Amazon Cloud für sensible staatliche Daten wird deswegen kritisch gesehen. Zuletzt hatte etwa die Nutzung der Amazon Cloud für die Speicherung biometrischer Bilder für die Erstellung von Passdokumenten in Deutschland für Aufsehen gesorgt.

Das hält Amazon nicht davon ab, bis zum Jahr 2040 Milliardenbeträge in vermeintlich unabhängige Cloudstrukturen in Deutschland investieren zu wollen. Die „souveränen“ Produkte sind laut dem Bericht der Republik allerdings eine Mogelpackung, von „Souveränitätswashing“ ist die Rede: Statt einer unabhängigen Firma, die als Treuhänder fungieren würde und die damit die Hoheit über die Datenverwaltung hätte, würden für die „Sovereign Cloud“ einfach Amazon-Mitarbeiter:innen aus Europa anstelle von US-Personal eingesetzt, heißt es in dem Bericht. Die Technologie bleibe eine Black Box ohne offene Standards, der Quellcode geheim und unter Kontrolle des Konzerns.

Alles netzpolitisch Relevante

Drei Mal pro Woche als Newsletter in deiner Inbox.

Jetzt abonnieren

Zur digitalen Souveränität gehört laut dem Medium eben auch, dass die Bürger:innen sehen können, was da eigentlich vereinbart ist zwischen dem Staat und seinen Dienstleistern. Adrienne Fichter schreibt, dass Amazon mit seinem Vorgehen aktiv die digitale Selbstbestimmung untergrabe, indem das Unternehmen Öffentlichkeit, Medien, Politik und sogar den betroffenen Bundesämtern die Einsicht verweigere, wie der Konzern personenbezogene Daten verarbeitet.

Kooperation mit dem BSI

Auch in Deutschland wird das Thema heißer. Das Bundesamt für Sicherheit in der Informationstechnik (BSI) hat jüngst eine Kooperation mit Amazon und seinem Cloud-Dienst Amazon Web Services (AWS) vereinbart, wie Tagesspiegel Background (€) berichtet. Laut dem Bericht soll im Fokus der Zusammenarbeit „die Weiterentwicklung kritischer Sicherheitstechnologien von AWS stehen, insbesondere Souveränitätskontrollen und technische Standards für die betriebliche Trennung und Datenflusssteuerung innerhalb der geplanten AWS European Sovereign Cloud“. Das solle laut dem Medienbericht dafür sorgen, dass US-Cloudangebote auch in der öffentlichen Verwaltung für ein möglichst breites Anwendungsspektrum genutzt werden könnten.

Wir haben eine Informationsfreiheitsanfrage nach dieser Kooperationsvereinbarung beim BSI gestellt. Es wird sich zeigen, wie transparent solche Vereinbarungen in Deutschland sind.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

21.05.2025 17:33

Der Digitalausschuss des Deutschen Bundestags ist heute zu einer ersten Sitzung zusammengekommen. Inhaltliches stand noch nicht auf der Agenda, stattdessen wurde der Vorsitz gewählt. Außerdem ist nun bekannt, welche Abgeordneten die Digitalpolitik in den kommenden Jahren bestimmen werden.

Viele Spielkarten, die einen Joker zeigen
Die Karten im Digitalausschuss sind neu gemischt. – Gemeinfrei-ähnlich freigegeben durch unsplash.com aceofnet / Unsplash

Die Digitalpolitik im Deutschen Bundestag steht unter neuen Vorzeichen. Zum einen gibt es erstmals ein eigenständiges Digitalministerium. Zum anderen sitzen viele neue Abgeordnete im Parlament und damit auch im Ausschuss für Digitales und Staatsmodernisierung, der heute das erste Mal zusammenkam.

Die insgesamt 30 Ausschussmitglieder werden sich in den kommenden Jahren unterschiedlichen netzpolitischen Themen widmen, darunter der Verwaltungsdigitalisierung, der Stärkung der digitalen Souveränität sowie dem Wunsch nach weiteren Überwachungsmaßnahmen.

Abzuwarten bleibt, ob die Abgeordneten – wie es ihnen ausscheidende Abgeordnete auf den Weg gaben – dabei stärker die Federführung übernehmen, ob sie transparent arbeiten und inwieweit sie die Belange der Zivilgesellschaft berücksichtigen.

Union stellt Vorsitzenden Hansjörg Durz

Im Fokus der heutigen Sitzung stand die Wahl des Ausschussvorsitzenden Hansjörg Durz. Der CSU-Politiker hatte die stellvertretende Leitung bereits in der 19. Legislaturperiode inne. Für die kommende Ausschussarbeit sieht er die Chance für einen „echten Aufbruch für Deutschland“, „für Wirtschaftswachstum und Modernisierung des Staates“.

Neben Durz gehören neun weitere Unionsabgeordnete dem Ausschuss an. In der vergangenen Legislatur waren schon Markus Reichel und Franziska Hoppermann dabei. Reichel widmete sich bislang unter anderem dem Thema digitale Identitäten, Hoppermann der Gesundheit.

Neu hinzugekommen ist Ralph Brinkhaus, der für die Unionsfraktion auch Sprecher für Digitalisierung und Staatsmodernisierung ist. Brinkhaus legt den Fokus weniger auf Digitalisierung als auf Staatsmodernisierung. Langwierige Genehmigungsverfahren und unnötige Antragsformulare „vergiften“ den Alltag der Menschen, betonte Brinkhaus vergangene Woche im Bundestag, daher „ist es gelebte Demokratieförderung, wenn wir an dieser Stelle besser werden“.

Aus der Union sind im Ausschuss außerdem Joachim Ebmeyer, Thomas Pauls, Martin Plum und Marvin Schulz vertreten. In der Fraktion widmet sich neben Brinkhaus auch die stellvertretende Fraktionsvorsitzende Ronja Kemmer den Themen Digitales und Staatsmodernisierung.

SPD: Vertraute Gesichter für den „modernen Staat“

Die mitregierende SPD entsendet insgesamt sechs Abgeordnete in den Ausschuss. Vier von ihnen – Johannes Schätzl, Parsa Marvi, Matthias Mieves und Carolin Wagner – gehörten dem Digitalausschuss bereits unter der Ampel an.

Johannes Schätzl ist digitalpolitischer Sprecher der SPD-Fraktion und will unter anderem die digitale Souveränität stärken und den Netzausbau vorantreiben. Er ist Mitglied des Beirates der Bundesnetzagentur und Mobilfunkinfrastrukturgesellschaft.

An Bord ist erstmals auch Daniel Bettermann, der auch neu im Bundestag ist, sowie Maja Wallstein, die allerdings schon seit 2021 im Parlament sitzt. Bettermann ist Politikwissenschaftler und hat bisher als PR- und Kommunikationsberater gearbeitet. Auch er will sich für einen „modernen, digitalen und bürgerfreundlichen Staat“ einsetzen, worunter er „digitale Bürgerdienste und weniger Bürokratie“ versteht.

Bettermann gehört als ständiges Mitglied auch dem Ausschuss für Wirtschaft und Energie an. Maja Wallstein und Carolin Wagner sitzen außerdem als ordentliche Mitglieder im Gesundheitsausschuss und dem Ausschuss für Forschung, Technologie, Raumfahrt und Technikfolgenabschätzung.

Der neue Fraktionsvizevorsitzende Armand Zorn, der bei den Koalitionsverhandlungen für die SPD die Arbeitsgruppe Digitales leitete, ist künftig nur noch stellvertretendes Mitglied im Ausschuss.

Grüne mit Rüstzeug

Komplett neu sind die Vertreter:innen der Grünen im Digitalausschuss.

Rebecca Lenhard ist mit knapp 30 Jahren erstmals in den Bundestag eingezogen und ist auch Fraktionssprecherin für Digitalisierung und Staatsmodernisierung. Zuvor hat die IT-Beraterin unter anderem für das Bundesamt für Migration und Flüchtlinge Software konzipiert, „die heute jedes Asylverfahren in diesem Land transparenter und effizienter macht“. Neben dem Digitalausschuss gehört Lenhard dem Innen- und dem Wirtschaftsausschuss an, wo sie sich auch für digitale Transformation und Teilhabe einsetzen will.

Ebenfalls neu im Bundestag ist Moritz Heuberger. Der Verwaltungswissenschaftler will die „Staatsmodernisierung jetzt anpacken“. Das Rüstzeug bringt er mit: Seine Doktorarbeit trägt den geschmeidigen Titel „Die Koordination der digitalen Verwaltung – Erläuterung der Koordinationsherausforderungen bei der digitalen Transformation der öffentlichen Verwaltung im föderalen Kontext“. Vor seiner Zeit als Abgeordneter arbeitete Heuberger als Referent im Bundesinnenministerium zum Thema digitale Identitäten. Der Grüne sitzt auch im Finanzausschuss.

Die „Rechtsanwältin für CybersicherheitJeanne Dillschneider gehört zum gleichen Jahrgang wie Lenhard und sitzt auch zum ersten Mal im Bundestag. Sie ist Obfrau der Grünen im Digitalausschuss, ist dort also Hauptansprechpartnerin ihrer Fraktionsführung. Dillschneiders Fokus liegt auf IT-Sicherheit, Datenschutz- und nutzung, E-Health und digitalen Bürgerrechten. Sie vertritt die Grünen außerdem im Verteidigungsausschuss.

Erneut in den Bundestag eingezogen ist Anna Lührmann. Die Politikwissenschaftlerin war in den zurückliegenden Jahren Staatsministerin für Europa und Klima im Auswärtigen Amt. Zuvor wirkte sie unter anderem als Juniorprofessorin und Demokratieforscherin an der Universität Göteborg.

Neues Trio der Linken

Auch bei der Linkspartei sind die Karten gänzlich neu gemischt: Drei junge Abgeordnete, die erstmals in den Bundestag eingezogen sind, nehmen im Digitalausschuss Platz.

Sonja Lemke saß zuvor im Rat der Stadt Dortmund und im Digitalausschuss im Landschaftsverband Westfalen-Lippe. In ihrer Erwiderung auf die Regierungserklärung von Digitalminister Karsten Wildberger sprach sich die Informatikerin vergangene Woche für einen stärkeren Datenschutz und gegen eine Digital-Only-Strategie aus, die gesellschaftliche Teilhabe verhindere.

Die Staatswissenschaftlerin Donata Vogtschmidt ist ebenfalls erstmals in den Bundestag eingezogen. Zuvor gehörte sie dem Thüringer Landtag an. Vogtschmidt sitzt für die Linke als Obfrau im Digitalausschuss. In ihrer ersten Bundestagsrede plädierte sie dafür, sogenannte Künstlicher Intelligenz strenger zu regulieren und Sicherheitslücken zu schließen.

Über die niedersächsische Landesliste ist Anne-Mieke Bremer ins Parlament eingezogen. Davor hat sie als Sozialarbeiterin gearbeitet.

Alle drei sitzen auch im Ausschuss für Forschung, Technologie, Raumfahrt und Technikfolgenabschätzung. Donata Vogtschmidt gehört zudem dem Verteidigungsausschuss an.

Die AfD-Fraktion erhält sieben Sitze im Digitalausschuss, das sind drei mehr als in der vorangegangenen Legislaturperiode.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

21.05.2025 15:23

Wer in Schweden einen Porno-Clip auf OnlyFans nach eigenen Wünschen bestellt, macht sich künftig strafbar. Das neue Gesetz missachtet Grundrechte wie Berufsfreiheit und sexuelle Selbstbestimmung, führt zu mehr Überwachung – und schadet letztlich allen. Ein Kommentar.

Zwei Figuren im Bauhaus-Stil sitzen sich gegenüber und legen die Stirn aneinander, die Stimmung ist intim und zärtlich.
Sexarbeit ist Arbeit (Symbolbild) – Public Domain DALL-E-3 („two persons hugging, bauhaus style reduced minimalist geometric shapes“)

Schweden hat seit gestern ein Gesetz, das sich als Lex OnlyFans bezeichnen lässt. Demnach macht sich strafbar, wer für sexuelle Dienstleistungen zahlt, die „über Distanz, ohne Kontakt ausgeübt werden“. Möchte man beispielsweise Aufnahmen bei seinen liebsten Creator*innen via Snapchat oder OnlyFans bestellen und teilt dabei konkrete Wünsche mit, kann man ins Visier der Justiz geraten. Denn das würde nach Logik des Gesetzes eine Person zu einer sexuellen Handlung „verleiten“. Auch eine Plattform wie OnlyFans kann dafür belangt werden, denn sie hätte die Transaktion möglich gemacht.

Vermeintlich soll das den „Schutz vor sexuellem Missbrauch“ zu stärken. Was hier aber tatsächlich passiert: Schweden erweitert sein Sexkaufverbot auf sexuelle Dienstleistungen im Netz und schafft damit einen alarmierenden Präzedenzfall für die Unterdrückung und Marginalisierung von Sexarbeit. Es ist zugleich ein Angriff auf die sexuelle Selbstbestimmung.

Zwei Grundrechte stehen beim gesellschaftlichen Umgang mit Sexarbeit im Vordergrund. Das erste ist die Berufsfreiheit, die es Menschen erlaubt, ihren Beruf frei zu wählen. Viele Sexarbeiter*innen wehren sich gegen das Stigma, den eigenen Beruf angeblich nur unter Zwang auszuüben.

Das zweite Grundrecht ist die sexuelle Selbstbestimmung. Hier geht es darum, dass Menschen selbst über sexuelle Handlungen entscheiden können. Gegner*innen von Sexarbeit führen oft an, dass sich angeblich kein Mensch aus freien Stücken dafür entscheiden könnte, sexuelle Handlungen für Geld anzubieten. Viele Sexarbeiter*innen pochen darauf, dass sie durchaus einen freien Willen haben, den ihnen Außenstehende nicht absprechen können.

„Dieses Gesetz ist kein Schutz, es ist Unterdrückung“

Auch Kund*innen von Sexarbeit haben ein Recht auf sexuelle Selbstbestimmung. Das Nordische Modell betrachtet sie allerdings vor allem als potenzielle Täter*innen. Nicht als Menschen, die ein Grundbedürfnis nach körperlicher Nähe und Sexualität haben, und dafür eine einvernehmliche Dienstleistung in Anspruch nehmen möchten.

Diese Form des Staatsfeminismus hat in Schweden Tradition. Gestartet im Namen des Schutzes von Sexarbeiter*innen ist das Nordische Modell in Wahrheit ein Instrument der Unterdrückung. Seit mehreren Jahrzehnten verfolgt Schweden schon diese Politik. Sexarbeit ist demnach immer eine Form patriarchaler Gewalt, vor allem gegen Frauen, egal wie einvernehmlich die Transaktion geschieht. Und vor dieser Gewalt und Ausbeutung gelte es demnach Betroffene zu schützen – auch jene, die diesen „Schutz“ ausdrücklich ablehnen.

Die European Sex Workers‘ Rights Association (ESWA), die sich für die Interessen von Sexarbeiter*innen einsetzt, sieht in dem Gesetz ein Scheitern der schwedischen Demokratie. Auf Englisch kommentiert die NGO: „Dieses Gesetz ist kein Schutz, es ist Unterdrückung“. Eine schwedische Abgeordnete habe angezweifelt, ob die Protestbriefe zu dem Gesetz wirklich von Sexarbeiter*innen stammten, oder eher von Zuhältern. ESWA beschreibt diese Haltung als „offenkundig ignorant, zutiefst beleidigend und gefährlich“. Sie offenbare eine „tiefe Verachtung für die Intelligenz und die Würde von Menschen am Rande der Gesellschaft“ und bestätige „die schlimmsten der paternalistischen Instinkte Schwedens“.

Sexarbeiter*innen haben konkrete Forderungen

Schon jetzt ist gut dokumentiert, wozu der vermeintliche, staatliche Schutz durch das Nordische Modell führt. Probleme wie Ausbeutung und schlechte Arbeitsbedingungen in der Sexarbeit, die angeblich bekämpft werden sollen, werden durch die Kriminalisierung der Kund*innen nicht eingedämmt, sondern verstärkt. Verbände und Fachleute berichten von noch mehr Stigma, noch mehr Problemen. Auf dem Papier mag das Gesetz nur Käufer*innen bedrohen. In der Praxis trifft es aber natürlich die Sexarbeiter*innen selbst. Sie verlieren ihr Einkommen, ihnen werden Optionen genommen, so zu arbeiten, wie sie es vorziehen. In ihrem Essay für das Verfassungsblog schreibt Juristin Teresa Katharina Harrer von einem „De facto“-Berufsverbot.

In Deutschland hat der „Berufsverband erotische und sexuelle Dienstleistungen“ (kurz BesD) aufgeschrieben, welche Art von staatlichem Schutz sich Sexarbeiter*innen stattdessen wünschen. Unter anderem eine Krankenversicherung durch die Künstlersozialkasse, Arbeitsvisa für Sexarbeitende aus Drittstaaten oder eine Aufnahme von Sexarbeit ins Allgemeines Gleichbehandlungsgesetz (AGG), das Menschen vor Diskriminierung schützt. Denn ja: Sexarbeiter*innen sind eine marginalisierte und diskriminierte Gruppe in der Gesellschaft – und Gesetze wie das Nordische Modell sind Ausdruck dieser Diskriminierung.

Dieses Modell jetzt auch noch ins Internet auszuweiten, also auf sexuelle Handlungen „aus der Ferne“, wird für Sexarbeiter*innen nichts verbessern. Die konkreten Folgen beschrieb jüngst Yigit Aydin von der ESWA im Interview mit netzpolitik.org: Betroffene würden ihre Accounts verlieren, ihre Inhalte würden noch mehr von Online-Plattformen verdrängt. Um über die Runden zu kommen, müssten sie sich andere, womöglich gefährlichere Optionen suchen müssen. Unterm Strich verstärkt das die Entwicklungen, die Sexarbeiter*innen im Netz bereits kennen, wenn Plattformen wie Twitter und Instagram ihre Profile löschen oder Zahlungsdienstleister wie PayPal ihnen ihre Dienste verwehren.

„Dieses Gesetz wird weit über Schweden hinaus Auswirkungen haben“

Überraschung: Sexarbeit ist Arbeit

Verfechter*innen des Nordischen Modells führen gerne an, dass Sexarbeit selbst bei guten Arbeitsbedingungen anstrengend und fordernd sein kann. Dass auch Sexarbeiter*innen Tage haben, an denen sie lieber Urlaub machen würden. Gegenfrage: Auf welche Arbeit trifft das nicht zu? Seit wann muss der Staat sicherstellen, dass Erwerbsarbeit Genuss und Erfüllung darstellt – und welche Branchen müsste sich ein solcher Staat als nächstes vorknöpfen?

Wer aus feministischer Perspektive Menschen in körperlich fordernden Arbeitsverhältnissen schützen möchte, hätte eine Menge Ansatzpunkte. Man könnte beispielsweise etwas tun für Menschen, die sich in der Pflege oder Gebäudereinigung den Rücken kaputt machen oder sich in Kitas bis zum Burn-out abarbeiten. Die staatlichen Maßnahmen wären dann aber keine Kriminalisierung von Kund*innen, sondern bessere Arbeitsbedingungen, besseres Einkommen, bezahlbarer Wohnraum.

Nein, Sexarbeit ist keine feministische Utopie, weder online noch offline. Sie hat wenig mit Emanzipation zu tun. Das muss sie aber auch nicht. Sie ist eine Form von Arbeit in einer Welt, in der Menschen eben ihre Arbeitskraft verkaufen müssen, um Geld zu verdienen und sich versorgen zu können. Und idealerweise können sie ihren Beruf dabei frei wählen.

Für einige Menschen ist Sexarbeit eben die beste Möglichkeit unter vielen – mehr oder weniger anstrengenden –Möglichkeiten im Kapitalismus, und sie entscheiden sich, diese zu nutzen. Damit sind sie Teil einer Gig-Economy, die gewisse Formen von Selbstständigkeit und Flexibilität verspricht und zugleich wenig Absicherung bietet.

Vorwand für staatliche Überwachung

Wer Seiten wie OnlyFans oder StripChat losgelöst von sonstigen gesellschaftlichen Verhältnissen betrachtet und primär als Orte der Unterdrückung zeichnet, aus denen Sexarbeiter*innen befreit werden müssen, der erliegt entweder einem Irrtum – oder verfolgt andere, politische Ziele. Gerade für letzteres gäbe es durchaus Anreize. Ein Gesetz wie das in Schweden gibt Behörden Anlass und Befugnisse, digitale Kommunikation und Zahlungsströme zu überwachen, auf der Suche nach strafbaren Online-Sexkäufen. Vor diesem Szenario warnt etwa auch die Organisation ESWA.

Es wäre ein weiteres Beispiel für die Ausweitung staatlicher Überwachung im Netz, die den Schutz einer vulnerablen Gruppe zum Vorwand nimmt. Wir kennen das Spiel von Chatkontrolle & Co.

Die langjährige Erfahrung, wie Staaten mit Online-Überwachungsbefugnissen umgeht, zeigt: Sobald Daten erst einmal in Reichweite sind, wecken sie Begehrlichkeiten, auch über den ursprünglichen Zweck hinaus. Die Verlierer*innen solcher Gesetzgebung sind damit nicht nur Anbieter*innen und Kund*innen von Sexarbeit, sondern alle, die sich ein Internet ohne ständige Überwachung wünschen.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

21.05.2025 13:58

Hand in Hand versucht die US-Regierung und der Satellitenanbieter Starlink, das Unternehmen des Regierungsberaters Elon Musk im Globalen Süden weitflächig auf den Markt zu bringen. Dabei scheint der Rechtsaußen-Regierung jedes Mittel recht zu sein.

Ein unvorteilhaftes Foto eines blassen Elon Musk vor dem Starlink-Logo mit einem großen X
Multimilliardär, US-Regierungsberater und rücksichtsloser Rechtsradikaler: Elon Musk baut seine Macht mit allen Mitteln aus. (Symbolbild) – Alle Rechte vorbehalten IMAGO / SOPA Images

Gambia steht vor der Wahl: Entweder das kleine Land an der westafrikanischen Küste lässt Elon Musks Satellitenunternehmen Starlink ins Land oder es gibt Probleme mit der US-Regierung.

Offenbar mit einer Stimme drohen derzeit US-Außenminister Marco Rubio, US-Botschafterin Sharon Cromer und das Unternehmen des Milliardärs einem der ärmsten Länder der Welt, wie ProPublica berichtet: Erhält Starlink keine Lizenz, um in Gambia als Internetanbieter zu operieren, könnten die USA beispielsweise ein Hilfsprojekt für die Verbesserung der Stromversorgung im Land einfrieren. Oder sie schließen die US-Botschaft.

„Maximaler Druck“ werde auf die Regierung Gambias ausgeübt, damit sie endlich einlenkt, schreibt ProPublica unter Berufung auf Diplomatische Korrespondenz, anonyme Quellen sowie einen ranghohen Mitarbeiter des zuständigen Ministeriums.

Nachdem etwa ein Treffen in Washington zwischen Vertreter:innen von Starlink und des Kommunikationsministeriums im März hitzig und letztlich ergebnislos verlaufen war, platzte überraschend ein danach angesetztes Meeting im Außenministerium – augenscheinlich abgesagt von Starlink und nicht von der US-Regierung.

Am gleichen Tag wandte sich ProPublica zufolge die US-Botschafterin an den Präsidenten von Gambia: Auf drei Seiten habe sie die Vorzüge des privaten Satellitennetzwerks beworben und wie Gambia davon profitieren könne. „Ich bitte Sie respektvoll, die notwendigen Genehmigungen für die Aufnahme des Starlink-Betriebs in Gambia zu erteilen“, soll sie gefordert haben.

Staat und Privatwirtschaft aus einer Hand

Eine derartige Verquickung staatlicher und privater Interessen hat es seit langem nicht gegeben. Schließlich ist Musk nicht nur Unternehmer, sondern auch einflussreicher Berater der US-Regierung. Rund 300 Millionen US-Dollar hat er in den vergangenen Wahlkampf gesteckt, um Donald Trump ins Amt zu hieven. Als Belohnung erhielt er massiven Einfluss auf die US-Regierung, zerlegt mit seinem DOGE-Gremium staatliche Strukturen, klemmt humanitäre Projekte ab – und versucht dabei sicherzustellen, dass seine eigenen Firmen möglichst viel davon profitieren.

Gambia ist bei weitem nicht das einzige Land, das sich mit solchen Erpressungstaktiken herumschlagen muss. Ähnliches spielte sich unter anderem in Lesotho, Kamerun oder Somalia ab. Auch abseits des afrikanischen Kontinents war die US-Regierung oft genug damit erfolgreich, zumal der von Trump losgetretene Handelskrieg hinzukommt: Zumindest teilweise eingeknickt sind etwa Indien, Pakistan oder Bangladesch.

Das Muster wiederholt sich: „Während die Regierung von Lesotho über ein Handelsabkommen mit den Vereinigten Staaten verhandelt, hofft sie, dass die Lizenzierung von Starlink ihren guten Willen und ihre Bereitschaft zeigt, US-Unternehmen willkommen zu heißen“, heißt es in einem internen Memo des US-Außenministeriums, berichtete die Washington Post.

Neue Form des Kolonialismus

In Infrastrukturfragen befinden sich viele Länder des Globalen Südens in der Klemme. Laut Vereinten Nationen herrscht beim Internetzugang bis heute eine große Spaltung, der sogenannte Digital Divide, zwischen armen und reichen Ländern vor. Tech-Konzerne wie Google, Meta, Amazon oder Starlink drängen sich mit ihren Infrastrukturangeboten als Problemlöser auf, vermarkten ihre Initiativen als Rettung für unterversorgte Gebiete und bauen dabei langfristige Abhängigkeiten auf.

Gambia beispielsweise hat erst vor knapp einem Jahrzehnt sein autoritäres System abgeschüttelt, fast die Hälfte der knapp 2,5 Millionen Einwohner:innen lebt der Weltbank nach von weniger als 4 US-Dollar pro Tag. Trotz der begrenzten Ressourcen spielt das Internet eine immer wichtigere Rolle: Mindestens die Hälfte der Bevölkerung nutzt regelmäßig das Netz, was über dem afrikanischen Durchschnitt liegt.

Inzwischen hat sich der Telekommunikationsmarkt zu einem der wichtigsten Sektoren im landwirtschaftlich geprägten Gambia entwickelt. Gleich vier Mobilfunkbetreiber, einer davon staatlich, haben der Regulierungsbehörde Pura zufolge im Jahr 2020 insgesamt 2,7 Millionen Anschlüsse zur Verfügung gestellt, dazu kam der Staatsmonopolist mit knapp 50.000 Festnetzanschlüssen. Der Regierung nach soll allein dieser Sektor mehr als 20 Prozent der Steuereinnahmen ausmachen, schreibt ProPublica.

Warum Musk derart aggressiv versucht, in diesen Markt einzusteigen, bleibt unklar. Allerdings gehe aus internen Dokumenten des US-Außenministeriums hervor, dass es Starlink einen Startvorteil verschaffen will: Wer als erster einen Markt besetzt, ist anschließend nur schwer wieder zu verdrängen. Hinzu komme der Versuch, den wachsenden Einfluss Chinas in vielen Weltregionen einzudämmen.

Markt besetzen, Preise erhöhen

Dabei scheint es keine grundsätzliche Ablehnung der Regierung in Gambia gegenüber Starlink zu geben. Umgekehrt soll sich das Unternehmen jedoch etwa geweigert haben, die anfallende Lizenzgebühr von 85.000 US-Dollar zu zahlen. Begonnen hat dieser Genehmigungsprozess bereits unter Trumps demokratischem Vorgänger Joe Biden, den Druck erhöht hatte aber erst die neue republikanische Administration.

Dass eine sorgfältige Abwägung notwendig ist, zeigt nicht zuletzt Starlinks Auftreten in Nigeria. Dort war der US-Anbieter Anfang 2023 in den Markt eingestiegen und schaffte es innerhalb kurzer Zeit, zum zweitgrößten Netzanbieter aufzusteigen. Ende des Vorjahres versuchte das Unternehmen, an jeder Regulierung vorbei, die Preise um 50 Prozent zu erhöhen. Es ist eine Taktik, wie man sie von anderen Tech-Unternehmen wie beispielsweise Uber kennt. Den drastischen Preisanstieg konnte Starlink zwar zunächst nicht durchsetzen, im Januar genehmigte ihn die nigerianische Regulierungsbehörde mit Verweis auf die hohe Inflationsrate letztlich doch.

Zukunftsmarkt Satelliteninternet

Internetversorgung über Satelliten im erdnahen Orbit gilt als rasant wachsender Zukunftsmarkt, neben Starlink sind etwa auch Amazon oder der französisch-britische Anbieter Eutelsat OneWeb eingestiegen. Selbst wenn die Technik nicht mit kabelgebundenen Leitungen wie Glasfaser konkurrieren kann, lassen sich durch die verhältnismäßig geringe Distanz zur Erde akzeptable Bandbreiten und Latenzzeiten realisieren. In manchen Fällen kann die Versorgung über Satellit zudem billiger sein, als aufwändige Bauarbeiten durchzuführen.

Auch im reichen Deutschland wird der Anbieter deshalb punktuell für eine Mindestversorgung mit Internet herangezogen, wenn der traditionelle Ausbau wirtschaftlich nicht rentabel ist. Außerdem nutzen Behörden wie die Bundespolizei, die Zentrale Stelle für Informationstechnik im Sicherheitsbereich und das Bundeskriminalamt die Satellitentechnik des US-Multimilliardärs.

Gefährliche Abhängigkeit

Sich vom rechtsradikalen Firmenchef Elon Musk abhängig zu machen, der weltweit Gesinnungsgenossen wie die AfD unterstützt, dürfte indes keine gute Idee sein. Vor grundsätzlichen Problemen dieser Art warnte bereits vor Jahren eine Studie der Stiftung Wissenschaft und Politik.

Konkret ablesen lässt sich das etwa an der Ukraine, die sich seit gut drei Jahren gegen den russischen Aggressor verteidigt und kaum ohne die Technik auskommt. Bereits mehrfach wurde das Land in kritischen Kriegsphasen von plötzlichen Ausfällen und regionalen Beschränkungen überrascht. Nach Drohungen auf seinem Kurznachrichtendienst X und folgenden diplomatischen Schlagabtäuschen sah sich Musk zuletzt im März gezwungen zu versichern, Starlink nicht weiter als Druckmittel benutzen.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

21.05.2025 11:03

Der netzpolitik.org-Gründer will mit einer neuen NGO für digitale Grundrechte schnell auf Kommunikation von Big Tech reagieren und damit der Zivilgesellschaft eine Stimme geben. Das sind seine Pläne.

Markus Beckedahl mit Mikrofon in der Hand.
Hat keine Angst vor den Großen: Markus Beckedahl. (Hier mit dem damaligen Digital- und Verkehrsminister Volker Wissing.) – Alle Rechte vorbehalten IMAGO / Mike Schmidt

Der Gründer und ehemalige Chefredakteur von netzpolitik.org, Markus Beckedahl, gründet eine neue Organisation für digitale Grundrechte. Das neu geschaffene „Zentrum für Digitalrechte und Demokratie“ will sich auf strategische Kommunikation im Themenfeld spezialisieren und versteht sich als zivilgesellschaftlicher Konkurrent zur Kommunikation von Industrieverbänden wie der Bitkom.

Solche Lobbyverbände stünden bei aktuellen Ereignissen immer schon mit Statements und Pressemitteilungen parat, erklärt Beckedahl. Oft habe dem die Zivilgesellschaft nicht so schnell etwas entgegenzusetzen. Dadurch entstünde oft ein Nachteil für die Zivilgesellschaft in gesellschaftlichen Debatten. Es brauche aber öffentlichen Druck, Gegenmeinungen und neue Narrative, damit sich etwas zum Besseren verändert.

Diese Lücke will der Medienprofi und notorische Internet-Erklärer füllen mit einer Organisation, die sich auf „Rapid Response“, also auf schnelle Reaktionen, versteht. Dafür hat er zusammen mit Campact eine gemeinnützige GmbH gegründet. Campact-Vorständin Astrid Deilmann sagt dazu, ihr Verein möchte damit ein kluges Projekt unterstützen, das die Demokratie verteidige.

Für erst einmal drei Jahre sei das „gemeinwohlorientierte Start-up“ finanziert, erklärt Beckedahl. Es sollen Spenden, Kooperationen und weitere Förderungen dazukommen. Zu Beginn will die NGO ihre Arbeit mit zwei Festangestellten und einigen freien Mitarbeiter:innen aufnehmen.

Schnelle Eingreiftruppe für digitale Grundrechte

Ein thematischer Fokus des Zentrums soll dabei Big Tech sein, also die großen Konzerne wie Meta oder Google, die das Internet und die Realität vieler Menschen prägen. „Ich sehe mit Sorge, wie die großen Plattformen zu politischen Akteuren werden, aber ohne demokratische Kontrolle, dafür mit enormer Macht über Meinungsbildung und Debatten“, sagt Beckedahl. Doch auch zu anderen Themen will sich die NGO äußern, wenn es passt.

Die neue Organisation will Ansprechpartner für Journalist:innen sein und eine Art Mediendienst etablieren, in dem es verlässliche Einordnungen liefert, aber auch konstruktive Lösungsansätze. „Wir haben viel zu oft immer nur gesagt, was nicht gut ist, aber zu selten gesagt, was stattdessen funktioniert“, sagt Beckedahl gegenüber netzpolitik.org. Das Aufzeigen von Alternativen soll deswegen immer ein Teil der Kommunikation sein. Im Auge habe man bei der Kommunikation auch die zahlreichen Digitalreferent:innen, ob in Unternehmen, Behörden, Organisationen und Kommunen.

„Für gesellschaftliche Mehrheiten einsetzen“

Außerdem will die neue NGO mit Partnern zusammenarbeiten, die sich außerhalb der klassischen netzpolitischen Bubble bewegen. Gerade mit ungewöhnlichen und breiten Bündnissen könnten digitale Grundrechte Erfolg haben, so Beckedahl. „Wir wollen uns für gesellschaftliche Mehrheiten für eine gemeinwohlorientierte Digitalpolitik einsetzen.“

Markus Beckedahl hat in den vergangenen beiden Jahrzehnten die digitale Szene in Deutschland maßgeblich mitgeprägt und steht für die Verbindung von Digitalisierung und Grundrechten. Neben netzpolitik.org gründete er auch den Verein „Digitale Gesellschaft“ mit sowie die Netz-Konferenz re:publica.

Auf der diesjährigen re:publica, die kommende Woche stattfindet, wird das neue Zentrum für Digitalrechte an den Start gehen. Zunächst will Beckedahl mit seinem Team etwas experimentieren und nach dem Sommer dann richtig loslegen. Oder, wie er sagt: „Knöpfe drücken und schauen, was passiert“.

Offenlegung: Markus Beckedahl hat netzpolitik.org gegründet und war langjähriger Chefredakteur. Er hat netzpolitik.org im Frühling 2024, zwei Jahre nach der Übergabe an ein neues Chefredaktionsteam, verlassen. Zwischen netzpolitik.org und dem Zentrum für Digitalrechte und Demokratie bestehen keine finanziellen oder personellen Verbindungen. 


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

20.05.2025 19:09

Ein Demonstrant hatte sich bei einem Protest mit einer Overheadfolie vor Pfefferspray geschützt. Dafür wurde er von deutschen Gerichten wegen „Schutzbewaffnung“ verurteilt. Der Europäische Gerichtshof für Menschenrechte sieht in den Urteilen einen Verstoß gegen die Menschenrechtskonvention.

Polizist setzt Pfefferspray ein.
Ein Polizist setzt Pfefferspray ein am 1. Mai 2022 in Berlin. – Alle Rechte vorbehalten IMAGO / Marius Schwarz

Der Europäische Gerichtshof für Menschenrechte (EGMR) hat nach einem zehn Jahre dauernden Rechtsstreit einem Demonstranten Recht gegeben, der bei den Protesten gegen die Europäische Zentralbank im Jahr 2015 ein selbstgebasteltes Visier in Form einer Plastikfolie dabei hatte – und dafür in Deutschland verurteilt worden war. Die deutschen Gerichte hatten die Plastikfolie als sogenannte Schutzbewaffnung eingestuft. Dies sah das Europäische Gericht nun anders: Die deutschen Gerichte hätten nicht dargelegt, warum das Tragen eines provisorischen Visiers eine Gefahr für die öffentliche Sicherheit darstelle.

Rechtsanwalt Mathes Breuer, der den Demonstranten verteidigt hatte, sagt: „Das heutige Urteil stärkt die Versammlungsfreiheit. Wer auf Versammlungen nur sich selbst schützen will, ohne jemanden zu gefährden, darf deshalb nicht bestraft werden. Der Gesetzgeber muss nun das Urteil umsetzen und das Versammlungsgesetz dringend reformieren.“

„Urteil stärkt die Versammlungsfreiheit“

Laut dem Anwalt hatte das Bundesverfassungsgericht im März 2020 eine Klage seines Mandanten Benjamin Ruß abgelehnt. Der reichte daraufhin im September 2020 Klage in Straßburg ein. Zuvor war er durch das Landgericht Frankfurt wegen Schutzbewaffnung auf einer Kundgebung zu einer Geldstrafe verurteilt worden. Das Oberlandesgericht Frankfurt hatte das Urteil damals bestätigt.

Die Frankfurter Staatsanwaltschaft hatte dem Demonstranten die Konstruktion aus einer Overhead-Folie und einem Gummiband als sogenannte Schutzbewaffnung ausgelegt. Der EGMR stellte nun fest, dass die Urteile gegen die Europäische Menschenrechtskonvention verstoßen.

Das Urteil könnte laut dem Klagenden und seinem Anwalt Auswirkungen auf die Versammlungsfreiheit in Deutschland haben. In der Pressemitteilung heißt es, dass die Mehrheit der deutschen Gerichte § 17a Absatz 1 des Versammlungsgesetzes bisher dahingehend interpretiert habe, dass jeder Gegenstand, mit dem sich Versammlungsteilnehmer schützen wollen, verboten sei – unabhängig davon, ob andere dadurch gefährdet werden oder nicht. Dieser Ansicht habe der EGMR eine deutliche Absage erteilt und festgestellt, dass diese Interpretation gegen die Versammlungsfreiheit der Europäischen Menschenrechtskonvention verstoße.

Kritik an Pfeffersprayeinsätzen

Die Praxis der Plastikfolien mit Gummiband war eine Zeit lang bei Aktionen des zivilen Ungehorsams üblich, um sich vor Pfefferspray durch die Polizei zu schützen. Der Einsatz von Pfefferspray gegen Demonstrierende wird seit Langem von Menschenrechtsorganisationen kritisiert. Amnesty International monierte unter anderem den unverhältnismäßigen Einsatz der Reizstoffe.

In kriegerischen Auseinandersetzungen ist der Einsatz von Pfefferspray laut dem Genfer Protokoll verboten. Anders ist die rechtliche Situation beim Gebrauch durch die Polizei gegen Zivilisten in Deutschland. Er ist recht lax geregelt, wird häufig rechtswidrig eingesetzt und es gibt zudem unzureichende Dokumentationspflichten für die Beamt:innen. Dabei können die chemischen Stoffe gefährliche gesundheitliche Schäden verursachen.

Das kritisiert auch Benjamin Ruß: „In Deutschland gilt Straffreiheit für Polizeibeamte, die Pfefferspray auf Versammlungen völlig willkürlich einsetzen. Mit diesem Urteil wird klargestellt: Schutz gegen Polizeiwillkür ist ein Menschenrecht.“


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

20.05.2025 17:55

Bei der Fußball-Europameisterschaft testete die Polizei eine neue Software für Großveranstaltungen, die Bewegungen von Menschenmassen simuliert. In Zukunft möchte sie die Software mit Echtzeit-Daten nutzen. Fußballfans kritisieren das Projekt.

Polizisten laufen über ein Volksfest
Beim Fußball und bei Volksfesten wurde die Software schon eingesetzt. – Alle Rechte vorbehalten IMAGO / Arnulf Hettrich

Vor rund sieben Monaten endete die Fußball-EM in Deutschland. Diese brachte nicht nur fragwürdige Hand-Elfmeter und faschistische Handgesten – sondern auch die Weiterentwicklung einer neuen Polizei-Software. Mit dieser simuliert die Polizei das Verhalten von Menschenmassen bei Großveranstaltungen.

Interne Unterlagen, Pressemitteilungen und Antworten auf unsere Nachfragen zeigen: Das Projekt ESCAPE Pro soll nur ein Zwischenschritt sein. Am Ende soll eine Software stehen, die Daten wie etwa Kamerabilder und Mobilfunk-Daten bei Events analysiert: Damit könnte Crowd-Control in Echtzeit möglich sein.

Wie Menschenmassen reagieren

Beim Forschungsprojekt „ESCAPE Pro“ geht es um Personenstromsimulationen, also computergestützte Simulationen von Menschenmassen und wie diese sich verhalten und bewegen. Bei der Polizei ist diese neue Form von Crowd-Control spätestens seit dem Jahr 2020 ein Thema. Damals startete das Programm ESCAPE, der Vorgänger von ESCAPE Pro.

Warum braucht die Polizei überhaupt so eine Software? Eine Sorge, die hinter ESCAPE stand: Wie reagieren Menschenmassen, wenn eine Großveranstaltung geräumt werden muss? Und was passiert, wenn man nicht nur ein Stadion räumen muss, sondern gleichzeitig noch ein Volksfest davor?

Im ESCAPE-Projekt versuchten verschiedene Polizeien zusammen mit der accu:rate GmbH und dem Fraunhofer-Institut Simulationsmodelle in verschiedenen Größen zu kombinieren. Die dort weiterentwickelte Software („crowd:it“) wurde dann im Rahmen des Folgeprojekts ESCAPE Pro bei der Europameisterschaft der Männer 2024 in verschiedenen Städten getestet. Das Ziel: Die Software in die Polizeiplanung integrieren und die Anwenderfreundlichkeit verbessern. Außerdem sollte so die Einsatzplanung bei der EM verbessert werden. Federführend war das Polizeipräsidium Stuttgart.

Die weiteren Projektteilnehmer und Partner laut Projektwebsite:

  • accu:rate GmbH,
  • Fraunhofer-Institut für Optronik, Systemtechnik und Bildauswertung,
  • Deutsche Hochschule der Polizei,
  • Polizei Berlin,
  • Polizeipräsidium Hamburg,
  • Polizeipräsidium Köln
  • Polizeipräsidien Frankfurt a.M., München, Gelsenkirchen, Düsseldorf, Dortmund
  • Polizeidirektion Leipzig,
  • Amt für öffentliche Ordnung und Berufsfeuerwehr der Städte Stuttgart und Köln
  • Projektträger war die VDI Technologiezentrum GmbH im Auftrag des Bundesministeriums für Bildung und Forschung (BMBF).

Wie funktioniert crowd:it?

Die Modelle und Simulationen werden bei der Software im Vorfeld der Veranstaltung erstellt. „Da die Software mit Annahmen aus der Wissenschaft arbeitet und weder aktuelle Mobilfunk- noch aktuelle Videodaten verarbeitet werden, werden keinerlei Daten von Besuchenden erhoben“, so die Polizei Stuttgart auf eine Anfrage von netzpolitilk.org.

Die Bewegungsmuster basieren laut Polizei Stuttgart auf Beobachtungen, Feld- und Laborexperimenten. Viele technische Details bleiben allerdings offen. So ist auch unklar, wie genau die zu simulierenden Räume (beispielsweise ein Fußballstadion oder das Gelände eines Volksfestes) digitalisiert werden. Auf eine entsprechende Anfrage von netzpolitik.org antwortete die Polizei Stuttgart nicht.

Die bei den Projekten (weiter)entwickelte Software „crowd:it“ bringt laut Polizei großen Nutzen: Die Software stelle bei Großveranstaltungen etwa Engstellen, Staus und ungenutzte Flächen im Falle einer Räumung anschaulich dar, schreibt die Polizei Stuttgart auf Anfrage. „Darüber hinaus ergeben Auswertungen zu Räumungszeiten und Laufwegen neue Erkenntnisse, die in die polizeiliche Einsatzplanung für Ad-hoc-Lagen einfließen können.“ Die Polizei will so genaueres Wissen über Räumungszeiten und die Platzierung von Polizist:innen auf dem jeweiligen Gelände bekommen.

Doch wie groß ist der Nutzen für den Polizeialltag wirklich? Für diese Frage war im Projekt die Deutsche Hochschule für Polizei zuständig. Wie aus der Abschlusspräsentation hervorgeht, war es die Aufgabe der Polizeihochschule einen „Ergebnisbericht in Bezug auf Einsatzfähigkeit, Praxistauglichkeit und Leistungsfähigkeit auf Grundlage der Evaluationsergebnisse“ zu erstellen. Wir haben diesen Bericht angefragt, jedoch keine Antwort auf unsere Presseanfrage erhalten.

Ziel: Analysen in Echtzeit

Neben dem aktuellen Nutzen verfolgt die Polizei mit dem Projekt noch ein langfristigeres Ziel: Analysen von Menschenmassen in Echtzeit. Simulationen zum Verhalten von Menschen also nicht nur im Vorfeld von Großveranstaltungen, sondern mit den Daten echter Menschen, während sie auf dem Volksfest, Festival oder rund um das Stadion unterwegs sind. Dieser Wunsch durch die Polizei ist gut dokumentiert. So heißt es in einem Handout zum Projekt:

„Noch arbeitet die Simulation nicht mit Echtzeitdaten. Mittelfristiges Ziel ist es jedoch, ESCAPE PRO zu einer Echtzeitsimulation fortzuentwickeln. Dieser technologische Quantensprung würde die Informationen für die polizeiliche Beurteilung der Lage revolutionieren und die darauf basierenden polizeitaktischen Entscheidungen auf eine belastbarere Datengrundlage stellen.“

Auch im internen Protokoll des Projektabschlusstreffens wird von einem „Zwischenschritt in Richtung Echtzeit“ gesprochen. Das Protokoll sowie zwei Präsentationen zum Projektabschluss hat netzpolitik.org über eine Anfrage nach dem Informationsfreiheitsgesetz erhalten.

Bis es soweit kommt, so schreibt es uns zumindest die Polizei Stuttgart, müsse noch weiter geforscht werden. „Eine Analyse in Echtzeit ist aus technischer Sicht zum aktuellen Stand der Technik aufgrund der für die Simulation benötigten Rechenzeiten nicht möglich.“ Eine mögliche Lösung sieht die Polizei Stuttgart im Einsatz von künstlicher Intelligenz, welche die Rechenzeiten der Simulationen verkürzen könne.

Potenzielle Datenquellen: Drohnen, Kameras, Apps

Doch für Echtzeit-Analysen müssen Daten erst einmal erhoben und zusammengeführt werden. An potenziellen Datenquellen mangelt es der Polizei nicht. Bei der EM übermittelte eine UEFA-App bereits den Live-Standort von Fans an die Polizei, zudem lässt die Polizei zur Videoüberwachung zunehmend Drohnen fliegen. Auf Anfrage bestätigt die Polizei Stuttgart, dass theoretisch „Videokameras, Drohnen oder Mobilfunkdaten“ einbezogen werden könnten. Vorteile und Herausforderungen müsse man aber im Rahmen weiterer Forschung abwägen, „insbesondere unter der Berücksichtigung der Genauigkeit, der Zuverlässigkeit, aber auch des Datenschutzes“.

Neben den verschiedenen Datenquellen ist unklar, ob die aktuelle Menge an Videoüberwachung ausreichen würde – oder ob die Polizei noch mehr Daten für die Echtzeit-Analysen braucht. Polizei-dein-partner.de, ein Portal der Gewerkschaft der Polizei (GdP), schreibt in einem Bericht aus dem vergangenen Jahr: „Die Software kann nur dort zum Einsatz kommen, wo viele Überwachungskameras installiert sind, die den gesamten infrage kommenden Bereich erfassen.“ Die Polizei Stuttgart distanziert sich von dem Bericht auf dem GdP-Portal, die dort beschriebene Funktionsweise könne man nicht bestätigen.

Datenschützer nicht informiert

Sowohl die Bundesdatenschutzbeauftragte, als auch der Landesbeauftrage für Datenschutz in Baden-Württemberg hatten bisher keine Kenntnis vom Projekt. Der Landesdatenschutzbeauftrage für Baden-Württemberg schreibt, man könne darum keine Bewertung vornehmen, aber: „Uns erscheint es nicht abwegig, anhand von Simulationen mögliche Risiken bei Großveranstaltungen zu identifizieren.“

Inwieweit personenbezogene Daten genutzt würden für Vorbereitung und Durchführung der Simulation, könne man nicht beurteilen. „Wir nehmen Ihre Anfrage zum Anlass und gehen auf das Polizeipräsidium Stuttgart zu, um uns zu informieren.“ Zur möglichen Erweiterung der Software auf Echtzeit-Simulationen äußern sich die beiden Beauftragten nicht. 

Fußballfans in Sorge wegen noch mehr Überwachung

Organisierte Fananwält:innen kritisieren das Forschungsprojekt: „Mit großer Besorgnis“ nehme man zur Kenntnis, dass die Polizei die Software zum gegenwärtigen Stand in den Polizeialltag integrieren will und langfristig auf eine Echzeit-Lösung kommen will. „Diesen Gelüsten der absoluten Überwachung und Kontrolle ist sowohl als Fan als auch als Bürger vehement zu widersprechen!“, schreibt der Dachverband der Fanhilfen auf unsere Anfrage.

Die Fußballfans kritisieren das Projekt als intransparent. So seien vertragliche Details zwischen dem Software-Hersteller accu:rate und den Polizeien nicht öffentlich, ebenso auch nicht die genauen Szenarien, die die Polizei simuliert. Auch in den von uns angefragten IFG-Dokumenten ist viel geschwärzt. Dazu schreiben die Fananwält:innen: „Als Fanhilfe stehen wir dieser Software-Einführung äußerst kritisch gegenüber, zumal die genaueren Szenarien uneindeutig bleiben und somit auch die anzunehmenden Folgen hinsichtlich weitgehender Grundrechtsverletzungen.“

Einsatz auch bei Demonstrationen?

Wie genau die Software in den Polizei-Alltag integriert werden soll, ist nicht bekannt. Laut den internen Dokumenten der Abschlussbesprechung hat das Polizeipräsidium Stuttgart drei Varianten vorgeschlagen: Bei der ersten erstellt die Polizei alle Simulationsszenarien selbst, bei der zweiten wird eine „Grundsimulation“ durch Externe erstellt, auf welcher dann weitere Szenarien der Polizei basieren, bei der dritten Variante werden die Simulationen vollständig outgesourct.

Ebenso unklar bleibt, wofür genau die Software in Zukunft eingesetzt werden soll. Neben Fußballspielen wurde die Software bisher unter anderem auch bei einem Volksfest und einem Weihnachtsmarkt in Stuttgart getestet. Als „weitere prozessorientierte Anwendungsfelder“ nennt die Polizei Stuttgart in ihrer Abschlusspräsentation zum Projekt „Fanwalks“, „Einlasszenarien“ und „Versammlungslagen“. Mit „Versammlungslagen“ könnte auch ein Einsatz bei Demonstrationen und Protesten gemeint sein. Auf eine entsprechende Nachfrage von netzpolitik.org hat die Polizei Stuttgart nicht geantwortet.

Laut den Abschlussdokumenten soll es in Zukunft ein weiteres Forschungsprojekt geben. Dieses sei aber noch nicht beantragt, „da im Hinblick auf eine neue Projektskizze noch verschiedene Punkte abgestimmt werden müssen“, erklärt die Polizei Stuttgart. Die bisherigen Projekte wurden vom Bundesministerium für Bildung und Forschung im Rahmen der Sicherheitsforschung gefördert, ESCAPE Pro mit etwa einer Million Euro.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

20.05.2025 17:11

Ein ungarischer Fotojournalist wurde per Staatstrojaner überwacht und wollte vor Gericht erfahren, warum. Seine Klage wurde ohne nähere Begründung abgewiesen – zu Unrecht, wie das ungarische Verfassungsgericht nun urteilte.

Zwei Männer in dunklen Anzügen
Ungarns Justizminister Bence Tuszon darf die Überwachung mit Staatstrojanern anordnen. – Alle Rechte vorbehalten IMAGO / Martin Bertrand

Ein Betroffener staatlicher Überwachung in Ungarn hat einen Teilerfolg vor Gericht erzielt. Vor vier Jahren wurde bekannt, dass Ungarn Investigativjournalist:innen, Anwält:innen und Aktivist:innen mit dem Staatstrojaner Pegasus ausgespäht hatte. Einer von ihnen, der Fotojournalist Dániel Németh, bekam nun Rückenwind vom ungarischen Verfassungsgericht. Demnach wurde sein Recht auf informationelle Selbstbestimmung verletzt, weil ihm Auskünfte zur Überwachungsmaßnahme ohne nähere Begründung verweigert wurden.

Németh dokumentiert seit Jahren den luxuriösen Lebensstil der ungarischen Führungselite und begleitet sie mit seiner Kamera auf ihren Reisen. Auf diese Weise geriet er offenbar ins Visier des Staats. Sicherheitsforscher:innen des kanadischen Citizen Lab bestätigten, dass zwei seiner Telefone mit Pegasus überwacht wurden. Also verlangte Németh vom Verfassungsschutz Auskunft darüber, welche Daten über ihn gespeichert wurden und warum er überhaupt als Gefahr für die nationale Sicherheit behandelt wurde.

Der ungarische Geheimdienst hatte seine Anfrage unter Verweis auf ein Gesetz zur nationalen Sicherheit abgelehnt; Németh zog vor Gericht. Doch das Budapester Landgericht hat seine Klage abgewiesen – aus formalen Gründen. Es sah sich nicht befugt, darüber zu urteilen, ob die Ablehnung begründet sei.

Das Verfassungsgericht urteilte jetzt, dass dieses Vorgehen verfassungswidrig war und hob das Urteil auf. Das Landgericht hätte in der Sache prüfen müssen, ob eine Ablehnung von Némeths Auskunftsanspruch unter Berufung auf die nationale Sicherheit tatsächlich gerechtfertigt und verhältnismäßig sei. Ein Grundrecht – wie das Recht einer Person zu erfahren, welche Daten der Staat über sie gesammelt hat – dürfe nur eingeschränkt werden, wenn dies wirklich notwendig sei. Diese Überprüfung sei hier ausgeblieben.

NGO sieht keinen Grund zum Feiern

Die HCLU warnt jedoch davor, dieses Urteil als Durchbruch zu feiern. „Die Entscheidung zeigt definitiv nicht, dass der Rechtsstaat in Ungarn gut funktioniert“, sagt der zuständige Jurist Ádám Remport. Das Verfassungsgericht habe lediglich an seiner früheren Position in dieser Frage festgehalten. Schon 2014 hatte es geurteilt, dass Gerichte inhaltlich prüfen müssten, ob eine Ablehnung unter Berufung auf die nationale Sicherheit im Einzelfall begründet sei.

Das Urteil bedeute auch nicht, dass der Geheimdienst die Daten über Németh nun offenlegen müsse. Eher geht es dem  Juristen zufolge um ein absolutes rechtsstaatliches Minimum: Gerichte dürfen sich nicht über ein Urteil in solchen Fällen drücken – denn das würde die Berufung der Nachrichtendienste auf die nationale Sicherheit von jeder Kontrolle ausnehmen.

Die Menschenrechtsorganisation vertritt insgesamt sieben Betroffene, deren Geräte in Ungarn mit Pegasus überwacht oder ins Visier genommen wurden und koordiniert ihre Fälle. Darunter sind der Investigativjournalist Szabolcs Panyi, der den Überwachungsskandal in Ungarn selbst mit aufgedeckt hat und die Anwältin Ilona Patócs.

Ungarns Geheimdienste können nahezu unbegrenzt überwachen

Mit der strategischen Prozessführung in diesen Fällen will die HCLU nicht nur die Rechte der Einzelnen durchsetzen. Sollten alle Beschwerden und Klagemöglichkeiten, die das ungarische Recht für die Betroffenen vorsieht, ausgeschöpft sein, würden die Fälle vor dem Europäischen Gerichtshof für Menschenrechte (EMGR) in Straßburg landen. Der könnte dann erneut feststellen, dass die ungarische Rechtslage keine ausreichenden Kontrollmechanismen für die betroffenen Personen vorsieht.

Die HCLU warnt seit Langem davor, dass die Geheimdienste in Ungarn über nahezu unbegrenzte Überwachungsbefugnisse verfügen. Statt einer unabhängigen Stelle genehmigt der Justizminister oder die Justizministerin die Überwachung und entscheidet über ihre Rechtmäßigkeit. Eine externe Kontrolle der Entscheidungen ist nicht vorgesehen und betroffene Personen haben keine Möglichkeit zu erfahren, ob ihre Daten unrechtmäßig erhoben wurden, und somit auch keinen Zugang zu Rechtsmitteln.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

20.05.2025 16:06

Mark Zuckerberg will wieder mal an unsere Daten – dieses Mal um seine KI zu trainieren. Bis zum 26. Mai ist Widerspruch möglich: Wir erklären, warum das eine gute Idee ist, und zeigen, wie es funktioniert.

Mark Zuckerberg mit Sonnenbrille grinst in eine Kamera
Freut sich über neue Daten: Meta-Chef Mark Zuckerberg. (Symbolbild) – Alle Rechte vorbehalten IMAGO / ZUMA Press Wire

Im Wettrennen der Tech-Konzerne um die Vorherrschaft bei Künstlicher Intelligenz ist Mark Zuckerbergs Meta abgeschlagen. Jetzt sollen wir alle ausgepresst werden, um sein Unternehmen wieder konkurrenzfähig zu machen. Der Milliardär will alle öffentlichen Äußerungen der Meta-Nutzer:innen zum Trainingsmaterial für Künstliche Intelligenz umfunktionieren.

Posts, Kommentare und Reaktionen auf Facebook und Instagram werden dann zum Beispiel in das große Sprachmodell des Konzerns namens Llama einfließen. Auch der „Meta-AI“ genannte Chat-Bot, der Nutzer:innen seit geraumer Zeit in Form eines penetranten blauen Rings nervt, soll mit ihren Daten trainiert werden.

Wer bis 26. Mai nicht aktiv widerspricht, hängt für immer drin.

Deshalb das Wichtigste zuerst: Wenn Du nur schnell herausfinden willst, wie der Widerspruch funktioniert, dann findest Du einen einfachen Klick-Leitfaden am Ende dieses Artikels.

Solltest Du Dich jedoch noch fragen, warum Du Dir überhaupt die dafür notwendigen Klicks zumuten sollst, um der Nutzung Deiner Daten zu widersprechen, dann kommen hier drei Argumente, die Dich hoffentlich überzeugen.

Löschung unmöglich

Da ist als erstes das klassische Datenschutz-Argument. Kernelement des europäischen Datenschutzes sind die sogenannten Betroffenenrechte: Alle sollen jederzeit von Unternehmen verlangen können, dass ihre Daten korrigiert oder gelöscht werden. Bei sogenannter KI ist das technisch nicht möglich. Große Sprach- und Bildmodelle funktionieren heute in der Regel so, dass sich einzelne Daten nicht löschen lassen.

„Trainingsdaten fließen unwiderruflich in KI-Modelle ein, und ihr Einfluss kann nach heutigem Stand der Technik nicht mehr aus dem Modell entfernt werden“, warnt deshalb auch der Hamburger Datenschutzbeauftragte. Zwar könne man später der Datennutzung für Metas KI widersprechen, doch für die bereits eingeflossenen Daten ist es dann zu spät.

Das ist besonders gravierend, weil unklar ist, wie genau Meta die Daten einzelner Nutzer:innen schützen will. Lassen sich in KI-Produkten später mal unsere persönlichen Spuren finden? Wird der Chatbot uns irgendwann damit konfrontieren, welche Inhalte wird vor zehn Jahren geliked oder kommentiert haben? Wird er vielleicht sogar anderen Nutzer:innen oder Strafverfolgungsbehörden davon berichten? Wir wissen es nicht und müssen uns darauf verlassen, dass Meta verantwortungsvoll mit unseren Daten umgeht. Keine Pointe.

KI-Bots als Influencer auf Steroiden

Schauen wir als zweites auf das, was Meta mit seinen KI-Produkten erreichen möchte. Mark Zuckerberg hat nämlich das Thema Einsamkeit für sich entdeckt und verspricht uns virtuelle Freund:innen dank KI. Das ist clever, weil der Milliardär seine Produkte als Lösung eines echten Problems vermarktet. Studien zeigen, dass Einsamkeit zugenommen hat, insbesondere unter jungen Menschen. Zuckerbergs Versprechen: Bots sollen es richten, trainiert mit unseren eigenen Daten sollen sie nicht nur Ablenkung, sondern auch Empathie und Freundschaft bringen.

Theoretisch mag das sogar möglich sein. Vor dem Hintergrund von Metas Geschäftsmodell ist das wahrscheinlichere Szenario jedoch, dass die Bots vor allem Werbe-Werkzeuge werden, die ihre intimen Kenntnisse unserer Persönlichkeit nutzen, um uns neue Produkte anzudrehen. Meta ist ein Werbekonzern, er verdient sein Geld damit, unsere Aufmerksamkeit zu vermarkten und uns mit möglichst zielgenauer Kommunikation zu manipulieren. In Mark Zuckerbergs Träumen sind KI-Bots Influencer auf Steroiden.

Die andere große Einnahmequelle für Metas KI-Anwendungen dürften übrigens Verträge mit dem Militär sein. Kriegstechnologien sind im Silicon Valley längst „das nächste große Ding“. Eine Klausel, die eine Nutzung von Metas Sprachmodell Llama für militärische Zwecke ausschloss, hat der Konzern kürzlich kassiert.

Datenvieh, das gemolken werden soll

Als drittes möchte ich an Deine Würde appellieren. Meta versucht hier mal wieder mit allen Mitteln der Kunst, uns vorzuführen. Statt uns schlicht zu fragen, ob wir unsere Daten für die KI hergeben wollen, setzt der Konzern unser Einverständnis voraus. Den Widerspruch macht er so kompliziert, wie es rechtlich gerade noch erlaubt sein könnte (oder auch nicht). Meta will uns – mal wieder – Steine in den Weg legen bei der freien Entscheidung.

Wieso lassen wir uns von diesem Konzern so behandeln? Wir sind für ihn nicht mehr als Datenvieh, das jetzt auch für die KI gemolken wird. Ein Widerspruch ist für Meta zwar nur etwas Sand im Getriebe, aber je mehr Menschen mitmachen, desto größer wird der Ärger für Mark Zuckerberg.

Und auch dieses noch: Es soll ja angeblich Menschen geben, die tatsächlich Bock auf Metas KI haben. Das jedenfalls behauptet der Konzern. Sollten sie wirklich existieren, dann sei ihnen versichert, dass sie Metas KI auch dann nutzen können, wenn sie keine eigenen Daten für das Training freigeben. Grundsätzlich gilt aber natürlich, dass der beste Schutz vor Metas Datenhunger noch immer ist, die Accounts gleich ganz zu löschen. Für alle, die trotzdem bleiben wollen, folgt hier der Leitfaden zum Opt-Out.

Anleitung zum Widerspruch gegen die Meta-KI

Damit der Widerspruch rechtzeitig wirksam wird, muss er bis 26. Mai 2025 erfolgen.

Durch die Gestaltung des Widerspruchs-Menüs versucht Meta, Nutzer:innen möglichst davon abzuhalten. So ist der Widerspruch nicht durch einen einfachen Schalter in den Apps des Konzerns möglich. Meta versucht außerdem, Nutzer:innen durch ein Freifeld für eine schriftliche Begründung abzuschrecken. Dieses muss jedoch nicht ausgefüllt werden.

Wer widersprechen will, muss dafür bei Meta eingeloggt sein.

Hier gelangst Du direkt zu den Widerspruchsformularen im Netz:

In der Instagram-App findet man mit einigen Klicks zum Widerspruchsformular:

  • Einstellungen öffnen
  • Auf „Privacy Center“ klicken
  • Dort im Fließtext auf „Widerspruch“ klicken
  • Das Formulart absenden (das Freitextfeld muss nicht ausgefüllt werden)
  • Meta verschickt nach erfolgreichem Widerspruch eine Bestätigung per Mail






Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

19.05.2025 16:29

Unter dem Deckmantel des Bürokratie-Abbaus möchte die EU-Kommission Teile der Datenschutzgrundverordnung neu verhandeln. Mehr als hundert zivilgesellschaftliche Organisationen fürchten, dass dies zum Einfallstor wird, um „hart erkämpfte Rechte“ zurückzunehmen und den Datenschutz zu verwässern.

Zeichnung der Pandora mit Büchse, umringt von Göttern im Olymp.
Viele Kräfte würden gerne die DSGVO neu verhandeln – und damit die Büchse der Pandora öffnen. (Symbolbild) – CC0 Bernard Picart

Die EU-Kommission plant, Regelungen der Datenschutzgrundverordnung „zu vereinfachen“. Sie will Dokumentationspflichten für kleinere und mittlere Unternehmen herausstreichen, um Bürokratie abzubauen. Datenschutzorganisationen hatten zuletzt die Befürchtung geäußert, dass mit den Änderungen die „Büchse der Pandora“ geöffnet wird – und der Datenschutz insgesamt verwässert werden könnte. Hintergrund ist dabei auch, dass sich die politischen Mehrheitsverhältnisse im EU-Parlament geändert haben und die eher datenschutzfeindlichen Konservativen und Rechtsradikalen nun mehr Einfluss und Stimmen haben.

In einem gemeinsamen Schreiben (PDF) an die EU-Kommission fordert der Dachverband europäischer Digitalorganisationen EDRi zusammen mit mehr als hundert zivilgesellschaftlichen Initiativen, Wissenschaftler:innen, Unternehmen, Gewerkschaften und Expert:innen deswegen eine Ablehnung der Überarbeitung der Datenschutz-Grundverordnung (DSGVO). Die DSGVO sei mehr als eine Verordnung, heißt es im offenen Brief: „Sie ist das Rückgrat des digitalen Regelwerks der EU, eine hart erkämpfte legislative Errungenschaft, die hohe Standards setzt und die Würde der Menschen in einer datengesteuerten Welt schützt.“

Gefahr, dass hart erkämpfte Rechte zurückgenommen werden

Auch wenn einzelne vorgeschlagene Änderungen theoretisch gut seien, könnte die DSGVO durch den Prozess anfällig für weitergehende Deregulierung werden. „Viele solcher Bestrebungen sind bereits erkennbar, darunter Forderungen nach einer Schwächung der Einwilligungsvorschriften ohne wirksame Schutzmaßnahmen für die Nutzer:innen oder nach einer Legitimierung der invasiven Nutzung personenbezogener Daten für KI-Trainingszwecke“, schreiben die Organisationen.

Die Unterzeichnenden, unter ihnen der Verbraucherzentrale Bundesverband, Mozilla und die Digitale Gesellschaft, fordern die Europäische Kommission deswegen auf, „jede Wiederaufnahme der DSGVO – egal wie begrenzt sie auch erscheinen mag – abzulehnen und die Integrität der Verordnung als Grundlage des EU-Digitalrechts zu bekräftigen“. Außerdem müsse sie anerkennen, „dass die derzeitigen Herausforderungen bei der Umsetzung durch eine wirksame Durchsetzung mit Klarheit und nicht durch Deregulierung gelöst werden können“. Die Kommission solle externen und internen Druck abwehren, „der darauf abzielt, die Rechte der Menschen im Namen der Wettbewerbsfähigkeit oder von Handelsinteressen zu opfern.“

Eine Wiederaufnahme der Verhandlungen rund um die DSGVO würde die Gefahr mit sich bringen, „hart erkämpfte Rechte“ zurückzunehmen, so die Unterzeichnenden weiter.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

19.05.2025 13:40

Die Debatte um die Handynutzung in der Schule dreht sich weiter. Mehrere Bundesländer wollen Verbote durchsetzen. Aus medienpädagogischer Sicht ist das kaum zu rechtfertigen, warnt die Expertin Kathrin Demmler. Schulen müssten sich stattdessen viel mehr mit technischen Geräten befassen.

Schild an einer Glastür, darauf ein durchgestrichenes Handy, darunter steht "Schulgeände"
Handy verbannt, Problem gelöst? – Alle Rechte vorbehalten IMAGO/Bihlmayerfotografie

In Bremen ist es entschieden: Ab Anfang Juni dürfen Schüler:innen bis zur 10. Klasse in der Schule kein Handy mehr benutzen, die Geräte müssen ausgeschaltet in der Tasche bleiben. Handys hätten in der Schule keinen Sinn, sagt Bildungssenatorin Sascha Karolin Aulepp (SPD). „Sie sind nicht notwendig, aber sie stellen eine potentielle Ablenkung und Gefährdung für Schülerinnen und Schüler dar.“

Auch Hessen debattiert derzeit einen Gesetzentwurf von CDU und SPD, der Handys aus der Schule verbannen soll. Darin heißt es, Schulen müssten „Smartphone-Schutzzonen“ sein, digitale Medien würden für Schüler:innen Gefahren bergen und außerdem der Konzentration schaden.

Auch die neue Bundesbildungsministerin Karin Prien (CDU), bis vor Kurzem noch für die Schulpolitik in Schleswig-Holstein zuständig, schaltet sich in die Debatte ein. Ihre Haltung dazu sei klar, sagte Prien: „In der Grundschule sollte die private Handynutzung verboten sein. An den weiterführenden Schulen sollten möglichst altersgerechte Regeln gefunden werden.“

Handys haben an der Schule generell nichts verloren? Kathrin Demmler reagiert auf solche pauschalen Verbotsforderungen inzwischen „allergisch“, wie sie sagt. Demmler ist Direktorin des Vereins JFF – Jugend Film Fernsehen, zudem Mitherausgeberin der Zeitschrift für Medien und Erziehung „Merz“. Seit mehr als 20 Jahren beschäftigt sie sich mit der Frage, wie Schulen mit technischen Geräten umgehen sollen. Sie warnt: Mit den Bedürfnissen der Kinder und Jugendlichen haben die Verbotsforderungen der Politik gerade nur wenig zu tun.

„Ein generelles Verbot ist nicht zum Wohl von Kindern“

netzpolitik.org: Frau Demmler, warum hören wir derzeit wieder so viele Forderungen nach einem Handyverbot in der Schule?

Demmler: Das sind Wellenbewegungen, die nicht zur Ruhe kommen. Wir haben es derzeit viel mit populistischen Nachrichten zu tun, die über das Handy uns und auch Kinder und Jugendliche erreichen. Wir merken, dass die Kompetenzen der Lehrpersonen nicht in dem Maß voranschreiten, wie man es sich wünschen würde. Und das weltweit Schlagzeilen machende Social-Media-Verbot in Australien hat sicher auch seinen Teil dazu beigetragen.

netzpolitik.org: Die australische Regierung hat im vergangenen Jahr ein Social-Media-Verbot für alle unter 16-Jährigen beschlossen. Welchen Effekt hat das auf die Debatte in Deutschland?

Demmler: Das passt in unsere politische Landschaft. Da heißt es: Schaut, die reden nicht, die greifen durch. Das wird ja auch hier von vielen gefordert: Die Politik soll handeln. Und die Australier sagen: So schwer ist es nicht, mit diesem Schund ein Ende zu machen.

Das Faszinierende an der aktuellen Verbotswelle: Wir hatten unterschiedlichste Themen über die Jahre. Als die ersten Handys mit Videofunktion auf dem Markt kamen, ging es um Gewaltvideos, wir hatten immer wieder Debatten um Mobbing. Jetzt gerade geht es vor allem um den Content, etwa TikTok-Videos aus Kriegsgebieten. Aus fachlicher Sicht ist das kaum mit einer Verbotsdebatte in Einklang zu bringen. Denn wenn Smartphones in der Schule verboten sind, wie soll ich damit einen Umgang finden?

netzpolitik.org: Aus fachlicher Sicht sind Sie gegen ein pauschales Verbot?

Demmler: Schulen oder Kommunen können gerne Empfehlungen aussprechen, etwa: In der Unterstufe müssen Smartphones in der Tasche bleiben. Da ist nichts gegen einzuwenden. Ich mache das auch keiner Lehrperson zum Vorwurf, dass sie sich ein Verbot wünscht. Das ist ein logischer Reflex zu denken: Ich verbanne das Handy aus der Schule und damit das ganze Thema. Aber die Erfahrung zeigt, dass ein generelles Verbot nicht zum Wohl von Kindern ist. Deswegen reagieren wir inzwischen allergisch auf diese Verbotsdebatten.

Es ist auch die Frage aus meiner Sicht: Wie setzt man so ein Verbot dann durch? Darf man ein Handy wegnehmen? Ist das nicht zu kurz gegriffen und müsste man nicht viel stärker den Dialog suchen? Das Wegnehmen löst vielleicht kurzfristig ein Problem, aber nur, indem es das vom Tisch wischt.

Frau vor gerastertem Hintergrund
Wer das Handy verbannt, löst nur kurzfristig Probleme, warnt Medienpädagogin Kathrin Demmler, Direktorin der Vereins JFF – Jugend Film Fernsehen e. V. - Alle Rechte vorbehalten Porträt: JFF; Montage: netzpolitik.org

„Es gibt keinen Grund für ein Verbot“

netzpolitik.org: Was sollte stattdessen an Schulen passieren?

Demmler: Es gibt keine gute Studienlage zu den Auswirkungen von Verboten. Aber man erkennt eine ganz leichte Tendenz, dass es dort, wo Handyverbote gelten, auch mehr Mobbing und Gewalt gibt an Schulen. Das hat sicher nichts mit dem Handyverbot zu tun, sondern eher mit der Haltung der Schule. An solchen Schulen wird vermutlich generell weniger auf Schüler:innen eingegangen. Und wir wissen, dass gerade Cybermobbing damit zusammenhängt, dass Schüler.innen niemanden haben, an den sie sich wenden können.

Es gibt also keinen Grund für ein Verbot, außer dass man das Problem vom Tisch haben will. Der Weg ist, sich mit dem Smartphone als Zugangsgerät mehr auseinanderzusetzen, und das ist mühsam.

netzpolitik.org: Die Verfechter:innen eines Verbots argumentieren auch damit, dass die Geräte im Unterricht zu sehr ablenken. Ist da etwas dran?

Demmler: Klar braucht es Vereinbarungen. Unreglementiert ist das eine Riesenablenkung. Es werden ja auch nicht alle in Familien groß, wo eine gute Mediennutzung stattfindet. Man muss den Umgang damit lernen, das gilt auch für Erwachsene. Aber die Verbotsdebatte führt das für mich ad absurdum. Ein Verbot ist immer die pauschalste Regelung. Damit ist nicht geregelt, wie man sich verhält. Wir wollen, dass Lehrpersonen für Kinder und Jugendliche Ansprechpersonen sind, wenn die mit ihrem Smartphone in Probleme tappen. Wenn ich aber Geräte in der Schule generell verbiete – wie soll ich mich da als Gesprächspartnerin anbieten?

Wir haben die große Sorge, dass ein Verbot auf keinen Fall zu mehr Befassung damit in der Schule führen wird. Die Kinder finden nicht die Ansprechpersonen, die sie bräuchten für ihre Fragen.

„Viel mehr Dos als Don’ts“

netzpolitik.org: Viele Schulen geben sich bereits heute in eigener Verantwortung Regeln für den Umgang mit Geräten, manchmal unter Mitwirkung der Schüler:innen. Teils sind Handys oder ihre Nutzung im Unterricht oder auf dem Schulgelände verboten. Wozu braucht man da noch gesetzliche Regelungen?

Demmler: Das ist sinnvoll, wo es darum geht, welches Recht Lehrpersonen haben, wenn gegen Regelungen verstoßen wird. Haben sie zum Beispiel das Recht, ein Smartphone einzubehalten. Schüler:innen machen ja tatsächlich auch verbotene Dinge mit dem Handy, verletzen etwa die Persönlichkeitsrechte anderer Personen. Da brauchen Lehrpersonen Handlungssicherheit.

netzpolitik.org: Was sollte sonst noch von den Ländern geregelt werden?

Demmler: Die Kultusministerien müssen Rahmenvereinbarungen machen. Es ist zum Beispiel absolut sinnvoll, eine altersabgestufte Lösung in der Schule einzurichten: Für Grundschulen etwa zu sagen, dass Kinder kein Smartphone mitbringen sollen. Ab der 5. Klasse haben die meisten Kinder ein Smartphone, da kann man sich auf den Kopf stellen. Auch dafür kann man aber Vereinbarungen treffen: Richtet man eine Handygarderobe ein oder sagt, die Geräte bleiben in den Rucksäcken? Welche Ausnahmen davon soll es geben? Wir haben ja etwa regelmäßig den Fall, dass Lehrkräfte auf die Endgeräte der Kinder zurückgreifen müssen, wenn im Unterricht etwas recherchiert werden soll, weil die Schule zu schlecht ausgestattet ist. Was ist mit Kindern in Ganztagsschulen? Sollten die ihre Handys in der Mittagspause nutzen dürfen?

Für all das braucht man Rahmenvereinbarungen und viel mehr Dos als Don’ts. Eine Positivregelung wäre dann: Handys sind in der 5. bis 7. Klasse sinnvoll an diesem Ort aufgehoben.

netzpolitik.org: Gerade für Jugendliche ist ihr Handy eine wichtige Verbindung, um sich mit Freunden zu vernetzen, sich zu informieren oder an Debatten im Netz teilzunehmen. Wie passt das mit einem Verbot in der Schule zusammen?

Demmler: Digitale Endgeräte sind wichtig zur Teilhabe an sozialen Interaktionen, an Freundesgruppen, aber auch um zu lernen, wie nehme ich Teil an Diskursen. Das zum Thema zu machen, ist Aufgabe der Schule. Gleichzeitig kann ich auch wunderbar über die Möglichkeiten der digitalen Partizipation sprechen. Was eignet sich denn besser dafür als gemeinsam zu überlegen, wie man das Handy in der Schule nutzen will? Das ist ein Paradebeispiel, um den Sinn von Teilhabeprozessen zu verdeutlichen.

netzpolitik.org: Wie gehen unsere Nachbarländer mit Handys in der Schule um?

Demmler: Frankreich hat ein komplettes Nutzungsverbot für alle Grundschulen. Für weiterführende Schulen gilt seit 2018 ein Verbot, aber da werden gerade Ausnahmeregelungen diskutiert. Die Niederlande sind auch relativ streng, zugleich aber auch sehr gut mit digitalen Endgeräten in der Schule ausgestattet. In Dänemark ist es ähnlich wie hier. Ein landesweites Nutzungsverbot wird diskutiert, ist aber noch nicht durch.

„Schüler:innen wünschen sich faire und transparente Regeln“

netzpolitik.org: Gibt es Erkenntnisse dazu, dass Schüler:innen an diesen Schulen weniger abgelenkt sind?

Demmler: In Querschnittsanalysen von Studien erkennt man leichte Tendenzen für einen Zusammenhang von mehr Smartphone-Nutzung und schlechteren schulischen Leistungen. Aber ein Handyverbot führt zugleich nicht zur besseren Leistungen.

netzpolitik.org: Wie erklären Sie sich das?

Demmler: Medien sind immer eingebettet in das Sozialhandeln. Ein Kind, das sehr intensiv sein Smartphone nutzt, hat vielleicht gerade andere Probleme, von denen es sich ablenken will. So ein Kind hat dann auch Probleme in der Schule. Ob das von der Smartphone-Nutzung kommt, weiß man nicht. Wir Pädagoginnen schauen uns den Kontext an. Man kann das nicht isoliert betrachten und sagen: Ich nehme das Smartphone weg aus der Schule und dann habe ich folgenden Erfolg.

netzpolitik.org: Was wünschen sich die Schüler:innen selbst, wenn man sie fragt?

Demmler: Sie wünschen sich klare, faire und transparente Regeln, die für alle gelten. Sie wünschen sich, dass man sich nicht nur mit den Regeln für Schüler:innen befasst, sondern auch mit denen für Erwachsene. Die Regeln müssen nicht gleich sein, so naiv sind sie nicht, aber es soll welche geben. Sie wünschen sich, dass sie mitreden dürfen. Sie wünschen sich, dass digitale Endgeräte viel stärker ein Thema sind. Und sie wünschen sich Erwachsene, die ihre Probleme verstehen und nicht gleich die Verbotskeule schwingen, sondern gemeinsam eine Lösung suchen.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

19.05.2025 11:50

Die schwarz-rote Koalition will das liberale Versammlungsgesetz des Landes Berlin verschärfen. Wer heute Grundrechte schleift, macht die Protesträume enger, wenn irgendwann die Rechtsextremisten an die Macht drängen. Das ist gefährlich. Ein Kommentar.

Blick auf eine Demonstration. Sichtbar im Bild ist ein Plakat, auf dem steht: "Fediverse, deine Macht im Netz"
Satirischer Protest in Berlin-Grunewald am 1. Mai. – Alle Rechte vorbehalten IMAGO / A. Friedrichs

Bei einer pro-palästinensischen Demo kommt es zu Gewalt. Ein Polizist wird schwer verletzt, er muss im Krankenhaus behandelt werden. Diesen Vorfall nutzen nun Politiker:innen aus der schwarz-roten Landesregierung, um die Einschränkung des Berliner Versammlungsgesetzes zu fordern. CDU-Mann Burkhard Dregger stellt sich in die innenpolitischen Fußstapfen seines Hardliner-Vaters und möchte das „Versammlungsrecht so restriktiv ausgestalten, wie es das Grundgesetz zulässt“. Das ist gefährlich und vollkommen unnötig.

Wir befinden uns in Deutschland an einem politischen Scheideweg. Die rechtsextremistische AfD ist mittlerweile in einigen Bundesländern in Umfragen die stärkste Partei. Teile der Union reißen die Brandmauern immer weiter ein. Deutschland könnte also in absehbarer Zeit eine autoritäre Rechtsregierung drohen.

In solchen Zeiten Grundrechte einzuschränken, wird den autoritären Durchmarsch einfacher machen. Die Rechnung ist einfach: Kommt eine rechte Regierung an die Macht, muss sie Gesetze erst einmal ändern, um ihr autoritäres Projekt durchzusetzen. Jede Gesetzesänderung ist eine demokratische Möglichkeit für die Empörung und Protest. Jedes Grundrecht, das schon geschliffen ist, bedeutet also weniger Widerstand.

Schon heute Einschränkungen möglich

Berlin hat ein relativ liberales Versammlungsfreiheiheitsgesetz, das sich positiv von Landesgesetzen wie in NRW abhebt. In der Praxis aber klagen Demoveranstalter schon heute über Einschränkungen von polizeilicher Seite. Mit widersinnigen Auflagen und repressiven Maßnahmen schränkt die Polizei schon heute die Demonstrationsfreiheit ein, so zuletzt am 1. Mai. Die Polizei wollte im Grunewald die Nutzung der Grünflächen für eine Kundgebung verbieten, wurde aber noch vom Verwaltungsgericht gestoppt.

Die schwarz-rote Koalition hat sich eine Evaluation des Versammlungsfreiheitsgesetzes in den Koalitionsvertrag geschrieben. Das ist nun der Türöffner für mögliche Einschränkungen. Erklärtermaßen will die Koalition die „öffentliche Ordnung“ wieder als Grund ins Versammlungsgesetz aufnehmen, auf Basis dessen sich Demonstrationen einschränken lassen.

Daraus wird deutlich: Regierungsparteien und Behörden sehen Demonstrationen nicht vorrangig als elementaren lebendigen und wichtigen Teil der Demokratie, sondern immer nur als Bedrohung und Risiko, welches minimiert werden muss. Diese einseitige Sicht tut dem Grundrecht auf Versammlungsfreiheit nicht gut.

Starke Grundrechte machen resilient

Die Polizei hat schon heute genügend Möglichkeiten, bei Straftaten auf Demonstrationen zu reagieren und einzugreifen. Während die Scharfmacher sich negative Beispiele herauspicken und damit die Einschränkungen begründen, ist auch klar: Ein geändertes Versammlungsrecht wird alle Demonstrationen betreffen und einschränken.

Am Ende könnte sich eine rechtsradikal dominierte Regierung freuen, dass sie mit Verweis auf die „öffentliche Ordnung“ demokratischen Protest einfacher verhindern kann. Gerade deswegen sollten wir in diesen Zeiten Grundrechte schützen, wo wir können. Denn starke Grundrechte erweitern den Möglichkeitenraum für demokratische Resilienz. Und die brauchen wir unbedingt.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

18.05.2025 08:53

Alterskontrollen für alle lösen keine Probleme, sondern schaffen neue. Im Mittelpunkt vom Jugendmedienschutz sollte die Frage stehen, welche Informationsangebote den Bedürfnissen von Jugendlichen gerecht werden. Ein Essay.

Die Montage zeigt einen Screenshot aus einem Video, in dem ein Biber im Flur einen Damm aus Gegenständen baut sowie ein Zutritt-verboten-Schild
Verbote und Bedürfnisse (Symbolbiber) – Biber: YouTube/HolleyMuraco; Montage: netzpolitik.org

Dieser Beitrag erschien zuerst in der Zeitschrift mediendiskurs des Vereins Freiwillige Selbstkontrolle Fernsehen (FSF).

Ende 2022 trägt eine Biberdame eine rosafarbene Plüschente durch einen Hausflur. Sie ist zu Gast in einer gemeinnützigen Auffangstation für bedürftige Biber im US-Bundesstaat Mississippi. Die Biberdame platziert die Plüschente neben dem Türrahmen auf einem Handtuch und drückt mit den Pfoten auf ihr herum, bis alles richtig sitzt. Wenig später zieht sie für den Bau ihres Dammes unter anderem raschelndes Geschenkpapier über die haselnussbraunen Dielen, einen kleinen Weihnachtsbaum, eine grobe Decke und einen Pantoffel. Sollte – entgegen aller Erwartungen – ein Fluss durch diesen Flur fließen: Der Damm stünde bereit.

Millionen Menschen haben das Bauprojekt der Biberdame aus Mississippi verfolgt, im YouTube-Video „Rescue beaver makes Christmas dam in house“. Es verrät viel über den Umgang mit Bedürfnissen und Verboten – auch unter uns Menschen. Zu ihrem eigenen Schutz haben Menschen die Biberdame in die Auffangstation gebracht. Aber ihrem innersten Bedürfnis, Dämme zu bauen, darf sie dort weiter nachgehen.

Gerade im Jahr 2025 ist die Debatte um Jugendmedienschutz vorwiegend von Verboten geprägt, weniger von Bedürfnissen. Im Gespräch ist vor allem ein Werkzeug, das Kinder und Jugendliche angeblich vor den vielfältigen Unwägbarkeiten im Netz bewahren soll: Alterskontrollen.

Diese Kontrollen sollen eine scharfe Linie ziehen zwischen Inhalten für alle – und Inhalten, die sich nur nach einer bestandenen Prüfung einsehen lassen, kontrolliert per Ausweisdokument oder Biometrie. International arbeiten Politik und Behörden an entsprechenden Gesetzentwürfen, Leitlinien und Prototypen. Es geschieht in den USA, in Großbritannien und in Australien, in der EU, im Bund, in weiteren EU-Mitgliedstaaten und in den Bundesländern.

In diesem Text müssen sich die Pläne für Alterskontrollen der kritischen Frage stellen, was sie wirklich für Kinder und Jugendliche bewirken können – und was die Biberdame aus Mississippi dazu sagen würde.

Bund, Länder und EU wollen mehr Alterskontrollen

Noch begegnet man im Internet oft Altersabfragen, die sich mit einem Mausklick überwinden lassen, etwa: „Bist du 18 Jahre alt?“. Das könnte sich bald ändern, wie die Bemühungen auf gleich mehreren politischen Ebenen zeigen.

Die Chef*innen der deutschen Bundesländer haben etwa Ende 2024 der Novelle des Jugendmedienschutz-Staatsvertrags (JMStV) zugestimmt. Er soll künftig Anbieter von gängigen Betriebssystemen dazu verpflichten, eine Art Kinderschutz-Modus anzubieten, der den Zugang zu angeblich nicht jugendfreien Inhalten erschweren soll.

Im Auftrag des Bundesfamilienministeriums, also auf Bundesebene, hatte das Fraunhofer-Institut für Sichere Informationstechnologie im März 2025 ein Konzept für ein System zur Alterskontrolle vorgelegt. Anfang April folgten von der EU-Kommission die technischen Spezifikationen für eine Alterskontroll-App. Entwickelt werden soll die App von T-Systems und Scytales aus Schweden. Fachleute kritisieren das Konzept, weil es nicht auf Anonymität setzt, sondern auf Pseudonymität. Die App soll sich in gleich mehrere EU-Vorhaben einfügen.

Einerseits sollen Anbieter von Online-Diensten mithilfe der App die gesetzlich vorgeschriebenen Maßnahmen zum Schutz von Minderjährigen umsetzen können. Die Grundlage hierfür ist Artikel 28 des Gesetzes über digitale Dienste (DSA); entsprechende Leitlinien hat die EU-Kommission Mitte Mai vorgelegt. Andererseits soll die App eine Übergangslösung sein, bis die deutlich umfangreichere digitale Brieftasche der EU einsatzbereit ist, die „European Digital Identity Wallet“. Das soll frühestens Ende 2026 fertig sein.

Die Liste ließe sich noch lange fortsetzen. Die schiere Menge an Details kann den Eindruck erwecken: Diese Kontrollsysteme sind so wasserdicht wie ein Biberdamm. Aber das Sicherheitsgefühl ist trügerisch.

Alterskontrollen können neugierige Jugendliche nicht stoppen

Alterskontrollen sollen Jugendliche vor potenziell schädlichen Inhalten aus dem Internet schützen, so zumindest die Hoffnung. Aber diese Inhalte werden Jugendliche weiterhin erreichen. Jenseits von Alterskontrollen kursieren sie etwa auch in Messenger-Gruppen, rutschen durch die Inhaltsmoderation jugendfreier Plattformen oder werden von Älteren in der Schule herumgezeigt.

Darüber hinaus sollten Erwachsene sich keine Illusionen machen: Wenn sich Jugendliche dafür interessieren, wie die Welt funktioniert, dann gibt es kein Alterskontrollsystem, das sie aufhalten kann. Genauso wie sich Kinder der 1990er-Jahre auf dem Schulhof beigebracht haben, wie man in der Blauen und Roten Edition des GameBoy-Klassikers Pokémon sogenannte Sonderbonbons verdoppelt – ein komplexer und für damalige Erwachsene kaum nachvollziehbarer Vorgang – genauso werden sich junge Internetnutzer*innen heute beibringen, wie sie Alterskontrollen spielerisch und einfallsreich umgehen. Es klappt mit kostenlosen Werkzeugen wie VPN, alternativen DNS-Servern oder dem Tor-Browser.

In einem anderen Nutzungsszenario sind zumindest mildere Altersschranken durchaus sinnvoll. Gerade die Jüngeren wollen Inhalte mit Gewalt oder Sex lieber nicht sehen. Sie sind dankbar, wenn man das von ihnen fernhält. In diesem Szenario kann eine Methode glänzen, die viele Erwachsene belächeln: Die Abfrage, ob man schon 18 Jahre alt ist. Wenn Jüngere versehentlich auf einen falschen Link klicken, zeigt ihnen diese Altersabfrage: Ups, hier bin ich falsch abgebogen. Für dieses Szenario braucht es jedoch kein ausgeklügeltes System zur Erfassung von Ausweisen und Biometrie.

Für jedes Verbot braucht es eine gute Alternative

Die zentrale Frage beim Jugendmedienschutz sollte nicht lauten: Wie können wir Jugendliche von potenziell schädlichen Inhalten aussperren? Denn das wird nicht gelingen. Sie sollte lauten: Wie können wir Jugendlichen auf Informationssuche etwas so Gutes bieten, dass sie gar nicht erst auf nicht jugendfreie Seiten zurückgreifen wollen?

Es ist notwendig und richtig, wenn junge Menschen mehr über Erwachsenendinge erfahren wollen. Wie funktionieren Sexualität und Einvernehmlichkeit und Verhütung? Wie finde ich heraus, was mir Lust bereitet und was meine Grenzen verletzt? Wie fühlt sich Rausch an? Wie schlimm kann Gewalt sein, und wie kann ich mich davor schützen?

Auf der Suche nach Antworten zu solchen elementaren Fragen könnten Minderjährige bei Pornos, Gewaltvideos oder Horrorfilmen landen. Ändern lässt sich das nicht mit Kontrollen und Strafen, sondern mit passenden Informationsangeboten, die dem Entwicklungsstand entsprechen.

„Jugendliche brauchen Angebote für sexuelle Bildung“, sagte etwa Jessica Euler, Geschäftsführerin des Vereins Aktion Kinder- und Jugendschutz, im Interview mit netzpolitik.org. Sie kritisierte, dass solche Angebote kaum bekannt seien. Und so landen Jugendliche dann doch wieder auf großen Plattformen wie Pornhub.

Es kann die Entwicklung von Jugendlichen beeinträchtigen, wenn Erwachsene ihr Bedürfnis nach Aufklärung kaltschnäuzig mit rigorosen Alterskontrollen beantworten. Sobald Jugendliche aktiv Angebote für Erwachsene recherchieren, dann liegt dem ein legitimes Bedürfnis nach Information und Aufklärung zugrunde.

Wie wäre es zum Beispiel, wenn Pornoseiten nicht nur das Alter von Besucher*innen abfragen, sondern auch auf externe, jugendfreie Infoangebote verlinken? „Du bist unter 18 und willst mehr über Lust und Sexualität erfahren? Dann klicke hier!“. Ansätze wie diese würde auch die Biberdame aus Mississippi zu schätzen wissen. Wir erinnern uns: Ihre Aufsichtspersonen haben ihr nicht verboten, einen Damm zu bauen. Nur einen echten Baumstamm durfte sie nicht durch den Flur zerren.

Alterskontrollen sperren vulnerable Gruppen aus

Auf den ersten Blick klingt es paradox: Alterskontrollen sind einerseits allzu leicht zu umgehen – andererseits können sie auch eine allzu hohe Hürde darstellen. Sie können nämlich Menschen aussperren, die nicht hätten ausgesperrt werden sollen. Der Grund dafür ist die Ungleichverteilung von Privilegien in der Gesellschaft.

Wer gut mit Laptop und Handy umgehen kann, wer sich ein modernes Gerät leisten kann; wer gut lesen kann und eine Sprache versteht, die auf dem eigenen Handy verfügbar ist, der kann Alterskontrollen entweder bestehen oder umgehen. Sowohl als Kind als auch als Erwachsener. Anders ist die Lage bei Menschen, die diese Privilegien nicht haben.

Viele Alterskontrollsysteme basieren auf amtlichen Papieren. Aber allein in Deutschland leben schätzungsweise Hunderttausende Menschen, die solche Papiere nicht haben.

Als papierlose Alternative kommt oft eine biometrische Alterseinschätzung zum Einsatz. Dafür braucht man eine Webcam, vor der man sein Gesicht präsentieren soll. Aber nicht alle haben eine funktionierende Webcam. Und biometrische Systeme sind fehleranfällig. Sie sind oftmals optimiert auf weiße, männliche Gesichter ohne sichtbare Verletzungen oder Behinderungen. Wer also zufällig ein Gesicht mit anderen Eigenschaften hat, wird nicht zuverlässig als erwachsen anerkannt.

Schon die bloße Einrichtung einer Alterskontroll-App kann eine Barriere darstellen. In Deutschland können 6,2 Millionen Erwachsene kaum lesen und schreiben. Gerade für ohnehin marginalisierte Gruppen können Alterskontrollsysteme eine zusätzliche Hürde bedeuten.

Alterskontrollen führen zu Overblocking

Während Fachleute mit großen Hoffnungen über Spezifikationen brüten, lässt sich die Realität eines im Namen des Jugendschutzes gefilterten Internets längst beobachten. Hierzu hat netzpolitik.org in den vergangenen Jahren recherchiert. Sowohl die Google-Suchmaschine als auch YouTube filtern automatisch Inhalte mit dem Ziel, potenziell nicht jugendfreie Angebote zu verbergen. Automatische Filtersysteme kommen auch bei JusProg zum Einsatz, dem einzigen Jugendschutzprogramm für Websites in Deutschland, das den gesetzlichen Anforderungen gerecht wird und dafür offiziell anerkannt ist.

Alle drei Angebote hatten unseren Recherchen zufolge ein Problem mit Overblocking. Das heißt, sie steckten Inhalte hinter eine Altersschranke, obwohl sie tatsächlich jugendfrei waren – ja, teils waren sie sogar gezielt für Jugendliche aufbereitet worden. Der Grund dafür ist, dass solche Filterprogramme oft auf Stichworten basieren, zum Beispiel „Sex“. Doch allein anhand von Stichworten lässt sich kaum beurteilen, ob zum Beispiel eine Website über Sex für Erwachsene bestimmt ist oder Aufklärung für Jugendliche bietet.

Ausgerechnet beim Versuch, ein sichereres Online-Umfeld für Jugendliche zu schaffen, sortieren automatische Filtersysteme also Angebote aus, die Jugendlichen eigentlich guttun würden. Durch händische Kontrollen und Meldemechanismen lassen sich solche Filtersysteme verbessern. Die schiere Masse an Online-Inhalten macht es jedoch unmöglich, jemals alles händisch zu prüfen.

Lasst uns die Räume sicherer machen, die Minderjährige schon nutzen

Nichtstun ist doch auch keine Option, so oder so ähnlich argumentieren Befürworter*innen von Alterskontrollen gelegentlich. Das wird jedoch den sorgfältigen und differenzierten Ansätzen für Jugendmedienschutz nicht gerecht, die es längst in Gesetzestexte und Plattform-Policys geschafft haben. Nicht umsonst nennt das Gesetz über digitale Dienste Alterskontrollen als nur eine mögliche Maßnahme, die Dienste zum Schutz von Minderjährigen ergreifen können.

Je nach Kontext und Nutzungsszenario kommt eine Vielfalt von Vorsorgemaßnahmen in Betracht, die das Internet ohne umfassende Kollateralschäden sicherer machen können. Dazu gehören etwa Meldemechanismen, sorgfältige menschliche Moderation oder Chatfunktionen nur für gegenseitig bestätigte Kontakte.

Wie Alterskontrollen das Internet umkrempeln sollen

Nach wie vor sind Plattformen mit algorithmisch sortierten Newsfeeds darauf optimiert, dass Menschen nicht aufhören wollen, zu scrollen. Die verführerische Sogwirkung dieser Feeds wird nur halbherzig durch Tools zur Zeitbegrenzung eingedämmt. Anreizsysteme wie Likes und Push-Benachrichtigungen locken jüngere und ältere Nutzer*innen immer wieder an den Bildschirm. Hier kann sinnvolle Regulierung ansetzen.

Altersschranken und Social-Media-Verbote würde dagegen umgekehrte Anreize schaffen. Plattformen könnten differenziertere Vorsorgemaßnahmen aufgeben, sobald sie Alterskontrollen eingerichtet haben. Denn offiziell dürften Minderjährige die Plattformen dann nicht mehr nutzen. Inoffiziell würden sie es weiterhin trotzdem tun oder auf noch weniger regulierte Alternativen ausweichen. Schließlich haben sie ein Bedürfnis nach Information, Unterhaltung und Austausch.

Erwachsene können zwar versuchen, mühsam den Zugang zu allen erdenklichen Websites zu sperren. Aber die Bedürfnisse von jungen Menschen lassen sich nicht sperren. Die Leitfrage sollte deshalb nicht sein: Was können wir jungen Menschen im Internet wegnehmen, sondern: Was können wir ihnen geben? Denn die eigenen Bedürfnisse zu ignorieren, das ist für Menschen auf Dauer keine Option. Genauso wenig wie für eine Biberdame aus Mississippi, die sehr dringend ihren Damm bauen muss.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

17.05.2025 07:56

Die 20. Kalenderwoche geht zu Ende. Wir haben 12 neue Texte mit insgesamt 92.459 Zeichen veröffentlicht. Willkommen zum netzpolitischen Wochenrückblick.

blaues Fraktal
– Fraktal, generiert mit MandelBrowser von Tomasz Śmigielski

Liebe Leser:innen,

unser neuer Digitalminister hat gesprochen. Im Bundestag. Und auf dem Wirtschaftstag. Die Reden beide: kurz. Viele Stichpunkte. Aufzählungen. Knappe Sätze. Es wird sogar lyrisch:

  • Was ist schnell möglich?
  • Geht’s auch mit 25% weniger?
  • Für jedes neue Gesetz müssen zwei weg.
  • Geht das?
  • Ein Sofortprogramm?

Da dachte ich: Digitalpolitik als Haiku. Das wäre doch was! So zum Beispiel:

Alles digital.
Wirtschaft und Verwaltung. Klar.
Gesellschaft wartet.

Spaß beiseite: Kurze Sätze sind prägnant. Sie sind gut zu verstehen. Sie sind erfrischend als Kontrast. Trotzdem: Es kommt auf den Inhalt an. Was sagt der neue Minister?

  • Datenschutz? Soll keine Innovationsbremse sein. Den Satz kenne ich schon. Eine häufige Ausrede.
  • Digitale Souveränität? Ein Buzzword.
  • KI? Ein Hype.
  • Weniger Bürokratie? Das ist doch kein Selbstzweck.

Er sagt auch: „Das alles werden wir prüfen. Und wir werden handeln. Schnell.“

Wir werden das begleiten. Und darüber berichten.

  • Schnell.
  • Gründlich.
  • Kritisch.

Schönes Wochenende!

anna


Degitalisierung: Anleitung zum Scheitern

In dieser Folge gibt es ein kostenloses Coaching zum Scheitern. Unsere Kolumnistin verrät, wie Sie mit vier einfachen Kniffen jedes Digitalvorhaben gegen die Wand fahren können. Von Bianca Kastl –
Artikel lesen

Überwachungsgesamtrechnung: „Mehr Transparenz wäre auch im Sinne der Behörden selbst“

Die Überwachungsgesamtrechnung ist ein Mammutprojekt mit vielen Hürden: Misstrauische Polizeibehörden, mangelhafte Zahlen zu Überwachungsmaßnahmen und skeptische Innenminister:innen. Im Interview erklärt Projektleiter Ralf Poscher, warum mehr Transparenz bei Sicherheitsgesetzen auch Behörden nützt. Von Anna Biselli –
Artikel lesen

Bezahlkarten: Überweisungsfreigaben sind ein Datenschutzproblem

Mit Bezahlkarten für Geflüchtete lassen sich in der Regel keine Überweisungen tätigen. Da so vieles im Leben unmöglich wird, genehmigen manche Bundesländer auf Antrag einzelne Zahlungsempfänger. Doch eigentlich geht die Behörden das gar nichts an, findet die brandenburgische Datenschutzbehörde. Von Anna Biselli –
Artikel lesen

Neues aus dem Fernsehrat (112): Good bye ZDF, hello ORF!

Seit 2016 habe ich hier über meine Tätigkeit im Fernseh- und später Verwaltungsrat des ZDF gebloggt. Ab Juni dieses Jahres werde ich dem Stiftungsrat des österreichischen ORF angehören. Damit endet eine spannende und überaus lehrreiche Zeit – und eine neue beginnt. Von Leonhard Dobusch –
Artikel lesen

Kriminalisierung von Online-Sexarbeit: „Dieses Gesetz wird weit über Schweden hinaus Auswirkungen haben“

Die schwedische Regierung will das Bezahlen für sexuelle Dienstleistungen im Netz unter Strafe stellen. Das werde zu Überwachung, Zensur und Abschreckung führen, warnt Yigit Aydin im Interview. Für den Verband ESWA kämpft er für die Rechte von Sexarbeiter:innen. Von Chris Köver –
Artikel lesen

Criminalising Online Sex Work: „This law will have international implications far beyond Sweden“

The Swedish government wants to make paying for sexual services online a criminal offense. The law could have global implications for online services and put creators at risk, warns Yigit Aydin. He fights for the rights of sex workers on behalf of the association ESWA. Von Chris Köver –
Artikel lesen

Gerichtsurteil zu Pfizergate: Von der Leyen hat bei der Transparenz geschummelt

Während der Covid-Pandemie verhandelte EU-Kommissionspräsidentin Ursula von der Leyen per SMS mit Pfizer-Chef Albert Bourla. Journalisten forderten Transparenz, doch die EU-Kommission weigerte sich, die Nachrichten offenzulegen. Die Begründung dafür findet das EU-Gericht unglaubwürdig. Von Christoph Bock –
Artikel lesen

Bezahlte Influencer:innen: Untersuchung warnt vor verdeckter politischer Online-Manipulation

Immer mehr Menschen informieren sich bei Influencer:innen im Netz, wenn es um politische Inhalte geht. Das kann ein Einfallstor für die Manipulation demokratischer Systeme sein, warnt eine Untersuchung der Civil Liberties Union for Europe – und schlägt konkrete Gegenmittel vor. Von Tomas Rudl –
Artikel lesen

Mehr Alterskontrollen, weniger Sogwirkung: So stellt sich die EU ein kindgerechtes Internet vor

Das Gesetz über digitale Dienste soll auch Minderjährige im Netz schützen. Wie das konkret aussehen soll, beschreibt die EU-Kommission in neuen Leitlinien. Anbieter von Online-Diensten sollen demnach mehr Ausweise überprüfen und die Sogwirkung ihrer Angebote zurückdrehen. Von Sebastian Meineck –
Artikel lesen

Urteil zu Werbe-Einwilligungen: Ringen um Deutungshoheit

Das juristische Tauziehen um den Einwilligungsstandard TCF für Online-Werbung hat vorerst ein Ende. Ob die Entscheidung eines belgischen Gerichts das intransparente Online-Tracking beenden wird, ist trotzdem unklar. Sowohl Datenschützer:innen als auch die Werbeindustrie verbuchen das Urteil als Erfolg. Von Ingo Dachwitz –
Artikel lesen

Stichwort „Vereinfachen“: EU-Kommission will mehr Ausnahmen beim Datenschutz

Zum ersten Mal seit ihrem Bestehen soll die DSGVO inhaltlich verändert werden. Die EU-Kommission will Dokumentationspflichten für mittelgroße Unternehmen abschaffen. Aus der Zivilgesellschaft kommen Warnungen: Was nach einer kleinen Reform klingt, könnte die Büchse der Pandora öffnen. Von Maximilian Henning, Ingo Dachwitz –
Artikel lesen

Digitalisierung: Mit dem Mindset eines Managers

Bundesdigitalminister Karsten Wildberger hat heute im Bundestag die Vorhaben seines neuen Ministeriums vorgestellt. Er will den Staat digitalisieren und die deutsche Wirtschaft entlasten. Gesellschaftspolitische Aspekte kamen nur am Rande vor. Von Daniel Leisegang –
Artikel lesen


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

16.05.2025 18:45

Bundesdigitalminister Karsten Wildberger hat heute im Bundestag die Vorhaben seines neuen Ministeriums vorgestellt. Er will den Staat digitalisieren und die deutsche Wirtschaft entlasten. Gesellschaftspolitische Aspekte kamen nur am Rande vor.

Karsten Wildberger, Bundesminister für Digitalisierung und Staatsmodernisierung, am Redepult im Deutschen Bundestag in Berlin.
Strebt ein digitales Next Germany an: Bundesdigitalminister Karsten Wildberger (CDU). – Alle Rechte vorbehalten IMAGO / Political-Moments

Dass es das neue Digitalministerium (BMDS) braucht, darin waren sich die meisten Fraktionen heute einig. Insofern erhielt Karsten Wildberger (CDU), der neue Minister für Digitalisierung und Staatsmodernisierung, viel Zuspruch, als er am Vormittag seine erste Rede im Deutschen Bundestag hielt.

Gleichzeitig zeigte sich, wie hoch die Erwartungen an ihn sind. Besonders bei den Themen Verwaltungsdigitalisierung, digitale Infrastruktur und Künstliche Intelligenz gebe es viel aufzuholen, so der Tenor in der anschließenden Debatte.

Wildberger selbst betonte, dass die Gründung seines Ministeriums „mehr als ein Verwaltungsakt, mehr als ’nur‘ ein neues Ministerium“ sei, sondern „eine wichtige Zukunftsentscheidung für unser Land“. Für seine Amtszeit strebt er nicht weniger als ein Upgrade des verblassten Labels „Made in Germany“ an, von dem allerdings vor allem die Wirtschaft profitieren soll.

Nur am Rande tauchte in der heutigen Debatte die Frage auf, welchen gesellschaftlichen Nutzen die Digitalisierung haben kann.

Das „digitale Next Germany“

Die große Hoffnung, dass mit dem Digitalministerium der digitale Aufbruch in Deutschland nun endlich gelingen könnte, hat zwei Gründe.

Zum einen hat das Digitalministerium zahlreiche Zuständigkeiten aus anderen Ministerien und dem Bundeskanzleramt erhalten. Ihm kommt damit eine Schlüsselrolle innerhalb des Kabinetts zu.

Zum anderen ist Wildberger ein „Mann aus der Wirtschaft“, wie immer wieder betont wird. Der promovierte Physiker war Top-Manager bei einem Elektronikhandelskonzern und verfügt damit, so die Hoffnung, über das nötige Know-how, ein „frisches Mindset“ und damit gute Voraussetzungen, um erfolgreich zu sein.

Tatsächlich brachte der Minister heute das Leitmotiv für sein neues Haus mit, nämlich das Ziel, ein „digitales Next Germany“ zu schaffen. Diese „positive Fortschrittserzählung“ hatte Wildberger bereits vor einigen Tagen auf dem diesjährigen Wirtschaftstag vorgestellt. In Anknüpfung an „Made in Germany“ soll sie für das erneuerte Versprechen für Wohlstand und Wachstum stehen.

Modernisierung des Staates

Um dieses Narrativ mit Leben zu füllen, setzt das Digitalministerium in den kommenden Jahren auf drei zentrale Maßnahmen.

Erstens will das BMDS den Staat modernisieren. Dafür soll die Verwaltung verkleinert und zugleich „einfacher und schneller“ werden. Auf seiner Website verspricht das Ministerium „noch dieses Jahr spürbare Entlastungen“. Demnach werde ein Fünftel der Verwaltungsvorschriften des Bundes wegfallen, die Bürokratiekosten für die Wirtschaft sollen um 25 Prozent sinken.

Um die Digitalisierung innerhalb der Behörden voranzutreiben, will das Ministerium einen „Deutschland-Stack“ schaffen – „eine einheitliche Infrastruktur mit Basis-Komponenten wie Cloud- und IT-Diensten und klar definierten Schnittstellen“. Außerdem soll die digitale Wallet kommen: „Vom Personalausweis über den Führerschein bis zur Fahrkarte. Alles in einem digitalen Portemonnaie.“

Zweitens will Wildberger die digitale Infrastruktur weiter ausbauen, allen voran mehr Rechenzentren, mehr Glasfaser und mehr 5G. Die Daten müssten fließen, betonte der Minister.

Und drittens will der Minister die Datennutzung voranbringen. Deutschland müsse die erste Wahl für Unternehmen sein, die Künstliche Intelligenz nutzen wollen, so Wildberger.

Datenschutz dürfe keine „Innovationshürde“ sein

Datenschutz und Datensicherheit seien bei alledem zwar wichtig, wie Wildberger betonte, dürften aber keine „Innovationshürde“ sein. Entscheidend sei, dass Unternehmen „den Kopf frei haben für Wachstum und Innovation“.

Sonja Lemke (Linke) wies in der anschließenden Debatte darauf hin, dass es dem Minister offenkundig maßgeblich darum gehe, Daten zu Geld zu machen. Datenschutz sei aber Grundrechtsschutz, mahnte die Abgeordnete.

Bei der Digitalisierung solle der Minister nicht den Ressourcenverbrauch aus dem Blick verlieren, sagte Rebecca Lenhard (Grüne). Sie müsse auch umwelt- und klimaverträglich gestaltet sein. Lenhard warnte außerdem davor, dass Digitalisierung nicht zu sozialer Spaltung führen dürfe, „sondern sie muss als Werkzeug verstanden werden für Zusammenhalt und für echte Teilhabe“.

In die gleiche Kerbe schlug Carolin Wagner (SPD). Sie sagte, dass Digitalpolitik „weit, weit mehr“ sei als Wirtschaftspolitik. Deshalb sollten auch Themen wie Open Source, Open Data und digitale Bürgerrechte oben auf der Ministeriumsagenda stehen. Nur so könne die Digitalisierung der Gesellschaft als Ganze nutzen.

Immerhin machte Wildberger heute auch klar, dass er Digitalisierung als einen langwierigen Prozess betrachte. „Für Digitalisierung gibt es keinen Schalter, den man einfach umlegt und dann einfach ist alles gut und alles digital“, sagte der Minister im Bundestag. Vielmehr bräuchte es dafür neben Zeit und Geduld auch Expertise und Partner. Die Zivilgesellschaft kann also noch hoffen.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

16.05.2025 12:31

Zum ersten Mal seit ihrem Bestehen soll die DSGVO inhaltlich verändert werden. Die EU-Kommission will Dokumentationspflichten für mittelgroße Unternehmen abschaffen. Aus der Zivilgesellschaft kommen Warnungen: Was nach einer kleinen Reform klingt, könnte die Büchse der Pandora öffnen.

Ein Klemmbrett mit einem leeren Platt Papier und zwei Stiften
Unternehmen sollen weniger dokumentieren müssen – Gemeinfrei-ähnlich freigegeben durch unsplash.com Kelly Sikkema

Die Europäische Kommission hat schon vor einer Weile angekündigt, dass sie manche Bestimmungen der Datenschutz-Grundverordnung (DSGVO) abschwächen will. Ein Brief der EU-Datenschutzbehörden gibt nun Einblicke darin, was genau Justizkommissar Michael McGrath plant. Offiziell vorgestellt werden soll das Vorhaben schon in der kommenden Woche.

Das große Motto der EU-Kommission in der zweiten Amtszeit von Ursula von der Leyen ist die Wettbewerbsfähigkeit und, damit verbunden, das „Vereinfachen“ von EU-Gesetzen. Dabei besteht sie sehr auf ihrer Wortwahl: Es gehe nicht ums Deregulieren, sondern nur darum, die bestehenden Gesetze für Unternehmen einfacher umsetzbar zu machen, heißt es immer wieder.

Ausweitung von Ausnahmen

Der Brief der Datenschutzbehörden zeigt nun, was das in einem ersten Schritt für die DSGVO bedeuten soll. Sie antworten darin auf die Kommission, die in einem eigenen Brief, der nicht öffentlich ist, ihre Vorschläge dargelegt hatte. Die drehen sich hauptsächlich um das sogenannte Datenverarbeitungsverzeichnis aus Artikel 30 der DSGVO.

Dieser Artikel regelt, wie Organisationen dokumentieren müssen, welche Daten sie wie verarbeiten. Sie müssen etwa festhalten, welche Daten sie wofür verarbeiten, welche Kategorien von Personen von einer Datenverarbeitung betroffen sind und auch, an welche Empfänger:innen Datenübermittelt werden. Zudem soll technische und organisatorische Maßnahmen dokumentiert werden, mit denen die Daten geschützt werden.

Organisationen mit weniger als 250 Beschäftigten sind von diesen Regeln ausgenommen – außer, die Verarbeitung könnte ein Risiko für Rechte und Freiheiten der Betroffenen bergen. Die Kommission will diese Ausnahme nun anscheinend auf Organisationen mit bis zu 500 Beschäftigten ausdehnen, die unter einer bestimmten Umsatzgrenze bleiben. Sie würde dann nicht mehr nur für kleine und mittelständische Unternehmen gelten, sondern auch für sogenannte Midcap-Unternehmen mit mittlerer Marktkapitalisierung.

Außerdem soll die Ausnahme von der Ausnahme nur noch gelten, wenn die verarbeiteten Daten ein „hohes Risiko für Rechte und Freiheiten“ bedeuten könnten. Darüber hinaus sollen Organisationen von der Dokumentationspflicht befreit werden, wenn sie Daten verarbeiten, weil Sozial- oder Beschäftigungsgesetze das vorschreiben.

Datenschutzbehörden stimmen vorläufig zu

Diesem Vorschlag stehen der Europäische Datenschutzbeauftragte und der Europäische Datenschutzausschuss vorsichtig optimistisch gegenüber. Man könne „vorläufige Zustimmung“ zu dem Vorhaben äußern, heißt es im Antwortbrief der Datenschützer. Sie erinnern jedoch daran, dass mit dem Wegfall der Dokumentationspflicht keine Entbindung von Vorgaben zum tatsächlichen Datenschutz sei. Zudem fordern sie die Kommission auf, zu prüfen, ob der Entwurf einen angemessenen und fairen Ausgleich zwischen dem Schutz personenbezogener Daten und den Interessen der Organisationen gewährleistet.

Wesentlich kritischer äußert sich Itxaso Domínguez de Olazábal von EDRi, dem europäischen Dachverband der digitalen Zivilgesellschaft. In einer Analyse auf TechPolicy.Press warnt sie davor, dass auch die Verarbeitung sensibler Daten künftig nicht mehr zwingend dokumentiert werden müsste. „Diese Änderungen könnten einfach nur ein aufgrund der Größe und des Umsatzes eines Unternehmens weitreichende Ausnahmen schaffen“, so Domínguez de Olazábal. Dabei werde ignoriert, dass datenbezogene Risiken nicht unbedingt proportional zur Anzahl von Mitarbeiter:innen seien.

Auch Elisabeth Niekrenz vom Verein Digitale Gesellschaft ist skeptisch. Die Rechtsanwältin berät Unternehmen beim Datenschutz und berichtet von der praktischen Bedeutung des Datenverarbeitungsverzeichnisses für einen funktionierenden Datenschutz: „Gerade im Mittelstand ist der erste Schritt, um Datenschutz im Unternehmen in den Griff zu bekommen, oft schlichtes Aufräumen: Welche Datenbestände haben wir überhaupt? Was davon brauchen wir wirklich und was kann weg? Welche IT-Dienstleister hängen daran?“

Wer keinen Überblick über die eigenen Verarbeitungen habe, werde an der Einhaltung des Rechts scheitern. „Dem Bürokratieabbau würde man mit der Abschaffung einen Bärendienst erweisen.“

“Das würde die Büchse der Pandora öffnen“

Itxaso Domínguez de Olazábal von EDRi warnt zudem davor, dass die Mini-Reform im derzeitigen politischen Klima nur ein Türöffner für weitere Deregulierung sein könnte. Für das Jahresende hat die EU-Kommission ein größeres „Digitalpaket“ angekündigt, das viele Digital-Gesetze der EU vereinfachen soll. Davon könnte auch die Datenschutzgrundverordnung betroffen sein, fürchtet Domínguez de Olazábal. Wer sie jetzt für vermeintlich kleine Änderungen aufmache, würde die „Büchse der Pandora öffnen“.

Domínguez de Olazábal zieht hier eine Parallele zum aktuellen Vorgehen der EU beim Lieferkettengesetz. Auch hier hatte Ursula von der Leyen ursprünglich nur kleinere Maßnahmen zum Bürokratieabbau versprochen, nun soll das Gesetz weitgehend entkernt werden. „Es scheint ein allgemeiner Drang zu bestehen, regulatorische Schutzmaßnahmen aufzuheben – eine Bereitschaft, vermeintliche Hindernisse für das Wirtschaftswachstum zu beseitigen, ungeachtet der möglichen Folgen für soziale Gerechtigkeit und Menschenrechte.“


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

15.05.2025 17:39

Das juristische Tauziehen um den Einwilligungsstandard TCF für Online-Werbung hat vorerst ein Ende. Ob die Entscheidung eines belgischen Gerichts das intransparente Online-Tracking beenden wird, ist trotzdem unklar. Sowohl Datenschützer:innen als auch die Werbeindustrie verbuchen das Urteil als Erfolg.

Ein altmodisches Blechschild mit der Aufschrift "Cookies"
– Gemeinfrei-ähnlich freigegeben durch unsplash.com Jon Tyson

Ein belgisches Berufungsgericht hat gestern im langjährigen Streit um einen technischen Standard zum Einholen von Einwilligungen ein Urteil gesprochen. Bereits vor der Veröffentlichung der Entscheidung hat das Ringen darum begonnen, welche Konsequenzen sie haben soll. Sowohl die belgische Datenschutzbehörde als auch die Werbeorganisation IAB Europe begrüßen das Urteil.

Für die Werbeindustrie steht viel auf dem Spiel: Das Transparency and Consent Framework (TCF) wird von den meisten Websites mit zielgerichteter Online-Werbung genutzt, um vermeintlich rechtssichere Einwilligungen ihrer Nutzer:innen zur Datenverarbeitung einzuholen. Bereitgestellt wird der Standard von der Branchenorganisation IAB Europe. 2022 hatte die belgische Datenschutzaufsicht mit dem Segen der anderen europäischen Datenschutzbehörden entschieden, dass das Framework gegen die Datenschutzgrundverordnung (DSGVO) verstößt.

IAB Europe wehrte sich vor Gericht gegen die Entscheidung. Unter anderem ging es um die Frage, ob die Organisation nur Anbieter eines technischen Standards sei, oder für Datenverarbeitungen mitverantwortlich ist, die durch den TCF-Einwilligungsmechanismus ermöglicht werden. Außerdem ging es um die Frage, ob dieser Datenschutzgrundsätze wie Privacy by Design und by Default verletze. Auch der Europäische Gerichtshof befasste sich im Zuge des Verfahrens mit Auslegungsfragen und folgte der Datenschutzbehörde in entscheidenden Fragen.

Kontrollverlust statt informierter Einwilligung

Die Entscheidung aus Belgien war einer der wenigen Versuche europäischer Datenschutzbehörden, die komplexe und undurchsichtige Infrastruktur hinter dem Online-Tracking ins Visier zu nehmen. Damit Werbetreibende möglichst genaue Zielgruppen für ihre Werbung auswählen können, sammelt die Branche im großen Stil Daten über die Online-Aktivitäten aller Nutzer:innen. Jedes Mal, wenn Menschen Websites mit Werbung aufrufen, werden Daten über sie mithilfe von Cookies und anderen Tracking-Techniken an hunderte Firmen verschickt, zum Beispiel ihre IP-Adressen, Standorte und Interessen.

In Millisekunden finden dann Auktionen darum statt, welche Firmen welchen Nutzer:innen ihre Werbung zeigen dürfen. Aufgrund der Geschwindigkeit wird das Verfahren Real-Time-Bidding genannt, Echtzeit-Bieten. Erlaubt ist das nur, wenn Nutzer:innen ihre informierte und freiwillige Einwilligung geben. Datenschützer:innen betonen jedoch seit langem, dass es praktisch nicht möglich sei, dieses System datenschutzkonform zu betreiben. Die Datenflüsse zwischen den hunderten Playern des Systems sind für Nutzer:innen weder nachvollziehbar, noch können sie sinnvoll intervenieren und Einwilligungen zurückziehen.

Erst im vergangenen Jahr hatte netzpolitik.org gemeinsam mit weiteren Medien aufgedeckt, wie einfach umfassende Standortdaten von Millionen Smartphones bei Datenhändlern zu erhalten sind. Dabei geriet auch eine litauische Firma in den Fokus, die von IAB Europe als Partner im Transparency and Consent Framework gelistet wird. Sie soll nach Angaben eines US-Databrokers die Quelle für die Daten aus dem System der Onlinewerbung sein.

Werbeorganisation begrüßt Urteil

Welche praktischen Auswirkungen das noch nicht veröffentlichte Urteil haben wird, ist gerade noch nicht abzusehen. Alle Beteiligten versuchen, die Entscheidung als Erfolg für sich zu verkaufen.

Das Transparency and Consent Framework, das auf 80 Prozent aller Websites eingesetzt werde, sei für „illegal“ erklärt worden, schreibt beispielsweise Johnny Ryan von der Bürgerrechtsorganisation Irish Council for Civil Liberties (ICCL). „Die heutige Entscheidung des Gerichts zeigt, dass das von Google, Amazon, X und Microsoft verwendete Einwilligungssystem Hunderte Millionen Europäer hinters Licht führt“, so Ryan in einer Pressemitteilung. Der Datenschützer, der früher selber in der Werbeindustrie gearbeitet hat, hatte mit strategischen Beschwerden die Untersuchung der belgischen Datenschutzbehörde angestoßen.

Die Tech-Branche habe versucht, „ihre massiven Datenschutzverletzungen hinter Schein-Einwilligungserklärungen zu verstecken“, so Ryan weiter. „Tech-Unternehmen haben die DSGVO zu einer täglichen Belästigung gemacht, anstatt sie als Schutzschild für die Menschen zu nutzen.“

Ganz anders legt IAB Europe die Entscheidung aus. In einer Pressemitteilung ist die Organisation bemüht, die Reichweite des Urteils herunterzuspielen und begrüßt es sogar. Sie betont, dass das Gericht der belgischen Datenschutzbehörde nur teilweise Recht gegeben habe. Anders als von dieser gefordert, sei IAB Europe nicht gemeinsamer Verantwortlicher für alle Daten, die in Zusammenhang mit dem TC-String für Werbezwecke erhoben würden. Der TC-String ist eine Kombination aus Buchstaben und Zahlen, in dem die Einwilligungspräferenzen der Nutzer:innen maschinenlesbar festgehalten werden.

Datenschutzbehörde freut sich über „Klarstellung“

IAB Europe betont, dass es dem Urteil zufolge nur für eben diesen TC-String mitverantwortlich ist, nicht alle damit zusammenhängenden Daten. Eine leicht angepasste Version des TC-Frameworks, die der Entscheidung des Gerichts Rechnung trägt, habe man der belgischen Behörde bereits 2023 zur Prüfung vorgelegt.

Tatsächlich hat das Gericht die ursprüngliche Entscheidung der belgischen Behörde nun aus formalen Gründen annulliert, wie auch die Datenschutzbehörde selbst bestätigt. Das verhängte Bußgeld in Höhe von 250.000 Euro muss IAB Europe dem Urteil zufolge trotzdem zahlen. Auch in einem anderen Punkt sieht sich die Behörde bestätigt: Wie zuvor der Europäische Gerichtshof habe auch das Berufungsgericht festgestellt, dass der TC-String grundsätzlich ein personenbezogenes Datum darstellt. IAB Europe hatte dies lange abgestritten.

Darauf aufbauend habe das Gericht festgestellt, „dass IAB Europe als gemeinsamer Datenverantwortlicher für die Verarbeitung der Nutzerpräferenzen innerhalb des TCF fungiert“, schreibt die Datenschutzbehörde. Das ist deutlich enger gefasst, als sie es ursprünglich wollte, entspricht im Kern aber ihrer Argumentation, dass die Werbeorganisation mitverantwortlich ist. Entsprechend begrüßt die Datenschutzbehörde die „Klarstellung wichtiger Konzepte der DSGVO“ und erwartet „nachhaltig positive Auswirkungen auf alle Beteiligten in der EU“.

„Branche muss sich von gefährlichem Tracking verabschieden“

Was daraus jetzt für die konkrete Praxis folgt, scheint allerdings auch der Datenschutzbehörde noch nicht klar zu sein. Sie müsse das Urteil zunächst im Detail analysieren, heißt es im Pressestatement.

Für Johnny Ryan und die ICCL ist klar, dass es nun an der Werbeindustrie liege, weitreichende Konsequenzen aus dem Urteil zu ziehen: „Diese Entscheidung (…) macht deutlich, dass die Branche innovativ werden und sich von der gefährlichen, ineffektiven und betrugsanfälligen Tracking-basierten Werbung verabschieden muss.“

Danach allerdings klingt es bei IAB Europe nicht. „Wir hoffen, dass dies den Beginn einer Rückkehr zu einem sinnvollen und konstruktiven Dialog mit den Regulierungsbehörden markiert, in dem technische und praktische Realitäten berücksichtigt werden“, schreibt die Chefin der Organisation, Townsend Feehan, über das Urteil. Nur so können man „umsetzbare und sinnvolle Weiterentwicklungen des TCF vorantreiben“, die sowohl Nutzer:innen als auch Werbefirmen dienen. Fortsetzung folgt.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

15.05.2025 15:46

Das Gesetz über digitale Dienste soll auch Minderjährige im Netz schützen. Wie das konkret aussehen soll, beschreibt die EU-Kommission in neuen Leitlinien. Anbieter von Online-Diensten sollen demnach mehr Ausweise überprüfen und die Sogwirkung ihrer Angebote zurückdrehen.

Illustration im Bauhaus-Stil eine junge Person mit Smartphone
Die Kommission gibt Linien vor (Symbolbild) – Public Domain DALL-E-3 („teenager with smartphone, bauhaus style reduced minimalist geometric shape“)

Geht es nach der EU-Kommission, sollen Menschen in der EU künftig ihren Ausweis zücken, bevor sie im Netz Pornos abrufen oder Alkohol kaufen können. Jugendliche sollen keine Likes von fremden Leuten einsammeln können und keine Feeds mehr serviert bekommen, in denen man unendlich lange scrollen kann.

Diese und weitere Empfehlungen gehen aus den neuen Leitlinien („Guidelines“) zum Schutz von Minderjährigen hervor, die auf dem Gesetz über digitale Dienste (DSA) basieren. Aktuell sind die Leitlinien nur ein Entwurf. Bis zum 10. Juni kann die interessierte Öffentlichkeit dazu Feedback geben. Wir haben uns die 39 Seiten angeschaut und beantworten die wichtigsten Fragen.

Für wen gelten die Leitlinien?

Die Leitlinien gelten für Online-Dienste, die unter das Gesetz für digitale Dienste (DSA) fallen, für Minderjährige zugänglich sind und nicht als „sehr groß“ eingestuft werden. Dazu gehören etwa Online-Marktplätze, soziale Netzwerke und Content-Sharing-Plattformen mit weniger als 45 Millionen monatlichen EU-Nutzer*innen. Plattformen mit noch mehr Nutzer*innen gelten als „sehr groß“, darunter fallen etwa TikTok, Instagram und YouTube. Für sie sieht der DSA noch mehr Verpflichtungen vor.

Die Formulierung „für Minderjährige zugänglich“ schließt den Leitlinien zufolge ausdrücklich Pornoseiten mit ein. Demnach genüge es nicht, wenn die Seiten etwa in den Nutzungsbedingungen minderjährige Nutzer*innen ausschließen. Viele fragen zudem per Pop-up, ob man erwachsen ist; auch das überzeugt die EU-Kommission offenkundig nicht.

Pornoseiten hatte die EU-Kommission bereits vorher im Visier, und zwar auf Basis der DSA-Regelungen für sehr große Plattformen. Unter anderem Pornhub und XVideos haben diesen Status.

Sind die Leitlinien verpflichtend?

Nein, die Leitlinien sind nur Empfehlungen. Anbieter können sie berücksichtigen, um die gesetzlichen Anforderungen zu erfüllen. Sie können aber auch andere Wege wählen. Ob ein Anbieter das Gesetz über digitale Dienste letztlich einhält oder nicht, müssten Gerichte von Fall zu Fall entscheiden. Dennoch bezeichnet die Kommission die Leitlinien als „bedeutsame Orientierungshilfe“. Aus dem Text geht klar hervor: Wer kein Risiko eingehen und Ärger vermeiden will, sollte sich diese Leitlinien genau anschauen.

Die Leitlinien verfolgen dabei einen individuellen Ansatz: Jeder Dienst muss sich demnach fragen, welche spezifischen Risiken das eigene Angebot für Minderjährige bergen kann. Auf dieser Grundlage sollen die ergriffenen Maßnahmen verhältnismäßig sein und sich unter anderem an Kinderrechte, Privatsphäre und Datenschutz halten.

Welche Form von Alterskontrollen will die Kommission?

Alterskontrollen sind ein zentraler Baustein in den Leitlinien. Wer das Alter von Menschen im Netz prüfen möchte, kann milde oder strenge Methoden wählen. Die Leitlinien empfehlen jedoch vor allem strenge Methoden, etwa per Ausweiskontrolle („age verification“).

Solche strengen Methoden sehen die Leitlinien etwa für Pornoseiten, Glücksspiel und Shoppingseiten für Alkohol vor, also für Angebote ab 18 Jahren. Strenge Alterskontrollen soll es außerdem dann geben, wenn mildere Mittel nicht funktionieren, um Risiken wie etwa schädliche Inhalte oder Grooming zu vermeiden. Grooming nennt man es, wenn Erwachsene im Netz sexuelle Kontakte zu Kindern anbahnen.

Für solche strengen Alterskontrollen will die EU-Kommission eine eigene Lösung entwickeln und hat dafür bereits ein App-Konzept vorgelegt. Die App soll eine Übergangslösung sein, bis ab voraussichtlich Ende 2026 die geplante digitale Brieftasche der EU auch Altersnachweise erbringen kann. Für die Alterskontroll-App der EU gilt ähnlich wie für die DSA-Leitlinien: Sie ist ein Maßstab, aber keine Pflicht.

Für Inhalte mit niedrigeren Altersschranken, etwa ab 16 Jahren, sehen die Leitlinien Methoden der Alterskontrolle vor, bei denen das Alter einer Person geschätzt wird („age estimation“). So etwas ist möglich, indem man etwa sein Gesicht vor der Webcam präsentiert, und ein KI-Modell anhand biometrischer Merkmale schätzt, ob eine Person erwachsen aussieht. Auch wenn es für manche vielleicht besonders unangenehm ist, ihr Gesicht biometrisch scannen zu lassen, betrachtet die Kommission diese Methode als weniger invasiv als Ausweiskontrollen.

Was ist das Problem bei diesen Alterskontrollen?

Fachleute für digitale Grundrechte sehen beide von der EU-Kommission beschriebenen Ansätze zur Alterskontrolle kritisch, also „age verification“ und „age estimation“. Je nach Ausgestaltung können diese Methoden Menschen ausschließen, die diese Hürden nicht überwinden können, etwa mangels Dokumenten oder mangels Webcam. Auch Eingriffe in Privatsphäre und Datenschutz sind denkbar, etwa wenn die erfassten Daten nicht anonymisiert werden. So sieht der aktuelle Kommissions-Entwurf der Alterskontroll-App nur Pseudonymisierung vor, keine Anonymisierung.

Weniger Bedenken gibt es aus Sicht von digitalen Grund- und Freiheitsrechten bei Methoden, in denen Menschen schlicht ihr eigenes Alter angeben („age declaration“). Der Dachverband von Organisationen für digitale Freiheitsrechte, EDRi, bringt das in einem Papier aus dem Jahr 2023 so auf den Punkt: „Außer bei Methoden zur Altersangabe („age declaration“) gefährdet Alterskontrolle die Privatsphäre, den Datenschutz und das Recht auf freie Meinungsäußerung – sowohl von Kindern als auch von Erwachsenen.“

Die EU-Kommission vertritt einen gegensätzlichen Standpunkt. In den Leitlinien heißt es ausdrücklich: Die Kommission betrachtet Altersangaben („age declaration“) eben „nicht als angemessene Methode der Alterskontrolle“. Das heißt, die Kommission empfiehlt ausdrücklich das, wovon EDRi abrät. Dahinter stehen auch verschiedene Auffassungen davon, wie wirksam Alterskontrollen überhaupt sein können und welche Grundrechte Vorrang haben. Hier berichten wir mehr über die Abwägungen hinter verschiedenen Formen von Altersschranken im Netz.

Kritik an den geplanten Alterskontrollen kommt auch von Hannah Lichtenthäler, die für die gemeinnützige, digitalpolitische Organisation Superrr arbeitet. „Derzeit existierende Maßnahmen zur Altersfeststellung können wir aktuell aus technischer Sicht nicht empfehlen“, schreibt sie auf Anfrage von netzpolitik.org. „Klar ist, wenn Altersfeststellungsverfahren umgesetzt werden sollten, müssen sie die Grundprinzipien von Privacy by design, Safety by design, transparency by design sowie access(ibility) by design mindestens erfüllen.“

In Deutschland zuständig für die Durchsetzung des Jugendmedienschutz nach dem DSA ist die sogenannte KidD, die Abkürzung steht für „Stelle zur Durchsetzung von Kinderrechten in digitalen Diensten“. Deren Leiter Michael Terhörst begrüßt die Leitlinien; sie seien „Ergebnis eines intensiven Erarbeitungsprozesses“, schreibt er auf Anfrage. Gerade bei Alterskontrollen wären Terhörst zufolge jedoch konkretere Vorgaben zur Umsetzung wünschenswert, „damit Anbieter mehr Orientierung zu verhältnismäßigen Maßnahmen erhalten“.

Was verlangen die Leitlinien noch?

Neben Alterskontrollen beschreiben die Leitlinien eine Reihe von teils weitreichenden Maßnahmen, die Minderjährige im Netz besser schützen sollen. Je nach betroffener Plattform könnte das auf einen besonders eingeschränkten Kinder-Modus hinauslaufen.

Ein Bündel der Maßnahmen handelt davon, die verführerische Sogwirkung einzudämmen, die etwa Social-Media-Apps erzeugen können. Demnach sollen Dienste für Minderjährige nicht per Voreinstellung so gestaltet sein, dass man sich nur noch schwerlich davon lösen möchte. Also kein unendliches Scrollen in einem Feed; keine Likes, Kommentare oder Reposts von fremden Kontakten; keine Push-Benachrichtungen. Die oft auf maximale Verweildauer optimierten Empfehlungssysteme sollen entschärft werden, indem sie sich auf dem Alter angemessene Inhalte beschränken.

Bei jedem einzelnen Inhalt sollen Nutzer*innen außerdem einsehen können, aufgrund welcher Parameter er ihnen empfohlen wurde. Werkzeuge zur Beschränkung der Nutzungszeit sollen anpassbar und kinderfreundlich sein; auch Eltern oder Aufsichtspersonen sollen sie nutzen können.

Ein anderes Bündel von Maßnahmen dreht sich darum, minderjährige Nutzer*innen durch sichere Voreinstellungen gegen potenziell riskante Kontaktaufnahmen von Außen zu schützen. So sollen Inhalte von Minderjährigen nur für aktiv akzeptierte Kontakte sichtbar sein; und selbst diese Kontakte sollen keine Screenshots der Inhalte erstellen können. Meldemechanismen sollen zugänglich und kinderfreundlich sein; Anbieter sollen Meldungen von Minderjährigen mit Priorität bearbeiten und ihnen unverzüglich eine begründete Entscheidung vorlegen. Michael Terhörst von der Dienststelle KidD schreibt hierzu: „Wir begrüßen insbesondere auch den Ansatz, dass Minderjährige nicht leicht gefunden oder kontaktiert werden können.“

Anbieter „sehr großer Plattformen“ müssen übrigens nicht weniger tun, sondern mehr. Zum Beispiel sieht der DSA unter „Risikobewertung“ und „Risikominderung“ vor, dass sehr große Plattformen systemische Risiken für alle Nutzer*innen erfassen und wirksam angehen müssen, also auch für Erwachsene. Das betrifft etwa Inhaltsmoderation, Empfehlungssysteme oder Kennzeichnung von Falschinformationen.

Zementieren die Leitlinien Verbote oder schützen sie Freiheiten?

Es gibt Hinweise für beides. Die Leitlinien gehen durchaus darauf ein, wie wichtig digitale Freiheiten gerade für Minderjährige sind. In der Einleitung heben die Leitlinien hervor, dass Online-Plattformen für Minderjährige einen Reichtum von Bildungsinhalten bieten. Weiter heißt es: „Online-Plattformen können Minderjährigen auch die Möglichkeit bieten, mit anderen in Kontakt zu treten, die ähnliche Interessen haben. Dies kann Minderjährigen dabei helfen, soziale Kompetenzen, Selbstvertrauen und ein Gemeinschaftsgefühl zu entwickeln.“

Aus den Leitlinien geht klar hervor, dass es ein Spannungsfeld aus mehreren Grundrechten gibt. Die Formulierung „Privatsphäre, Sicherheit und Schutz für Minderjährige“ („privacy, safety, and security of minors“) wird beharrlich wiederholt – insgesamt 49 Mal. Auch das Recht auf Teilhabe wird berücksichtigt, immerhin bergen viele Maßnahmen das Risiko, Menschen unrechtmäßig von Inhalten auszuschließen.

Wie Alterskontrollen das Internet umkrempeln sollen

Konkret sollen Anbieter etwa sicherstellen, dass Methoden der Alterskontrolle für alle zugänglich sind, „unabhängig von Behinderung, Sprache, ethnischer Zugehörigkeit oder Zugehörigkeit zu einer Minderheit.“ Verarbeitet werden sollten alleine Datenpunkte, die sich auf das Alter beziehen und keine weiteren Daten, mit denen man Personen tracken könnte. Hinter die Altersschranke sollen nur Bereiche eines Angebots kommen, die für Minderjährige riskant sein können. Außerdem verweisen die Leitlinien darauf, dass Anbieter laut DSA keine Pflicht haben, allein zum Zweck der Alterskontrolle mehr Daten zu erheben, als sie es ohnehin tun würden.

Stellenweise richten die Leitlinien also durchaus den Blick auf Datenschutz und Teilhabe – und thematisieren damit die Bedenken der Kritiker*innen strenger Alterskontrollen.

Einen ernüchternden Realitätscheck erfahren diese Ziele jedoch, wenn man sich das von der EU-Kommission selbst vorgelegte Konzept für eine Alterskontroll-App anschaut. Wie wir im April berichtet haben, ist die geplante App eben nicht anonym, sondern pseudonym, und sie basiert auf Ausweispapieren, die nicht alle Menschen haben.

Das gibt einen Vorgeschmack darauf, in welche Richtung die Anwendung der Leitlinien verweist: Grundrechte wie Datenschutz und Teilhabe könnten zwar im Vorfeld ausführlich benannt werden; in der Praxis aber eine untergeordnete Rolle spielen.

Was passiert als nächstes?

Diese Leitlinien werden das Internet nicht sofort umkrempeln. Betroffene Anbieter müssen individuelle Lösungen entwickeln, um den Anforderungen gerecht zu werden. Gerade bei Maßnahmen, die viel Geld kosten oder gar strukturell Geschäftsmodelle angreifen, ist mit Widerstand zu rechnen. Welche Social-Media-Plattform wird schon bereitwillig auf Anreizsysteme verzichten, die Nutzer*innen immer wieder zurück in die App locken?

Viele Konflikte dürften sich erst vor Gericht klären lassen. Das zeigt schon die jüngste Geschichte des DSA. So sind selbst die in der EU meist besuchten Pornoseiten weit davon entfernt, Ausweiskontrollen für alle Nutzer*innen einzuführen – obwohl sie seit Jahren besonders im Fokus stehen. Vielmehr sind die Pornoanbieter noch damit beschäftigt, sich gegen ihre Einstufung als „sehr große Plattformen“ zu wehren.

Die Kommission möchte ihre fertigen Leitlinien direkt nach der noch laufenden öffentlichen Konsultation präsentieren, also schon im Sommer 2025. In Stein gemeißelt sind sie dann aber nicht. Sobald es erforderlich ist, will die Kommission die Leitlinien überprüfen – je nachdem, wie sie sich in der Praxis schlagen und welche technologischen, politischen und gesellschaftlichen Entwicklungen es gebe.

An zumindest einer Stelle weisen die Leitlinien über den Jugendmedienschutz hinaus. So schreibt die EU-Kommission, dass sie Anbieter von Online-Plattformen dazu „ermutigt“, die Maßnahmen zum Schutz aller Nutzer*innen anzuwenden, nicht nur für Minderjährige. Gerade beim Blick auf Datenschutz und Privatsphäre findet das Anklang bei Hannah Lichtenthäler von Superrr: „Profile von allen Menschen sollten auf privat eingestellt sein“, schreibt sie.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

15.05.2025 14:31

Immer mehr Menschen informieren sich bei Influencer:innen im Netz, wenn es um politische Inhalte geht. Das kann ein Einfallstor für die Manipulation demokratischer Systeme sein, warnt eine Untersuchung der Civil Liberties Union for Europe – und schlägt konkrete Gegenmittel vor.

Verdeckte Manipulation im Netz gefährden die Demokratie, warnt die NGO Civil Liberties Union for Europe. – Alle Rechte vorbehalten IMAGO / IlluPics

Influencer:innen sind aus dem heutigen Internet kaum wegzudenken. In sozialen Medien wie Youtube, Twitch oder Instagram haben manche von ihnen ein Millionenpublikum aufgebaut. Ob Zusammenfassungen von TV-Serien, Schminktipps oder politische Kommentare: Der Medienwandel hat eine neue Kategorie von Stars erschaffen, die vielen vertrauenswürdig erscheinen. Sogenannte parasoziale Beziehungen verstärken bei den Nutzer:innen das Gefühl, Teil einer Community zu sein. Die tatsächliche oder vermeintliche Nähe vermittelt Authentizität und Ehrlichkeit, die in traditionellen Medien zu fehlen scheint.

Vor allem bei weitreichenstarken Influencer:innen stecken nicht selten finanzielle Motive dahinter. Denn ohne eine gewisse Professionalisierung lassen sich solche Kanäle kaum dauerhaft bespielen. Problematisch wird das allerdings, wenn die digitalen Einflüsterer mit Schleichwerbung ihr Geld verdienen: Das untergräbt aus guten Gründen in die Welt gesetzte Regeln für Verbraucherschutz und kann echten Schaden verursachen. Seit einigen Jahren müssen deshalb Postings unter bestimmten Umständen als Werbung gekennzeichnet werden.

Verdeckter Einfluss

Eine Kategorie von Influencer:innen blieb bislang jedoch weitgehend unbehelligt, warnt ein neues Papier der Nichtregierungsorganisation Civil Liberties Union for Europe (Liberties). Politische Kommentator:innen in sozialen Medien gewinnen zunehmenden Einfluss, seit sich die Lebensrealität der Menschen und damit auch politische Kampagnen immer mehr ins Netz verlagern. Was auf der einen Seite marginalisierten Menschen zuweilen erstmals ein großes Megaphon in die Hand gibt, kann andererseits ein Einfallstor für verdeckt bezahlte Propaganda und Manipulation der öffentlichen Meinung sein.

Zuletzt hat sich das etwa im rumänischen Präsidentschaftswahlkampf gezeigt. Dort wurde im vergangenen Winter die Stichwahl abgesagt, nachdem der Gewinner des ersten Wahlgangs, der rechtsnationalistische Călin Georgescu, zu weiten Teilen geheim von Russland finanziert worden sein soll. Scheinbar aus dem Nichts hatte sich der zuvor weitgehend unbekannte Georgescu an die Spitze gesetzt: ohne herkömmliche Wahlkampagne, ohne offizielles Budget, ohne Partei im Rücken.

Entscheidend für seinen überraschenden Erfolg dürfte der Empfehlungsalgorithmus des Videodienstes Tiktok gewesen sein, der sich offenkundig leicht bespielen oder manipulieren lässt. Über 100 verdeckt bezahlte Influencer:innen warben dort direkt oder indirekt für den pro-russischen Georgescu und machten ihn teils unwissentlich mit Hilfe von Bots zum viralen Hit – eingewoben zwischen Tanzvideos und der letzten Mutproben-Challenge. Ein Einzelfall ist das nicht: Derzeit wird etwa Bulgarien, das Ende des Jahres der Eurozone beitreten will, offiziell und inoffiziell von einer eng mit Russland verknüpften Anti-EU-Propagandawelle überrollt. Solche Kampagnen funktionieren umso besser, je stärker sie auf bereits bestehende Narrative oder gesetzliche Defizite aufsetzen.

Defizite bei der Umsetzung

Zwar gibt es seit dem Vorjahr eine EU-Verordnung, die für mehr Transparenz bei politischer Werbung sorgen soll. Zudem enthält der Digital Services Act (DSA) eine Reihe an Vorgaben, die systemische Risiken von Online-Diensten abmildern sollen. Doch obwohl die EU-Kommission entsprechende Leitlinien vorgestellt hatte, kritisiert Liberties, hätten große Online-Dienste wie Meta, TikTok, YouTube und X bis heute dabei versagt, sinnvolle Transparenzvorgaben für politische Influencer:innen umzusetzen. Manche der Anbieter hätten zwar politische Werbung auf ihren Diensten verboten, stellten aber keine Werkzeuge bereit, um verstecktes Sponsoring aufzudecken. Dadurch würden politische Botschaften immer weiter in den Untergrund geraten und sich der öffentlichen Kontrolle entziehen, beklagt Liberties.

Die NGO schlägt konkrete Maßnahmen vor, die solche Manipulationsversuche beschränken sollen – und die zu einem guten Teil bereits gesetzlich verankert sind. So müssten die Online-Dienste unter anderem ihre Werbearchive endlich sinnvoll nutzbar machen, ihren Kennzeichnungspflichten bei bezahlten Inhalten nachkommen und mittels automatisierten Werkzeugen die Monetarisierung politischer Inhalte besser aufdecken. Zudem müsste es in Wahlperioden mehr menschliche Aufsicht geben, die etwa verdeckte und koordinierte Kampagnen aufspüren sollte. Auch sollte die Kommission ihre Leitlinien aus dem Vorjahr aktualisieren sowie ihrer Führungsrolle nachkommen, um „die Integrität der Wahlen zu schützen und sicherzustellen, dass verdeckte politische Einflussnahme im gesamten Plattform-Ökosystem systematisch bekämpft wird“.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

14.05.2025 12:36

Während der Covid-Pandemie verhandelte EU-Kommissionspräsidentin Ursula von der Leyen per SMS mit Pfizer-Chef Albert Bourla. Journalisten forderten Transparenz, doch die EU-Kommission weigerte sich, die Nachrichten offenzulegen. Die Begründung dafür findet das EU-Gericht unglaubwürdig.

Fotografie der EU-Kommissionspräsidentin Ursula von der Leyen wie sie mit Hand vor dem Mund am Handy telefoniert.
Ursula von der Leyen muss die SMS mit dem Pfizer-CEO offenlegen. (Symbolbild) – Alle Rechte vorbehalten IMAGO / ANP

Als 2021 die Covid-Pandemie den Alltag bestimmte, herrschte ein globales Wettrennen um Impfstoffe. Für die EU verhandelte Kommissionspräsidentin Ursula von der Leyen höchstpersönlich mit Impfstoff-Herstellern wie dem US-Pharmakonzern Pfizer. Dabei soll die Politikerin auch per SMS mit Pfizer-Chef Albert Bourla in Kontakt gewesen sein. Journalist*innen wollten wissen, was in den Kurznachrichten stand, doch die EU-Kommission verweigert die Auskunft seit Jahren.

Nun hat das Gericht der Europäischen Union geurteilt: Die Behauptung der EU-Kommission, nicht im Besitz dieser Nachrichten zu sein und sie deshalb nicht herausrücken zu können, sei nicht „plausibel“. Umgekehrt habe die klagende New York Times „relevante und übereinstimmende Anhaltspunkte“ dafür vorgelegt, dass ein wiederholter Austausch zwischen von der Leyen und Bourla stattgefunden habe.

Hinhaltetaktik der EU-Kommission

Dem Urteil zufolge hätte die EU-Kommission nachvollziehbar belegen müssen, warum diese Dokumente nicht auffindbar gewesen seien. Doch weder habe sie im Detail erklärt, welche Art von Nachforschungen sie betrieben hat, um diese Dokumente zu finden, noch, wo sie nach ihnen gesucht hat.

Außerdem habe die Kommission bis heute nicht klargestellt, ob die angeforderten Textnachrichten gelöscht wurden oder ob das Mobiltelefon der Kommissionspräsidentin inzwischen ausgetauscht wurde. Genausowenig habe die Kommission plausibel dargelegt, warum die Chatnachrichten keine wichtigen Informationen enthalten hätten.

Eigentlich soll eine Verordnung den Zugang zu Dokumenten der EU sicherstellen. Zwar sind Ablehnungen einschlägiger Anfragen möglich, etwa um Geschäftsgeheimnisse zu schützen. Doch grundsätzlich sollten alle Dokumente von EU-Organen für die Öffentlichkeit zugänglich sein, betont das Gericht.

In einer Pressemitteilung erklärte die Kommission, das Urteil und ihre nächsten Schritte prüfen zu wollen. Hierfür werde sie einen „neuen Beschluss mit einer ausführlicheren Begründung erlassen“, kündigte sie an. Eine Berufung ist binnen zwei Monaten möglich.

Transparenzanfrage von netzpolitik.org abgelehnt

Zuerst berichtete die New York Times im April 2021, dass von der Leyen per Telefon und SMS mit Pfizer-Chef Bourla verhandelt hatte. Kurz darauf stellte der damalige netzpolitik.org-Journalist Alexander Fanta eine Transparenzanfrage an die EU-Kommission, um den Inhalt der Konversation offenzulegen. Die Kommission verweigerte jedoch die Auskunft über die Existenz und den Inhalt der Kurznachrichten.

Inzwischen hat die EU-Kommission zwar den Kaufvertrag mit Pfizer veröffentlicht, dieser enthält jedoch viele geschwärzte Stellen. Zensiert wurde unter anderem der Stückpreis je Impfdosis. Der Financial Times zufolge verlangte Pfizer etwa 20 Euro pro Impfdosis.

Verhandelte von der Leyen per SMS über 21,5 Milliarden Euro, die Pfizer demnach von der EU erhalten sollte? Der Vorwurf eines überteuerten Panikkaufs der 1,8 Milliarden zugesicherten Impfdosen liegt nahe.

Schlupfloch für Geheimniskrämerei

Es ist weiterhin unklar, wie genau der Vertrag zwischen der EU und Pfizer zustande kam. Weil die Kommission die zur Aufklärung wichtigen Textnachrichten nicht veröffentlichte, beschwerte sich Alexander Fanta bei der damaligen Ombudsfrau der Europäischen Union Emily O’Reilly. In einem Treffen zwischen der Kommission und der Ombudsfrau gab die Kommission im Oktober 2021 zu, dass von der Leyen tatsächlich Textnachrichten mit dem Pfizer-CEO ausgetauscht hatte.

Die Textnachrichten seien jedoch nicht archiviert worden, weil sie „inhaltlich nicht relevant” gewesen seien, so die Kommission. Zudem seien Textnachrichten aufgrund ihrer “Kurzlebigkeit” noch nie archiviert worden. Ganz grundsätzlich mache die Kommission keine verbindlichen Zusagen via Textnachrichten, wie sie O’Reilly mitgeteilt hatte.

Vor allem ist die Argumentation der Kommission schädlich für die Transparenz. Indem sie SMS und Messenger-Nachrichten grundsätzlich die Relevanz abspricht, öffnet die Kommission ein großes Schlupfloch für Geheimniskrämerei. Wenn Textnachrichten nicht archiviert werden, lässt sich versteckter Lobbyismus und Korruption schwerer aufdecken. Sobald eine Konversation heikel wird und sich Offizielle lieber nicht “on the record” unterhalten möchten, können sie dann einfach auf SMS, WhatsApp oder Signal ausweichen.

Ombudsfrau O’Reilly riet deshalb, dass Textnachrichten archiviert und auf Anfrage veröffentlicht werden sollen. Außerdem empfahl sie, die zwischen von der Leyen und Bourla ausgetauschten Textnachrichten zu veröffentlichen. Allerdings haben Beschlüsse der Bürgerbeauftragten keine bindende Wirkung und die Kommission blieb stur, weshalb die New York Times im Januar 2023 vor dem Gericht der Europäischen Union klagte.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

14.05.2025 11:04

The Swedish government wants to make paying for sexual services online a criminal offense. The law could have global implications for online services and put creators at risk, warns Yigit Aydin. He fights for the rights of sex workers on behalf of the association ESWA.

a man in front of grey pixelated grey background.
The narrative of protection through criminalization is misleading, says digital rights expert Yigit Aydin. – Alle Rechte vorbehalten Photo: Yigit Aydin; montage: netzpolitik.org

Watching others masturbate online for money? This could soon be banned in Sweden. The conservative-right government of Prime Minister Ulf Kristersson has introduced a bill to parliament that would make it a criminal offense to pay for sexual services “performed at a distance, without contact.” Parliament is currently debating the bill and is set to vote next week.

It would be an extension of the “Swedish model” that has been in place since the 1990s: sex work itself is not a crime, but clients are criminalized. The model would now apply not only to physical contact, but also to online services.

According to the draft, anyone who “induces a person to perform or tolerate a sexual act in return for payment, in order to participate in it or to have it performed for them” would be liable to prosecution. Merely watching someone undress in front of a camera would still be permitted, as would the purchase of porn films. But anyone who pays models directly for “sexual acts” in front of a camera would be liable to prosecution. This can be the case with live streams via webcam or when ordering individual content on platforms such as OnlyFans.

Yigit Aydin is Senior Program Officer at the European Sex Workers‘ Rights Alliance, or ESWA for short, a sex worker-led network representing more than 100 organisations in 30 countries across Europe and Central Asia. The association is currently gathering supporters to prevent the law from being passed. Criminalizing consensual sex work does not protect sex workers, Aydin says. Instead, he warns of devastating consequences, not only for sex workers and their families, but for sexual services on the internet in general.

„The idea that the worker is not criminalised is a legal fiction“

netzpolitik.org: The proposed law is not directed against sex workers, but against clients who pay for sexual services online. Why is your association calling for the law to be stopped?

Yigit Aydin: The so-called „Swedish model“ is often misunderstood as a progressive, protective approach to sex work. While it claims to decriminalise the sex worker and only criminalise the buyer, in practice it punishes sex workers in deeply harmful and systemic ways. When the purchase of a service is criminalised, the service itself becomes impossible to offer safely. The workers lose clients, income and are forced into more precarious or hidden conditions, increasing their risk of violence, exploitation, and isolation. This regulation does not eradicate sex work. It pushes the workers into unsafe conditions. The idea that the worker is „not criminalised“ is a legal fiction.

netzpolitik.org: How would the proposed law affect people who earn their living in Sweden through webcamming or other online sexual services?

Yigit Aydin: This law criminalises one of the few safer, lower-barrier forms of sex work: digital erotic labour. It will push workers based in Sweden out of a sector where they can work independently, set boundaries, and avoid the risks associated with street-based or in-person work. The consequences will undoubtedly include loss of income for those who rely on digital work as a primary or supplementary source. We will also see increased isolation, as clients and platforms distance themselves out of fear. There will also be increased stigma and surveillance, especially for trans, disabled, migrant and racialised sex workers.

netzpolitik.org: Some Swedish sex workers have already announced that they will leave the country if the law comes into force.

Yigit Aydin: While some sex workers are going to try to move their work abroad or anonymise themselves further, others who do not have the freedom to simply “exit” or leave the country will have to take the chance on working under increased criminality.

netzpolitik.org: On platforms such as OnlyFans and cam sites, people from all over the world offer content that is also consumed in Sweden. What international implications could the law have?

Yigit Aydin: This law will have international implications far beyond Sweden. Even though the legal reach is national, platforms used by Swedish users are global. To avoid liability, platforms will ban all users in Sweden, including those who only consume content. They will deplatform or shadowban workers who appear Swedish, or who accept Swedish currency or payment providers and they will adopt broader content moderation policies that penalise erotic content creators globally.

This law also fuels a growing international trend of platform censorship and sexual expression policing, often under the pretext of “protection” or anti-trafficking. It emboldens repressive internet policy and harms digital rights for everyone.

„The enforcement will inevitably rely on expanded digital surveillance“

netzpolitik.org: The law criminalizes payment for certain content like „sexual acts“ while allowing pre-recorded porn or simply watching someone strip. How do you expect this to be enforced?

Yigit Aydin: The enforcement will inevitably rely on expanded digital surveillance, including monitoring of online communications, financial transactions, platform activity and potentially even private messages. This is the only way to determine whether a sexual act was “performed remotely” and “purchased,” so law enforcement would need to investigate interactions that occur in private digital spaces like cam sites, subscription platforms, peer-to-peer chat apps or encrypted messaging services.

netzpolitik.org: What role will adult content platforms play in all this?

Yigit Aydin: Platforms will likely start geo-blocking users in Sweden or terminating Swedish content creators’ accounts. We will see a pre-emptive banning of erotic content, even beyond what the law mandates and tightening terms of service to prohibit even suggestive or ambiguous content.

Given the law’s vague language, hinging on intent, compensation, and whether someone was “induced” to perform an act, platforms may take the most risk-averse approach: blanket bans and over-censorship. This disproportionately affects small creators, sex workers, and marginalised communities who depend on those platforms for income. It also threatens digital expression more broadly, as platforms are incentivised to censor rather than litigate.

We also expect that this law will lead to increased police monitoring of adult content platforms, pressuring tech companies and payment processors to share user data, use of sting operations and entrapment in online environments. This would have a chilling effect on any digital content that could be interpreted as sexually suggestive. This will create a dangerous precedent where the Swedish state can justify surveillance of consensual adult activity under the guise of protection. The blurred line between sex work and pornography, which even the government acknowledges, adds to the risk of overreach and misapplication.

„Sex workers have had their partners or housemates prosecuted for pimping“

netzpolitik.org: In 2018, during Donald Trump’s first term in office, the US passed a law called SESTA/FOSTA punishing platforms that facilitate sex work. How does Sweden’s approach resemble the US model?

Yigit Aydin: This proposal resembles SESTA/FOSTA a lot. Both laws expand criminal liability to platforms and third parties facilitating sex work, frame themselves as anti-trafficking while failing to distinguish between consensual and exploitative acts. This results in widespread deplatforming, censorship and digital exclusion of sex workers. They both are designed to push workers offline into more dangerous environments, especially for LGBTQI+, racialised and migrant communities and undermine access to safety tools, screening resources, and income.

The difference is that Sweden’s law explicitly targets remote, digital sexual acts, which SESTA/FOSTA indirectly affected. Sweden is taking it a step further by criminalising clients for watching cam shows or subscribing to erotic content, criminalising not only the transaction, but the medium of digital sexual expression itself. If passed, this would make Sweden the first country in the world to extend Nordic Model-style client criminalisation into cyberspace, setting a deeply harmful precedent.

netzpolitik.org: What consequences does the criminalization of offline sex work already have for sex workers in Sweden today?

Yigit Aydin: Our members have had their husbands, partners or housemates prosecuted for pimping, simply because they live together and share expenses. The government argues that anyone living with a sex worker is „benefiting“ from the proceeds of sex work. This results in terrifying raids, family separations. The reality is clear: The Swedish model does criminalise sex workers, directly and indirectly. This rhetoric of protection is not just misleading, it obscures the real pain, fear and injustice experienced daily by those it claims to defend. That narrative has to change.

netzpolitik.org: What does ESWA hope to achieve now?

Yigit Aydin: Our campaign and joint statement were signed by over 1,500 civil rights organisations, human rights experts, and academics globally, calling for the rejection of this law proposal. Once again, we call Swedish members of the parliament to reject this harmful proposal in its entirety.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

14.05.2025 10:42

Die schwedische Regierung will das Bezahlen für sexuelle Dienstleistungen im Netz unter Strafe stellen. Das werde zu Überwachung, Zensur und Abschreckung führen, warnt Yigit Aydin im Interview. Für den Verband ESWA kämpft er für die Rechte von Sexarbeiter:innen.

Bildmontage: Porträt eines Mannes vor grauem Hintergrund
Yigit Aydin kämpft gegen die Kriminalisierung von einvernehmllicher Sexarbeit. – Alle Rechte vorbehalten Foto: Yigit Aydin, Montage: netzpolitik.org

Anderen im Netz gegen Geld beim Masturbieren zuschauen? Das soll in Schweden bald verboten sein. Die konservativ-rechte Regierung von Ministerpräsident Ulf Kristersson hat einen Entwurf ins Parlament eingebracht, der das Zahlen für solche sexuelle Dienstleistungen unter Strafe stellt, die „über Distanz, ohne Kontakt ausgeübt werden“. Das Parlament wird voraussichtlich nächste Woche darüber abstimmen.

Es wäre eine Erweiterung des bereits seit den Neunzigerjahren geltenden „Schwedischen Modells“: Sexarbeit selbst ist demnach straffrei, die Kund:innen werden hingegen kriminalisiert. Das soll jetzt nicht mehr nur für physische Kontakte gelten, sondern auch für Online-Dienstleistungen.

Strafbar macht sich laut Entwurf, wer eine Person dazu „verleitet, eine sexuelle Handlung gegen Entgelt vorzunehmen oder zu dulden, um daran teilzunehmen oder sie vorgeführt zu bekommen“. Bloßes Zuschauen beim Ausziehen vor der Kamera wäre damit noch erlaubt; ebenso der Kauf von Porno-Filmen. Wer Models jedoch direkt für „sexuelle Handlungen“ vor der Kamera bezahlt, würde sich strafbar machen. So etwas kann bei Livestreams per Webcam passieren oder wenn man individuelle Inhalte auf Plattformen wie OnlyFans bestellt.

Yigit Aydin ist Experte für Digitalrechte bei der European Sex Workers‘ Rights Alliance (ESWA), einem von Sexarbeiter.innen geführten Netzwerk, das mehr als 100 Organisationen aus Ländern Europas und Zentralasiens vertritt. Der Verband sammelt derzeit Unterstützer:innen, um das Gesetz noch zu verhindern. Einvernehmliche Sexarbeit zu kriminalisieren schütze keine Sexarbeiter:innen, sagt Aydin im Interview. Er warnt vor verheerenden Folgen, nicht nur für Sexarbeiter:innen und ihre Angehörigen, sondern für sexuelle Angebote im Netz generell. Das Interview wurde auf Englisch geführt und danach übersetzt.

„Das Schwedische Modell drängt Sexarbeiter:innen in unsichere Verhältnisse“

netzpolitik.org: Das geplante Gesetz richtet sich nicht gegen Sexarbeiter:innen, sondern gegen Kund:innen, die für sexuelle Dienstleistungen im Netz bezahlen. Warum fordert ihr Verband, das Gesetz zu stoppen?

Yigit Aydin: Das sogenannte „schwedische Modell“ wird oft als fortschrittlicher Ansatz für Sexarbeit missverstanden. Es behauptet zwar, Sexarbeiter:innen zu entkriminalisieren und nur die Käufer:innen zu kriminalisieren, in der Praxis bestraft es jedoch Sexarbeiter:innen systemisch. Wenn der Kauf einer Dienstleistung kriminalisiert wird, kann diese Dienstleistung nicht mehr auf sichere Weise angeboten werden. Die Sexarbeiter:innen verlieren Kund:innen und Einkommen und werden in Arbeitsverhältnisse gedrängt, die prekär sind oder im Verborgenen ablaufen, wodurch ihr Risiko steigt, Gewalt, Ausbeutung und Isolation zu erleben. Das „schwedische Modell“ beendet die Sexarbeit nicht. Es drängt die Sexarbeiter:innen in unsichere Verhältnisse. Die Vorstellung, dass die Sexarbeiter:innen „nicht kriminalisiert“ werden, ist eine juristische Fiktion.

netzpolitik.org: Wie würde sich das vorgeschlagene Gesetz auf Menschen auswirken, die ihr Geld in Schweden mit Livestreams oder anderen sexuellen Dienstleistungen im Netz verdienen?

Yigit Aydin: Dieses Gesetz kriminalisiert eine der wenigen sichereren und weniger diskriminierenden Formen der Sexarbeit: digitale erotische Arbeit. Es wird Sexarbeiter:innen in Schweden aus einem Sektor verdrängen, in dem sie unabhängig arbeiten, Grenzen setzen können und die Risiken vermeiden, die mit persönlichem Kontakt verbunden sind. Die Folgen werden zweifellos Einkommensverluste für diejenigen sein, die auf digitale Arbeit als Haupt- oder Nebeneinkommensquelle angewiesen sind. Wir werden auch eine zunehmende Isolation sehen, da Kund:innen und Plattformen sich aus Angst zurückziehen werden. Außerdem wird es zu einer verstärkten Stigmatisierung und Überwachung kommen, insbesondere für trans, behinderte, migrierte und rassistisch diskriminierte Sexarbeiter:innen.

netzpolitik.org: Einige schwedische Sexarbeiter:innen haben bereits angekündigt, das Land zu verlassen, sollte das Gesetz in Kraft treten.

Yigit Aydin: Während einige Sexarbeiter:innen versuchen werden, ihre Arbeit ins Ausland zu verlagern oder sich noch stärker durch Anonymität zu schützen, werden andere, die nicht einfach „aussteigen“ oder das Land verlassen können, das Risiko eingehen müssen, unter verschärften strafrechtlichen Bedingungen zu arbeiten.

„Die Durchsetzung wird zu mehr digitaler Überwachung führen“

netzpolitik.org: Auf Plattformen wie OnlyFans und auf Webcam-Seiten bieten Menschen aus der ganzen Welt Inhalte an, die auch in Schweden konsumiert werden. Welche internationalen Folgen könnte das Gesetz haben?

Yigit Aydin: Dieses Gesetz wird weit über Schweden hinaus Auswirkungen haben. Auch wenn die Strafbarkeit national begrenzt ist, werden die von schwedischen Nutzer:innen verwendeten Plattformen weltweit genutzt. Um Haftungsrisiken zu vermeiden, werden Plattformen alle Nutzer:innen in Schweden sperren, einschließlich derjenigen, die nur Inhalte konsumieren. Sie werden Nutzer:innen, die schwedisch aussehen oder schwedische Währung oder Zahlungsanbieter akzeptieren, von ihren Plattformen verbannen oder ihre Inhalte verstecken. Außerdem werden sie ihre Richtlinien zur Moderation von Inhalten verschärfen, das wird Urheber:innen sexueller Inhalte weltweit treffen.

Dieses Gesetz befeuert auch einen internationalen Trend zur Zensur und Überwachung sexueller Inhalte, oft unter dem Vorwand des „Schutzes“ oder der Bekämpfung des Menschenhandels. Das ist repressive Internetpolitik und schadet den digitalen Rechten aller.

netzpolitik.org: Das Gesetz kriminalisiert die Bezahlung für bestimmte Inhalte wie „sexuelle Handlungen“ vor der Kamera, während vorab aufgezeichnete Pornos oder das bloße Zuschauen beim Ausziehen erlaubt bleiben. Wie wird dieses Gesetz Ihrer Meinung nach durchgesetzt werden?

Yigit Aydin: Die Durchsetzung wird unweigerlich zu mehr digitaler Überwachung führen, einschließlich der Überwachung der Online-Kommunikation, Finanztransaktionen, Plattformaktivitäten und möglicherweise sogar privater Nachrichten. Nur so kann man feststellen, ob eine sexuelle Handlung „aus der Ferne durchgeführt“ und „gekauft“ wurde. Die Strafverfolgungsbehörden müssten also Interaktionen untersuchen, die in privaten digitalen Räumen stattfinden – auf Webcam-Seiten, Abo-Portalen, Peer-to-Peer-Chat-Apps oder verschlüsselten Messaging-Diensten.

„Überwachung einvernehmlicher Aktivitäten von Erwachsenen“

netzpolitik.org: Welche Rolle werden Plattformen für sexuelle Dienstleistungen wie OnlyFans dabei spielen?

Yigit Aydin: Plattformen werden wahrscheinlich Nutzer:innen in Schweden sperren oder die Konten schwedischer Content-Creator:innen löschen. Es wird zu einer präventiven Sperrung sexueller Inhalte kommen, die sogar über die gesetzlichen Vorgaben hinausgeht, und zu einer Verschärfung der Nutzungsbedingungen, um selbst anzügliche oder mehrdeutige Inhalte zu verbieten.

Angesichts der vagen Formulierungen des Gesetzes, das sich etwa auf die Frage stützt, ob jemand zu einer Handlung „verleitet“ wurde, könnten Plattformen übervorsichtig werden: durch pauschale Verbote und übermäßige Zensur. Das trifft kleine Creator:innen, Sexarbeiter:innen und marginalisierte Gruppen, die für ihr Einkommen auf diese Plattformen angewiesen sind, unverhältnismäßig hart. Es bedroht auch generell die Freiheit, sich im Netz auszudrücken, da Plattformen einen Anreiz bekommen, Inhalte zu zensieren, statt vor Gericht zu gehen.

Wir gehen auch davon aus, dass dieses Gesetz zu einer verstärkten polizeilichen Überwachung von Plattformen mit Erwachseneninhalten führen wird, zu verdeckten Ermittlungen und Lockvogel-Methoden. Tech-Unternehmen und Zahlungsdienstleister werden unter Druck gesetzt, Nutzerdaten weiterzugeben. Dies hätte eine abschreckende Wirkung auf alle Creator:innen von digitalen Inhalten, die als sexuell anzüglich interpretiert werden könnten. Und es würde für den schwedischen Staat einen gefährlichen Präzedenzfall schaffen, um die Überwachung einvernehmlicher Aktivitäten von Erwachsenen unter dem Deckmantel des Schutzes zu rechtfertigen. Weil die Grenze zwischen Sexarbeit und Pornografie schwammig ist, was die Regierung selbst eingesteht, gibt es ein erhöhtes Risiko von Übergriffen und Fehlinterpretationen.

Schweden will Bezahlung von Camshows kriminalisieren

„Äußerst schädlicher Präzedenzfall“

netzpolitik.org: Die USA haben bereits 2018 in der ersten Amtszeit von Donald Trump ein Gesetz (SESTA/FOSTA) verabschiedet, das Plattformen bestraft, die Sexarbeit ermöglichen. Inwiefern ähnelt das geplante Gesetz in Schweden dem US-Modell?

Yigit Aydin: Der Gesetzentwurf ähnelt SESTA/FOSTA sehr. Beide Gesetze erweitern die strafrechtliche Haftung auf Plattformen und Dritte, die Sexarbeit ermöglichen, stellen sich als Maßnahmen gegen Menschenhandel dar, ohne jedoch zwischen einvernehmlichen und ausbeuterischen Handlungen zu unterscheiden. Dies führt dazu, dass Menschen von Plattformen verdrängt werden; es führt zu Zensur und digitaler Ausgrenzung von Sexarbeiter:innen. Beide Gesetze zielen darauf ab, den Zugang zu Einkommen zu untergraben und Sexarbeiter:innen aus dem Internet in gefährlichere Umgebungen zu drängen, insbesondere für LGBTQI+, rassifizierte und migrantische Communitys.

Der Unterschied besteht darin, dass das schwedische Gesetz ausdrücklich auf digitale sexuelle Handlungen abzielt, die von SESTA/FOSTA nur indirekt betroffen waren. Schweden geht also noch einen Schritt weiter als die USA, indem es Kund:innen für das Anschauen von Cam-Shows oder das Abonnieren sexueller Inhalte kriminalisiert und damit nicht nur die Transaktion, sondern das Medium selbst unter Strafe stellt. Sollte das Gesetz verabschiedet werden, wäre Schweden das erste Land der Welt, das die Kriminalisierung von Kund:innen nach dem nordischen Modell ins Digitale ausweitet und damit einen äußerst schädlichen Präzedenzfall schafft.

netzpolitik.org: Welche Folgen hat die Kriminalisierung von Sexarbeit bereits heute für Sexarbeiter:innen in Schweden?

Yigit Aydin: Unsere Mitglieder haben erlebt, dass ihre Ehemänner, Partner:innen oder Mitbewohner:innen wegen Zuhälterei strafrechtlich verfolgt wurden, nur weil sie zusammenleben und sich Kosten teilen. Die Regierung argumentiert, dass jeder, der mit einem Sexarbeiter oder einer Sexarbeiterin zusammenlebt, von den Einkünften aus der Sexarbeit „profitiert“. Das führt zu Razzien, zur Trennung von Familien. Die Realität ist: Das schwedische Modell kriminalisiert Sexarbeiter:innen direkt und indirekt. Die mit dem Modell verbundene Schutzrhetorik ist nicht nur irreführend, sie verschleiert das echte Leid, die Angst und Ungerechtigkeit, die alle jene täglich erleben, die das Modell angeblich schützen soll. Diese Erzählung muss sich ändern.

netzpolitik.org: Was will ESWA nun erreichen?

Yigit Aydin: Unsere Kampagne und unsere gemeinsame Erklärung wurden von über 1.500 Bürgerrechtsorganisationen, Menschenrechtsexpert:innen und Wissenschaftler:innen weltweit unterzeichnet, die die Ablehnung dieses Gesetzentwurfs fordern. Wir rufen die schwedischen Abgeordneten erneut dazu auf, diesen schädlichen Vorschlag in seiner Gesamtheit abzulehnen.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

13.05.2025 14:55

Seit 2016 habe ich hier über meine Tätigkeit im Fernseh- und später Verwaltungsrat des ZDF gebloggt. Ab Juni dieses Jahres werde ich dem Stiftungsrat des österreichischen ORF angehören. Damit endet eine spannende und überaus lehrreiche Zeit – und eine neue beginnt.

Foto des ORF-Sendezentrums am Küniglberg in Wien
Der österreichische öffentlich-rechtliche ORF sendet vom Wiener Küniglberg aus CC-BY 3.0 Thomas Ledl

Die Serie „Neues aus dem Fernsehrat“ beleuchtet seit dem Jahr 2016 die digitale Transformation öffentlich-rechtlicher Medien. Hier entlang zu allen Beiträgen der Reihe.

Erstmals wurden im April dieses Jahres die von der österreichischen Bundesregierung in den ORF-Stiftungsrat zu nominierenden Mitglieder öffentlich ausgeschrieben. Ich habe mich für einen der insgesamt sechs Plätze beworben und wurde per Ministerratsbeschluss für die nächste Periode zum 17. Juni 2025 als Mitglied des Stiftungsrats bestellt.

Seit ich im Juli 2016 als Vertreter für den Bereich „Internet“ im ZDF-Fernsehrat zu bloggen begann, hat sich in Sachen Digitalisierung und Online-Angebot öffentlich-rechtlicher Medien in Deutschland eine ganze Menge getan. Nur exemplarisch und schlaglichtartig seien einige (mir) wichtige Änderungen hier angeführt:

  • Aus zwölf eigenständigen ARD-Mediatheken und einer ZDF-Mediathek wurde ein gemeinsames Streaming-Netzwerk, das zukünftig auf Basis offener Software und Protokolle weiterentwickelt werden soll.
  • Öffentlich-rechtliche Inhalte finden sich zumindest in Ansätzen nicht nur auf großen kommerziellen Plattformen, sondern dank freier Lizenz auch auf der gemeinnützigen Online-Enzyklopädie Wikipedia.
  • Mit dem Public Spaces Incubator gibt es ein internationales F&E-Projekt von öffentlich-rechtlichen Medien aus Belgien, Deutschland, Kanada und der Schweiz, mit dem eine Öffnung der Mediatheken für Publikumsbeiträge praktisch erprobt wird und das noch 2025 in den Effektivbetrieb gehen soll.

Natürlich ist längst nicht alles im digitalen Bereich dort, wo es hingehört. Immer noch kämpfen öffentlich-rechtliche Online-Angebote mit dem Zombie-Konzept der Presseähnlichkeit. Auch könnte der Anteil Wikipedia-kompatibel lizenzierter Inhalte viel höher ausfallen. Auch die Öffnung der Mediatheken könnte schon erheblich weiter vorangeschritten sein.

Aber insgesamt entwickeln sich die öffentlich-rechtlichen Online-Angebote in die richtige Richtung. Und selbst die Geschwindigkeit ist – angesichts real schrumpfender Budgets bei quasi unverändertem linearen Angebot und nur langsamer Weiterentwicklung der gesetzlichen Grundlagen – durchaus beachtlich.

Hinzu kommt das kürzlich präsentierte Gutachten zu Potenzialen für Digitalen Public Value im ZDF, in dem mögliche neue Aufgaben und damit verbunden ein neues Selbstverständnis von öffentlich-rechtlichen Medien als Ermöglicher und Katalysator eines gemeinwohlorientierten Medienökosystems skizziert werden. Neben der Vision beschreiben die fünf Autor:innen des Gutachtens auch sehr konkrete nächste Entwicklungsschritte, um sich ihr anzunähern.

Logo Neues aus dem ORF
Statt ‚Neues aus dem Fernsehrat‘ zukünftig ‚Neues aus dem ORF‘ - Alle Rechte vorbehalten Leonhard Dobusch

Ob die in dem Gutachten beschriebenen Potenziale tatsächlich umgesetzt werden können, ist natürlich keineswegs ausgemacht. Vor allem im Bereich der Rundfunkpolitik wird der unsachlichen Fundamentalopposition von ganz rechts außen immer noch mit Appeasement statt entschlossener Stärkung öffentlich-rechtlicher Strukturen begegnet.

Für meinen Wechsel in den ORF-Stiftungsrat nehme ich jedenfalls einen reichen Schatz an Erfahrungen mit. Gleichzeitig hoffe ich, so auch einen kleinen Beitrag dafür leisten zu können, um die immer noch viel zu stark ausgeprägte nationalstaatliche Aufstellung öffentlich-rechtlicher Medien in Europa zu überwinden. Die Zukunft öffentlich-rechtlicher Medien liegt in einem offenen, dezentralen und länderübergreifenden Medienökosystem.

Und auch wenn ich künftig bei netzpolitik.org nichts ‘Neues aus dem Fernsehrat’ mehr berichten kann, werde ich auch über meine Tätigkeit im ORF-Stiftungsrat bloggen. Wer sich für ‚Neues aus dem ORF‘ interessiert, kann hier abonnieren.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.