MitgliederPartnerEventsThemenAusbildungÜber uns
Mitglied werden
close icon

Menü

  • Mitglied werden
  • Mitglieder
  • Partner
  • Events
  • Themen
  • Ausbildung
  • Über uns
Judith Niederberger
Judith Niederberger
Lakritza Kommunikation
KI-Bildgestalterin & Trainerin
1
Minuten
20.1.2026

Sexualisierte KI-Deepfakes: Technologie darf nicht schneller sein als Verantwortung

Sexualisierte KI-Deepfakes sind keine Randerscheinung, sondern digitale Gewalt mit realen Folgen für Betroffene. Der aktuelle Fall Grok/X zeigt exemplarisch, wie gefährlich KI-Funktionen werden, wenn sie ohne wirksame Schutzmechanismen veröffentlicht werden. swissAI fordert eine sachliche Debatte darüber, welche KI-Anwendungen verantwortbar sind – und wo temporäre Abschaltungen notwendig werden, um Menschen wirksam zu schützen.

Weiter lesen

Medienmitteilung von swissAI vom 20.1.2026

Mithilfe von KI lassen sich heute täuschend echte Bilder von realen Menschen erzeugen oder verändern. Diese Technik wird zunehmend missbraucht: für sexualisierte Deepfakes. Dabei werden Gesichter realer Personen ohne deren Wissen in pornografische oder kompromittierende Darstellungen eingefügt. Die Bilder wirken authentisch, verbreiten sich rasant und lassen sich kaum vollständig aus dem Netz entfernen.
Für Betroffene ist das kein technisches Randproblem, sondern digitale Gewalt: mit massiven psychischen, sozialen und beruflichen Folgen. Besonders betroffen sind Frauen und Minderjährige.

Warum dieses Problem existiert
Das Phänomen entsteht aus einer problematischen Kombination:

1. Extrem leistungsfähige und leicht zugängliche KI-Werkzeuge
Was früher Spezialwissen voraussetzte, ist heute für jede Nutzerin und jeden Nutzer verfügbar.

2. Schutzmechanismen, die nicht Schritt halten
Viele Plattformen veröffentlichen neue KI-Funktionen, bevor klar ist, wie Missbrauch wirksam verhindert werden kann.

3. Reaktionen erst nach Eintritt des Schadens
Missbrauch wird oft erst ernst genommen, wenn Fälle öffentlich werden – nicht präventiv.

Kurz: Die Technologie entwickelt sich schneller als die Verantwortung.

Aktuelle Debatte um Grok/X in Grossbritannien
In Grossbritannien steht dieses Problem derzeit im Zentrum einer politischen Auseinandersetzung. Die Aufsichtsbehörde Ofcom untersucht die Plattform X im Zusammenhang mit dem KI-Chatbot Grok. Der Vorwurf: Über diese KI-Funktionalität wurden in grossem Umfang sexualisierte, KI-generierte Bilder erstellt und verbreitet. Die britische Regierung hat öffentlich erklärt, dass X seine Nutzerinnen und Nutzer möglicherweise nicht ausreichend schützt. Auf Basis des britischen Online Safety Act stehen empfindliche Sanktionen bis hin zur temporären Sperrung der Plattform im Raum. X reagierte mit der Einschränkung bestimmter Bildfunktionen nur noch für zahlenden Grok-User.
Diese Massnahme greift zu kurz: Missbrauch wird damit nicht verhindert, sondern lediglich hinter eine Bezahlschranke verschoben. Inzwischen liess Elon Musk selbst, nach wochenlangem Druck von Regulierungsbehörden, Regierungen und Opfern, verlauten, dass Grok eine «moralische Verfassung» benötige.

Kein Einzelfall, sondern ein strukturelles Muster
Grok/X steht exemplarisch für ein wiederkehrendes Prinzip: Neue KI-Funktionen werden eingeführt, Missbrauch tritt ein, danach folgen unter öffentlichem Druck Korrekturversuche. Für die Betroffenen bleibt der Schaden bestehen.

Position von swissAI
Das Kernproblem liegt nicht bei der KI an sich, sondern bei der Veröffentlichung besonders missbrauchsanfälliger Funktionen ohne wirksame Kontrolle.

Drei Feststellungen sind zentral:

1. Nicht jede KI-Funktion ist verantwortbar
Wenn eine Funktion systematisch dazu führt, Menschen zu schädigen oder zu erniedrigen, muss ihre Existenz hinterfragt werden.

2. Nachträgliche Massnahmen schützen nicht
Wer erst reagiert, wenn Missbrauch öffentlich wird, reagiert zu spät.

3. Paywalls sind kein Schutzkonzept
Schädliche oder illegale Inhalte verschwinden nicht, nur weil sie kostenpflichtig werden

swissAI fordert weder pauschale KI-Verbote noch detaillierte Regulierungsrezepte. Aber wir halten es für notwendig, offen darüber zu sprechen, ob besonders gefährliche KI-Funktionalitäten temporär abgeschaltet werden müssen, wenn Plattformen sie nicht wirksam kontrollieren können

Warum diese Debatte jetzt geführt werden muss
Die meisten Menschen wissen noch gar nicht, was technisch möglich ist. Gerade deshalb braucht es jetzt eine sachliche, verständliche und vorausschauende Einordnung – bevor sich Schäden weiter ausbreiten.

Innovation ist wichtig. Der Schutz von Menschen ist jedoch keine optionale Nebenbedingung, sondern eine Grundvoraussetzung.

Hast du Fragen oder
Anregungen?

Diskutiere mit!

Trägerschaft

Partnerschaften

Kontakt
human@swissai.chLinkedIn
Weiteres
MedienKI-ExpertenZertifizierte TrainerFAQLinkedIn
Navigation
HomeMitglied werdenMitgliederEventsThemenAusbildungÜber uns
Rechtliches
ImpressumDatenschutz
Webseite erstellt von Luca Märki