Medienmitteilung von swissAI vom 20.1.2026
Mithilfe von KI lassen sich heute täuschend echte Bilder von realen Menschen erzeugen oder verändern. Diese Technik wird zunehmend missbraucht: für sexualisierte Deepfakes. Dabei werden Gesichter realer Personen ohne deren Wissen in pornografische oder kompromittierende Darstellungen eingefügt. Die Bilder wirken authentisch, verbreiten sich rasant und lassen sich kaum vollständig aus dem Netz entfernen.
Für Betroffene ist das kein technisches Randproblem, sondern digitale Gewalt: mit massiven psychischen, sozialen und beruflichen Folgen. Besonders betroffen sind Frauen und Minderjährige.
Warum dieses Problem existiert
Das Phänomen entsteht aus einer problematischen Kombination:
1. Extrem leistungsfähige und leicht zugängliche KI-Werkzeuge
Was früher Spezialwissen voraussetzte, ist heute für jede Nutzerin und jeden Nutzer verfügbar.
2. Schutzmechanismen, die nicht Schritt halten
Viele Plattformen veröffentlichen neue KI-Funktionen, bevor klar ist, wie Missbrauch wirksam verhindert werden kann.
3. Reaktionen erst nach Eintritt des Schadens
Missbrauch wird oft erst ernst genommen, wenn Fälle öffentlich werden – nicht präventiv.
Kurz: Die Technologie entwickelt sich schneller als die Verantwortung.
Aktuelle Debatte um Grok/X in Grossbritannien
In Grossbritannien steht dieses Problem derzeit im Zentrum einer politischen Auseinandersetzung. Die Aufsichtsbehörde Ofcom untersucht die Plattform X im Zusammenhang mit dem KI-Chatbot Grok. Der Vorwurf: Über diese KI-Funktionalität wurden in grossem Umfang sexualisierte, KI-generierte Bilder erstellt und verbreitet. Die britische Regierung hat öffentlich erklärt, dass X seine Nutzerinnen und Nutzer möglicherweise nicht ausreichend schützt. Auf Basis des britischen Online Safety Act stehen empfindliche Sanktionen bis hin zur temporären Sperrung der Plattform im Raum. X reagierte mit der Einschränkung bestimmter Bildfunktionen nur noch für zahlenden Grok-User.
Diese Massnahme greift zu kurz: Missbrauch wird damit nicht verhindert, sondern lediglich hinter eine Bezahlschranke verschoben. Inzwischen liess Elon Musk selbst, nach wochenlangem Druck von Regulierungsbehörden, Regierungen und Opfern, verlauten, dass Grok eine «moralische Verfassung» benötige.
Kein Einzelfall, sondern ein strukturelles Muster
Grok/X steht exemplarisch für ein wiederkehrendes Prinzip: Neue KI-Funktionen werden eingeführt, Missbrauch tritt ein, danach folgen unter öffentlichem Druck Korrekturversuche. Für die Betroffenen bleibt der Schaden bestehen.
Position von swissAI
Das Kernproblem liegt nicht bei der KI an sich, sondern bei der Veröffentlichung besonders missbrauchsanfälliger Funktionen ohne wirksame Kontrolle.
Drei Feststellungen sind zentral:
1. Nicht jede KI-Funktion ist verantwortbar
Wenn eine Funktion systematisch dazu führt, Menschen zu schädigen oder zu erniedrigen, muss ihre Existenz hinterfragt werden.
2. Nachträgliche Massnahmen schützen nicht
Wer erst reagiert, wenn Missbrauch öffentlich wird, reagiert zu spät.
3. Paywalls sind kein Schutzkonzept
Schädliche oder illegale Inhalte verschwinden nicht, nur weil sie kostenpflichtig werden
swissAI fordert weder pauschale KI-Verbote noch detaillierte Regulierungsrezepte. Aber wir halten es für notwendig, offen darüber zu sprechen, ob besonders gefährliche KI-Funktionalitäten temporär abgeschaltet werden müssen, wenn Plattformen sie nicht wirksam kontrollieren können
Warum diese Debatte jetzt geführt werden muss
Die meisten Menschen wissen noch gar nicht, was technisch möglich ist. Gerade deshalb braucht es jetzt eine sachliche, verständliche und vorausschauende Einordnung – bevor sich Schäden weiter ausbreiten.
Innovation ist wichtig. Der Schutz von Menschen ist jedoch keine optionale Nebenbedingung, sondern eine Grundvoraussetzung.