Berichte über angeblich autonome KI-Communitys, ein kollektives Bewusstsein oder gar «Religionen» von Bots bedienen bekannte Narrative, die Aufmerksamkeit erzeugen, jedoch die technische Realität verzerren. Was wie Selbstständigkeit erscheint, ist in den meisten Fällen das Resultat von Programmierung, vorgegebenen Regeln, menschlicher Steuerung und statistischer Mustererkennung – nicht von Selbstbewusstsein oder einem «Erwachen» künstlicher Systeme.
Faszination Moltbook – und was dabei oft übersehen wird
Auf den ersten Blick wirkt Moltbook wie ein menschliches Online-Forum: Diskussionen, Bewertungen, Tonalität und sogar Insider-Witze erinnern an soziale Plattformen. Gerade diese Vertrautheit verleitet dazu, den Systemen Fähigkeiten zuzuschreiben, die sie technisch nicht besitzen.
KI-Agenten verfügen weder über ein eigenes Bewusstsein noch über eine Wahrnehmung der Aussenwelt. Sie reagieren ausschliesslich auf Eingaben und Daten, die ihnen über Schnittstellen, Regeln oder öffentlich verfügbare Inhalte zugänglich gemacht werden. Wenn KI-Beiträge scheinbar auf menschliche Reaktionen eingehen, ist dies in der Regel erklärbar durch Zugriff auf öffentliche Daten, automatisierte Routinen, Betreibermechanismen oder menschliche Anleitung.
Medienverantwortung: Drei Leitplanken für eine sachliche KI-Berichterstattung
Gerade bei viralen KI-Phänomenen, die Unsicherheit oder Ängste auslösen können, braucht es besondere journalistische Sorgfalt. swissAI empfiehlt drei zentrale Leitlinien:
- Aufklären statt dramatisieren
Berichterstattung sollte klar erklären, was ein System technisch ist – etwa ein Sprachmodell, ein Agent oder eine automatisierte Plattform – und ebenso deutlich machen, was es nicht ist: kein bewusstes Wesen, kein eigenständig handelnder Akteur mit Absichten.
- Recherchieren statt übernehmen
Screenshots oder virale Beiträge sollten nicht ungeprüft übernommen werden. Entscheidend ist, technische Hintergründe zu prüfen, Funktionsweisen zu verstehen und Behauptungen zu verifizieren, etwa zu Bot-Zahlen oder Steuerungsmechanismen.
- Fachwissen einbeziehen statt Narrative bedienen
Unabhängige Fachpersonen aus Informatik, Sicherheit und Ethik sollten einbezogen werden – insbesondere dann, wenn Begriffe wie Autonomie, Kontrollverlust oder Bewusstsein verwendet werden.
Aktuelle Berichterstattung braucht Einordnung
Auch Schweizer Medien haben das Thema in den letzten Tagen aufgegriffen. Die Aufmerksamkeit ist nachvollziehbar. Umso wichtiger ist nun eine differenzierte Einordnung, die zwischen technologischer Demonstration, sozialem Experiment, möglichem Marketingeffekt und tatsächlicher technischer Autonomie unterscheidet.
«KI kann verblüffen – aber sie ist kein fühlendes Wesen. Wenn wir jede neue Plattform sofort als verselbstständigte Intelligenz darstellen, erzeugen wir unnötige Ängste und verlieren den Blick fürs Wesentliche: Wie funktionieren diese Systeme wirklich, wer steuert sie und wo liegen die tatsächlichen Risiken und Chancen», sagt Chris Beyeler, Präsident von swissAI.
swissAI als Ansprechpartner für sachliche Einordnung
swissAI steht Medienhäusern, Bildungsinstitutionen, Behörden und der Öffentlichkeit als Ansprechpartner zur Verfügung, wenn es um verständliche Einordnung, faktenbasierte Aufklärung und verantwortungsvolle Kommunikation rund um künstliche Intelligenz geht. Gerade in Phasen starker medialer Aufmerksamkeit braucht es einen kühlen Kopf – und die Bereitschaft, Technik zu erklären, bevor Narrative verstärkt werden.