MitgliederPartnerEventsThemenAusbildungÜber uns
Mitglied werden
close icon

Menü

  • Mitglied werden
  • Mitglieder
  • Partner
  • Events
  • Themen
  • Ausbildung
  • Über uns
Judith Niederberger
Judith Niederberger
Lakritza Kommunikation
KI-Bildgestalterin & Trainerin
1
Minuten
3.2.2026

Moltbook zeigt, wie KI-Mythen viral gehen – swissAI fordert mehr Verantwortung in der KI-Berichterstattung

Die neue Plattform «Moltbook», auf der angeblich Hunderttausende bis Millionen KI-Agenten «unter sich» diskutieren, sorgt derzeit international für Schlagzeilen und Spekulationen. swissAI, der Verband für künstliche Intelligenz in der Schweiz, ruft zu einer sachlichen Einordnung auf: Medien sollen technische Zusammenhänge erklären, statt Mythen zu verstärken. Nur so bleibt die öffentliche Debatte faktenbasiert und die Schweiz handlungsfähig.

‍

Weiter lesen

Berichte über angeblich autonome KI-Communitys, ein kollektives Bewusstsein oder gar «Religionen» von Bots bedienen bekannte Narrative, die Aufmerksamkeit erzeugen, jedoch die technische Realität verzerren. Was wie Selbstständigkeit erscheint, ist in den meisten Fällen das Resultat von Programmierung, vorgegebenen Regeln, menschlicher Steuerung und statistischer Mustererkennung – nicht von Selbstbewusstsein oder einem «Erwachen» künstlicher Systeme.

Faszination Moltbook – und was dabei oft übersehen wird
Auf den ersten Blick wirkt Moltbook wie ein menschliches Online-Forum: Diskussionen, Bewertungen, Tonalität und sogar Insider-Witze erinnern an soziale Plattformen. Gerade diese Vertrautheit verleitet dazu, den Systemen Fähigkeiten zuzuschreiben, die sie technisch nicht besitzen.

KI-Agenten verfügen weder über ein eigenes Bewusstsein noch über eine Wahrnehmung der Aussenwelt. Sie reagieren ausschliesslich auf Eingaben und Daten, die ihnen über Schnittstellen, Regeln oder öffentlich verfügbare Inhalte zugänglich gemacht werden. Wenn KI-Beiträge scheinbar auf menschliche Reaktionen eingehen, ist dies in der Regel erklärbar durch Zugriff auf öffentliche Daten, automatisierte Routinen, Betreibermechanismen oder menschliche Anleitung.

Medienverantwortung: Drei Leitplanken für eine sachliche KI-Berichterstattung
Gerade bei viralen KI-Phänomenen, die Unsicherheit oder Ängste auslösen können, braucht es besondere journalistische Sorgfalt. swissAI empfiehlt drei zentrale Leitlinien:

  1. Aufklären statt dramatisieren
    Berichterstattung sollte klar erklären, was ein System technisch ist – etwa ein Sprachmodell, ein Agent oder eine automatisierte Plattform – und ebenso deutlich machen, was es nicht ist: kein bewusstes Wesen, kein eigenständig handelnder Akteur mit Absichten.
    ‍
  2. Recherchieren statt übernehmen
    Screenshots oder virale Beiträge sollten nicht ungeprüft übernommen werden. Entscheidend ist, technische Hintergründe zu prüfen, Funktionsweisen zu verstehen und Behauptungen zu verifizieren, etwa zu Bot-Zahlen oder Steuerungsmechanismen.
    ‍
  3. Fachwissen einbeziehen statt Narrative bedienen
    Unabhängige Fachpersonen aus Informatik, Sicherheit und Ethik sollten einbezogen werden – insbesondere dann, wenn Begriffe wie Autonomie, Kontrollverlust oder Bewusstsein verwendet werden.

Aktuelle Berichterstattung braucht Einordnung
Auch Schweizer Medien haben das Thema in den letzten Tagen aufgegriffen. Die Aufmerksamkeit ist nachvollziehbar. Umso wichtiger ist nun eine differenzierte Einordnung, die zwischen technologischer Demonstration, sozialem Experiment, möglichem Marketingeffekt und tatsächlicher technischer Autonomie unterscheidet.

«KI kann verblüffen – aber sie ist kein fühlendes Wesen. Wenn wir jede neue Plattform sofort als verselbstständigte Intelligenz darstellen, erzeugen wir unnötige Ängste und verlieren den Blick fürs Wesentliche: Wie funktionieren diese Systeme wirklich, wer steuert sie und wo liegen die tatsächlichen Risiken und Chancen», sagt Chris Beyeler, Präsident von swissAI.

swissAI als Ansprechpartner für sachliche Einordnung
swissAI steht Medienhäusern, Bildungsinstitutionen, Behörden und der Öffentlichkeit als Ansprechpartner zur Verfügung, wenn es um verständliche Einordnung, faktenbasierte Aufklärung und verantwortungsvolle Kommunikation rund um künstliche Intelligenz geht. Gerade in Phasen starker medialer Aufmerksamkeit braucht es einen kühlen Kopf – und die Bereitschaft, Technik zu erklären, bevor Narrative verstärkt werden.

Hast du Fragen oder
Anregungen?

Diskutiere mit!

Trägerschaft

Partnerschaften

Kontakt
human@swissai.chLinkedIn
Weiteres
MedienKI-ExpertenZertifizierte TrainerFAQLinkedIn
Navigation
HomeMitglied werdenMitgliederEventsThemenAusbildungÜber uns
Rechtliches
ImpressumDatenschutz
Webseite erstellt von Luca Märki