Anzeige
Trump-Anhänger empört

Metas KI-Chatbot behauptet, Attentat auf Trump hätte nie stattgefunden

  • Aktualisiert: 31.07.2024
  • 17:24 Uhr
  • dpa
Meta verteidigt seine Entscheidung, den KI-Chatbot nicht über das Attentat sprechen zu lassen.
Meta verteidigt seine Entscheidung, den KI-Chatbot nicht über das Attentat sprechen zu lassen.© photo for everything - stock.adobe.com

KI-Chatbots sind dafür bekannt, Dinge zu erfinden. Der Facebook-Konzern Meta machte diese Erfahrung ausgerechnet bei einem so politisch sensiblen Thema wie dem Attentat auf Donald Trump.

Anzeige

Das Wichtigste in Kürze

  • Ein KI-Chatbot von Meta, Meta AI, leugnete das Attentat auf Ex-Präsident Donald Trump und brachte den Facebook-Konzern in Erklärungsnot.

  • Meta erklärte, dass der Chatbot zunächst bewusst nicht über das Attentat sprechen durfte, um widersprüchliche Informationen und Verschwörungstheorien zu vermeiden.

  • Nachdem der Chatbot mit Informationen über das Attentat gefüttert wurde, behauptete er dennoch in einigen Fällen, dass es nie stattgefunden habe.

Ein KI-Chatbot, der das Attentat auf Ex-Präsident Donald Trump bestritt, bringt den Facebook-Konzern Meta in Erklärungsnot. Meta verweist auf sogenannte "Halluzinationen", bei denen Software mit künstlicher Intelligenz Dinge einfach erfindet. Die Branche fand bisher keine grundsätzliche Lösung für das Problem.

Heftige Kritik von den Republikanern

Meta musste sich nach Kritik aus dem politischen Lager der Trump-Anhänger rechtfertigen. Angeprangert wurde, dass sich der Chatbot Meta AI erst weigerte, Fragen zu dem Attentat auf den Ex-Präsidenten zu beantworten - und dann zum Teil behauptete, es habe nie stattgefunden.

Im Video: Wie der Meta-Algorithmus Wahlwerbung beeinflusst

Der Konzern erklärte in einem Blogeintrag, man habe Meta AI zunächst mit Absicht nicht über das Attentat am 13. Juli sprechen lassen. Denn rund um schlagzeilenträchtige Ereignisse gebe es oft widersprüchliche Angaben und unbegründete Spekulationen bis hin zu Verschwörungstheorien.

Anzeige
Anzeige

Meta: "Unglücklich", aber keine Absicht

Aber auch nachdem der KI-Chatbot mit Informationen über das Attentat gefüttert worden sei, habe er "in wenigen Fällen" behauptet, es sei nicht passiert, räumte Meta ein. Das sei "unglücklich", aber keine Absicht gewesen.

Die "Halluzinationen" sind ein allgemeines Problem von KI-Chatbots und haben damit zu tun, wie die Software funktioniert. Die Programme werden zunächst mit riesigen Mengen an Informationen trainiert. Bei ihren Reaktionen auf Nutzeranfragen wägen sie dann auf dieser Basis Wort für Wort ab, wie ein Satz wahrscheinlich weitergehen sollte.

Dadurch kann die Software völlig falsche Aussagen zusammenwürfeln, auch wenn sie nur mit korrekten Informationen angelernt wurde. KI-Entwickler versuchen, das Problem mithilfe zusätzlicher Leitplanken für die Programme in den Griff zu bekommen.

Faktencheck-Label auf dem falschen Foto

Bei einem zweiten Problem wurde ein Foto, auf dem Trump mit seinen Leibwächtern unmittelbar nach dem Attentat zu sehen ist, fälschlicherweise mit einem Faktencheck-Label versehen. Damit war ursprünglich eine manipulierte Version des Bildes markiert worden, in der ein Lächeln auf den Gesichtern der Bodygards ergänzt wurde. Doch für Metas automatisierte Systeme war der Unterschied zwischen den beiden Fotos schwer zu erkennen - und sie fügten das Faktencheck-Label auch zum Original-Foto hinzu.

Anzeige
Anzeige
:newstime

Bei dem Attentat hatte ein Mann bei einem Wahlkampfauftritt im Bundesstaat Pennsylvania auf Trump geschossen. Die Kugeln töteten einen Zuschauer und verwundeten zwei weitere. Der Ex-Präsident wurde am Ohr getroffen.

Mehr News und Videos
EU-Verbot: Rauchen im Freien bald illegal?

EU-Verbot: Rauchen im Freien bald illegal?

  • Video
  • 01:45 Min
  • Ab 12