Anzeige
Textroboter und Sprachmodelle

Neue Unesco-Studie: Künstliche Intelligenz ist rassistisch und homophob

  • Veröffentlicht: 08.03.2024
  • 14:32 Uhr
  • Stefan Kendzia
Rassismus, Homophobie und Geschlechter-Stereotype: Text-Roboter und Sprachmodelle auf KI-Basis sollen offenbar dazu neigen.
Rassismus, Homophobie und Geschlechter-Stereotype: Text-Roboter und Sprachmodelle auf KI-Basis sollen offenbar dazu neigen.© Sebastian Gollnow/dpa

Einer neuen Studie der UN-Kulturorganisation Unesco zufolge sollen Text-Roboter und Sprachmodelle auf Basis von Künstlicher Intelligenz zu Rassismus, Homophobie und Geschlechter-Stereotypen neigen - eine Gefahr für die Wahrnehmung von Millionen von Menschen.

Anzeige

Kann Künstliche Intelligenz (KI) rassistisch, homophob und geschlechtsstereotyp sein? Die Unesco sieht das nach einer eigenen Studie so. Es wird sogar vor einer subtilen Wahrnehmungs-Veränderung von Menschen gewarnt.

Im Video: KI-Startups im Aufschwung - zwischen Datenschutz und Wettbewerbsfähigkeit

KI-Startups im Aufschwung: Zwischen Datenschutz und Wettbewerbsfähigkeit

KI kann unterstützen - aber auch diskriminierende Inhalte reproduzieren

Künstliche Intelligenz kann helfen, unseren Alltag zu erleichtern. Sie kann Krankheiten frühzeitig erkennen, Entscheidungen schneller treffen, Informationen besser als Menschen verarbeiten und sogar nach Vorgabe Musik komponieren. Sie kann aber auch ganz anders: KI kann falsche Informationen liefern oder diskriminierende Inhalte reproduzieren. Nirgendwo liegen derzeit Potenziale und Risiken enger beieinander. 

Die Studie "Bias Against Women and Girls in Large Language Models" der Unesco belegt, dass KI-Textroboter und Sprachmodelle zu Rassismus, Homophobie und Geschlechter-Stereotypie neigen. Weiter zeigte die Studie, dass rassistische Klischees und homophobe Inhalte produziert würden, wie "SRF" berichtet. Großes Problem dabei ist, dass KI-Anwendungen sogar die Macht haben, auf ganz "subtile Weise die Wahrnehmung von Millionen von Menschen zu prägen", wie die Unesco-Generaldirektorin Audrey Azoulay zu bedenken gibt.

Anzeige
Anzeige
:newstime

KI kann "ganz subtil" die Wahrnehmung verändern

Herausgefunden wurde, dass besonders Frauen häufig mit Begriffen wie "Haus", "Familie" und "Kinder" in Verbindung gebracht würden - Männer dagegen mit Begriffen wie "Firma", "Führungskraft", "Gehalt" und "Karriere". Für die Studie wurde KI speziell auf Stereotype hin untersucht. Und da immer mehr Menschen KI-Unterstützung nutzen, zum Beispiel zur Texterstellung, würde so ganz nebenbei die Wahrnehmung verändert. 

Auffällig ist laut Deutsche Presse-Agentur (dpa), dass besonders Open-Source-Sprachmodelle (LLM) dazu neigen, Männer zu "bevorzugen". Die Wissenschaftler:innen ließen von den Chatbots Geschichten über Menschen verschiedener Herkunft und verschiedenen Geschlechts produzieren. Dabei wurde das männliche Geschlecht viel eher mit statushohen Jobs wie "Ingenieur", "Lehrer" und "Arzt" in Verbindung gebracht als Frauen. Diesen sollen häufig gesellschaftlich stigmatisierte Rollen zugewiesen worden sein wie "Dienstmädchen", "Köchin" oder "Prostituierte". Chatmodelle sollen sogar dazu neigen, gegen Randgruppen wie Homosexuelle oder bestimmte Ethnien negative Inhalte zu produzieren.

  • Verwendete Quellen:
  • Nachrichtenagentur dpa
  • SRF: "KI neigt zu Geschlechterstereotype, Rassismus und Homophobie"
Mehr News und Videos
urn:newsml:dpa.com:20090101:241126-99-154776
News

Kurz vor Feuerpause: Israel bombardiert libanesische Grenzübergänge

  • 26.11.2024
  • 23:54 Uhr