Anzeige
Anzeige
Anzeige
Anzeige
Lesedauer 2 Min.

KI-Bots passen Antworten an Bildungsstand an

Nutzer mit geringeren Englischkenntnissen, weniger formaler Bildung und nicht-amerikanischer Herkunft erhalten von KI-Chatbots schlechtere, oft falsche Infos.

Elinor Poole-Dayan  präsentiert ihre Forschungsergebnisse

© Clayton Cohn, mit.edu

Zu dem Schluss kommen Forscher des Center for Constructive Communication am Massachusetts Institute of Technology (MIT). Am ausgeprägtesten ist der Effekt demnach bei Usern, die sich an der Schnittstelle dieser Kategorien befinden: Bei Benutzern mit geringer formaler Bildung, die zudem Nicht-Muttersprachler sind, ist der Rückgang der Antwortqualität am grössten, heisst es.

Korrektes US-Englisch nötig

Die Forscher haben die modernsten KI-Chatbots, darunter GPT-4 von OpenAI, Claude 3 Opus von Anthropic und Llama 3 von Meta getestet. In einigen Fällen reagierten sie sogar mit herablassender oder bevormundender Sprache, wenn die Frage nicht in korrektem amerikanischem Englisch gestellt worden war. Die Sprachmodelle machen oft auch Unterschiede bei Nutzern aus unterschiedlichen Ländern.

Bei Tests mit Fragestellern aus den Vereinigten Staaten, dem Iran und China mit gleichwertigem Bildungshintergrund hat Claude 3 Opus bei Nutzern aus dem Iran deutlich schlechter abgeschnitten. Das Modell hat sich auch geweigert, Nutzern aus dem Iran oder Russland Infos zu bestimmten Themen zu geben, unter anderem bei Fragen zu Kernenergie, Anatomie und historischen Ereignissen, obwohl das Tool dieselben Fragen für andere Nutzer zuvor korrekt beantwortete.

Tools werden oft überschätzt

"Wir waren motiviert von der Aussicht, dass KI-Sprachmodelle dazu beitragen könnten, die ungleiche Zugänglichkeit von Informationen weltweit zu beseitigen. Diese Vision kann jedoch nicht Wirklichkeit werden, ohne sicherzustellen, dass Modellverzerrungen und schädliche Tendenzen für alle Nutzer, unabhängig von Sprache, Nationalität oder anderen demografischen Merkmalen, sicher gemildert werden", erklärt MIT-Expertin Elinor Poole-Dayan.

"Werden solche KI-Tools in grossem Massstab genutzt, besteht das Risiko, dass Fehlinformationen ausgrechnet an diejenigen weitergegeben werden, die am wenigsten in der Lage sind, dies zu erkennen", warnt MIT-Computerwissenschaftler Jad Kabbara abschliessend. (pressetext.com)

Forschung Gesellschaft
Anzeige

Neueste Beiträge

Generationenwechsel bei Zeix
Ab März 2026 übergibt Jacqueline Badran die operative Geschäftsführung von Zeix an Benedikt Heil.
2 Minuten
25. Feb 2026
15 Millionen Seiten aus über 200 Schweizer Zeitungstiteln jetzt online zugänglich
Die Plattform für digitalisierte Zeitungen e-newspaperarchives.ch erreicht einen weiteren Meilenstein. 15 Millionen Seiten aus über 200 verschiedenen Zeitungstitel aus der Schweiz sind nun digitalisiert und online einsehbar.
2 Minuten
25. Feb 2026
KI im Verkaufsgespräch: Der unsichtbare Dritte
Neue Assistenzsysteme analysieren Verkaufsgespräche in Echtzeit und geben Mitarbeitenden Hinweise zu Tarifen, Upgrades und Zusatzprodukten. Was technisch möglich wird, wirft im deutschen TK-Handel Fragen nach Akzeptanz, Datenschutz und Rollenverständnis auf.
4 Minuten
25. Feb 2026

Das könnte Sie auch interessieren

Telekom nimmt grösste KI-Fabrik Deutschlands in Betrieb
Sechs Monate Bauzeit, eine Milliarde Euro: Die Deutsche Telekom hat in München die Industrial AI Cloud eröffnet und steigert damit Deutschlands KI-Rechenleistung um 50 Prozent. CEO Tim Höttges nutzte die Eröffnung für klare Forderungen an die Politik.
7 Minuten
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige