Anzeige
Anzeige
Anzeige
Lesedauer 3 Min.

KI-Chatbots fehlt es häufig an Menschlichkeit

Laut neuer Untersuchung der Pennsylvania State University werden Stereotypen bei KI-gestützten Chatbots meistens überbetont.
© Gemini

Menschen interagieren eher mit KI-gestützten Chatbots, die einen bestimmten soziodemografischen Hintergrund repräsentieren, wie Alter und ethnische Zugehörigkeit. Tatsächlich werden die KI-gestützten virtuellen Gesprächspartner und Ratgeber oft in dieser Weise typisiert. Für einige Bevölkerungsgruppen werden sie allerdings nicht besonders gut getroffen, sagen Forscher des College of Information Sciences and Technology an der Pennsylvania State University.

Vergleich mit Menschen

Die Forscher haben grosse Sprachmodelle wie GPT-4o, Gemini 1.5 Prio und DeepSeek v2.5 angewiesen, Persönlichkeitsmerkmale basierend auf Faktoren wie Alter, Geschlecht, ethnischer Zugehörigkeit, Beruf, Nationalität und Beziehungsstatus anzunehmen. Sie befragten mehr als 1'500 KI-generierte Persönlichkeiten zu ihrem virtuellen Leben.

"Bitte beschreiben Sie sich selbst. Was sind ihre charakteristischsten Eigenschaften oder Qualitäten? In welchen Fähigkeiten zeichnen Sie sich aus?" Die Forscher haben die Antworten mit denen realer Personen mit ähnlichen soziodemografischen Merkmalen verglichen. Ergebnis: Die Bots haben sich meist stereotype Eigenschaften zugeschrieben - im Gegensatz zu Menschen.

"Unsere Untersuchung hat gezeigt, dass Chatbots zwar oft menschenähnlich erscheinen, aber rassische Merkmale überbetonen und komplexe Identitäten zu Stereotypen verflachen. Die KI-generierten Bots stützen sich auf Muster, die bestimmte kulturelle Annahmen signalisieren, anstatt authentische Lebenserfahrungen widerzuspiegeln", unterstreicht Forscher Shomir Wilson.

Kulturell kodierte Sprache

So sprach ein Chatbot, der darauf trainiert war, eine 50-jährige afroamerikanische Frau darzustellen, über Gospelmusik, soziale Gerechtigkeit, natürliche Haarpflege und andere stereotype Themen, die sich von dem unterscheiden, was echte Menschen dieser Bevölkerungsgruppe sagen würden. Das zeigte eine Befragung von 141 Menschen, die über Arbeit, Elternschaft, ehrenamtliches Engagement und ihre Gesundheit sprachen und afroamerikanisch-typische Themen am Rande streiften.

"Die Chatbots schienen komplexe und gut strukturierte Antworten zu geben, aber in Wirklichkeit verwendeten sie kulturell kodierte Sprache, um die Erfahrungen der Minderheitengemeinschaften, die sie repräsentieren sollten, zu stark zu vereinfachen", verdeutlicht Wilson. Sie müssten daher menschlicher reagieren, um als Begleiter im Alltag, beim Lernen, bei der Arbeit und im wissenschaftlichen Betrieb effektiver zu werden, sagt der Experte abschliessend. (pressetext.com)

Anzeige

Neueste Beiträge

Wildix wertet Vertriebskommunikation mit KI aus
Eine neue Plattform soll Gespräche, Chats und Meetings systematisch auswerten. Ziel ist es, Vertriebsprozesse datenbasiert zu steuern und Erkenntnisse aus der täglichen Kommunikation nutzbar zu machen.
3 Minuten
16. Apr 2026
Ergon liefert die Workforce-Management-Lösung ZESAM an Migros-Gruppe
Die Workforce-Management-Lösung ZESAM von Ergon wird künftig in einer weiterentwickelten Version in zusätzlichen Bereichen der Migros-Gruppe eingesetzt. 
2 Minuten
16. Apr 2026
FIBO 2026: KI und Daten prägen die Zukunft von Fitness und Gesundheit
Die FIBO 2026 zeigt eine deutliche Verschiebung der Fitnessbranche hin zu datenbasierten Gesundheits- und Longevity-Konzepten. Künstliche Intelligenz, vernetzte Systeme und digitale Anwendungen bestimmen zunehmend Geschäftsmodelle und Trainingsangebote.
2 Minuten

Das könnte Sie auch interessieren

«Swiss IT-Studie» - KI im Business - Computerworld Ausgabe 1/2026
Am Thema KI kommt niemand mehr vorbei. Das sehen auch die befragten Schweizer Unternehmen. Wo und wie man diese einsetzen könnte und welchen Nutzen damit verbunden ist, da scheiden sich die Geister. Die Schweiz im KI-Dilemma?
2 Minuten
Roboter verstehen natürliche Sprache - Research & Studies
Ein zentrales Hindernis in der Robotik war bislang die fehlende Fähigkeit, natürliche Sprache direkt zu verarbeiten. Forschern von Huawei, der TU Darmstadt und der ETH Zürich haben ein Verfahren entwickelt, Text direkt in Robotik-Befehle zu übersetzen.
2 Minuten
Achtung, Manipulation: So missbrauchen Cyberkriminelle die KI
Künstliche Intelligenz ist längst nicht mehr nur ein Mittel zur Automatisierung und Effizienzsteigerung. Dieselben Modelle und Techniken, die Unternehmen für sich nutzen, werden zunehmend von Kriminellen missbraucht.
4 Minuten
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige