FFHS Business Breakfast: KI, Kaffee und Klamotten

» Von George Sarpong , 13.10.2017 14:17.

Ich sehe weisse Menschen

Das KI-System Beauty AI sollte vergangenes Jahr als neutraler Juror Bilder von Menschen analysieren und quasi wie im Märchen die Schönsten im Land bestimmen. Menschen weltweit konnten über eine App ihr Foto aufnehmen, analysieren und ihr Aussehen bewerten lassen. 

Das Experiment schlug fehl. Die KI adelte fast nur angelsächsische, weisse Menschen und ein paar wenige mit asiatischen Gesichtszügen. Was war passiert? Der Datensatz mit dem der Algorithmus lernte was schön ist, enthielt zu wenig verschiedene Ehtnien, wie Alex Zhavoronkov, Beauty.AI’s Chefwissenschaftler gegenüber dem Guardian sagte.

Algorithmen offen legen

Bei einem experimentellen Schönheitswettbewerb mag das kein Problem sein. Doch was, wenn künftig geschäftskritische Systeme oder KI-Assistenten im Gesundheitsumfeld ihre Erkenntnisse auf Zerrbildern der Wirklichkeit aufbauen? Diese Frage sorgte für reichlich Diskussionsstoff unter den rund 50 Gästen.

Eine Antwort: Transparenz schaffen. Hierin schienen sich Gäste und Redner einig. Wenn Entwickler die Vorgehensweise ihrer Algorithmen offen legen und aufzeigen, mit welchen Daten der Algorithmus trainiert und arbeitet, kann man die Ergebnisse nachvollziehen. Und, wie etwa im Fall von Beauty.AI, Fehlentwicklungen korrigieren oder im besten Fall vermeiden.

Werbung

KOMMENTARE

Keine Kommentare

KOMMENTAR SCHREIBEN

*
*
*
*

Alles Pflichfelder, E-Mail-Adresse wird nicht angezeigt.

Die Redaktion hält sich vor, unangebrachte, rassistische oder ehrverletzende Kommentare zu löschen.
Die Verfasser von Leserkommentaren gewähren der NMGZ AG das unentgeltliche, zeitlich und räumlich unbegrenzte Recht, ihre Leserkommentare ganz oder teilweise auf dem Portal zu verwenden. Eingeschlossen ist zusätzlich das Recht, die Texte in andere Publikationsorgane, Medien oder Bücher zu übernehmen und zur Archivierung abzuspeichern.