Neue Normen für die digitale Welt

Mitdenken ist erwünscht

Was die Folgen davon sein können, wenn man sich in der Praxis auf die vermeintlich objektiven Resultate eines Algorithmus verlässt, untersucht die Professorin Katharina Simbeck. Für die deutsche Hans-Böckler-Stiftung forscht sie zur Diskriminierung durch künstliche Intelligenz. Im Anschluss an das Input-Referat von Simon Hegelich diskutierte sie mit ihm und dem Unternehmer Matthias Spielkamp im Rahmen einer Podiumsdiskussion über die Frage, inwiefern Algorithmen diskriminieren können – mit Fokus auf Datenauswertungen im Personalbereich. Simbeck doziert im Studiengang Wirtschaftsinformatik an der Hochschule für Technik und Wirtschaft Berlin, Spielkamp ist Gründer und Geschäftsleiter der Organisation «AlgorithmWatch», die hinter dem Projekt «OpenSCHUFA» steht.
Problematisch findet Simbeck, wenn Entscheide auf Basis von Modellen, wie jenes von Simon Hegelich, gefällt werden. Denn schliesslich möchten Personaler mit den Datenauswertungen ja etwas anstellen, schickte sie voraus. Wenn ein Algorithmus nun prognostiziert, dass jemand das Unternehmen verlassen wird, stellen sich Fragen, ob man ihm einen niedrigeren Bonus zahlt, weil er in einem Jahr sowieso weg ist, oder ob er ein spannenderes Projekt erhält und man so versucht, ihn zu halten. «Da wird es aus ethischer Sicht kritisch – insbesondere, wenn Mitarbeiter nicht die Gelegenheit erhalten, sich zu den Prognosen zu äus­sern.» Die grösste Gefahr sei deshalb, dass Algorithmen unkritisch eingesetzt würden. Von Personen, die sich in Unternehmen auf solche Modelle stützen, fordert sie deshalb ein ausreichendes Wissen über die Funktionsweise von Algorithmen oder wie Daten richtig interpretiert werden müssen. Denn Letztere sind laut Simbeck immer ein Abbild der Gesellschaft. Die Realität, die sie widerspiegeln, beeinflusse schliesslich auch die Auswertungen des Algorithmus, der sie verwendet. Wenn es im Unternehmen beispielsweise die Situation gab, dass Frauen Mitte 30 nach den ersten ein, zwei Kindern kündigten, dann wird der Algorithmus auch künftig Frauen in derselben Situation als potenzielle Kündigerinnen einstufen. «Dann werde ich vielleicht anfangen, diesen Frauen wieder den geringeren Bonus, die geringere Lohnerhöhung, aber dafür das Extraprojekt zu geben – was sicher dazu führen wird, dass der Algorithmus Recht behält und sie auch kündigen werden», sagt Simbeck.
Matthias Spielkamp kann Algorithmen aber auch etwas Positives abgewinnen – und zwar die Möglichkeit, menschliche Entscheidungen mit den Datenauswertungen zu vergleichen. «Es ist ja nicht prinzipiell im Interesse eines Unternehmens, mithilfe eines solchen Systems schlechte Prognosen zu erstellen – im Gegenteil», erklärt Spielkamp. Allerdings seien aufgrund menschlicher Entscheidungen auch schon Leute eingestellt und gefeuert worden oder hätten Boni erhalten. «So werden Prozesse, die schon lange durchgeführt werden, neu auf den Prüfstand gestellt. Und das finde ich sehr positiv.» Dies provoziere schliesslich einen Diskurs darüber, was auf Grundlage solcher Prognosen gemacht werden dürfe oder eben nicht.

Handlungsempfehlungen für die Praxis

Wie Unternehmen mit Datenauswertungen umgehen sollen, darüber haben sich Wissenschaftler der Schweize­rischen Akademie der Technischen Wissenschaften (SATW) bereits Gedanken gemacht. In einer Studie, die letztes Jahr publiziert wurde, befassten sich die Wissenschschaftler während eineinhalb Jahren mit Big Data an der Schnittstelle zwischen Unternehmen und ihren Kunden. Dabei untersuchten sie fünf aktuelle und künftig mögliche Big-Data-Anwendungen. Darunter fanden sich beispielsweise das Social-Scoring-Verfahren, das Massschneidern von Angebotskondi­tionen bei Fluggesellschaften und Online-Händlern oder das Verbessern des Risikomanagements von Versicherern. Ein verantwortungsvoller Umgang mit Daten solle im Interesse der Unternehmen liegen, resümieren die Forscher. Schliesslich seien es die Kunden, welche die Rohdaten lieferten und Big-Data-Anwendungen erst möglich wachen würden. Den Firmen raten sie deshalb, Kundenbedürfnisse zu berücksichtigen und proaktiv, transparent und verständlich über Datenerhebung und -nutzung zu kommunizieren. Ausserdem solle neben dem «Business Case» auch der sogenannte «Ethics Case» berücksichtigt werden.
Es bleibt zu hoffen, dass in Zukunft nicht mehr nur Forscher und Netzaktivisten über ethische Gesichtspunkte digitaler Technologien diskutieren. Sondern auch Entscheider in der IT, im Business und in der Politik.


Das könnte Sie auch interessieren