Human Resources 25.03.2020, 07:26 Uhr

Talente finden mit Künstlicher Intelligenz

Algorithmen in Recruiting und Personalmanagement sind Chance und Risiko zugleich. Die Qualität der Daten ist entscheidend. Blindes Vertrauen darf in die KI nicht gesetzt werden.
(Quelle: TK 1980 / shutterstock.com )
Künstliche Intelligenz (KI) erledigt bei Amazon so gut wie alles. Sie macht Suchvorschläge, gibt Produktempfehlungen, definiert Preise und entscheidet, welcher Dienstleister wann welche Ware in welches Verteilzentrum zu liefern hat. Nur in einem Bereich versagte Amazons KI-Expertise kläglich: bei der Bewerberauswahl. Laut einem Bericht der Agentur Reuters stampfte der Konzern sein über vier Jahre entwickeltes KI-Recruiting-Programm 2018 wieder ein. Mit ihm sollten unter den Tausenden von Bewerbungen Top-Talente identifiziert werden. Doch die KI erwies sich als Macho. Sie bevorzugte männliche Bewerber und diskriminierte weibliche.

Normalität oder Ausnahme?

Der Fehlschlag bei Amazon ändert allerdings nichts daran, dass KI Einzug in die Personalauswahl, -planung, und -entwicklung hält. Bereits 2017 war mehr als die Hälfte der von dem HR-Spezialisten CareerBuilder befragten amerikanischen Personalmanager davon überzeugt, dass Künstliche Intelligenz innerhalb von fünf Jahren zur Normalität in der Personalverwaltung wird.
Zu den Unternehmen, die bei der Personalsuche und -entwicklung teils schon seit Langem auf Algorithmen setzen, gehören so bekannte Namen wie Google, Goldman Sachs oder die Hotelkette Hilton. «KI ist in der Personalarbeit keine Zukunftsmusik mehr», betont Ralph Dennes, Managing Director DACH bei Textkernel, einem Unternehmen, das Künstliche Intelligenz und Machine Learning unter anderem für die semantische Analyse von Lebensläufen, Stellenanzeigen und Leistungsbeurteilungen nutzt.
“KI ist in der Personalarbeit keine Zukunftsmusik mehr.„
Ralph Dennes, Managing Director DACH bei Textkernel
Aktuelle deutsche Studien zum Einsatz und der Akzeptanz KI-basierter Verfahren im Personalwesen kommen zu wesentlich zurückhaltenderen Aussagen. Laut einer Umfrage des Bundesverbands der Personalmanager (BPM) und des Ethikbeirats HR-Tech setzen derzeit 16 Prozent der über 1000 befragten Personalmanager Künstliche Intelligenz in ersten Anwendungen ein, weitere 16 Prozent planen den Einsatz, rund 41 Prozent prüfen ihn. Für rund ein Viertel der Befragten kommt KI für die Personalarbeit nicht infrage.
Deutlich anders sind die Ergebnisse einer Studie, die von der Technischen Universität Kaiserslautern, der Deutschen Gesellschaft für Personalführung (DGFP) und des Algorithm Accountability Lab durchgeführt wurde. Demnach nutzen nur 3 Prozent bereits KI im Personalbereich, 93 Prozent stehen dem Einsatz aber positiv gegenüber. Mit lediglich 68 Teilnehmern ist die Stichprobe allerdings sehr viel kleiner als bei der BPM-Umfrage. Thomas Faust, Senior Manager Human Capital, Workforce Strategies & Solutions bei Deloitte Consulting und Co-Autor des KI-Kapitels im Buch «Die digitale HR-Organisation», hält derartige Diskrepanzen für fast zwangsläufig: «Bei modernen, viel diskutierten Themen wie KI und Digitalisierung hängt das Ergebnis solcher Umfragen sehr stark von der Stichprobengrösse, aber auch von Nuancen in der Fragestellung ab.» Vielen Unternehmen sei ausserdem gar nicht bewusst, dass sie bereits KI-basierte Methoden im Personalwesen einsetzten, so der Experte weiter. Thorsten Petry, Professor für Unternehmensführung und Personalmanagement an der Hochschule RheinMain und Mithe­rausgeber des Buchs «Digital HR», sieht vor allem im Mittelstand noch Zurückhaltung: «Viele warten erst einmal ab, ob die aktuell laufenden Proof-of-Concept-Projekte auch den erwarteten Erfolg bringen. In vielen Fällen fehlt es auch an der nötigen Datenbasis.»
“Der Einsatz von KI im Recruiting kann systematisch ganze Gruppen von Menschen an den Rand drängen.„
Charna Parkey, Applied Scientist bei Textio
Die Datenbasis ist dann auch einer der wesentlichen Knackpunkte für den erfolgreichen Einsatz von Künstlicher Intelligenz im Personalwesen. «Wenn KI auf Personendaten angewendet werden soll, müssen Unternehmen und Personalvermittler über die Bedeutung von Datenqualität und Datenverarbeitung Bescheid wissen», erklärt Charna Parkey, Applied Scientist bei Textio, das KI-basierte Lösungen für die Analyse und zielgruppengerechte Erstellung von Stellenanzeigen anbietet. Oft wird laut Parkey schon bei der Art der Fragestellung der Grundstein für verzerrte Ergebnisse gelegt: «Ein gutes Beispiel ist die Frage nach dem Geschlecht eines Bewerbers», so die Expertin. «Ist die Antwort verpflichtend oder freiwillig? Und wie viele Antwortmöglichkeiten gibt es?» Laut Professor Petry ist es dabei nicht mit dem einmaligen Sammeln von Daten getan: «KI-Nutzer müssen die Datenqualität kontinuierlich optimieren und pflegen.»

Bessere Entscheidungen

Die richtigen Daten in der richtigen Qualität vorausgesetzt, können intelligente Computersysteme sehr grosse Informa­tionsmengen sehr viel schneller durchsuchen, strukturieren und analysieren als ein Mensch. «KI hat das Potenzial, praktisch alle verfügbaren Informationsquellen in jeder Sprache wirklich zu verstehen und daraus wichtige Handlungsempfehlungen abzuleiten», meint Ralph Dennes von Textkernel. Beispielsweise liessen sich auf der Basis von Millionen analysierter Lebensläufe fundiertere Empfehlungen für den Karriereweg abgeben. «Computer können heute lernen, ein ganzheitliches Bild von Bewerbern zu gewinnen, und basierend auf bisherigen Bewerbungen auf ähnliche Positionen ein Matching mit Jobs erstellen, auf die ein Mensch nicht unbedingt kommen würde», so Dennes. «Predictive Analytics ist hier ein wichtiges Stichwort.»
Eine intelligente Automatisierung von Personalprozessen kann darüber hinaus auch den Verwaltungsaufwand reduzieren. «KI kann dabei helfen, Personaler von Routineaufgaben zu befreien, um mehr Zeit für die wesentlichen Aufgaben zu haben», findet Christian Lorenz, Leiter des Hauptstadtbüros der Deutschen Gesellschaft für Personalführung (DGFP). Schliesslich können KI-basierte Systeme zur Entscheidungsvorbereitung dienen. Textkernel-Director Dennes warnt allerdings davor, die Interpretation blind der Maschine zu überlassen: «Computer sind nicht die besseren Personaler, es braucht weiterhin die menschliche Interpretation der Ergebnisse und die Überprüfung.»

Einsatzgebiete vom KI

Der Einstieg in die Nutzung Künstlicher Intelligenz erfolgt meist über die Personalsuche und Bewerberauswahl. «Die ersten teils erfolgreichen Gehversuche werden im Bereich Mitarbeitergewinnung gemacht», konstatiert Anja Michael, Vice President Human Resources bei Avira und stellvertretende Leiterin der Fachgruppe strategisches Personalmanagement beim Bundesverband der Personalmanager (BPM). Derzeit seien es vor allem noch die Personaldienstleister, die auf KI-basierte Tools setzten, erklärt Ralph Dennes von Textkernel. «Schnelles und effizientes Besetzen von Stellen ist Kern ihres Geschäftsmodells, doch Personalabteilungen in Unternehmen ziehen aktuell nach und rüsten auf.»
Die Einsatzmöglichkeiten im Recruiting reichen von der Erstellung intelligenter Suchprofile über die Optimierung von Stellenanzeigen bis hin zur automatisierten Auswertung von Lebensläufen, dem CV-Parsing, bei dem bewerbungsrelevante Daten wie Schulabschlüsse oder Joberfahrung automatisiert in die Bewerberdatenbank überführt werden. «KI kann auch dabei unterstützen, die am besten passenden Jobbörsen und So­cial-Media-Kanäle für ein spezifisches Jobangebot auszuwählen», ergänzt Thorsten Petry. Die Kommunikation mit Bewerbern kann teilweise an intelligente Chatbots ausgelagert werden, die Standardfragen rund um den Bewerbungsprozess beantworten, Daten aufnehmen oder Empfehlungen für passende Stellenangebote aussprechen können.
“Niemand will ernsthaft den gläsernen Mitarbeiter.„
Anja Michael, Vice President Human Resources bei Avira und stellvertretende Leiterin der Fachgruppe strategisches Personalmanagement beim Bundesverband der Personalmanager (BPM)
Das bereits erwähnte Matching ist ein weiteres Einsatzgebiet für KI im Recruiting: Es soll aus der Vielzahl von Kandidaten und offenen Stellen passende Paare identifizieren. Sind potenziell geeignete Kandidaten gefunden, kann der Computer auch eine erste Bewertung vornehmen, etwa indem er Zeugnisse und Lebensläufe evaluiert oder direkt Interviews mit Interessenten führt.
Umstritten sind allerdings Lösungen, die die Persönlichkeit von Bewerbern anhand von Sprachmerkmalen analysieren, wie das Produkt JobFit der deutschen Firma Precire Technologies (vormals Psyware). Nach einem 15-minütigen Telefoninterview mit einem Computer bewertet JobFit Charakter, Persönlichkeit und Jobeignung eines Kandidaten. Dabei geht es nicht darum, was der Befragte sagt, sondern wie er es tut. Eine unveränderbare «Sprach-DNA», so Pre­cire, mache dies möglich. Das Diagnostik- und Testkuratorium der Föderation Deutscher Psychologenvereinigungen untersuchte JobFit, bemängelte eine «ungewöhnlich schlechte Dokumentation des methodischen Vorgehens» und bezweifelte dessen Vorteile gegenüber einem Persönlichkeitsfragebogen. Der Verband Digitalcourage verlieh Precire im vergangenen Jahr gar einen ihrer Big-Brother-Awards, die jährlich für besonders schwere Verstösse gegen Datenschutz und Informationsfreiheit vergeben werden (siehe auch nebenstehendes Interview). Die Fraktion der Linken stellte zu JobFit sogar eine Anfrage im Bundestag und wollte von der Bundesregierung wissen, ob sie die Erstellung von Persönlichkeitsprofilen durch automatisierte Programme zum Zweck der Bewerberauswahl für zulässig und für legal hält. Mittlerweile scheinen Precire selbst Zweifel an der Eignung seiner intelligenten Sprach­analyse für die Bewerberauswahl gekommen zu sein. Auf der Webseite des Unternehmens findet sich kein Hinweis mehr darauf.
“KI-Nutzer müssen die Datenqualität kontinuierlich optimieren und pflegen.„
Thorsten Petry, Professor für Unternehmensführung und Personalmanagement an der Hochschule RheinMain
Bewerber sind von derartigen Methoden wenig begeistert, wenn sie denn überhaupt mitbekommen, dass sie von einem Computer evaluiert werden. Bei einer Umfrage unter mehr als 200 Kandidaten an der Hochschule RheinMain fanden es nur 4 Prozent akzeptabel, wenn der Auswahlprozess stark von Algorithmen und KI geprägt wäre. «Dies ist aber nicht als generelle Ablehnung von KI zu verstehen», betont Professor Petry, «denn es wird mehrheitlich akzeptiert, wenn Bewerbern über ein erweitertes automatisiertes Matching alternative Jobs im Unternehmen vorgeschlagen werden.»

Jeder HR-Bereich ist betroffen

Auch wenn das Recruiting derzeit das Haupteinsatzgebiet für KI-basierte Methoden ist, so gibt es auch nach der Einstellung eines Mitarbeiters zahlreiche Möglichkeiten für deren Nutzung. «Letztlich wird jeder HR-Management-Bereich entlang des sogenannten Employee Life Cycles betroffen sein», erklärt Frank Kohl-Boas, Head of Legal & People Operations bei der ZEIT-Verlagsgruppe, Mitglied des Ethikbeirats HR-Tech und Präsidiumsmitglied im BPM.
“KI ist ein Instrument, mit dem sich viele Standardprozesse im Personalwesen schneller und einfacher erledigen lassen.„
Thomas Faust, Senior Manager Human Capital, Workforce Strategies & Solutions bei Deloitte Consulting
Chatbots können beispielsweise die Personalabteilung von Verwaltungsaufgaben entlasten. «KI ist ein In­strument, mit dem sich viele Standardprozesse im Personalwesen schneller und einfacher erledigen lassen», erläutert Deloitte-Manager Thomas Faust. Zwar bieten herkömmliche HR-Suiten ebenfalls Möglichkeiten zur Automatisierung, diese scheitert aber meist schon bei kleinen Abweichungen von vorgegebenen Workflows. Wenn Mitarbeiter die Änderung von Stammdaten wie Adresse, Personenstand, Krankenversicherung oder Steuerklasse dagegen über ein intelligentes Dialogsystem vornehmen, können die Angaben direkt und in Echt­zeit auf Vollständigkeit und Plausibilität überprüft werden. Weicht der Mitarbeiter von den definierten Abläufen ab oder fehlt eine wichtige Angabe, fragt der Chatbot direkt nach und löst im Idealfall das Problem ohne menschliches Zutun. So werden nicht nur die Mitarbeiter entlastet, auch Fehlerquote und Datenqualität verbessern sich. Selbst komplexe Vorgänge wie Auslandseinsätze, bei denen Visabestimmungen, Reisebeschränkungen, Impfvorgaben und vieles mehr beachtet werden müssen, lassen sich durch intelligente Selfservice-Portale wesentlich effizienter abwickeln.
In der Personalentwicklung können ebenfalls viele Vorgänge mit Hilfe von Algorithmen optimiert werden, etwa indem intelligente Assistenten Mitarbeitern passgenau Trainings und Schulungen vorschlagen oder intern den richtigen Kandidaten für eine offene Stelle finden.
“KI kann dabei helfen, Personaler von Routineaufgaben zu befreien.„
Christian Lorenz, Leiter des Hauptstadtbüros der Deutschen Gesellschaft für Personalführung (DGFP)
Schwieriger wird es allerdings, wenn KI für die Personalbeurteilung, die Analyse von Stimmungen, Gesundheitsrisiken und Krankenständen oder auch für die Vorhersage von Kündigungsabsichten eingesetzt wird. «Die Sorge bei vielen Beteiligten ist gross, dass die Künstliche Intelligenz am Ende finale Entscheidungen bei der Auswahl von Einstellungen oder Kündigungen trifft oder die Leistung von Mitarbeiterinnen und Mitarbeitern bewertet», beobachtet Christian Lorenz von der DGFP. Solche Initia­tiven dürften relativ schnell auf den Widerstand von Mitarbeitern und Betriebsräten stossen. «Niemand will ernsthaft den gläsernen Mitarbeiter», resümiert Anja Michael vom BPM.
KI in der Personalarbeit: Die zehn Richtlinien des Ethikbeirats HR-Tech
1. Transparenter Zielsetzungsprozess: Vor der Einführung einer KI-Lösung muss die Zielsetzung für die Nutzung geklärt werden. In diesem Prozess sollen alle relevanten Interessensgruppen identifiziert und eingebunden werden.
2. Fundierte Lösungen: Wer KI-Lösungen anbietet oder nutzt, muss darauf achten, dass diese empirisch evaluiert sind und über eine theoretische Grundlage verfügen.
3. Menschen entscheiden: Wer KI-Lösungen einsetzt, muss sicherstellen, dass die Handlungsträgerschaft der Menschen bei wichtigen Personalentscheidungen nicht eingeschränkt wird.
4. Notwendiger Sachverstand: Wer KI-Lösungen in seiner Organisation nutzt, muss diese in ihrer Logik verstehen und erklären können.
5. Haftung und Verantwortung: Organisationen, die KI-Lösungen nutzen, sind für die Ergebnisse ihrer Nutzung verantwortlich.
6. Zweckbindung und Datenminimierung: Wer personenbezogene Daten für KI-Lösungen nutzt, muss im Vorfeld definieren, für welche Zwecke diese verwendet werden, und sicherstellen, dass diese Daten nur zweckdienlich erhoben, gespeichert und genutzt werden.
7. Informationspflicht: Vor beziehungsweise beim Einsatz einer KI-Lösung müssen die davon betroffenen Menschen über ihren Einsatz, ihren Zweck, ihre Logik und die erhobenen und verwendeten Datenarten informiert werden.
8. Achten der Subjektqualität: Für die Nutzung in KI-Lösungen dürfen keine Daten erhoben und verwendet werden, die der willentlichen Steuerung der Betroffenen grundsätzlich entzogen sind.
9. Datenqualität und Diskriminierung: Wer KI-Lösungen entwickelt oder nutzt, muss sicherstellen, dass die zugrundeliegenden Daten über eine hohe Qualität verfügen und systembedingte Diskriminierungen ausgeschlossen werden.
10. Stetige Überprüfung: Wer KI-Lösungen nach den vorliegenden Richtlinien einführt, soll transparent sicherstellen, dass die Richtlinien auch bei der betrieblichen Umsetzung und der Weiterentwicklung beachtet werden.
Quelle: Ethikbeirat HR-Tech «Richtlinien für den verantwortungsvollen Einsatz von Künst­licher Intelligenz und weiteren digitalen Technologien in der Personalarbeit», Konsultationsfassung vom 24. Juni 2019 (www.ethikbeirat-hrtech.de)

Diskriminierende Algorithmen

Der Fall Amazon zeigt ein generelles Problem mit KI-basierten Entscheidungen, das im HR-Umfeld allerdings eine besondere Brisanz entwickelt: Algorithmen mögen unvoreingenommen sein, mit den falschen Daten oder von den falschen Leuten trainiert, sind die Resultate jedoch alles andere als vorurteilsfrei. «Der Einsatz von KI im Recruiting kann systematisch ganze Gruppen von Menschen an den Rand drängen», warnt Charna Parkey von Textio. Solche Diskriminierungen sind beileibe kein Einzelfall. Das Marktforschungsunternehmen Gartner sagt voraus, dass bis 2022 rund 85 Prozent der KI-Projekte fehlerhafte Ergebnisse liefern werden, weil Daten verzerrt sind oder Algorithmen von voreingenommenen Entwicklern programmiert und trainiert werden.
Im Personalwesen ist dies besonders problematisch, denn die zur Verfügung stehenden Trainingsdaten sind sehr häufig verzerrt. In technischen Berufen und im IT-Sektor ist der Anteil von Männern typischerweise sehr hoch, ebenso in Führungspositionen. Ein mit diesen Informationen gefütterter Algorithmus lernt - sofern man nicht aktiv gegensteuert, dass das Geschlecht ein wichtiges Kriterium für Jobeignung oder Führungsqualitäten ist. Er wird Frauen daher systematisch benachteiligen.
“Letztlich wird jeder HR-Management-Bereich entlang des sogenannten Employee Life Cycles betroffen sein.„
Frank Kohl-Boas, Head of Legal & People Operations bei der ZEIT-Verlagsgruppe und Mitglied des Ethikbeirats HR-Tech
Ähnliche Verteilungsphänomene können zur Diskriminierung von ethnischen oder religiösen Minderheiten führen. Je kleiner die zum Training verwendete Stichprobe und je grösser die Zahl der erfassten Merkmale, desto höher ist ausserdem die Wahrscheinlichkeit, dass Parameter zufällig als relevant identifiziert und Kandidaten nach unsinnigen Kriterien wie Schuhgrösse oder Haarfarbe klassifiziert werden. «KI-Nutzer müssen sich immer bewusst sein, dass KI-Systeme nur Statistik können, es dabei fast immer Verzerrungen gibt und eine Korrelation auch nicht unbedingt eine Kausalität bedeutet», warnt Professor Thorsten Petry.
Personalmanagern und Lösungsanbietern ist diese Problematik durchaus bewusst. Mit dem Ethikbeirat HR-Tech will die Branche Orientierung für die verantwortungsvolle Verwendung von neuen Technologien geben, aber natürlich auch für deren Einsatz werben. «Es geht nicht darum, als Bedenkenträger technologischen Fortschritt auszubremsen, sondern um den Versuch, juristische, ethische und praktische Überlegungen anzustellen, um darauf aufbauend vor der Nutzung von KI in der Personalarbeit Leitplanken zu geben», fasst Beiratsmitglied Kohl-Boas die Zielsetzung des Ethikrats zusammen.
Das Gremium, zu dem Herstellervertreter, Personaler, Wissenschaftler, Gewerkschaftsfunktionäre und Journalisten gehören, hat einen Richtlinienkatalog für den Einsatz von KI im HR-Umfeld erarbeitet. Die finale Version lag zu Redaktionsschluss noch nicht vor, die wiedergegebenen Informationen im Kasten auf Seite 65 basieren auf der Konsultationsfassung vom 24. Juni vergangenen Jahres. «KI verletzt nicht zwangsläufig Persönlichkeitsrechte, aber die Gefahr des Missbrauchs, ob nun beabsichtigt oder nicht, ist potenziell gegeben», ergänzt Leon Jacob, Senior Manager bei der hkp/// group und Assoziiertes Mitglied des Ethikbeirats HR-Tech. «Deswegen ist eine Definition von entsprechenden Rahmenbedingungen so wichtig.»
Precire JobFit verstösst beispielsweise mindestens gegen eine dieser Richtlinien: die Subjektqualität. Die Lösung beurteilt Menschen anhand von Parametern, die nicht bewusst beeinflussbar sind. Die Beurteilten geben unter Umständen also unwillkürlich Dinge über sich preis, die sie willentlich nie äussern würden.

Wie der Einstieg gelingt

Der unbedachte Einsatz von lernenden Algorithmen im Personalbereich kann selbst in High-Tech-Konzernen zu erheblichen Problemen führen, wie das Beispiel Amazon zeigt. Unternehmen sollten daher zunächst mit relativ unkritischen Bereichen experimentieren, um die Möglichkeiten KI-basierter Systeme kennenzulernen und auszuloten.
Anja Michael vom BPM rät ihnen, KI-Tools zunächst einmal für die Arbeitsmarktanalyse auszuprobieren, mit denen sich länderspezifisch das Angebot an und die Nachfrage nach bestimmten Bewerberqualifikationen identifizieren lässt: «Da­raufhin könnten sie dann ihre Bewerberansprache ausrichten.»
Deloitte-Consultant Faust geht einen Schritt weiter und empfiehlt, mit Hilfe Künstlicher Intelligenz nicht nur die aktuelle Arbeitsmarkt­situation zu analysieren, sondern auch den zukünftigen Bedarf: «Das Strategic oder Future Skill Management eignet sich ganz hervorragend für Pilotprojekte», sagt der Manager. «Wo stehen wir heute, welche Skills werden wir in Zukunft benötigen und wie weit sind wir von diesem Zielbild entfernt? Das sind Fragen, die sich mit Hilfe KI-basierter Analysen sehr gut beantworten lassen.»
“KI verletzt nicht zwangsläufig Persönlichkeitsrechte, aber die Gefahr des Missbrauchs, ob nun beabsichtigt oder nicht, ist potenziell gegeben.„
Leon Jacob, Senior Manager bei der hkp/// group und  Assoziiertes Mitglied des Ethikbeirats HR-Tech
Bevor man sich in die Arbeit stürzt, sollte man allerdings prüfen, ob sich der Einstieg überhaupt lohnt, unterstreicht indessen Christian Lorenz vom DGFP: «Sind die zu bearbeitenden Fallzahlen so gross, dass die Investition sinnvoll ist, oder reichen auch die herkömmlichen Techniken?» Der Leiter des DGFP-Hauptstadtbüros empfiehlt, nicht nur mit Anbietern, sondern auch mit Unternehmen zu sprechen, die bereits Erfahrungen gesammelt haben: «Verbände wie die DGFP vermitteln hier zwischen den Mitgliedern und geben die Möglichkeit des Erfahrungsaus­tauschs.»

Fazit & Ausblick

Überall wo grosse Datenmengen verarbeitet werden, komplexe Zusammenhänge vorliegen und Muster nur schwer zu erkennen sind, spielt Künstliche Intelligenz ihre Stärke aus. Das gilt für den Bereich des Personalwesens genauso wie für viele andere Einsatzgebiete.
Ebenso gültig ist aber auch die Erkenntnis, dass Algorithmen nur so gut sind wie die Trainingsdaten, auf denen sie basieren, und die Kenntnisse derer, die sie anlernen. Wenn automatisierte Entscheidungen das Leben von Menschen erheblich beeinträchtigen oder verändern können, ist daher besondere Vorsicht geboten.
Künstliche Intelligenz darf in diesen Fällen keinesfalls als Blackbox fungieren, deren Ergebnissen blind vertraut wird. Der Einsatz unterliegt deshalb - wie auch bei Versicherungen oder im Gesundheitswesen - im HR-Bereich erhöhten Anforderungen. Es muss jederzeit transparent und nachvollziehbar sein, wann und wozu welche Daten erhoben werden, nach welchen Kriterien die Analyse erfolgt und was mit den Ergebnissen geschieht. Davon sind aktuelle KI-Lösungen nicht nur für das Personalwesen allerdings noch weit entfernt.
Die Richtlinien des Ethikbeirats HR-Tech sind daher ein wichtiger Beitrag, die Situation zu verbessern und einen ethisch akzeptablen Einsatz von KI zu ermöglichen. Dieser liegt auch im Interesse von Herstellern und Unternehmen. Wenn Betroffene sich von der KI ausspioniert, abgeurteilt und übervorteilt fühlen, werden KI-Tools im Personalwesen keine Chance haben.
KI-Tools für den HR-Einsatz (Auswahl)
Anbieter Produkt Beschreibung
Actonomy Semantic Mind Semantische Suche in Bewerberprofilen, Lebensläufen und anderen Dokumenten, Identifikation der am besten geeigneten Kandidaten
Crystal Crystal Knows Persönlichkeitsanalyse zum Selbsttest und zur Evaluierung von Kontakten per Chrome Extension, Mobile App, Slack-Integration oder API
Eightfold Talent Intelligence KI-basierte Personalmanagement-Plattform für Recruiting und Personalentwicklung
IBM Watson Career Coach KI-basierte Karriereberatung
Recruit Robin Robin KI-basierte Automatisierung der Personalbeschaffung
Textio Textio Hire Analyse und Erstellung von Stellenanzeigen
Textkernel (von CareerBuilder übernommen) Extract, Jobfeed, Match, Search Extract: Erstellung von Kandidatenprofilen aus Bewerberunterlagen (CV-Parsing), Jobfeed: Analyse von Online-Stellenanzeigen, Match: Bewerber-Vorauswahl, Search: parallele Bewerbersuche in verschiedenen Datenbanken
KI-Tools für den HR-Einsatz (Auswahl)
Anbieter Produkt Beschreibung
Actonomy Semantic Mind Semantische Suche in Bewerberprofilen, Lebensläufen und anderen Dokumenten, Identifikation der am besten geeigneten Kandidaten
Crystal Crystal Knows Persönlichkeitsanalyse zum Selbsttest und zur Evaluierung von Kontakten per Chrome Extension, Mobile App, Slack-Integration oder API
Eightfold Talent Intelligence KI-basierte Personalmanagement-Plattform für Recruiting und Personalentwicklung
IBM Watson Career Coach KI-basierte Karriereberatung
Recruit Robin Robin KI-basierte Automatisierung der Personalbeschaffung
Textio Textio Hire Analyse und Erstellung von Stellenanzeigen
Textkernel (von CareerBuilder übernommen) Extract, Jobfeed, Match, Search Extract: Erstellung von Kandidatenprofilen aus Bewerberunterlagen (CV-Parsing), Jobfeed: Analyse von Online-Stellenanzeigen, Match: Bewerber-Vorauswahl, Search: parallele Bewerbersuche in verschiedenen Datenbanken
(Quelle: nmg )

Im Gespräch mit Rena Tangens von Digitalcourage

Rena Tangens: Gründungsvorstand des deutschen Vereins «Digitalcourage»
Quelle: Veit Metter
Rena Tangens, Gründungsvorstand des Vereins Digitalcourage, erklärt, warum sie als Datenschützerin den Einsatz von Künstlicher Intelligenz im Personalwesen für bedenklich hält.
Computerworld: Frau Tangens, Sie sind Gründungsvorstand des Vereins Digitalcourage, der sich für Informationsfreiheit und Datenschutz einsetzt. Wie bewerten Sie die Nutzung Künstlicher Intelligenz bei Personalentscheidungen?
Rena Tangens: Ich halte sie generell für problematisch. Es wird ein Anschein von Objektivität erweckt, der nicht der Realität entspricht. Menschen werden anhand von Algorithmen aussortiert, ohne dass sie überhaupt in Kontakt mit der Personalabteilung kommen.
Ich habe selbst viel Personalerfahrung und weiss, dass die optimale Kandidatin für eine Stelle nicht unbedingt die mit dem perfekten Lebenslauf und den besten Noten ist. Ich bezweifle daher, dass solche Methoden zu einer besseren Auswahl von Mitarbeitern führen.
Computerworld: Digitalcourage vergibt jedes Jahr die Big-Brother-Awards für besonders schwere Verstösse gegen Datenschutz und Informationsfreiheit. Im vergangenen Jahr gehörte das Unternehmen Precire Technologies zu den Preisträgern, das unter anderem eine KI-basierte Sprachanalyse für das Bewerber-Ranking anbietet. Was werfen Sie Precire konkret vor?
Tangens: Precire behauptet, auf wissenschaftlicher Basis zu arbeiten und mit Hilfe Künstlicher Intelligenz die Eignung von Bewerbern anhand der «unveränderlichen Sprach-DNA» eines Menschen beurteilen zu können. Beweise für diese Aussage bleibt das Unternehmen schuldig. Die Ergebnisse sind zudem wenig aussagekräftig und lesen sich eher wie Horoskope aus der Tageszeitung. Precire widerspricht sich im Übrigen selbst, indem das Unternehmen Sprachtrainings anbietet.
Computerworld: Aber ist denn die Auswahl durch Personal­verantwortliche oder Recruiter wirklich besser? Menschen haben schliesslich Vorurteile, Computer nicht.
Tangens: Das ist ein naiver Aberglaube. Computerprogramme werden von Menschen entwickelt, Algorithmen lernen an Modellen, die wiederum von Menschen vorgegeben werden. Pre­cire bietet beispielsweise auch an, mit Hilfe der Sprachanalyse geeignete Führungskräfte zu identifizieren.
Als Trainingsmate­rial wurden hierfür Reden von Managern aus DAX-Unternehmen ausgewertet. Was glauben Sie, aus welchem Typ Führungskraft diese Stichprobe hauptsächlich besteht?
Computerworld: Aus alten weissen Männern?
Tangens: Na, zumindest hauptsächlich aus Männern. Precire zeigt in einem Werbevideo sehr deutlich, was dabei herauskommt. Da stellt ein Mann im grauen Anzug und mit roter Krawatte einen anderen Mann im grauen Anzug und mit roter Krawatte ein.
Computerworld: Führt der Einsatz von Künstlicher Intelligenz also Ihrer Auffassung nach zu noch mehr Uniformität in den Unternehmen, statt die Diversität zu fördern?
Tangens: Ja, diese Art der Bewerberauswahl und Personalführung birgt die Gefahr, dass sich Menschen immer mehr verstellen und standardisieren. Entscheidend für den Erfolg sind nicht mehr Engagement, Kompetenzen und Fähigkeiten, sondern die richtige Fassade auf Facebook, Instagram oder Linkedin.
Computerworld: Nicht alle KI-basierten Methoden im Recruiting zielen auf die Bewerberauswahl. Es werden zum Beispiel auch Stellenanzeigen mit Algorithmen zielgruppengerecht optimiert. Halten Sie auch das für problematisch?
Tangens: Sofern dadurch ein Micro-Targeting entsteht, wie wir es von den politischen Parteien kennen, halte ich das für unaufrichtig.
Es wird der Eindruck erweckt, dass sich eine Firma beispielsweise ganz besonders über Bewerbungen von Frauen oder bestimmten Bevölkerungsgruppen freuen würde. Stattdessen hat einfach ein Computer den Text auf x-beliebige Zielgruppen hin optimiert.
Computerworld: Was sollten Bewerber oder Mitarbeiter tun, wenn sie sich von Computerprogrammen ungerecht behandelt fühlen?
Tangens: Ich sollte mir überlegen, ob ich bei einer Firma arbeiten möchte, die solche Methoden einsetzt.


Das könnte Sie auch interessieren