Navigation
Seiteninhalt

Initiative setzt sich gegen Biases in KI-gestütztem Recruting ein

Die neu gegründete „Data & Trust Alliance“ zur Förderung „algorithmischer Sicherheit“ setzt sich in einer ersten Initiative gegen Vorurteile in automatisierten Personalbeschaffungsprozessen ein.
Von Redaktion
15. Dezember 2021

Mehr als ein Dutzend großer Arbeitgeber hat bekannt gegeben, verschiedene Kriterien einführen zu wollen, um Daten- und algorithmische Voreingenommenheiten bei Personalentscheidungen zu reduzieren. Die Unternehmen sind Mitglieder der neu gegründeten „Data & Trust Alliance“, in der sich führende Institutionen zusammengeschlossen haben, um verantwortungsvolle Daten- und KI-Verfahren zu fördern. 

Schutz der Mitarbeiter vor algorithmischem Bias

Die Mitglieder der Alliance nutzen zunehmend Daten, Algorithmen und KI, um Bewerber aus großen Kandidatenpools auszuwählen. Dabei verlassen sie sich auf Softwareanbieter, Berater und Recruiting-Unternehmen, die zunehmend KI und maschinelles Lernen in ihren Dienstleistungen einsetzen. Beim Einsatz dieser neuen Technologien ist den Mitgliedsunternehmen aufgefallen, dass sogenannte „Biases“, also Einseitigkeiten und Vorurteile, der Systeme ein großes Risiko darstellen.

Aus diesem Grund hat die Alliance ihre erste Initiative, „Algorithmic Safety: Mitigating Bias in Workforce Decisions“ (dt. „Algorithmische Sicherheit: Abschwächung von Voreingenommenheit bei Personalentscheidungen“) ins Leben gerufen. Diese soll die Unternehmen dabei unterstützen, die einzelnen Recruiting-Software-Anbieter hinsichtlich ihrer Fähigkeit zu bewerten, algorithmische Biases zu erkennen, zu reduzieren und zu überwachen.

Zur Bewertung von HR-Dienstleistern hinsichtlich ihrer algorithmischen Sicherheit hat die Alliance „Algorithmic Bias Safeguards“ entwickelt. Diese umfassen 55 Fragen aus 13 Kategorien, die von den Unternehmen angepasst werden können, um die Anbieter nach Kriterien wie Trainingsdaten und Modelldesign, Methoden zum Testen von Biases, Beseitigung von Vorurteilen, Transparenz und Rechenschaftspflicht sowie Verpflichtungen zu KI-Ethik und Vielfalt zu bewerten.

Die Bewertungskriterien wurden von einer branchenübergreifenden Arbeitsgruppe von Experten aus den Bereichen Personalmanagement, künstliche Intelligenz, IT, Beschaffung, Recht und Diversität und Inklusion entwickelt. Anschließend wurden die Kriterien mit Hilfe führender HR- und KI-Anbieter sowie von mehr als 200 Fachexperten aus Wirtschaft, Wissenschaft und Zivilgesellschaft getestet und überarbeitet.

Die von der Alliance bereitgestellten Bildungsmaterialien werden dazu beitragen, die Mitarbeiter der Personal-, der Beschaffungsabteilung und andere Fachleute mit algorithmischer Voreingenommenheit vertraut zu machen und ihre Kriterien und Auswahlprozesse zu verbessern.

Zu den Unternehmen, die die Sicherheitskriterien anwenden, gehören American Express, CVS Health, Deloitte, Diveplane, General Motors, Humana, IBM, Mastercard, Meta, Nielsen, Nike, Under Armour und Walmart. Insgesamt beschäftigen diese Unternehmen mehr als dreieinhalb Millionen Menschen.

Quelle: APA OTS

Autoren

782_632_LN_Logo_RGB_Primary_Full-Color_Positive.jpg

Redaktion

Die LexisNexis Österreich & Compliance Praxis-Redaktion versorgt Sie regelmäßig mit aktuellen News und Informationen aus der Compliance-Welt. Unser Ziel ist es, Ihre tägliche Arbeit bestmöglich zu ...