Erkennung & Abschwächung von Vorurteilen in auf dem Arbeitsmarkt eingesetzter KI

Ziel des Horizon Europe Projekts BIAS ist die Entwicklung fundierter Kenntnisse über den Einsatz von KI im Personalwesen sowie die Erkennung und Abschwächung von Ungerechtigkeiten in KI-gesteuerten Rekrutierungstools.

Steckbrief

  • Lead-Departement Technik und Informatik
  • Institut Institute for Data Applications and Security (IDAS)
  • Forschungseinheit IDAS / Applied Machine Intelligence
  • Förderorganisation Europäische Union
  • Laufzeit (geplant) 01.11.2022 - 31.10.2026
  • Projektverantwortung Prof. Dr. Mascha Kurpicz-Briki
  • Projektleitung Prof. Dr. Mascha Kurpicz-Briki
  • Projektmitarbeitende Dr. Alexandre Riemann Puttick
  • Partner Staatssekretariat für Bildung, Forschung und Innovation SBFI
    European Commission
    Norges Teknisk-Naturvitenskapelige Universitet
    Háskóli Íslands
    Globaz, S.A. (LOBA)
    CROWDHELIX LIMITED
    SMART VENICE SRL
    UNIVERSITÄT LEIDEN
    DIGIOTOUCH OU
    FARPLAS OTOMOTIV ANONIM SIRKETI
  • Schlüsselwörter Vorurteile, Bias, Human Resources, künstliche Intelligenz, erweiterte Intelligenz, Natural Language Processing

Ausgangslage

Künstliche Intelligenz (KI) wird zunehmend im Personalwesen eingesetzt. Eine kürzlich von Sage durchgeführte Studie ergab, dass 24 % der Unternehmen KI für die Rekrutierung nutzen. Häufig kommen dabei KI-Modelle zum Einsatz, die mittels Natural Language Processing (NLP) den von Bewerber*innen verfassten Text analysieren. Bekannte Fälle haben gezeigt, dass solche Systeme gesellschaftliche Vorurteile reproduzieren und unterrepräsentierte Minderheiten diskriminieren können. Diese Form der algorithmischen Voreingenommenheit wird durch die Tatsache verschärft, dass KI-Entscheidungsprozesse meist in einer Blackbox stattfinden, so dass sie selbst für die Entwickler*innen dieser Systeme schwer nachvollziehbar sind. Dies führt zu Systemen, die ungerechte und ungerechtfertigte Entscheidungen mit geringer Rechenschaftspflicht treffen können; Entscheidungen, gegen die die betroffenen Personen oft keine Einwände geltend machen können. In der Praxis bestehen maschinelles Lernen (ML) und NLP-basierte Anwendungen in der Regel aus standardisierten Large Language Models (LLMs) wie BERT, GPT-Modellen usw., die anhand eines aufgabenspezifischen Datensatzes präzisiert werden. Dabei handelt es sich beispielsweise um eine Sammlung von Stellenbewerbungen, die mit einer Kennzeichnung versehen sind, ob die Bewerbung erfolgreich war. Sowohl die verwendeten allgemeinen Sprachmodelle als auch die aufgabenspezifischen Trainingsdaten sind potenzielle Quellen für Vorurteile.

Vorgehen

Unser Ziel ist es, ein Verfahren zur Erkennung und Reduktion von Vorurteilen bei der KI-gestützten Rekrutierung zu entwickeln. Der Schwerpunkt liegt dabei auf der Entwicklung transparenter, vertrauenswürdiger Systeme, die die menschliche Entscheidungsfindung unterstützen, anstatt sie zu ersetzen (erweiterte Intelligenz – engl. Augmented Intelligence). Bestehende Methoden bieten eine Grundlage für die Untersuchung von in LLMs kodierten Vorurteilen. Dies erfordert Expertise in Bezug auf sprach-, kultur- und branchenspezifische Vorurteile, um Listen von sensiblen Wörtern und Konzepten zu erstellen, die zur Identifizierung kodierter Vorurteile verwendet werden können. Diese Listen werden von Partnern in unserem interdisziplinären Konsortium zusammengestellt. Zusammen mit Partnerinstitutionen werden wir Methoden untersuchen, um gerechtere und transparentere KI-Rekrutierungstools zu fördern. Wir wollen eine Grundlage für Tools schaffen, die sowohl kodierte Vorurteile in den zugrunde liegenden Sprachmodellen als auch die in Bezug auf Vorurteile anfälligen Aspekte der Eingabedaten erkennen und entschärfen. Damit soll sichergestellt werden, dass sowohl KI-Tools als auch Arbeitgebende relevante Informationen für die Personalauswahl verwenden, anstatt ihre Entscheidungen anhand bestehender Vorurteile und irrelevanter sensibler Merkmale (z.B. Herkunft, Geschlecht, sexuelle Orientierung usw.) zu treffen.

Ausblick

Mit Hilfe eines transdisziplinären Ansatzes wird das BIAS-Projekt ein grundlegendes Verständnis für den Einsatz von KI im Personalwesen und die Auswirkungen solcher Tools auf alle Beteiligten entwickeln. Unser Schwerpunkt liegt auf der Erarbeitung der Forschungsgrundlagen für die Erkennung und Reduktion von Vorurteilen gemäss den EU-Richtlinien für vertrauenswürdige KI (ALTAI) und dem Prinzip der erweiterten Intelligenz (augmented Intelligence). Unsere Methoden werden über dieses Projekt hinaus zu neuen, einsatzbereiten Rekrutierungstools weiterentwickelt. Zudem wird die Arbeit von anderen Konsortiumsmitgliedern in die Ausarbeitung von politischen Vorschlägen und Trainingsprogrammen einfliessen, um den fairen Einsatz von KI im Human Resources Management (HRM) zu fördern. Diese Arbeit wird vom Schweizer Staatssekretariat für Bildung, Forschung und Innovation (SBFI) finanziert.

Dieses Projekt leistet einen Beitrag zu den folgenden SDGs

  • 3: Gesundheit und Wohlergehen
  • 5: Geschlechtergleichheit
  • 8: Menschenwürdige Arbeit und Wirtschaftswachstum
  • 10: Weniger Ungleichheiten
  • 16: Frieden, Gerechtigkeit und starke Institutionen