Neues Horizon Europe-Projekt erforscht Diskriminierung durch KI-Systeme

02.11.2022 Künstliche Intelligenz kann viele Arbeiten erleichtern, auch im Bereich Human Resources. Die KI-Systeme sind jedoch oftmals nicht von Vorurteilen befreit, sondern reproduzieren diese. Gründe und Lösungen wird ein neu bewilligtes Horizon Europe-Projekt erforschen, an dem die Forschungsgruppe Applied Machine Intelligence der BFH beteiligt ist.

Bei Einstellungs- und Beförderungsprozessen setzen Firmen vermehrt auf Unterstützung durch Künstliche Intelligenz (KI). Das erleichtert und beschleunigt viele Arbeiten. Jedoch können auch KI-Systeme Personen diskriminieren, indem sie Vorurteile reproduzieren. Wie es dazu kommt und welche Lösungen es im Bereich des Personalmanagement gibt, wird das kürzlich bewilligte Horizon Europe-Projekt «BIAS: Mitigating Diversity Biases of AI in the Labor Market» untersuchen.

Schulungen zu Entwicklung und Anwendung von KI-Systemen

In dem interdisziplinären Projekt werden die Forschenden einerseits untersuchen, wie es aus technischer Sicht dazu kommt, dass KI-Systeme Vorurteile haben, und welche konkreten Lösungen es dagegen gibt. Dazu kommen umfangreiche ethnografische Feldstudien zu den Erfahrungen von Mitarbeitenden, Personalmanager*innen und Technologieentwickler*innen, welche das Problem von einer sozialwissenschaftlichen Perspektive aus untersuchen. Aus den gewonnenen Erkenntnissen sollen schliesslich Schulungen und Guidelines entstehen, die sowohl Personalmanager*innen wie auch Technologieentwickler*innen bei der Entwicklung und Implementierung von KI-Systemen anleiten, so dass diese möglichst unvoreingenommen funktionieren können.

BFH übernimmt technischen Lead

Das Projektteam unter der Leitung der Norwegian University of Science and Technology NTNU besteht aus einem europaweiten Konsortium, zu dem auch die Berner Fachhochschule BFH gehört. Prof. Dr. Mascha Kurpicz-Briki, stellvertretende Leiterin der Forschungsgruppe Applied Machine Intelligence am Institute for Data Applications and Security IDAS, ist die Projektleiterin seitens BFH und übernimmt mit ihrem Team den technischen Lead im Projekt.

Neben der Leitung des technischen Work Packages analysieren die Forschenden insbesondere, wie Diskriminierungen an verschiedenen Stellen von text-basierter KI messbar gemacht werden können, und untersuchen, wie diese Diskriminierung verhindert werden kann. Dies betrifft einerseits Texte, welche der KI als Trainingsdaten zu Verfügung gestellt werden, und andererseits Sprachmodelle, welche häufig in solchen Anwendungen zum Einsatz kommen.

bias
KI-Systeme sind oftmals nicht von Vorurteilen befreit, sondern reproduzieren diese.

Mehr erfahren