Un nouveau projet Horizon Europe étudie la discrimination par les systèmes d’IA

02.11.2022 L’intelligence artificielle peut faciliter de nombreuses tâches, y compris dans le secteur des ressources humaines. Cependant, les systèmes d’IA, souvent loin d’être libérés des préjugés, les reproduisent. Les raisons et les solutions pour remédier à ce problème seront étudiées dans le cadre d’un projet Horizon Europe récemment approuvé, auquel participe le groupe de recherche Applied Machine Intelligence de la BFH.

Lors des processus de recrutement et de promotion, les entreprises font de plus en plus appel à l’intelligence artificielle (IA). Cela facilite et accélère de nombreux travaux. Cependant, les systèmes d’IA peuvent également discriminer des personnes en reproduisant des préjugés. Le projet Horizon Europe «BIAS: Mitigating Diversity Biases of AI in the Labor Market», qui vient d’être approuvé, examinera comment cela se produit et quelles solutions existent dans le domaine de la gestion des ressources humaines.

Formations au développement et à l’utilisation de systèmes d’IA

Dans le cadre de ce projet interdisciplinaire, les chercheurs et chercheuses étudieront d’une part comment, d’un point de vue technique, les systèmes d’IA peuvent avoir des préjugés et quelles solutions concrètes permettent d’y remédier. À cela s’ajoutent des études ethnographiques de terrain approfondies sur les expériences des employé-e-s, des directeurs du personnel et des responsables du développement technologique, qui examinent le problème sous l’angle des sciences sociales. Les connaissances acquises doivent in fine donner lieu à des formations et à des directives qui guideront aussi bien les responsables RH que les personnes en charge du développement technologique dans l’élaboration et la mise en œuvre de systèmes d’IA qui puissent fonctionner de la manière la plus impartiale possible.

La BFH prend le lead technique

L’équipe de projet, dirigée par la Norwegian University of Science and Technology NTNU, est composée d’un consortium européen dont fait également partie la Haute école spécialisée bernoise BFH. La Prof. Dr Mascha Kurpicz-Briki, responsable adjointe du groupe de recherche Applied Machine Intelligence à l’Institute for Data Applications and Security IDAS, dirige le projet pour le compte de la BFH et en assume la direction technique avec son équipe.

Outre la gestion du lot de travail technique, l’équipe de recherche analysera en particulier la manière dont la discrimination peut être mesurée à différents endroits de l’IA basée sur le texte, et étudiera comment cette discrimination peut être évitée. Cela concerne d’une part les textes qui sont mis à la disposition de l’IA comme données d’entrainement et d’autre part les modèles linguistiques qui sont souvent utilisés dans de telles applications.

bias
Les systèmes d’IA, souvent loin d’être libérés des préjugés, les reproduisent.

En savoir plus