Atténuer les biais de diversité de l’IA sur le marché du travail

Le projet Horizon Europe BIAS a l’objectif de développer une compréhension approfondie de l’utilisation de l’IA dans le secteur de l’emploi, et de détecter et atténuer les injustices dans les outils de recrutement pilotés par l’IA.

Fiche signalétique

  • Département responsable Technique et informatique
  • Institut Institute for Data Applications and Security (IDAS)
  • Unité de recherche IDAS / Applied Machine Intelligence
  • Organisation d'encouragement Europäische Union
  • Durée (prévue) 01.11.2022 - 31.10.2026
  • Responsable du projet Prof. Dr. Mascha Kurpicz-Briki
  • Direction du projet Prof. Dr. Mascha Kurpicz-Briki
  • Équipe du projet Dr. Alexandre Riemann Puttick
  • Partenaire Staatssekretariat für Bildung, Forschung und Innovation SBFI
    European Commission
    Norges Teknisk-Naturvitenskapelige Universitet
    Háskóli Íslands
    Globaz, S.A. (LOBA)
    CROWDHELIX LIMITED
    SMART VENICE SRL
    UNIVERSITÄT LEIDEN
    DIGIOTOUCH OU
    FARPLAS OTOMOTIV ANONIM SIRKETI
  • Mots-clés préjugé; ressources humaines, intelligence artificielle, intelligence augmentée, traitement du langage naturel

Situation

L’intelligence artificielle (IA) occupe une place toujours plus importante dans le secteur de l’emploi. Une récente étude de Sage a révélé que 24 % des entreprises recrutent à l’aide de l’IA. Ils font souvent appel à des modèles d’IA basés sur le traitement du langage naturel (TLN) pour analyser le texte créé par un-e candidat-e. Des affaires très médiatisées ont montré que ces systèmes peuvent reproduire les préjugés sociaux et discriminer injustement les minorités sous-représentées. Cette forme de biais algorithmique est exacerbée par le fait que les processus décisionnels de l’IA opèrent généralement de manière plutôt floue, voire opaque, même pour les ingénieur-e-s qui les ont conçus. Il en résulte des systèmes capables de prendre des décisions injustes et injustifiées tout en assumant une faible responsabilité, des décisions contre lesquelles les parties prenantes humaines lésées n’ont souvent aucun moyen de recours. En pratique, les applications basées sur l’apprentissage automatique (ML) et le TLN sont généralement constituées de grands modèles de langage (LLM) prêts à l’emploi tels que les modèles BERT, GPT, etc. Ces derniers sont ensuite affinés en fonction d’un ensemble de données spécifiques à la tâche, par exemple des archives de demandes d’emploi catégorisées en fonction de la réussite du candidat ou de la candidate. Les modèles de langage généraux utilisés et les données d’apprentissage spécifiques à la tâche sont tous deux des sources potentielles de préjugés.

Approche

Nous projetons de fournir un schéma de détection et d’atténuation des préjugés dans le recrutement basé sur l’IA en mettant l’accent sur la construction de systèmes transparents et fiables qui soutiennent la prise de décision humaine plutôt que de la remplacer (intelligence augmentée). Les méthodes existantes fournissent un cadre d’étude des préjugés encodés dans les LLM. Une connaissance approfondie des préjugés spécifiques à la langue, à la culture et au domaine est nécessaire pour compiler des listes de mots et de concepts sensibles qui peuvent être utilisées afin d’identifier les préjugés encodés. Ces listes seront compilées par les partenaires de notre consortium interdisciplinaire. Avec les institutions partenaires, nous étudierons des méthodes visant à promouvoir des outils de recrutement par l’IA plus équitables et plus transparents. Nous voulons jeter les bases d’outils permettant de détecter et d’atténuer les préjugés encodés dans les modèles de langage sous-jacents, ainsi que les aspects sensibles aux préjugés des données d’entrée, afin de garantir que les outils d’IA et les employeurs utilisent des informations pertinentes pour l’embauche, plutôt que de fonder leurs décisions sur des préjugés existants et des éléments sensibles non pertinents (par exemple, la race, le sexe, l’orientation sexuelle).

Perspectives

Grâce à son approche transdisciplinaire, le projet BIAS permettra d’acquérir une connaissance approfondie de l’utilisation de l’intelligence artificielle dans le secteur des ressources humaines et des répercussions de tels outils sur toutes les parties prenantes. Nous nous concentrerons sur l’établissement des bases de recherche pour la détection et l’atténuation des préjugés, conformément aux lignes directrices de l’UE pour une IA digne de confiance (ALTAI) et au principe de l’intelligence augmentée. Au-delà de ce projet, nous développerons en continu nos méthodes et proposerons de nouveaux outils de recrutement prêts à être déployés. En outre, le travail des autres membres du consortium aboutira à des propositions de politiques et à des programmes de formation visant à promouvoir l’utilisation équitable de l’IA dans la gestion des ressources humaines (GRH). Ce travail est financé par le Secrétariat d'État suisse à l'éducation, à la recherche et à l'innovation (SERI).

Ce projet contribue aux objectifs de développement durable suivants

  • 3: Accès à la santé
  • 5: Égalité entre les sexes
  • 8: Accès à des emplois décents
  • 10: Réduction des inégalités
  • 16: Justice et paix