Passer au contenu

Intelligence artificielle (IA) et discrimination

11/06/2024

L’intelligence artificielle (IA) comporte des risques de discrimination structurelle sur le plan sociétal. Elle peut également aboutir à des discriminations au niveau individuel, ce qui est difficile à prouver. Unia met tout en œuvre pour sensibiliser les décisionnaires politiques à ces dangers. Nous siégeons également en qualité d’expert dans de très nombreux organes et appelons les gens à nous adresser un signalement s’ils observent des effets discriminatoires de l’IA.

Unia a la conviction que l’IA peut aider à résoudre les défis sociétaux. Elle peut également être mise en œuvre pour promouvoir l’égalité et la non-discrimination moyennant des garanties suffisantes. Elle pourrait ainsi, par exemple, permettre à l’inspection du travail de détecter des pratiques discriminatoires structurelles à l’aide de données statistiques, et plus précisément en comparant des données agrégées issues de différentes bases de données publiques (datamining et datamatching).

La discrimination et l’IA en quelques exemples

  • Utilisée pour trier des CV, l’IA peut renfermer des préjugés à l’encontre de personnes sur base, par exemple, de leur nom, de leur sexe, de leur ethnicité, de leur position sociale ou d’une combinaison de ces caractéristiques.
  • Si une IA statue sur des demandes de prêts sur base de modèles prédictifs, il peut en résulter une discrimination fondée sur l’origine nationale ou ethnique, le sexe, l’âge ou une combinaison de ces caractéristiques..
  • L’utilisation de systèmes d’IA pour la reconnaissance faciale peut entraîner une discrimination en matière de contrôles de sécurité ou d’accès. Ces systèmes se sont en effet moins précis dans l’identification des personnes de couleur ou des femmes. Si le système identifie indûment une personne comme suspecte sur base d’un préjugé, cela peut déboucher sur une arrestation abusive.

Risques de l’IA sur le plan de la discrimination

L’IA est formée sur base de données historiques qui renferment souvent des préjugés (biais) et des discriminations. Les inégalités existantes dans la société s’en trouvent perpétuées, voire institutionnalisées. 

Le dommage se situe à plusieurs niveaux :

  • Dommage individuel : une personne est préjudiciée par les biais inhérents aux systèmes d’IA.
  • Dommage collectif : des groupes de personnes peuvent être structurellement exclus de certaines opportunités du fait de préjugés. 
  • Dommage sociétal : nous avons toutes et tous intérêt à vivre dans une société qui ne discrimine pas les gens et qui traite ses citoyens de manière égale.

Des défis se posent également en matière de transparence. Le dommage passe souvent inaperçu en raison de l’opacité caractérisant la conception et le fonctionnement des systèmes d’intelligence artificielle. Cette opacité et ce manque de transparence ont pour conséquence qu’il est non seulement difficile de prendre conscience du préjudice, mais qu’il peut être encore plus difficile de prouver le préjudice et d’établir un lien causal.

Il ressort en outre des dossiers traités par Unia que même si une personne est consciente du préjudice, le préjudice individuel peut être perçu comme insignifiant ou tout au moins trop faible par rapport aux frais à engager pour s’y opposer. Ceci concerne les coûts financiers mais également la charge psychosociale, l’investissement en temps, etc. La personne est donc moins encline à contester la pratique problématique.

Cadre légal pour l’IA

La législation antidiscrimination belge offre un cadre législatif pour agir contre la discrimination. Malheureusement, celui-ci n’est pas toujours facile à appliquer en raison de la liste fermée des caractéristiques protégées (telles que les caractéristiques raciales, l’orientation sexuelle, etc.), alors que l’IA implique des corrélations arbitraires.

Différentes initiatives législatives européennes existent par ailleurs :

  • La loi sur l’IA (Règlement sur l’intelligence artificielle) est le règlement de l’Union européenne qui vise à protéger les citoyens belges et européens contre les effets néfastes de l’IA. La loi sur l’IA a été adoptée le 21 mai 2024 par le Conseil de l’Union européenne. Le règlement associe des règles spécifiques à des catégories d’applications de l’IA :  
    • Les pratiques d’IA impliquant des risques inacceptables sont interdites. Ainsi, par exemple, la notation sociale (un système d’IA détermine un score en fonction de votre comportement (social) qui influe sur votre accès à des services ou sur les prix que vous payez pour ceux-ci), les techniques subliminales, manipulatrices ou trompeuses ou encore les systèmes d’IA avec reconnaissance des émotions sont interdits à l’école ou au travail.
    • Les systèmes présentant des risques élevés sont soumis à des règles strictes, telles que des obligations de reporting, l’enregistrement dans une base de données de l’UE, la surveillance humaine et, dans certains cas, une analyse d’impact sur les droits fondamentaux. Il s’agit, entre autres, de certains systèmes utilisés dans l’enseignement, sur le lieu de travail, dans les services privés et publics essentiels, dans la biométrie etc. 
    • La plupart des applications comporteront un risque limité ou minime. Dans ce cas, ce sont principalement des obligations de transparence qui s’appliquent en matière d’information de l’utilisateur.

Le règlement est directement applicable dans chaque État membre et entrera en vigueur progressivement.

La Convention sur l’IA (Convention-cadre sur l’intelligence artificielle, les droits de l’homme, la démocratie et l’État de droit) du Conseil de l’Europe souligne l’importance de la protection des droits humains dans le développement et la mise en œuvre de systèmes d’IA. Elle fournit un cadre pour garantir l’égalité de traitement, la non-discrimination et le respect de la dignité humaine dans toutes les applications d’IA. Elle a été adoptée le 17 mai 2024 par le Conseil des ministres. 

IA et intersectionnalité

Les systèmes d’IA vont souvent prendre une décision sur la base d’une combinaison de différentes caractéristiques protégées. Citons, par exemple, une femme utilisatrice de fauteuil roulant appartenant à une minorité ethnique ou un homme homosexuel âgé. 

Dans les systèmes d’IA, il n’apparaîtra pas clairement quelles caractéristiques ont été les plus importantes dans une décision et cela peut donc donner lieu à une discrimination intersectionnelle. On a alors une interaction simultanée entre différents critères de discrimination, qui deviennent indissociables, du fait de leur interaction, du contexte donné, rendant une personne plus vulnérable que d’autres dans un même contexte. Ainsi, une femme issue d’une minorité ethnique déterminée peut être confrontée à un type de discrimination différent de celui d’un homme issu de la même minorité ethnique, ou à un type de sexisme différent de celui que subit une femme blanche.

Que fait Unia sur le plan de l’IA et de la discrimination ?

Dans le cadre de son mandat d’organisme de promotion de l’égalité et d’institution dédiée aux droits humains, Unia suit de près les développements relatifs à la mise en place d’une réglementation européenne sur l’intelligence artificielle (IA). La lutte contre les effets discriminatoires de l’IA et la transformation de l’IA en un outil pour plus d’égalité sont au cœur du plan stratégique d’Unia pour les prochaines années. Nous sommes dès lors très actifs en matière d’élaboration des politiques et de sensibilisation :

Ouvrir Fermer En Belgique

Ouvrir Fermer Au sein de l’ENNHRI (Réseau européen des institutions nationales de défense des droits humains)

Ouvrir Fermer Au sein d’Equinet (réseau européen des organismes de promotion de l’égalité)

Ouvrir Fermer Au sein du Conseil de l’Europe (principale organisation européenne de défense des droits humains)

Quelles sont les recommandations d’Unia en matière d’IA ?

Les principales recommandations en matière de prévention de la discrimination par l’IA sont les suivantes :

  • Instaurer des exigences de transparence aux niveaux macro et micro :
    • Mettre en place un registre national assorti d’exigences de reporting obligatoires pour les acteurs (privés et publics). 
    • Instaurer des exigences légales de transparence pour tous les systèmes algorithmiques : toutes les phases de la conception logicielle doivent être traçables, de la collecte des données à la production.
  • Transférer la charge de la preuve pour les systèmes non transparents.
  • Garantir une surveillance adéquate par des organismes publics indépendants en collaboration avec les institutions de protection des droits humains existantes. 
  • Garantir la formation à l’IA : former les développeurs, les utilisateurs et les parties prenantes à l’IA.
  • Garantir un débat public et la participation de plusieurs parties prenantes.

Que faire si vous subissez les effets discriminatoires de l’IA ?

Si vous avez le sentiment d’être discriminé(e) par des applications d’IA ou êtes témoin de possibles effets discriminatoires, nous vous recommandons de le signaler à Unia. Nos collaborateurs mettront alors tout en œuvre pour vous aider.