Intelligence artificielle (IA) et discrimination
L’intelligence artificielle (IA) comporte des risques de discrimination structurelle sur le plan sociétal. Elle peut également aboutir à des discriminations au niveau individuel, ce qui est difficile à prouver. Unia met tout en œuvre pour sensibiliser les décisionnaires politiques à ces dangers. Nous siégeons également en qualité d’expert dans de très nombreux organes et appelons les gens à nous adresser un signalement s’ils observent des effets discriminatoires de l’IA.
Unia a la conviction que l’IA peut aider à résoudre les défis sociétaux. Elle peut également être mise en œuvre pour promouvoir l’égalité et la non-discrimination moyennant des garanties suffisantes. Elle pourrait ainsi, par exemple, permettre à l’inspection du travail de détecter des pratiques discriminatoires structurelles à l’aide de données statistiques, et plus précisément en comparant des données agrégées issues de différentes bases de données publiques (datamining et datamatching).
La discrimination et l’IA en quelques exemples
- Utilisée pour trier des CV, l’IA peut renfermer des préjugés à l’encontre de personnes sur base, par exemple, de leur nom, de leur sexe, de leur ethnicité, de leur position sociale ou d’une combinaison de ces caractéristiques.
- Si une IA statue sur des demandes de prêts sur base de modèles prédictifs, il peut en résulter une discrimination fondée sur l’origine nationale ou ethnique, le sexe, l’âge ou une combinaison de ces caractéristiques..
- L’utilisation de systèmes d’IA pour la reconnaissance faciale peut entraîner une discrimination en matière de contrôles de sécurité ou d’accès. Ces systèmes se sont en effet moins précis dans l’identification des personnes de couleur ou des femmes. Si le système identifie indûment une personne comme suspecte sur base d’un préjugé, cela peut déboucher sur une arrestation abusive.
Risques de l’IA sur le plan de la discrimination
L’IA est formée sur base de données historiques qui renferment souvent des préjugés (biais) et des discriminations. Les inégalités existantes dans la société s’en trouvent perpétuées, voire institutionnalisées.
Le dommage se situe à plusieurs niveaux :
- Dommage individuel : une personne est préjudiciée par les biais inhérents aux systèmes d’IA.
- Dommage collectif : des groupes de personnes peuvent être structurellement exclus de certaines opportunités du fait de préjugés.
- Dommage sociétal : nous avons toutes et tous intérêt à vivre dans une société qui ne discrimine pas les gens et qui traite ses citoyens de manière égale.
Des défis se posent également en matière de transparence. Le dommage passe souvent inaperçu en raison de l’opacité caractérisant la conception et le fonctionnement des systèmes d’intelligence artificielle. Cette opacité et ce manque de transparence ont pour conséquence qu’il est non seulement difficile de prendre conscience du préjudice, mais qu’il peut être encore plus difficile de prouver le préjudice et d’établir un lien causal.
Il ressort en outre des dossiers traités par Unia que même si une personne est consciente du préjudice, le préjudice individuel peut être perçu comme insignifiant ou tout au moins trop faible par rapport aux frais à engager pour s’y opposer. Ceci concerne les coûts financiers mais également la charge psychosociale, l’investissement en temps, etc. La personne est donc moins encline à contester la pratique problématique.
Cadre légal pour l’IA
La législation antidiscrimination belge offre un cadre législatif pour agir contre la discrimination. Malheureusement, celui-ci n’est pas toujours facile à appliquer en raison de la liste fermée des caractéristiques protégées (telles que les caractéristiques raciales, l’orientation sexuelle, etc.), alors que l’IA implique des corrélations arbitraires.
Différentes initiatives législatives européennes existent par ailleurs :
- La loi sur l’IA (Règlement sur l’intelligence artificielle) est le règlement de l’Union européenne qui vise à protéger les citoyens belges et européens contre les effets néfastes de l’IA. La loi sur l’IA a été adoptée le 21 mai 2024 par le Conseil de l’Union européenne. Le règlement associe des règles spécifiques à des catégories d’applications de l’IA :
- Les pratiques d’IA impliquant des risques inacceptables sont interdites. Ainsi, par exemple, la notation sociale (un système d’IA détermine un score en fonction de votre comportement (social) qui influe sur votre accès à des services ou sur les prix que vous payez pour ceux-ci), les techniques subliminales, manipulatrices ou trompeuses ou encore les systèmes d’IA avec reconnaissance des émotions sont interdits à l’école ou au travail.
- Les systèmes présentant des risques élevés sont soumis à des règles strictes, telles que des obligations de reporting, l’enregistrement dans une base de données de l’UE, la surveillance humaine et, dans certains cas, une analyse d’impact sur les droits fondamentaux. Il s’agit, entre autres, de certains systèmes utilisés dans l’enseignement, sur le lieu de travail, dans les services privés et publics essentiels, dans la biométrie etc.
- La plupart des applications comporteront un risque limité ou minime. Dans ce cas, ce sont principalement des obligations de transparence qui s’appliquent en matière d’information de l’utilisateur.
Le règlement est directement applicable dans chaque État membre et entrera en vigueur progressivement.
La Convention sur l’IA (Convention-cadre sur l’intelligence artificielle, les droits de l’homme, la démocratie et l’État de droit) du Conseil de l’Europe souligne l’importance de la protection des droits humains dans le développement et la mise en œuvre de systèmes d’IA. Elle fournit un cadre pour garantir l’égalité de traitement, la non-discrimination et le respect de la dignité humaine dans toutes les applications d’IA. Elle a été adoptée le 17 mai 2024 par le Conseil des ministres.
IA et intersectionnalité
Les systèmes d’IA vont souvent prendre une décision sur la base d’une combinaison de différentes caractéristiques protégées. Citons, par exemple, une femme utilisatrice de fauteuil roulant appartenant à une minorité ethnique ou un homme homosexuel âgé.
Dans les systèmes d’IA, il n’apparaîtra pas clairement quelles caractéristiques ont été les plus importantes dans une décision et cela peut donc donner lieu à une discrimination intersectionnelle. On a alors une interaction simultanée entre différents critères de discrimination, qui deviennent indissociables, du fait de leur interaction, du contexte donné, rendant une personne plus vulnérable que d’autres dans un même contexte. Ainsi, une femme issue d’une minorité ethnique déterminée peut être confrontée à un type de discrimination différent de celui d’un homme issu de la même minorité ethnique, ou à un type de sexisme différent de celui que subit une femme blanche.
Que fait Unia sur le plan de l’IA et de la discrimination ?
Dans le cadre de son mandat d’organisme de promotion de l’égalité et d’institution dédiée aux droits humains, Unia suit de près les développements relatifs à la mise en place d’une réglementation européenne sur l’intelligence artificielle (IA). La lutte contre les effets discriminatoires de l’IA et la transformation de l’IA en un outil pour plus d’égalité sont au cœur du plan stratégique d’Unia pour les prochaines années. Nous sommes dès lors très actifs en matière d’élaboration des politiques et de sensibilisation :
Ouvrir En Belgique
Unia s’engage en faveur de la formation à l’IA : en 2023, nous avons organisé la formation en ligne sur l’IA et la discrimination en collaboration avec le Conseil de l’Europe, le SPF BOSA (AI4Belgium) et le SPF Justice (cellule égalité des chances) pour les décisionnaires politiques, les collaborateurs des autorités de contrôle et les organisations de la société civile. 65 participants ont obtenu un certificat attestant du suivi fructueux de la formation.
Unia agit en matière de contrôle et de réparation juridique : conjointement avec le Conseil de l’Europe et la Commission européenne (DG Réformes), ainsi qu’avec les organismes de promotion de l’égalité de Finlande et du Portugal, nous avons lancé en 2024 un vaste projet destiné à renforcer nos capacités de surveillance de l’utilisation des systèmes d’IA dans les administrations publiques, incluant la réparation des préjudices subis par les personnes discriminées par des technologies d’IA. Ce projet comprend, entre autres, le développement d’un outil interne de non-discrimination et la poursuite de la formation en ligne consacrée au thème de l’IA et de la discrimination.
Unia mise sur les partenariats et la participation multi-parties prenantes :
- Unia organise 2 fois par an une table ronde avec la société civile afin de mieux comprendre les défis au niveau national.
- Nous accompagnons des étudiants de la KU Leuven via la Legal Clinic ‘AI en mensenrechten’.
Unia est membre de AI4Belgium.
Ouvrir Au sein de l’ENNHRI (Réseau européen des institutions nationales de défense des droits humains)
Unia préside le groupe de travail sur l’IA au sein de l’ENNHRI et a représenté l’ENNHRI lors des négociations relatives à la Convention sur l’IA.
Ouvrir Au sein d’Equinet (réseau européen des organismes de promotion de l’égalité)
Unia est membre du groupe de travail IA.
Ouvrir Au sein du Conseil de l’Europe (principale organisation européenne de défense des droits humains)
Unia siège en tant qu’expert indépendant au sein du Comité d’expert∙es sur l’intelligence artificielle, l’égalité et la discrimination et a également assuré la formation sur le thème IA et discrimination.
Quelles sont les recommandations d’Unia en matière d’IA ?
Les principales recommandations en matière de prévention de la discrimination par l’IA sont les suivantes :
- Instaurer des exigences de transparence aux niveaux macro et micro :
- Mettre en place un registre national assorti d’exigences de reporting obligatoires pour les acteurs (privés et publics).
- Instaurer des exigences légales de transparence pour tous les systèmes algorithmiques : toutes les phases de la conception logicielle doivent être traçables, de la collecte des données à la production.
- Transférer la charge de la preuve pour les systèmes non transparents.
- Garantir une surveillance adéquate par des organismes publics indépendants en collaboration avec les institutions de protection des droits humains existantes.
- Garantir la formation à l’IA : former les développeurs, les utilisateurs et les parties prenantes à l’IA.
- Garantir un débat public et la participation de plusieurs parties prenantes.
Que faire si vous subissez les effets discriminatoires de l’IA ?
Si vous avez le sentiment d’être discriminé(e) par des applications d’IA ou êtes témoin de possibles effets discriminatoires, nous vous recommandons de le signaler à Unia. Nos collaborateurs mettront alors tout en œuvre pour vous aider.