Rapport "Lignes directrices politiques européennes relatives aux discriminations induites par l'IA et les algortithmes" (2025)
- Avis ou recommandations
- Rapports
- Critères raciaux
- Orientation sexuelle
- Voir tous les critères
Les lignes directrices européennes sur l’IA et la discrimination fondée sur des algorithmes définissent la manière dont les organismes de promotion de l’égalité et, le cas échéant, d’autres institutions nationales de défense des droits humains (INDH) peuvent utiliser leurs mandats dans le cadre juridique européen, en particulier le règlement (UE) 2024/1689 établissant des règles harmonisées concernant l’intelligence artificielle (Règlement européen sur l’IA) – pour protéger les droits fondamentaux et lutter contre les risques de discrimination dans le déploiement de l’IA et des systèmes de prise de décision automatisée (PDA), en particulier dans le secteur public. Unia a activement contribué à ce rapport.
Objectif des lignes directrices
Dans ce contexte, les présentes lignes directrices ont pour but d’équiper les organismes de promotion de l’égalité et les autres INDH, en particulier dans l’Union européenne, pour lutter contre la discrimination dans les systèmes d’IA/PDA en :
- les tenant informés de leurs responsabilités face à l’évolution du paysage réglementaire encadrant l’intelligence artificielle, notamment concernant son impact direct ou indirect sur leur mandat ;
- leur proposant des lignes directrices spécifiques, des recommandations et des exemples de bonnes pratiques pour superviser l’application et la mise en œuvre des nouvelles réglementations, tout en les reliant à la réglementation existante ;
- assumant un rôle de ressource pour les organismes de promotion de l’égalité et les INDH afin d’aider et de conseiller les parties prenantes nationales, telles que les décideurs politiques et les régulateurs, en ce qui concerne les droits humains, l’égalité et la non-discrimination.
Ces lignes directrices sont particulièrement axées sur les systèmes d’IA/PDA dans le secteur public.
Première section
La première section résume les dispositions du règlement européen sur l'IA les plus pertinentes pour les organismes de promotion de l'égalité et les institutions nationales des droits de l'homme. Elle définit aussi explicitement les rôles et responsabilités de ces organismes et institutions, et formule des recommandations politiques ciblées sur la manière dont ces institutions peuvent prévenir, détecter et contrer la discrimination algorithmique, par exemple en menant des campagnes de sensibilisation, en soutenant les plaintes, en intentant des actions en justice et en travaillant en étroite collaboration avec les autorités nationales compétentes dans le cadre du système de surveillance de l'IA au sens large.
La nouvelle législation reconnaît le risque de discrimination dans diverses applications de l'IA et prévoit certaines garanties. Le présent rapport aborde notamment les points suivants :
- Systèmes d’IA interdits : les lignes directrices détaillent les interdictions explicites prévues à l’article 5 pour les systèmes d’IA considérés comme incompatibles avec les valeurs et les droits fondamentaux de l’Union, y compris le droit à la non-discrimination.
- Systèmes d’IA à haut risque : quels sont les systèmes considérés comme à haut risque en raison d'un risque de discrimination ? Comment les systèmes d'IA sont-ils classés et comment les organismes de promotion de l'égalité et les autres institutions de défense des droits de l'homme peuvent-ils contribuer à l'examen périodique de cette classification ?
- Transparence et bases de données : explication des exigences en matière d'enregistrement et de registre qui peuvent aider à identifier les lieux où les systèmes d'IA sont utilisés. Quelles informations pouvez-vous obtenir si vous pensez que vos droits sont violés ?
- Application : explication du rôle des organismes de protection des droits fondamentaux énumérés à l’article 77 du Règlement sur l’IA, les recours dont disposent les personnes, ainsi que les mécanismes et les possibilités de coopération entre les organismes de promotion de l’égalité, les autorités chargées de la protection des données, les autorités de surveillance du marché et d’autres entités régulatrices et actrices.
Deuxième section
La deuxième partie des lignes directrices repose sur 2 piliers :
- Premièrement, elle analyse les nouvelles directives européennes relatives aux normes applicables aux organismes de promotion de l’égalité (« directives sur les normes ») et explique comment leurs dispositions en matière de mandat, d’indépendance, de ressources et de pouvoirs – y compris la promotion, l’accès à la justice et la collecte de données – peuvent être mobilisées pour lutter contre les risques de discrimination liés aux systèmes d’IA et de PDA.
- Ensuite, elle propose des points d’entrée thématiques pour l’utilisation de l’IA dans des secteurs souvent couverts par les mandats des organismes de promotion de l’égalité : application de la loi, migration, asile et contrôle des frontières, protection sociale et sécurité sociale, emploi et éducation. Pour chaque secteur, elle établit un lien entre les utilisations concrètes de l’IA et les dispositions pertinentes du Règlement sur l’IA (interdictions, classifications à haut risque, exigences de transparence et d’enregistrement) et souligne les domaines dans lesquels des garanties spécifiques au secteur et la participation des organismes de promotion de l’égalité et des INDH sont essentielles.
Contexte
Ce rapport a été élaboré dans le cadre du projet « Défense de l’égalité et de la non discrimination par les organismes de promotion de l’égalité concernant l’utilisation de l’intelligence artificielle (IA) dans les administrations publiques », financé par l’Union européenne via l’Instrument d’appui technique, et cofinancé par le Conseil de l’Europe. Ce projet est mis en œuvre par le Conseil de l’Europe en coopération avec le Commission européenne, le Centre pour l’égalité des chances et la lutte contre le racisme (Unia, Belgique), le Médiateur de la non-discrimination (Finlande) et la Commission pour la citoyenneté et l’égalité de genre (Portugal).
Contenus relatés
Intelligence artificielle (IA) et discrimination
L’intelligence artificielle (IA) présente des risques de discrimination aux niveaux sociétal et individuel. Découvrez le dossier d’Unia sur l’IA.
Rapport "Protection juridique contre la discrimination algorithmique en Europe" (2025)
Le rapport "Protection juridique contre la discrimination algorithmique en Europe" examine les cadres juridiques existants et les lacunes de la législation. Il étudie également l'utilisation de l'IA dans l'administration publique belge et formule des recommandations politiques sur la discrimination algorithmique pour la Belgique.
Projet IA : non-discrimination dans l'utilisation de l'IA dans les administrations publiques
Unia participe à un projet européen visant à renforcer les capacités des organismes de promotion de l'égalité en vue de l'utilisation croissante de l'IA dans l'administration.
- Avis ou recommandations
- Rapports
- Critères raciaux
- Orientation sexuelle
- Conviction religieuse ou philosophique
- Handicap
- Âge
- État de santé
- Fortune
- Caractéristique physique ou génétique
- Conviction politique
- Conviction syndicale
- Origine ou condition sociale
- Naissance
- État civil
- Critère protégé lié au genre
- Langue