Rapport "Protection juridique contre la discrimination algorithmique en Europe" (2025)
- Avis ou recommandations
- Études
- Rapports
- Critères raciaux
- Orientation sexuelle
- Voir tous les critères
Le rapport "Protection juridique contre la discrimination algorithmique en Europe" examine les cadres juridiques existants et les lacunes de la législation. Il étudie également l'utilisation de l'IA dans l'administration publique belge et formule des recommandations politiques sur la discrimination algorithmique pour la Belgique. Ce rapport a été réalisé avec le soutien financier de l'Union européenne et du Conseil de l'Europe. Unia a contribué à la rédaction du rapport.
Utilisation de l'IA dans l'administration publique belge
L'administration publique belge utilise diverses applications de l'intelligence artificielle (IA) et a plusieurs projets d'IA en cours, par exemple :
- police
- secteur financier
- secteur de l'emploi
- l'éducation
En l'absence d'un registre public complet de ces systèmes, il n'est pas possible de dresser une carte complète et cohérente de l'utilisation de l'IA et des systèmes de prise de décision automatisée (ADM) dans les services publics en Belgique.
Le SPF Stratégie et Appui (BOSA) a mis en place un Observatoire de l'IA qui s'efforce de collecter des informations sur l'utilisation de l'IA ou des systèmes ADM dans les services publics en Belgique. Des efforts similaires de collecte d'informations sont menés ou prévus par d'autres agences, telles que l'Institut FARI pour Bruxelles et le SPF Sécurité sociale.
Lacunes dans les cadres juridiques et politiques belges
- Manque de transparence
- Manque de sensibilisation et d'approche harmonisée des droits fondamentaux
- Paysage de surveillance fragmenté
- Manque de ressources et d'expertise
Recommandations clés contre la discrimination algorithmique pour la Belgique
- Créer un registre public des systèmes d'IA et d'ADM
- Mettre en place des mécanismes de coordination avancés entre les autorités nationales compétentes à différents niveaux
- Fournir des garanties procédurales qui facilitent l'obtention d'une réparation juridique dans les cas impliquant des systèmes d'IA ou d'ADM, y compris en modifiant les lois anti-discrimination si nécessaire
- Réaliser des études d'impact sur les droits fondamentaux - mieux connues sous le nom d'"études d'impact sur les droits fondamentaux" (FRIA) - et en publier des résumés dans le registre public
- Inclure la lutte contre la discrimination comme élément obligatoire dans l'externalisation par le gouvernement des systèmes d'IA et d'ADM
- Sensibiliser le public à l'utilisation de l'IA et améliorer les connaissances en matière d'IA et de culture numérique
- Former les employés du secteur public à l'impact de l'IA et de l'ADM sur les droits fondamentaux
- Renforcer la coopération entre les organismes de promotion de l'égalité, les autres institutions publiques et la société civile
Contexte
Ce rapport a été préparé dans le cadre du projet IA : garantir l'égalité et la non-discrimination dans l'utilisation de l'intelligence artificielle dans les administrations publiques, financé par l'Union européenne par le biais de l'instrument de soutien technique et cofinancé par le Conseil de l'Europe. Le projet est mis en œuvre par le Conseil de l'Europe en coopération avec la Commission européenne, Unia pour la Belgique, l'Ombudsman pour la non-discrimination pour la Finlande et la Commission pour la citoyenneté et l'égalité des genres pour le Portugal. Unia a contribué à la rédaction du rapport.
Contenus relatés
Projet IA : non-discrimination dans l'utilisation de l'IA dans les administrations publiques
Unia participe à un projet européen visant à renforcer les capacités des organismes de promotion de l'égalité en vue de l'utilisation croissante de l'IA dans l'administration.
Unia devient l'un des régulateurs des droits fondamentaux pour l'IA
En vertu de l'article 77 du règlement AI, Unia veille à la protection des droits fondamentaux pour les compétences qui lui sont attribuées.
Intelligence artificielle (IA) et discrimination
L’intelligence artificielle (IA) présente des risques de discrimination aux niveaux sociétal et individuel. Découvrez le dossier d’Unia sur l’IA.
- Avis ou recommandations
- Études
- Rapports
- Critères raciaux
- Orientation sexuelle
- Conviction religieuse ou philosophique
- Handicap
- Âge
- État de santé
- Fortune
- Caractéristique physique ou génétique
- Conviction politique
- Conviction syndicale
- Origine ou condition sociale
- Naissance
- État civil
- Critère protégé lié au genre
- Langue