Ga verder naar de inhoud

Artificiële intelligentie (AI) en discriminatie

Artificiële intelligentie (AI) houdt risico’s in voor structurele discriminatie op maatschappelijk vlak. Ook op individueel vlak kan AI resulteren in discriminatie en dat is moeilijk te bewijzen. Unia doet er alles aan om beleidsmakers bewust te maken van die gevaren. We zetelen ook als expert in heel wat organen en roepen mensen op een melding te doen als ze discriminerende effecten van AI opmerken.

Unia is ervan overtuigd dat AI kan helpen om maatschappelijke uitdagingen op te lossen. Het kan ook met voldoende waarborgen worden ingezet om gelijkheid en non-discriminatie te bevorderen. Zo zou de arbeidsinspectie bijvoorbeeld structurele discriminerende praktijken kunnen opsporen aan de hand van statistische gegevens, meer bepaald door geaggregeerde gegevens uit verschillende openbare databanken met elkaar te vergelijken (zogeheten ‘datamining’ en ‘datamatching’).

Discriminatie en AI in enkele voorbeelden

  • Als AI gebruikt wordt om cv’s te screenen, dan kunnen daar vooroordelen in zitten tegenover mensen op basis van bijvoorbeeld hun naam, geslacht, etniciteit, sociale positie of combinatie van deze karakteristieken.
  • Als AI op basis van voorspellende modellen beslist over leningaanvragen kan dat resulteren in discriminatie op basis van onder meer nationale of etnische afstamming, geslacht, leeftijd, of een combinatie van deze karakteristieken.
  • Als AI-systemen voor gezichtsherkenning ingezet worden, kan dat leiden tot discriminatie bij beveiligings- of toegangscontroles. Die systemen blijken namelijk minder accuraat om mensen van kleur of vrouwen te identificeren. Als het systeem een persoon op basis van een vooroordeel foutief identificeert als een verdachte, kan dat tot een onterechte arrestatie leiden.

Risico’s van AI op het vlak van discriminatie

AI wordt getraind op basis van historische data die vaak vooroordelen (bias) en discriminatie inhouden. Bestaande ongelijkheden in de samenleving worden daardoor bestendigd en zelfs geïnstitutionaliseerd. 

De schade situeert zich op verschillende niveaus:

  • Individuele schade: een persoon wordt benadeeld door inherente bias in AI-systemen.
  • Collectieve schade: groepen van personen kunnen door vooroordelen structureel uitgesloten worden van bepaalde kansen. 
  • Maatschappelijke schade: we hebben er allemaal belang bij om te leven in een maatschappij die mensen niet discrimineert en die haar burgers gelijk behandelt.

Daarnaast zijn er ook uitdagingen wat betreft transparantie. De schade gaat vaak onopgemerkt door de ondoorzichtigheid van de manier waarop AI-systemen zijn ontworpen en werken. Als gevolg van deze ondoorzichtigheid en het gebrek aan transparantie is het niet alleen moeilijk om zich bewust te zijn van de schade, maar kan het nog moeilijker zijn om de schade aan te tonen en een oorzakelijk verband vast te stellen.

Uit de dossierbehandeling bij Unia blijkt bovendien dat zelfs als een individu zich bewust is van de schade, de individuele schade als onbeduidend kan worden ervaren, of in ieder geval als te klein in verhouding tot de kosten die gemoeid kunnen zijn met het aanvechten ervan. Dit gaat over financiële kosten, maar ook over psychosociale belasting, tijdsinvestering, enzovoorts. Daarom is het individu minder geneigd om de problematische praktijk aan te vechten.

Wettelijk kader voor AI

De Belgische antidiscriminatiewetgeving biedt een wetgevend kader om tegen discriminatie op te treden. Helaas is die niet altijd makkelijk toe te passen omwille van de gesloten lijst van beschermde kenmerken (zoals raciale kenmerken, seksuele oriëntatie enz.), terwijl er bij AI sprake is van willekeurige correlaties.

Er zijn ook verschillende Europese wetgevende initiatieven:

  • De AI Act (Verordening inzake artificiële intelligentie) is de verordening van de Europese Unie die Belgische en Europese burgers moet beschermen tegen schadelijke impact van AI. De AI Act werd op 21 mei 2024 aangenomen door de Raad van de Europese Unie. De verordening koppelt specifieke regels aan categorieën van AI-toepassingen: 
    • AI-praktijken met onaanvaardbare risico’s worden verboden. Bv. social scoring (een AI-systeem bepaalt op basis van jouw (sociaal) gedrag een score die een invloed heeft op jouw toegang tot diensten of de prijzen die je hiertoe betaalt), subliminale, manipulatieve of misleidende technieken of AI-systemen met emotieherkenning zijn verboden op school of op het werk.
    • Systemen die hoge risico’s vertonen, zijn onderworpen aan strikte regels, zoals rapportageverplichtingen, registrering in een EU-databank, menselijk toezicht, in sommige gevallen een impactanalyse op fundamentele rechten. Dit gaat onder meer over bepaalde systemen gebruikt in onderwijs, de werkplek, essentiële private en publieke diensten, biometrie, ... 
    • De meeste toepassingen zullen een beperkt of minimaal risico inhouden. In dat geval gelden vooral transparantieverplichtingen die de gebruiker moeten informeren.

De verordening is rechtstreeks van toepassing in elke lidstaat en zal gradueel in werking treden.

Het AI-Verdrag (Kaderverdrag inzake Artificiële Intelligentie, Mensenrechten, Democratie en de Rechtsstaat) van de Raad van Europa legt de nadruk op het belang van het beschermen van mensenrechten bij de ontwikkeling en implementatie van AI-systemen. Het biedt een kader voor het waarborgen van gelijke behandeling, non-discriminatie en respect voor de menselijke waardigheid in alle AI-toepassingen. Het werd aangenomen op 17 mei 2024 door de Raad van Ministers. 

AI en intersectionaliteit

AI-systemen zullen vaak een beslissing nemen op basis van een combinatie van verschillende beschermde kenmerken. Denk bijvoorbeeld aan een vrouwelijke rolstoelgebruiker die tot een etnische minderheid behoort, of een oudere homoseksuele man. 

Bij AI-systemen zal niet duidelijk zijn welke kenmerken het belangrijkst waren bij een beslissing en kan dus sprake zijn van intersectionele discriminatie. Verschillende discriminatiecriteria werken dan gelijktijdig op elkaar in en worden onscheidbaar door de wisselwerking met een bepaalde context die iemand kwetsbaarder maakt dan anderen in eenzelfde context. Zo kan een vrouw die afkomstig is uit een bepaalde etnische minderheid te maken krijgen met een andere soort discriminatie, dan een man die uit dezelfde etnische minderheid komt, of met een andere soort seksisme dan een witte vrouw.

Wat doet Unia op het vlak van AI en discriminatie?

In het kader van haar mandaat als gelijkheidsorgaan en mensenrechteninstelling volgt Unia nauwlettend de ontwikkelingen rond de totstandkoming van Europese regelgeving over artificiële intelligentie (AI) op. Discriminerende effecten van AI bestrijden en AI uitbouwen tot een instrument voor meer gelijkheid staan centraal in het strategisch plan van Unia voor de komende jaren. Daarom zijn we zeer actief op het vlak van beleidswerk en sensibilisering:

Openen Sluiten In België

Openen Sluiten Binnen ENNHRI (Europees netwerk van nationale mensenrechteninstellingen)

Openen Sluiten Binnen Equinet (Europees netwerk van gelijkheidsorganen)

Openen Sluiten Binnen de Raad van Europa (belangrijkste Europese mensenrechtenorganisatie)

Wat zijn de aanbevelingen van Unia voor AI?

De belangrijkste aanbevelingen om discriminatie via AI te voorkomen zijn:

  • Voer transparantievereisten in op macro- en microniveau:
    • Zorg voor van een nationaal register met verplichte rapportagevereisten voor actoren (privé en publiek). 
    • Voer wettelijke transparantievereisten in voor alle algoritmische systemen: alle fasen van het softwareontwerp moeten traceerbaar zijn, van gegevensverzameling tot productie.
  • Verschuif de bewijslast voor systemen die niet transparant zijn.
  • Garandeer passend toezicht door onafhankelijke overheidsinstanties in samenwerking met bestaande instellingen die instaan voor de bescherming van mensenrechten. 
  • Garandeer AI-geletterdheid: leid AI-ontwikkelaars, -gebruikers en betrokkenen op.
  • Garandeer een publiek debat en deelname van meerdere belanghebbenden.

 

Wat als je te maken krijgt met de discriminerende effecten van AI?

Als je het gevoel hebt dat je gediscrimineerd wordt door AI-toepassingen of als je getuige bent van mogelijke discriminatoire effecten raden we je aan om dat te melden bij Unia. Onze medewerkers doen er dan alles aan om je te helpen.