Search
Close this search box.

Aanpak van discriminatie door kunstmatige intelligentie (PVDA)

Impactanalyse

De PVDA pleit voor technologie die gericht is op het verbeteren van het leven van mensen, niet op het verhogen van de winst van bedrijven. De partij is zich bewust van de potentiële risico’s van discriminatie door AI, bijvoorbeeld bij de werving van personeel. Daarom stelt de partij voor om bedrijven die dergelijke technologieën in hun diensten gebruiken, volledig verantwoordelijk te houden voor de keuzes die de software maakt.

Relevante passages uit het partijprogramma van PVDA

AI, discriminatie, rekrutering, vooroordelen, verantwoordelijkheid

“Zo kan AI discriminerend worden als het op gegevens gebaseerd is waarin vooroordelen geslopen zijn. Er zijn al heel wat voorbeelden van sollicitanten die niet weerhouden worden omwille van dergelijke discriminatie. Daarom verplichten we werkgevers om transparant te zijn over welke software er op de werkvloer en bij aanwervingen gebruikt wordt, de gegevensdatabanken waarop ze gebaseerd zijn open te stellen en beroep te doen op externe screening die mogelijke discriminatie eruit kan filteren. Ze dienen verantwoording af te leggen voor alle keuzes die de software maakt.”

“Alle software die in sollicitatie- of werkverband gebruikt wordt, moet gescreend worden op discriminerende afwijkingen. De werkgever moet zich altijd verantwoorden voor beslissingen genomen door systemen met artificiële intelligentie.”

Mensgerichte technologie, niet bedrijfsgericht

 “We gebruiken artificiële intelligentie om het leven van de mensen te verbeteren, in plaats van enkel te ontwikkelen wat zo veel mogelijk winst opbrengt.”

Een AI met vooroordelen zou dus ook discriminaties in de werkelijke wereld veroorzaken.”