Impactanalyse
Groen heeft duidelijk oog voor de mensenrechtenrisico’s die verbonden zijn aan kunstmatige intelligentie. Ze noemen daarbij ook het risico op discriminatie en doen verschillende voorstellen om hieraan tegemoet te komen. Ze pleiten voor een verbod op discriminerende technologieën en een human rights assessment, een ethische raad en een onafhankelijk toezichtsmechanisme.
Daarnaast pleit Groen ook voor een betere verzameling van klachten en rechterlijke uitspraken rond discriminatie. Deze maatregel heeft als risico dat er geen rekening wordt gehouden met onderrapportage. Daarom is het ook belangrijk om werk te maken van een betere datacollectie rond afkomst en etniciteit, zodat op macroniveau beter ongelijkheden tussen verschillende gemeenschappen en minderheden gemonitord kunnen worden.
Relevante passages uit het partijprogramma van Groen
“We bekijken AI met een mensenrechtenbril. Een ongebreidelde toepassing van AI kan ertoe leiden dat de sociale kloof uitvergroot wordt, dat mensenrechten beknot worden – in dictatoriale regimes maar ook bij ons – en dat geautomatiseerde beslissingsprocessen in de plaats komen van menselijke beoordeling, ook in gevoelige domeinen als gezondheidszorg, politie en justitie.
Mensenrechten als het recht op non-discriminatie, het recht op privacy, het recht op vrije meningsuiting en de vrijheid van vergadering, kunnen onder druk komen te staan. Die gevaren worden niet steeds doelbewust gecreëerd. Waar bijvoorbeeld de Chinese overheid bewust massasurveillance door AI mogelijk maakt, creëren andere systemen onbewust bias en discriminatie. Omdat AI-systemen leren van bestaande data, kunnen zij ongelijkheden en vooroordelen versterken en verderzetten. Het is daarom belangrijk dat we toepassingen van AI die té risicovol zijn, verbieden. Denk daarbij aan toepassingen als gezichtsherkenning in de openbare ruimte, technologie voor predictive policing, sociale scores of technologie die emoties kan detecteren.
Zowel op Europees niveau als internationaal wordt gepleit voor een verbod op dergelijke technologieën. België moet op dat vlak een voortrekkersrol nemen, en waar nodig verder gaan dan wat Europa oplegt. In functie van het risico, leggen we gebruikers en ontwikkelaars van AI meer of minder verplichtingen op. In ieder geval is een doorlichting van de risico’s voor mensenrechten, een zogenaamde human rights impact assessment, voor elke nieuwe ontwikkeling en elk nieuw gebruik van AI dat risico’s kan inhouden, noodzakelijk. Niet alleen het gebruik van AI kan immers risico’s inhouden: als het systeem ontwikkeld wordt op basis van vertekende data, zitten de risico’s in de ontwikkeling ingebakken.
(…) Beleidsmakers moeten goed geïnformeerd worden over de voordelen en gevaren van AI. Daarom richten we ook een Ethische Raad voor AI op. We voorzien ook een onafhankelijk toezichtmechanisme, dat kan optreden wanneer AI-systemen de voorschriften niet respecteren. We geven dat mechanisme vorm in overleg met de bestaande instellingen voor de bescherming van de mensenrechten in ons land. Het is immers niet voldoende om AI alleen vanuit de mechanismen voor gegevensbescherming te benaderen. Transparantie over de werking van algoritmen moet worden verplicht. Dat geldt a fortiori wanneer de overheid gebruikt maakt van AI in processen die een impact hebben op de burger. We geven burgers een overzicht van welke algoritmen gebruikt worden, met welke data ze getraind worden en welke waarborgen voorzien zijn. Daartoe richten we een openbaar register van AI-toepassingen op.
AI mag niet alleen ingezet worden om commerciële belangen te dienen en ter beschikking staan van wie het kan betalen, maar moet gebruikt worden om de uitdagingen waarmee de wereld wordt geconfronteerd aan te gaan. Het is een essentiële rol van de overheid om technologische ontwikkelingen, waaronder AI, te omkaderen met regulering en te promoten, zodat de ontwikkelingen worden gestuurd in een richting waar de burger baat bij heeft. Om verdere ontwikkeling te stimuleren in een veilige omgeving, maken we zogenaamde regulatory sandboxes mogelijk. Daarin kan geëxperimenteerd worden in een veilig kader, zodat de ontwikkeling ook ingezet kan worden voor het algemeen belang. Wanneer besluitvorming geheel of deels afhankelijk is van AI moet er kunnen worden ingegrepen om dat te herstellen. Daarom pleiten we voor de verplichte invoering van een kill switch bij AI-systemen, zodat “beslissingen” van die systemen steeds herroepen kunnen worden door menselijke tussenkomst.
Voor gebruikers van digitale systemen moet het altijd duidelijk zijn wanneer zij met een AItoepassing interageren, vooral met het oog op automatisch genereerde profielen en op politieke reclame. Op het internet moeten betrouwbare bronnen duidelijk te herkennen zijn. De digitalisering en verdere automatisering door artificiële intelligentie zullen een impact hebben op ons werk en de samenleving. Ook intellectuele en creatieve taken zullen immers overgenomen kunnen worden van mensen. Een bredere mensgerichte benadering van nieuwe technologie moet voorop staan. Veranderingen in taken en vereiste vaardigheden maken heropleiding en bijscholing nog meer noodzakelijk. Omdat het moeilijk te voorspellen is hoeveel en welke jobs bedreigd worden door AI, zal het nodig zijn om de invloed van nieuwe technologie op de werkgelegenheid nauwlettend op te volgen;” (uitgebreid programma, p. 41)
83 “… voldoende opleiding voorzien voor werknemers op het gebied van artificiële intelligentie (AI), zodat ze toepassingen goed kunnen gebruiken bij hun werk en zich kunnen omscholen wanneer hun job verandert door AI.”
83 “…. op school mediawijsheid en omgaan met sociale media en digitale technologie – zoals artificiële intelligentie – aan bod laten komen.”
83 “…meer digitale transparantie, zodat je als gebruiker weet hoe algoritmes werken en welke data gebruikt worden om ze te creëren. We vermijden dat een gesprek met AI een menselijke interactie lijkt. Dat doen we met een meldplicht.”
83 “….controle op toepassingen van AI. Elke nieuwe ontwikkeling toetsen we aan de mensenrechten. Risicovolle toepassingen verbieden we.”
“Groen wil een betere verzameling van klachten bij de politie, beslissingen van het openbaar ministerie en uitspraken van rechtbanken met betrekking tot discriminatie en haatdragend gedrag. Deze gegevens worden doorgegeven aan Unia, het VMRI en het IGVM, zodat er een beter beeld komt van de omvang van discriminatie en haat(..)..” ( uitgebreid programma p. 49)