Europese regels voor AI stap dichterbij, dit zijn de plannen

Nieuws

ChatGPT verraste niet alleen grote techbedrijven, maar ook beleidsmakers. In Europa wordt al ruim twee jaar gewerkt aan wetgeving omtrent AI (kunstmatige intelligentie), maar er was geen rekening gehouden met de snelle ontwikkelingen, bijvoorbeeld dat er zoiets zou kunnen zijn als generatieve AI, een systeem dat zelf tekst of beelden creëert.

Omdat die technologie nu al - en de komende jaren helemaal - een grote impact kan hebben op de samenleving, heeft het Europees Parlement nu een begin gemaakt om dat te veranderen. De commissie die de wet behandelde, heeft ingestemd met een aangepaste versie van het voorstel dat wél ook over ChatGPT gaat. Daarbij is het heel bijzonder dat dit gebeurt terwijl generatieve AI zich volop aan het ontwikkelen is. Vijf vragen over deze wet.

Wat is het doel van de wet?

De AI Act (Wet op Kunstmatige Intelligentie) is heel breed ingestoken. Het overkoepelende idee is om AI-systemen onder te verdelen in risicogroepen. Zie het als een piramide: bovenin zitten systemen die zo'n groot risico met zich meedragen dat ze verboden worden. Een groter deel van de wet gaat over AI-systemen die worden bestempeld als 'hoog risico'.

Daarnaast wordt er gewerkt met een keurmerk. Net zoals dat gebeurt met medicijnen en chemicaliën betekent dit dat 'hoog risico'-AI-systemen alleen toegelaten worden op de Europese markt als ze aan bepaalde zaken voldoen. Omdat de ontwikkelingen snel gaan, is er in de wet flexibiliteit ingebouwd zodat er zaken later aangepast of toegevoegd kunnen worden.

Welke dingen worden er straks verboden?

In het voorstel van de Europese Commissie wordt een aantal AI-systemen bij voorbaat al verboden. Het gaat bijvoorbeeld om systemen die het gedrag van mensen beoordelen en het gebruik van realtime biometrische identificatie, denk aan gezichtsherkenning door opsporingsdiensten, zoals bij het zoeken van een verdachte.

Het parlement wil verder gaan en bijvoorbeeld ook emotieherkenning door politie, aan de grens en op het werk en in het onderwijs verbieden. Een andere belangrijke maatregel is het verbieden van criminaliteits- en fraudevoorspellingen op basis van profilering (denk aan wat er gebeurde bij de toeslagenaffaire).

Wat is 'hoog risico'?

Kort samengevat gaat het om toepassingen die impact kunnen hebben op de rechten die je als mens hebt, maar ook op gezondheid. Dat omvat dus ontzettend veel. Het gaat om systemen die de politie kan gebruiken bij het opsporen van verdachten, die cv's van sollicitanten kunnen scannen of helpen bij de beveiliging van een kernreactor of watervoorzieningen.

Al dat soort systemen worden onderwerpen aan strenge eisen. Ze mogen bijvoorbeeld niet discrimineren, ze moeten transparant zijn over wat er gebeurt en toezichthouders moeten kunnen zien wat er onder de motorkap plaatsvindt. Een risicoanalyse wordt verplicht.

Welke plek krijgt ChatGPT?

Er komt in de wetgeving een aparte plek voor wat foundation models worden genoemd. Zie het als het fundament waarop bijvoorbeeld ChatGPT, maar ook beeldgenerator Midjourney is gebaseerd. Hier overeenstemming over bereiken was nog een hele klus, zegt GroenLinks-Europarlementariër Kim van Sparrentak, een van de onderhandelaren. Ze spreekt van "een gevecht" om sterke verplichtingen voor dit soort toepassingen te krijgen.

De uitkomst, een compromis, is dat de regels bijna net zo streng worden als voor toepassingen die onder 'hoog risico' vallen. De reden dat bijvoorbeeld ChatGPT niet standaard hieronder valt, is omdat niet elk systeem dat tekst of een afbeelding genereert automatisch ook extra risico met zich meebrengt, legt Van Sparrentak uit. Wel zegt ze dat het makkelijker was geweest als dit wel was gebeurd; ze noemt de regels nu "iets vrijblijvender".

Opvallend genoeg kan ze nog niet zeggen wat de wet specifiek zal betekenen voor OpenAI's ChatGPT. "Het bedrijf is totaal niet transparant, we weten niet wat ze doen." Ze wijst erop dat er vanaf volgend jaar wel al een transparantieverplichting komt voor de techbedrijven.

Hoe zeker is dit allemaal?

Het simpele antwoord: dat is het nog niet. Dit is de eerste stap in een proces dat de komende maanden verdergaat. Maar wel een belangrijk moment, omdat voor het eerst in de wetgeving wordt ingegaan op de modellen waarop generatieve AI is gebaseerd.

Volgende maand volgt een plenaire stemming in het Europees Parlement. Daarna beginnen de onderhandelingen met de Raad van de Europese Unie, waarin alle lidstaten zijn vertegenwoordigd. De verwachting is dat de wet begin volgend jaar af is. De implementatie duurt dan nog twee jaar.
Bron: Nos.nl