Het was al bekend dat Europa als eerste werelddeel met regelgeving wilde komen om AI te beteugelen. En afgelopen voorjaar werd duidelijk dat het de EU menens is. Op 21 april 2021 bracht de Europese Commissie een voorstel naar buiten waarin in grote lijnen te lezen is wat voor soort regelgeving eraan zit te komen, aldus dit artikel op de website van de NL AIC.
Vier risiconiveaus
“Bij de voorgenomen AI wet- en regelgeving gaat de EU uit van vier risiconiveaus. Levert een AI-systeem minimale risico’s op, dan is er niet zoveel aan de hand. Voor situaties waarin de risico’s beperkt zijn, gelden er weliswaar iets meer voorwaarden, maar ook dan is er nog weinig aan de hand”, aldus Bart Schermer namens de Nederlandse AI Coalitie.
Verboden AI-toepassingen
“Helemaal aan de andere kant van het spectrum vind je AI-toepassingen die verboden zijn”, vervolgt hij. “Zoals systemen die de zwaktes van een persoon uitbuiten en die leiden tot keuzes of handelingen die schade bij een persoon veroorzaken. Of systemen die persoonlijke schade veroorzaken doordat ze mensen op een subliminaal niveau beïnvloeden, en die hen dus tot bepaald gedrag kunnen aansporen zonder dat ze zich daarvan bewust zijn.”
“AI-systemen die de betrouwbaarheid van een persoon inschatten, die daar punten aan toekennen, en die vervolgens worden ingezet voor social scoring? Ook verboden. Datzelfde geldt voor de meeste vormen van real-time biometrische systemen die worden ingezet voor opsporing en handhaving van de openbare orde.”
Focus op high risk
“En dan is er nog een tussenliggend risiconiveau. De high risk AI-systemen, die een zorgvuldige toepassing vereisen. Daar ligt in de voorgenomen regelgeving de meeste focus op”, benadrukt hij. “Dus val je in die categorie, dan komen er allemaal eisen op je af. Dat kan een grote impact hebben, zowel op het ontwikkelingsproces als op je organisatie. Maar wat is een high risk AI-systeem? Wanneer val je daaronder? Wat moet je dan doen? En hoe? Dat zijn momenteel de vragen die AI-ontwikkelaars ons vaak stellen.”
Wat is AI?
“Wat niet helpt, is dat de Europese Commissie nogal vaag is over wat er precies onder AI valt. Dat hebben ze namelijk super-breed gedefinieerd. Daardoor lijkt alles eronder te vallen wat geautomatiseerd een beslissing neemt. Dus elke vorm van algoritme: van deep learning tot een simpele beslisboom. Dat bekent dan ook dat iedereen zorgvuldig moet omgaan met de bouw en uitrol van algoritmes, en al helemaal als het om een toepassing gaat die binnen de high risk categorie valt. Die categorie wordt overigens al wel duidelijk omschreven. Het gaat dan bijvoorbeeld om AI-toepassingen voor vliegtuigonderdelen en medische apparatuur, maar bijvoorbeeld ook om AI-systemen die worden ingezet bij law enforcement of bij het toekennen van subsidies. De EU heeft al een uitgebreide lijst gepubliceerd, met daarbij de kanttekening dat een deel daarvan nog gewijzigd kan worden.”
Alvast voorsorteren
“Het is natuurlijk nog maar een voorstel. Er gaat nog een hoop worden gelobbyd. Vervolgens moeten ook het Europees Parlement en de Europese Raad zich er nog over uitspreken. Dus het kan nog wel een jaar of twee duren voor dat regelgeving van kracht wordt”, verwacht Bart. “En net als bij de AVG zal er ook hier ongetwijfeld een overgangsperiode van twee jaar komen, voordat er echt handhaving volgt. We zitten dan al in 2025. Maar ik verwacht niet dat er nog hele grote wijzigingen zullen komen. Mijn advies aan AI-ontwikkelaars is dan ook om alvast voor te sorteren op wat er onvermijdelijk komen gaat.”
Jos van der Wijst van de NL AIC-werkgroep Mensgerichte AI: “Stel: je ontwikkelt een systeem dat uit meerdere AI-componenten bestaat, waarvan er maar één binnen de high risk-categorie valt. Moet dan meteen het hele systeem aan de hogere eisen voor een high risk-toepassing voldoen? Ook dat is een veelvoorkomende vraag, waarop we op dit moment helaas het antwoord nog niet weten.”
Streep in het zand
“Er is dus nog veel onduidelijk. Ondertussen staan we als werkgroep wel volledig achter het besluit van Europa om met speciale regelgeving een streep in het zand te zetten. Goed ook dat er daarbij heel expliciet voor ethische uitgangspunten is gekozen, waarbij de menselijke waardigheid centraal staat. Dat gaat ongetwijfeld helpen om tot betrouwbare en mensgerichte AI te komen."