Overheidsorganisaties gebruiken volgens de Algemene Rekenkamer zeker 120 systemen op basis van kunstmatige intelligentie (AI). In bijna de helft van de gevallen is voor zover bekend geen afweging gemaakt over de risico's van zulke systemen.
Systemen met kunstmatige intelligentie zijn niet met de hand geprogrammeerd, maar hebben met hulp van grote hoeveelheden data geleerd om taken uit te voeren.
Daar kunnen problemen aan kleven zoals privacyschendingen en discriminatie. "Je kunt de risico's alleen beheersen als je ze kent", zegt Rekenkamer-collegelid Ewout Irrgang tegen persbureau ANP.
Het overgrote deel van de overheidsorganisaties gebruikt niet meer dan drie AI-systemen. Uitschieters zijn uitkeringsinstantie UWV, dat er tien in gebruik heeft, en de politie, waar dat er 23 zijn.
Het UWV gebruikt AI onder meer om te voorspellen wie er na afloop van een uitkering geen inkomsten heeft, en om op basis daarvan ondersteuning te bieden. "Als systemen impact hebben op burgers, heb je eerder risico's", zegt Irrgang.
In gevallen waar de risico's wel zijn ingeschat, vinden overheidsorganisaties meestal dat die minimaal zijn. Maar ook dan is er kans op bijvoorbeeld privacyschendingen, merkt de Rekenkamer op. Een kleiner deel van de projecten wordt als "hoog risico" ingeschat.
Hoe het risico precies wordt bepaald, verschilt van geval tot geval. Het kabinet zegt in een reactie de samenhang te willen verbeteren, en dat vindt Rekenkamer-collegelid Irrgang "positief".
Niet alleen het risico, maar ook het nut van AI is vaak onduidelijk. Bij 42 van de 120 systemen is niet bekend of ze de verwachtingen waarmaken. Van de rest presteert het overgrote deel wel zoals verwacht of beter.
Het is de eerste keer dat de Rekenkamer AI-systemen onderzoekt. De controleur vroeg zeventig overheidsorganisaties om hun AI-gebruik in kaart te brengen, zoals het ministerie van Financiën, de douane en de NPO.
Het is mogelijk dat er overheidsmedewerkers zijn die "ad hoc" programma's als ChatGPT gebruiken, maar die zijn niet in het onderzoek meegenomen. Dat geldt ook voor AI-systemen voor bijvoorbeeld militaire doelen of inlichtingen.
In het onderzoek van de Rekenkamer is niet uit te sluiten dat er ook AI-systemen worden gebruikt die binnenkort volgens EU-regels verboden zijn. Het vinden en schrappen van die systemen heeft de "hoogste prioriteit", schrijft staatssecretaris Zsolt Szabó (Digitalisering) in een reactie op het rapport van de Rekenkamer.
Op basis van EU-wetgeving zijn vanaf februari 2025 bepaalde systemen op basis van kunstmatige intelligentie (AI) verboden. Het gaat bijvoorbeeld om systemen die gezichten herkennen om mensen in te delen in bevolkingsgroepen, of systemen die mensen 'sociale scores' geven voor hun gedrag en daar negatieve gevolgen aan verbinden.
"Omdat de AI-verordening pas recentelijk in werking is getreden, worstelen organisaties soms nog met de beoordeling of een AI-systeem aan de definitie van een hoog-risico voldoet of zelfs verboden is", schrijft staatssecretaris Szabó. Als eerste stap belooft hij meer duidelijkheid over de definities in de EU-wet.
Source: Nu.nl Tech