Sommige misverstanden zijn – moedwillig of niet – hardnekkig. De aanname dat technologie neutraal is bijvoorbeeld. Dat is niet zo: ze weerspiegelt niet alleen heersende maatschappelijke denkbeelden, maar kan die ook versterken.
De Britse overheid wil AI inzetten om te voorspellen wie er een moord gaat plegen, zo werd deze week bekend. Klinkt bekend? Klopt. Het hele idee werd al uitgewerkt in de film Minority Report, waar Tom Cruise mensen oppakt voordat ze een misdaad plegen.
Voor alle duidelijkheid: de film is een dystopie. Het idee van de voorspellende algoritmen ten behoeve van het bestrijden van misdaad is overigens allang doorgedrongen in het echte leven. Politiekorpsen in de hele wereld blijven er dol op.
De problemen achter deze aanpak zijn gigantisch, zo is wel duidelijk. Of: zou duidelijk moeten zijn. Academici en schrijvers hameren keer op keer op de risico’s van de inzet van AI om zaken te voorspellen die direct invloed hebben op het leven van mensen. Denk aan beslissingen over uitkeringen, verzekeringen of het afsluiten van leningen. Maar ook: ben je een potentiële moordenaar of niet?
De critici wijzen erop dat de gebruikte algoritmen en data niet altijd objectief zijn en vooroordelen kunnen versterken. De wiskundige Hannah Fry beschreef het probleem van de ‘feedbacklus’ helder in haar boek Algoritmes aan de Macht (2018).
Stel je een armere wijk voor met een hoog misdaadcijfer. Een algoritme voorspelt dan dat daar in de toekomst nog meer misdaad zal zijn, waarop er meer agenten naar de wijk worden gestuurd, die als gevolg daarvan nog meer misdaad zullen ontdekken. Waarop het zelflerende systeem wéér hogere misdaadcijfers voorspelt, waarna… et cetera.
Ook toezichthouders en wetgevers zien het probleem. De kakelverse Europese AI Act maakt gebruik van een risicopiramide bij AI-toepassingen. Hoe groter het risico, hoe strenger de regels.
U raadt het al: criminaliteitsrisicoanalyses voor specifieke personen worden als een onaanvaardbaar risico beschouwd vanwege mogelijke discriminatie en schendingen van grondrechten. En dus wordt dat verboden.
Het gekke is: ook in Nederland zet de politie het voorspellend AI-rechercheren nog altijd volop in. Drie jaar geleden kraakte de Algemene Rekenkamer het Criminaliteits Anticipatie Systeem (CAS) waarmee de politie sinds 2014 voorspelt in welke gebieden een groot risico op incidenten is.
Door gebrekkige controle en inzicht in het systeem sloot de Rekenkamer niet uit dat er in de gebruikte data onwenselijke vooringenomenheid is geslopen.
Was dat voor de politie reden ermee te stoppen? Welnee. Op haar wervingssite Kom bij de Politie maakt de politie zelfs enthousiast reclame voor CAS. ‘Het is uniek in de wereld dat een nationaal politiekorps ‘predictive policing’ op zo grote schaal inzet.’ Het blijft trouwens niet bij CAS: begin dit jaar werd bekend dat de politie een algoritme gebruikt, Preselect Recidive genaamd, dat jongeren als toekomstig crimineel bestempelt.
Uniek.
Geselecteerd door de redactie
Lees hier alle artikelen over dit thema
Source: Volkskrant