De Britse overheid ontwikkelt met behulp van kunstmatige intelligentie een programma voor het voorspellen van moorden, meldt het Britse dagblad The Guardian. Deze zogenoemde predictive policing is uiterst omstreden.
is techredacteur van de Volkskrant, gespecialiseerd in de impact van kunstmatige intelligentie op de maatschappij.
Is het mogelijk op basis van historische data te voorspellen wie er een grotere kans maakt om een ernstige misdaad te begaan? Ja, denkt de Britse overheid.
De belofte van predictive policing is bepaald niet nieuw, toch is het opmerkelijk dat het Verenigd Koninkrijk dit AI-project start. Want al vele jaren klinkt luide kritiek op de inzet van voorspellende algoritmes voor dit soort doeleinden.
Het Britse programma voor het voorspellen van moorden maakt gebruik van persoonlijke gegevens van mensen die al bekend zijn bij de autoriteiten. Aan de hand van die data wil de Britse politie personen identificeren die het meest in aanmerking komen voor het predicaat ‘potentiële moordenaar’. Hiermee hoopt het Britse ministerie van Justitie de openbare veiligheid te vergroten.
Datzelfde argument is vaker gebruikt bij de inzet van voorspellende algoritmen. Actiegroep Statewatch – die na een beroep op de Britse variant van de WOO (Wet open overheid) het bestaan van het AI-project onthulde – noemt het initiatief ‘huiveringwekkend en dystopisch’.
Statewatch wijst daarbij op het opnemen van data over de geestelijke gezondheid van personen, inclusief informatie over hun eventuele verslavingsgevoeligheid en mate van risico op zelfmutilatie of zelfmoord. Maar de kritiek op het project gaat verder dan alleen dat.
‘Uit onderzoek blijkt keer op keer dat algoritmische systemen voor het voorspellen van criminaliteit fundamenteel gebrekkig zijn’, zegt onderzoeker Sofia Lyall van Statewatch. Ze waarschuwt dat dit AI-project van de Britse overheid ‘de structurele discriminatie die ten grondslag ligt aan het strafrechtssysteem’ zal versterken.
Het Britse ministerie van Justitie zegt dat het alleen gegevens verzamelt van veroordeelde overtreders. Het AI-project is volgens een woordvoerder gericht op het verkrijgen van een beter beeld van het risico dat veroordeelden in hun proeftijd opnieuw in de fout gaan en een ernstig geweldsmisdrijf plegen. Het project bevindt zich volgens de woordvoerder nog in de onderzoeksfase.
Statewatch staat niet alleen in haar zorgen over dit AI-project. Critici wijzen er al veel langer op dat de gebruikte algoritmen en data niet altijd objectief zijn en vooroordelen kunnen versterken. In Nederland waarschuwde de Algemene Rekenkamer in 2022 voor de gevaren van het gebruik van voorspellende algoritmes bij de politie.
Specifiek kraakte de Rekenkamer het Criminaliteit Anticipatie Systeem (CAS) waarmee de politie sinds 2014 voorspelt in welke gebieden een hoog risico op incidenten is. In het systeem zou onwenselijke vooringenomenheid over groepen of specifieke personen kunnen zijn geslopen, waarschuwde de Rekenkamer destijds. De politie gebruikt CAS overigens nog steeds.
De Europese AI Wet schaart predictive policing onder het kopje ‘onaanvaardbaar risico’ vanwege mogelijke discriminatie en schendingen van grondrechten. Het gebruik ervan wordt dan ook verboden.
Alles over tech vindt u hier.
Geselecteerd door de redactie
Lees hier alle artikelen over dit thema
Source: Volkskrant