De reclassering gaat op een verkeerde manier om met algoritmes die het risico op terugval bij verdachten en veroordeelden moeten inschatten. Dat concludeert de Inspectie Justitie en Veiligheid na onderzoek. De belangrijkste systemen bevatten fouten en zitten zo in elkaar dat ze schade kunnen veroorzaken voor de samenleving, maar ook voor individuele verdachten en veroordeelden. De inspectie ziet grote risico’s en eist dat de reclassering snel ingrijpt.
Centraal staat het algoritme OXREC, dat standaard wordt gebruikt bij adviezen aan het Openbaar Ministerie en rechters en ongeveer 44.000 keer per jaar wordt ingezet. In de software zijn sinds de start in 2018 formules door elkaar gehaald. Berekeningen die bedoeld waren voor gevangenen zijn toegepast op verdachten en andersom. Ook zijn verkeerde getallen ingevoerd. Daardoor schat het systeem in veel gevallen het risico op herhaling van strafbare feiten te laag in, vooral bij drugsgebruikers en mensen met ernstige psychische problemen, zoals een psychose. Volgens de inspectie is bij ongeveer een kwart van de adviezen het recidiverisico verkeerd beoordeeld.
De inspectie heeft niet onderzocht in hoeverre rechters en reclasseringsmedewerkers deze foute adviezen daadwerkelijk hebben gevolgd, en wat dat concreet heeft betekend voor de veiligheid van de maatschappij en voor de betrokken personen. Wel is duidelijk dat de basis van het systeem wankel is. De gegevens waarop OXREC is gebouwd zijn oud en horen eigenlijk bij een andere groep mensen dan waarop de reclassering het nu toepast. Bovendien voldoet het algoritme niet aan de privacywetgeving.
Daar komt bij dat OXREC variabelen gebruikt die kunnen leiden tot discriminatie, zoals de score van iemands buurt en de hoogte van het inkomen. Het College voor de Rechten van de Mens heeft eerder al gezegd dat zulke kenmerken in principe taboe zijn in algoritmes, tenzij heel goed wordt uitgelegd waarom ze nodig zijn en er extra waarborgen zijn. De reclassering heeft die onderbouwing en bescherming niet geregeld, stelt de inspectie.
De inspectie ziet ook een cultuurprobleem. Medewerkers lijken de uitkomsten van het algoritme te snel te volgen, terwijl ze minder vertrouwen op hun eigen professionele oordeel. Hun is verteld dat hun eigen inschatting niet beter zou zijn dan "het opgooien van een muntje". Daarmee wordt de betrouwbaarheid van het systeem sterk overdreven en verschuift de verantwoordelijkheid van mens naar machine, terwijl de basis van dat systeem aantoonbaar fouten bevat.
Volgens de Inspectie JenV heeft de reclassering de sturing en controle op het gebruik en onderhoud van algoritmes niet op orde. Er is geen stevige structuur voor beheer, testen en bijwerken. Daardoor zijn de genoemde fouten jarenlang blijven zitten zonder dat iemand ingreep. Het gaat dan niet alleen om technische fouten, maar ook om juridische en ethische tekortkomingen, zoals verouderde data en gebrekkige privacy-toetsing.
De inspectie adviseert dat de reclassering de problemen met OXREC zo snel mogelijk oplost, of het systeem anders tijdelijk helemaal uitzet. Verder moet er een duidelijke structuur komen voor hoe algoritmes worden ontwikkeld, gebruikt en onderhouden. De reclassering moet de modellen trainen met recente gegevens, nagaan of de uitkomsten op de juiste manier worden ingezet en zorgen dat alles voldoet aan wet- en regelgeving, met name rond privacy. De Inspectie JenV wil elke zes maanden een voortgangsrapport. De reclassering heeft al laten weten dat zij OXREC voorlopig niet meer zal gebruiken.
Ter illustratie (afbeelding: Grok AI / FOK.nl)
Source: Fok frontpage