Home

‘Door schade en schande wijs geworden’ – transparantie over algoritmen groeit, maar nog te veel achteraf

Computers Het Nederlandse Algoritmeregister telt inmiddels meer dan 1.300 bijdragen van overheidsorganisaties. Tegelijk waarschuwen experts dat inzicht niet gelijkstaat aan begrip en dat overheden kampen met „AI-mateloosheid”.

Volgens experts wordt het Algoritmeregister te vrijblijvend gebruikt.

„Nederland loopt echt voorop, een register op deze schaal heeft geen enkel ander Europees land”, zegt Jurriaan Parie, directeur van Algorithm Audit, een kennisplatform voor verantwoorde inzet van algoritmen en AI. Hij heeft het over het Algoritmeregister, waar overheidsorganisaties informatie publiceren over de mogelijke impact van hun algoritmen.

Andere EU-lidstaten hebben veel interesse voor hoe Nederland toezicht houdt op het gebruik van persoonlijke gegevens – met de Autoriteit Persoonsgegevens, Het College voor de Rechten van de Mens, de Autoriteit Consument en Markt én dus het Algoritmeregister ziet Parie.

„Nederland is door schade en schande wijs geworden”, licht Parie toe. Sterker: „We zien een doorlopende schandalentombola.” Door de Toeslagenaffaire, waarbij algoritmen een discriminerende fraudeselectie automatiseerden, drongen de risico’s van deze digitale systemen door in politiek en bestuur. En vorige week werd bekend dat de reclassering jarenlang een algoritme verkeerd hanteerde dat het risico op recidive (vaak te laag) inschat. Ook dit algoritme is terug te vinden in het register.

„Wanneer de overheid open is over algoritmen en hun toepassing, kunnen burgers, organisaties en media controleren of de wet en de regels worden gevolgd”, zo staat in de handreiking van het register.

Ethische consequenties

Het register telt 1.354 algoritmen van 306 overheidsorganisaties. „Het is goed dat transparantie wordt nagestreefd”, vindt Marc Schuilenburg, hoogleraar Digital Surveillance aan de Erasmus Universiteit Rotterdam. „Maar dit is verantwoording achteraf. Al bij het ontwerp moet worden nagedacht over de ethische, juridische en maatschappelijke consequenties. Nu gebeurt dat nauwelijks.”

In het register wordt onder andere bijgehouden welk doel een algoritme heeft en waarom het nodig is om dit proces te automatiseren. In het register staan bijvoorbeeld algoritmen om teksten mee te anonimiseren, tools voor ‘slimme’ verkeerslichten en gezichtsherkenning aan de balie van de gemeente.

Ook de wettelijke basis voor het gebruik en resultaten van de ‘impacttoetsen’ kunnen worden gemeld. De algoritmen worden ingedeeld als impactvol als er bijvoorbeeld juridische gevolgen aan de uitkomst kunnen zitten. Zelflerende algoritmen vallen onder AI.

Parlementariërs

„Er heerst een AI-mateloosheid bij overheden”, constateert Schuilenburg, „elk probleem denken ze te moeten oplossen met AI”. Daarbij digitaliseren uitvoerende overheidsorganen sneller dan de controlerende krachten kunnen bijhouden, merkt Parie op: „En dan gaan dingen mis”.

Na de Toeslagenaffaire, het discriminerende algoritme waarmee DUO uitwonendenbeurzen controleerde en voornoemde fout van de reclassering, moet de overheid het vertrouwen in algoritmen zien te herstellen. „Daar ligt een kans voor het register”, ziet Parie. Het is een kerntaak van de overheid om verantwoording af te leggen over keuzes, ook als die werden gemaakt op basis van een algoritme.

Toch wordt het algoritmeregister nog te beperkt gebruikt, „omdat het invullen wordt gezien als huiswerk en gedoe”, volgens Parie. Daar mogen onze parlementariërs best strenger op toezien, vindt hij: het register was immers een wens van het parlement.

Is het huidige aantal van 1.300 registraties veel of weinig? De vooralsnog vrijwillige aard van het register maakt dat lastig te beoordelen, benadrukt Schuilenburg. Daarnaast is het zaak te beseffen dat „kennis van algoritmegebruik niet hetzelfde is als die algoritmen echt begrijpen”.

Schrijf je in voor de nieuwsbrief NRC Broncode

Doorzie de wereld van technologie elke week met NRC-redacteuren 

Kunstmatige intelligentie

Lees meer

Lees meer

Lees meer

Source: NRC

Previous

Next