Home

Uit Trouw Robot als werknemer? 'Die moet ook op evaluatiegesprek'

Dit artikel is afkomstig uit Trouw. Elke dag verschijnt een selectie van de beste artikelen uit de kranten en tijdschriften op NU.nl. Daar lees je hier meer over.

Als mensenwerk wordt overgenomen door robots, waarom moeten zij dan niet net zoals normale werknemers op evaluatiegesprek? Met dat idee in het achterhoofd ontwikkelde een team onderzoekers van de Universiteit Utrecht een evaluatiegesprek voor bedrijven om hun AI-toepassingen te toetsen.

Dat is hard nodig, zegt projectleider Iris Muis. "Bedrijven zetten volop in op innovatie, maar na een eerste check wordt de software niet altijd meer getest. Dat zou wel moeten gebeuren om bijvoorbeeld discriminatie of racisme tegen te gaan."

Als voorbeeld noemt Muis de zaak die een aantal jaar geleden in Amerika speelde waarbij een man onterecht werd beschuldigd van winkeldiefstal. De dief werd toen door een beveiligingscamera vastgelegd. Een AI-toepassing identificeerde vervolgens de dader via een systeem waarbij gebruik werd gemaakt van gezichtsherkenning. Maar de software werkte niet naar behoren, waardoor een verkeerde dader werd aangewezen. "Ieder mens kon met het blote oog zien dat het een hele andere man betrof, maar de camera zag het verschil niet." Dat kwam omdat het systeem vooral was getraind op witte mensen en daarom het verschil tussen gekleurde mensen minder goed kon waarnemen.

Om dit soort fouten eruit te halen, zouden bedrijven er volgens Muis goed aan doen om hun toepassingen waarbij gebruik wordt gemaakt van artificiële intelligentie periodiek te onderwerpen aan een soort evaluatiegesprek. Tijdens de evaluatie wordt onder meer bekeken welke taken de AI heeft en of die taken in de loop van de tijd zijn veranderd. Presteert het hulpmiddel naar behoren, zijn er fouten gemaakt, is er al een beter systeem op de markt? Maar ook: wie heeft eigenlijk de verantwoordelijkheid binnen het bedrijf over deze toepassingen? "Is dat de data officer, de privacy officer of de maker van de tool zelf? De verantwoordelijkheid voor AI wordt nu vaak weggeschoven, waardoor niemand nog zicht op heeft of het goed werkt."

Met de resultaten van de evaluatiemethode, die bestaat uit een aantal toetsvragen en die binnenkort vrij beschikbaar is, kunnen bedrijven hun systemen verbeteren. Projectleider Muis hoopt dat de methode straks verplicht wordt gesteld door toezichthouders - zoals de Nederlandse Voedsel- en Warenautoriteit (NVWA), die bijvoorbeeld het dierenwelzijn in slachthuizen controleert.

Het zou volgens Muis ook goed zijn als daarbij ook wordt gecontroleerd of de sensortechnologie en AI-toepassingen die bijvoorbeeld in slachthuizen of op boerderijen wordt toegepast, aan de verwachtingen voldoet.

Slachthuizen maken nu al gebruik van slimme camera's om het dierenwelzijn te monitoren. Die camera's meten bijvoorbeeld of een kip mank loopt, of dat een medewerker slaande bewegingen maakt. Als dat zo is, gaat er een signaal naar de baas. Maar die camera kan ook een fout begaan, zegt Muis. "Stel dat er bewegingen niet goed gedetecteerd worden. Dat een medewerker bijvoorbeeld een dier slaat, maar dat de slaande beweging niet herkend wordt. Of andersom, dat iemand een klein klopje op de heup van een koe geeft, maar dat dit gedetecteerd wordt als geweld."

Als deze systemen vaker geëvalueerd worden, kunnen dit soort fouten worden voorkomen. "Nu kijken bedrijven vaak alleen of een systeem bij het bedrijf past. Daarna stopt de controle."

Maak binnen 1 minuut een gratis account aan en krijg toegang tot extra artikelen.

Gelieve een geldig e-mailadres in te geven.

Source: Nu.nl economisch

Previous

Next