Deepfakeporno Honderd organisaties wereldwijd roepen op tot een verbod op apps die een persoon op een foto door middel van AI kunnen ‘uitkleden’. Deze nudifying tools worden misbruikt om beelden te manipuleren van met name vrouwen en kinderen.
Op 'Safer Internet Day' doen meer dan honderd organisaties een oproep tot een verbod op AI-technieken waarmee naaktbeelden worden gemaakt op basis van foto's van geklede mensen.
Met een paar muisklikken deepfakeporno maken: het kan met zogenaamde nudifying tools. Zulke apps en sites gebruiken AI om naaktfoto’s te genereren op basis van foto’s van aangeklede mensen. Meer dan honderd internationale organisaties roepen dinsdag op tot een wereldwijd verbod op deze technologie. Die wordt in toenemende mate gebruikt om (strafbaar) beeldmateriaal te genereren van vrouwen en minderjarigen zonder hun toestemming.
Dat heeft vergaande gevolgen voor slachtoffers, ziet Lotte Kreuwel van Slachtofferhulp Nederland. „Je weet zelf wel dat de beelden nep zijn, maar doordat ze er zo realistisch uitzien, weten anderen dat niet”, vertelt ze aan de telefoon. „Dat kan grote angst en schaamte met zich meebrengen. Het gaat ook vaak om jonge slachtoffers, die er niet over durven te praten.”
Dat iedereen de AI-tools zo makkelijk kan gebruiken, maakt bovendien dat lang niet altijd duidelijk is wie de beelden manipuleerde, zegt Kreuwel. „En je weet ook niet waar de beelden allemaal weer kunnen opduiken.”
Beelden die met de nudifying tools worden gegeneerd, worden onder meer ingezet voor sextortion (chantage met naaktbeelden), cyberpesten en kindermisbruik. De ondertekenaars van de oproep van dinsdag, onder wie Interpol en de Nederlandse Nationaal Rapporteur Mensenhandel en Seksueel Geweld Tegen Kinderen, pleiten dan ook voor een direct wereldwijd verbod: „Deze functie dient geen enkel nuttig doel en moet expliciet en universeel illegaal worden gemaakt.”
De oproep wordt niet toevalligerwijs gepubliceerd op de wereldwijde Safer Internet Day, waarop jaarlijks aandacht wordt gevraagd voor een veilige online omgeving voor minderjarigen. Eerder deze week bracht Unicef nog een statement naar buiten over AI-gegenereerde seksuele afbeeldingen van kinderen.
Dat is volgens de VN-organisatie een „snelgroeiende dreiging”. In een nieuw onderzoek, uitgevoerd in samenwerking met Interpol in elf landen, zeiden 1,2 miljoen kinderen dat afgelopen jaar foto’s van hen werden gemanipuleerd tot seksuele deepfakes. Evenals Slachtofferhulp ziet Unicef de onechtheid van de beelden niet als verzachtende omstandigheid. „Deepfakemisbruik is misbruik – en aan de schade die het aanricht, is niets nep”, aldus Unicef.
Expertisebureau online misbruik Offlimits ondertekende ook het manifest. Directeur-bestuurder Robbert Hoving noemt het internationale van de oproep ”krachtig”. „Landen verschillen enorm als het gaat om regelgeving. In Nederland is het vervaardigen van AI-porno verboden, maar als het in bijvoorbeeld de VS nog is toegestaan, kunnen hier alsnog slachtoffers vallen.”
Ook moet Nederland volgens Hoving nog stappen zetten op het gebied van handhaving en toezicht. Op dit moment kunnen nudifying tools nog steeds worden gevonden via zoekmachines.
In Brussel was afgelopen maand eveneens veel aandacht voor het onderwerp, mede naar aanleiding van berichtgeving over de X-chatbot Grok, die internet overspoelde met AI-porno van vrouwen en kinderen. Een groep van 57 Europarlementariërs – van het gehele politieke spectrum – pleitte in een nota aan de Europese Commissie voor een verbod op de ‘uitkleed-apps’. Dit zou geregeld moeten worden in de Europese AI-wetgeving.
Dat zou Offlimits-directeur Hoving graag zien. „We hebben in de Europese AI-wet een artikel met verboden toepassingen, maar daar staat dit niet in.” Dat vindt Hoving op z’n zachtst gezegd „raar”. „Waarom moet dit mogelijk zijn? Wij zeggen: pak de bedrijven en de personen die hier achter zitten aan.”
Slachtoffers van online misbruik kunnen zich melden bij Offlimits voor advies en (praktische) hulp.
Doorzie de wereld van technologie elke week met NRC-redacteuren
Source: NRC