Home

Zelfs met watermerken zijn AI-beelden soms niet van echt te onderscheiden

AI-afbeeldingen zijn online steeds moeilijker van echte beelden te onderscheiden. Ook met detectietools is dat vaak lastig te bepalen, omdat zelfs met watermerken kan worden gemorreld.

Na de ontvoering van de Venezolaanse president Nicolás Maduro werden op sociale media afbeeldingen gedeeld waarop de aanhouding zogenaamd te zien was. Veel van die afbeeldingen waren nep. Toch werden ze veel verspreid. Controleren op echtheid was erg lastig, verzuchtte de chef van de beeldredactie van The New York Times.

AI-beelden rond nieuwsgebeurtenissen leiden tot vertroebeling van de waarheid. Die verwarring geldt ook voor het drama dat zich de afgelopen weken rondom Elon Musks chatbot Grok ontvouwde. Met de tool kun je mensen op foto's digitaal laten uitkleden. Nietsvermoedende slachtoffers kunnen er trauma's aan overhouden.

Beeldbewerking is van alle tijden. Honderd jaar geleden experimenteerden fotografen er al mee. Met de komst van programma's als Photoshop is het iets makkelijker geworden, al vereist een overtuigende bewerking daarbij alsnog kennis en menselijke inspanning.

Met de opkomst van AI-beeldgeneratoren zoals in Grok, ChatGPT en Google Gemini kost het steeds minder moeite een overtuigend beeld te laten maken of te bewerken. De programma's verlagen de drempel en vergroten de schaal om nepbeelden te maken.

Zo gebeurde het dat Grok duizenden plaatjes per uur kon genereren waarop mensen werden uitgekleed. Omdat Grok ook openbaar op X is op te roepen konden plaatjes nóg sneller worden gedeeld.

Soms is duidelijk dat beelden nep zijn, maar lang niet altijd. "100 procent uitsluitsel kun je bijna nooit geven", zegt digitaal onderzoeker Zeno Geradts van het Nederlands Forensisch Instituut (NFI).

Hij vertelt dat bedrijven zoals Google en OpenAI wel informatie aan hun plaatjes toevoegen om aan te geven dat ze met AI zijn gemaakt. "Maar die kenmerken kun je er ook weer uithalen", zegt hij. "Als je een screenshot of foto maakt, verandert de data."

AI-tools laten vaak een watermerk achter in het beeld. Plaatjes van Googles Gemini zijn voorzien van een stervormig icoon dat voor iedereen te zien is. Maar er worden ook onzichtbare kenmerken toegevoegd die voor het menselijk oog niet te zien zijn. Het kan in de metadata staan. Dat is de onderliggende informatie van plaatjes. Als je met een camera een foto maakt, kun je in die data bijvoorbeeld de camera-instellingen aflezen.

Maar ook in het beeld zelf kunnen verborgen kenmerken staan. "Het is dan een soort ruis die op het plaatje wordt toegevoegd", zegt Geradts. "Het watermerk is dan verborgen in de pixels. Zo zijn er nog meer maatregelen die worden getroffen, maar Google en OpenAI geven die lang niet allemaal prijs."

Tot nu toe zijn pogingen om plaatjes te watermerken vrijwel altijd te omzeilen. Detectietools zijn er daardoor ook niet altijd zeker van of beelden met AI zijn gemaakt of niet. Alleen bij bekende afbeeldingen kunnen ze redelijke conclusies trekken, zegt Geradts. Maar zelfs dan zijn ze nooit helemaal zeker. "Maar voor een eerste check zijn watermerken zeker waardevol. Die zijn een sterke aanwijzing dat het beeld is gegenereerd."

Voor de internetgebruiker is het soms al even lastig om nepbeelden te herkennen. "Het is belangrijk dat je weet dat veel dingen nep kunnen zijn", zegt Geradts. "Daar moet je een beetje mee oppassen. Als je zelf een nepplaatje maakt en deelt, kun je het erbij zetten."

De NFI-onderzoeker zegt te begrijpen dat mensen thuis niet bij elk plaatje op internet forensisch onderzoek kunnen doen. "De makers van de programma's hebben zelf ook wel een beetje verantwoordelijkheid", vindt hij. "Maar het hoort nu eenmaal bij de tijd. Het is leuk om mee te spelen en nieuwe dingen te testen. Ik denk dat we de ontwikkeling niet helemaal kunnen tegenhouden, dus moeten we ermee zien te leven."

Source: Nu.nl algemeen

Previous

Next