Home

Zelfs de echte foto van Maduro leek nep door AI-vertroebeling

In Schermtijd schrijft techverslaggever Rutger Otto wekelijks over het internet en alles wat daarbij komt kijken. Deze week zag hij verwarring ontstaan bij het beoordelen van foto's na de ontvoering van de Venezolaanse president Nicolás Maduro door een Amerikaanse elite-eenheid.

Kort nadat de Amerikaanse president Donald Trump een week geleden een aanval op Venezuela had aangekondigd, verschenen de eerste nepfoto's op sociale media. Het waren plaatjes die met generatieve AI waren gemaakt en waarop de ontvoering van Maduro werd verbeeld.

Een van die plaatjes werd direct massaal gedeeld. Je ziet 'm boven dit artikel staan. Maduro wordt zogenaamd uit een vliegtuig begeleid door twee DEA-agenten. Het beeld is een beetje korrelig; de foto lijkt in het donker met een flits te zijn gemaakt. Ik zou in eerste instantie ook denken dat het beeld klopt.

De afbeelding werd veel verspreid. Niet alleen door anonieme gebruikers, maar ook door politici en influencers.

Trump deelde uiteindelijk een foto als bewijs van de ontvoering, die je hieronder ziet. Het is evengoed een vreemde afbeelding. Op de verticaal afgesneden foto staat Maduro in handboeien. Hij staat in een grijs joggingpak en draagt een grote zwarte bril als blinddoek.

Tegen de tijd dat Trump met zijn bewijs kwam, stonden er al zoveel nepbeelden online, dat het lastig bepalen was wat wél echt was. Ik las bij The New York Times een mooi artikel van de chef van de beeldredactie, die toegeeft er flink mee te hebben geworsteld. De foto kwam dan wel van de president, maar "meneer Trump heeft een verleden met het plaatsen van AI-gegenereerde plaatjes op sociale media".

Het probleem is: als je veel nepbeelden deelt, verliezen echte beelden vervolgens hun betrouwbaarheid. De waarheid vertroebelt.

Nu AI-beelden zó realistisch zijn, weten mensen straks niet meer wat wel en wat niet waar is. Ik ben niet de enige die daar de problemen van inziet. Universitair docent Michael Hameleers onderzoekt aan de Universiteit van Amsterdam de effecten van desinformatie. "Hierdoor komen we in een situatie terecht waarin alles in twijfel wordt getrokken", vertelt hij me. "Er ontstaat verwarring."

Die verwarring kun je vervolgens gebruiken. AI-ethicus Joris Krijger vertelt dat het delen van AI-plaatjes niet alleen de waarheid kan vertroebelen. Het kan ook de waarheid vervormen. "Stel dat er een aanslag is geweest en dat er niet direct beeld is", schetst hij. "Dan zou je snel beelden kunnen maken om een antimigratieagenda mee te voeden. Je kunt mensen meenemen in een emotie en denkrichting. Dat kan gevaarlijk uitpakken."

We zijn als mensen hongerig naar beeld. Als er iets gebeurt, willen we het meteen zien. "Als je beelden ziet die passen bij wat je wil geloven, ben je minder kritisch", zegt Hameleers. "Dan ga je niet uitzoeken of het allemaal klopt."

Het is misschien lastig om kritisch te blijven nadenken als je als gebruiker op de bank ligt te doomscrollen. Er komt zo'n enorme stroom aan beelden voorbij dat je logischerwijs niet alles kunt factchecken.

Toch zou het goed zijn om, zeker bij dit soort chaotische gebeurtenissen, opmerkzaam te zijn: beoordelen waar een beeld vandaan komt, wie het deelt, met welk mogelijk doel, en of er meer betrouwbare bronnen zijn.

Da's makkelijker gezegd dan gedaan, want je kunt erin doorslaan. Kritisch zijn is gezond, zolang het niet omslaat in cynisme en een wantrouwen tegenover alles.

Zie jij nog altijd het verschil tussen echte en neppe beelden? En hoe ga je met dit soort beelden om? Laat het me weten. Dat kan in de reacties hieronder of via rutger@nu.nl. Misschien verschijnt jouw bericht aankomende week in Schermtijd. Ik lees alles, maar het is te veel om iedereen te antwoorden.

Tot volgende week!

Source: Nu.nl algemeen

Previous

Next