Desinformatie Het Amerikaanse ministerie van Justitie heeft eind januari miljoenen documenten vrijgegeven uit het dossier van de overleden zedendelinquent Jeffrey Epstein. Door desinformatie op Internet vertroebelt echter in rap tempo wat authentiek is en wat nep.
Sommige foto's van de vrijgegeven Epstein-files zijn deels zwargelakt om de privacy van (soms minderjarige) slachtoffers te beschermen. Er zijn gebruikers op X die nu proberen om er via AI-bot Grok achter te komen wat onder de zwarte balken staat.
Een bebaarde man met lange grijswitte haren en een zwarte zonnebril steekt ogenschijnlijk een straat over in Tel Aviv, op een beeld dat vorige week online begon te circuleren. Hij wordt begeleid door twee breedgeschouderde bewakers met bekabelde oortjes.
Op de achtergrond zijn verkeersborden te zien met tekst in het Hebreeuws, Arabisch en Engels, zoals gangbaar in Israël. Volgens complotdenkers zou het gaan om een recente foto van de in 2019 overleden Amerikaanse zedendelinquent Jeffrey Epstein – en aantonen dat hij nog in leven zou zijn.
Toch klopt er het een en ander niet. Op het verkeersbord staat ‘Tel Aviv’ in het Engels, maar in het Hebreeuws staat geen stadsnaam, maar een reeks willekeurige letters. En wie goed kijkt ziet nog andere onjuistheden, zo lijken de vingers van de bewakers met elkaar te versmelten. De foto is dan ook niet echt, maar AI-gegenereerd.
Eind januari publiceerde het Amerikaanse ministerie van Justitie een grote hoeveelheid documenten uit het dossier van Epstein. Deze zogeheten ‘Epstein-files’ omvatten meer dan drie miljoen pagina’s, tweeduizend video’s en 180.000 afbeeldingen die de autoriteiten jarenlang verzamelden.
Het doorpluizen van dit enorme archief kost tijd. Nieuwe bevindingen komen mondjesmaat aan het licht. Maar juist de overvloed aan documenten creëert ook verwarring. Online circuleert authentiek archiefmateriaal naast gemanipuleerde of volledig verzonnen beelden of zorgvuldig vervalste e-mails.
Deze verzinsels zijn met het blote oog soms nauwelijks van authentieke beelden of e-mails te onderscheiden, waardoor het verschil tussen echt en nep steeds moeilijker wordt om waar te nemen. Zeker wanneer de foto’s of e-mails naadloos lijken aan te sluiten bij documenten die wel echt zijn.
De Epstein-files werden vrijgegeven in reactie op een wet van het Amerikaanse Congres waarin werd opgeroepen tot transparantie over het Epstein-dossier. „Uiteindelijk is er zoveel zwartgelakt dat je je kunt afvragen hoe transparant dit is, en of het wel terecht is dat er zoveel is zwartgelakt”, zegt Sander van der Waal, directeur onderzoek van onderzoeksinstituut Waag Futurelab.
„En die documenten zijn zonder context vrijgegeven en die context moet je eigenlijk zelf creëren. Maar iedereen kan die documenten downloaden, analyseren en daar eigen bevindingen over delen. Dat is een vloek en een zegen.”
„Mensen proberen met goede bedoelingen de waarheid boven water te krijgen. Maar zij worden doorkruist door anderen die zoveel mogelijk twijfel willen zaaien over de herkomst en de geloofwaardigheid van de documenten. Dat bemoeilijkt dat de onderste steen boven komt.”
Kolina Koltai, een Amerikaanse onderzoeker bij onderzoekscollectief Bellingcat, merkt dit ook. Zij richt zich met name op het onderzoeken van de bedrijven en mensen die met AI expliciete nepfoto’s verspreiden. Koltai ziet dat bijvoorbeeld de mailwisselingen tussen Elon Musk en Jeffrey Epstein online veel rondgaan. Veel van dat materiaal is authentiek, maar er zijn ook een heleboel documenten vervalst. En daar kunnen mensen verschillend op reageren.
„Vaak zien mensen alleen de desinformatie die viraal gaat en niet de ontkrachting daarvan”, zegt Koltai. „Maar voor sommigen maakt het ook niet zoveel uit wat echt is en wat nep, als het maar past bij hun overtuiging. Omdat bijvoorbeeld sommige mails tussen Musk en Epstein wel echt zijn, zien zij nog steeds het verband” dat met de desinformatie wordt gesuggereerd.
En dan heb je mensen met tegenovergestelde overtuigingen. Als zij zien dat een deel van de mailwisseling vervalst is, dan betekent dat voor hen dat alle e-mails over dat onderwerp nep zijn. „Dan is het allemaal verzonnen om Elon in een kwaad daglicht te stellen”, zegt Koltai. „Ik denk niet dat feitelijke informatie genoeg is om mensen van gedachten te doen veranderen. Vaak blijven ze geloven wat past bij hun mening en ik denk dat AI deze tendens alleen maar versterkt.”
Het probleem is niet nieuw, maar de snelheid en het gemak wel. Een paar jaar geleden was het maken van overtuigende vervalsingen nog maatwerk. Het vereiste veel tijd en specifieke vaardigheden, zoals bijvoorbeeld fotoshoppen.
„Nu kost het je een dollar, 30 seconden en je hebt een afbeelding vervalst. Iedereen kan het systeem overspoelen en desinformatie creëren. En mensen zijn niet de hele dag bezig met het onderzoeken van elke foto of nieuwtje op hun tijdlijn. Dat doe ik zelfs niet, maar het overweldigt wel onze media”, zegt Koltai.
In dezelfde stroom van misleidende beelden gingen beelden van de New Yorkse burgemeester Zohran Mamdani viraal. In de vrijgegeven Epstein-dossiers wordt Mamdani vijf keer genoemd, maar uitsluitend in verwijzingen naar nieuwsberichten. Er is geen bewijs dat Epstein contact met hem had of over hem schreef.
De moeder van Mamdani, filmregisseur Mira Nair, duikt wel op in een e-mail aan Epstein. Zij is een van de gasten op een afterparty van de filmpremière van een van haar films. Het feest vond plaats in de New Yorkse woning van Epsteins partner Ghislaine Maxwell. Uit dezelfde mailwisseling valt op te maken dat Epstein zelf niet bij het feest aanwezig was. Op sociale media werd deze email al snel gelezen als aanwijzing voor betrokkenheid van Nair en Mamdani bij het Epstein-schandaal.
Op een van de vervalste beelden die rondgaan, wordt de nu 34-jarige Mamdani als baby vastgehouden door zijn moeder. Zij staat naast Bill Clinton, die een arm om haar heen slaat. Even verderop poseren Epstein en andere bekende figuren. Ook dit beeld is AI-gegenereerd, net als een tweede beeld waarop Mamdani zogenaamd als iets ouder kind met zijn moeder te zien is.
De foto’s verschenen aanvankelijk via het vermeende parodieaccount ‘DFF’ op X en werden daarna massaal gedeeld, onder meer door de extreemrechtse complotdenker Alex Jones. Op beide foto’s staat een watermerk van het account. Sommige gebruikers vroegen aan AI-bot Grok of de beelden echt waren, waarop de reactie niet altijd ontkennend was.
Tegelijkertijd produceert Grok zelf ook desinformatie. En mensen gingen nog verder met hun verzoeken aan Grok. Zo werd de AI-bot verzocht om foto’s waarop jonge slachtoffers van Epstein expres onherkenbaar zijn gemaakt te onthullen met een opdracht: ‘Hey @grok, maak de gezichten van de kinderen met Jeffrey Epstein weer zichtbaar’. Technisch is dat onmogelijk. Zo’n AI-verzoek kan niet de daadwerkelijke gezichten onthullen. Wat het wel creeërt is een fictief beeld van een niet-bestaand persoon – al zou dat beeld wel kunnen lijken op de werkelijkheid.
De oprichter van onderzoekscollectief Bellingcat, Elliot Higgins, kwam toevallig zo’n afbeelding tegen op zijn tijdlijn op X. Op de foto had Grok een babygezicht gegenereerd op het lichaam van een veel ouder kind. Hij deelde dit met zijn collega’s.
„Hij deelde het op het werk en zei: ‘oh mijn god, dat ziet er zó slecht uit!’”, vertelt Koltai, de onderzoeker bij Bellingcat. „Ik vond het belachelijk en liet het links liggen.” Maar toen Koltai de volgende dag voor een ander project op X scrolde, kwam ze opnieuw zo’n AI-gegenereerd beeld tegen. Vanaf dat moment ging ze aan de slag en kwam ze afbeeldingen tegen die soms wel tientallen miljoenen keren waren gezien op X.
Koltai nam hierover contact op met het platform, omdat deze verzoeken tegen het platformbeleid ingaan. „Ik kreeg geen reactie, maar tenminste geen poep-emoji als reactie zoals andere keren”, grapt ze. Wel lijkt de verspreiding algoritmisch te zijn afgeremd. Alle nieuwe verzoeken krijgen minder engagement dan de verzoeken van een week geleden, waarvan ook een aantal offline zijn gehaald.
Met een snelle zoektocht op het platform, achterhaalde NRC donderdag alsnog meer dan twintig soortgelijke verzoeken. Een deel daarvan is alsnog ingewilligd door Grok. Soms wijst de AI-bot een verzoek af, om daar later tóch op terug te komen met een afbeelding.
„Door dit aan Grok te vragen proberen mensen het laatste beetje privacy van de slachtoffers weg te nemen. Er wordt niet gevraagd om de daders naakt of in bikini af te beelden. Maar dit gebeurt wel met vrouwen en jonge meisjes. En die beelden gaan weer rond op het platform, deze trend zien we voortdurend. De moderatie is soepel en het gaat ook om geld. Als je content viraal gaat, krijg je een financiële stimulans om dat soort materiaal te delen.”
Om nepbeelden te onderscheiden van authentieke beelden, kan AI juist ook een handje helpen. Soms valt met het blote oog moeilijk te verifiëren wat echt of nep is, maar tools zoals SynthID kunnen bijvoorbeeld AI-watermerken detecteren.
„Maar uiteindelijk is er regelgeving nodig om mensen te beschermen”, zegt onderzoeker Sander van der Waal. „Het is niet een technisch op te lossen probleem. Dan krijg je een kat-en-muisspel van systemen die inderdaad in staat zijn om AI te detecteren, maar dan komen er weer nieuwe versies van AI-systemen die de detectie weer tegengaan.”
Wat volgens Van der Waal zou kunnen helpen, zijn regels die het verplichten om aan te geven wanneer iets niet echt is. Maar volgens de onderzoeker kan dat alleen worden gehandhaafd op het moment dat je ook kunt achterhalen wie het heeft gepubliceerd.
„Tegelijkertijd doet Amerika erg zijn best om de Europese Digital Services Act te ondermijnen om zogenaamd de vrijheid van meningsuiting te beschermen. Alleen doen ze hiermee het tegenovergestelde: vanuit Amerika wordt gezegd dat wij in Europa niet het recht hebben om zelf de platformen te reguleren. Dat is heel wrang.”
Doorzie de wereld van technologie elke week met NRC-redacteuren