Home

Deepfakes maken scheiden van echte en nepbeelden ICE-incidenten haast onmogelijk

AI-bewerkte foto’s en video’s van de dodelijke schietpartij op Alex Pretti in Minneapolis overspoelen sociale media en maken het beeld van wat er precies is gebeurd steeds vager. Op platforms als Facebook, TikTok, Instagram en X delen gebruikers zogenaamd opgepoetste of “verbeterde” beelden van zijn laatste momenten. Veel van die foto’s en video’s lijken op echte opnames, maar zijn door AI aangepast en laten details zien die nooit zijn gebeurd.

Een veel gedeelde AI-afbeelding toont een man die op Pretti lijkt, die voorover valt terwijl een ICE-agent een wapen op zijn rug richt. De foto is meer dan 9 miljoen keer bekeken op X en kreeg wel een waarschuwing dat hij met AI is bewerkt. Op de afbeelding mist de agent zelfs zijn hoofd, wat een duidelijk teken is dat het om een nepbeeld gaat. Toch gebruikte senator Dick Durbin deze foto in een toespraak in de Senaat, zonder te weten dat de afbeelding niet authentiek was. Zijn kantoor zegt nu dat medewerkers pas achteraf doorhadden dat de foto was aangepast en dat ze die fout betreuren.

Dit beeld is wijd verspreid, maar nooit gebeurd. Het is AI.

Er circuleren ook AI-video’s, zoals een TikTok waarin Pretti met een ICE-agent praat en een Facebook-video waarin een agent per ongeluk met Pretti’s eigen pistool zou schieten. Die Facebook-video is gelabeld als “AI-enhanced” en is meer dan 44 miljoen keer bekeken. Er is geen bewijs dat een agent echt een schot loste met zijn wapen. Toch wekken zulke clips bij miljoenen kijkers de indruk dat ze naar echte, ruwe beelden kijken.

Volgens Ben Colman, mede-oprichter en topman van deepfake-detectiebedrijf Reality Defender, is deze stortvloed aan AI-bewerkt materiaal zorgelijk, maar niet verrassend. Eerder deze maand doken al AI-bewerkte foto’s op rond de dood van Renee Nicole Good, een andere demonstrant die in Minneapolis door een ICE-agent is doodgeschoten. Online gebruikers probeerden met AI vage beelden “scherper” te maken om de agent te ontmaskeren, maar wezen zo ten onrechte andere mensen aan. Colman zegt dat deze zogenaamd verbeterde beelden in feite deepfakes zijn: soms grove schattingen, soms pure verzinsels, die mensen juist verder van de waarheid afbrengen.

De opkomst van dit soort content zorgt ook voor het omgekeerde probleem: mensen gaan echte beelden ineens wantrouwen. Sommige gebruikers beweren dat authentieke foto’s en video’s van Pretti door AI zijn gemaakt, terwijl ze echt zijn. Experts noemen dit het “liar’s dividend”: kwaadwillenden kunnen roepen dat echte beelden nep zijn, om twijfel te zaaien en verantwoordelijkheid te ontlopen. Andere kwaadwillenden kunnen nepbeelden, al dan niet doelbewust, naar voren schuiven als echt, met dezelfde reden. Dat gebeurt nu al in de discussie rond Pretti’s zaak.

Dit beeld is wijdverspreid in de media, maar is door AI gegenereerd

NBC News heeft drie video’s onafhankelijk kunnen verifiëren waarop Pretti te zien is tijdens een ruzie met federale immigratieagenten in Minneapolis, ruim een week voor zijn dood. Op een van die video’s, gemaakt door journalisten van The News Movement, is te zien hoe hij tegen de achterkant van een voertuig van de agenten trapt en daarna tegen de grond wordt gewerkt. Zijn familie bevestigde via een vertegenwoordiger dat het om echte beelden gaat. Een getuige die een tweede video maakte, zegt dat hij Pretti na het incident omhelsde en vroeg of hij in orde was. Toch bestempelen gebruikers op sociale media juist deze echte video soms als AI-gegenereerd.

Voor gewone nieuwsvolgers zijn er bijna geen betrouwbare hulpmiddelen om goed te zien of beeldmateriaal door AI is gemaakt of aangepast. Zelfs X’s eigen AI-assistent Grok reageerde op vragen over de echtheid van de video over Pretti met de claim dat het “lijkt op AI-gegenereerd of aangepast” materiaal, terwijl dat niet klopt. Daarmee vergroot het systeem de verwarring in plaats van die weg te nemen.

Deze AI-chaos komt bovenop andere onjuiste berichten rond de zaak. In bredere zin past de situatie in een patroon: bij groot nieuws ontstaat steeds vaker een golf van AI-gegenereerde misleiding, doordat moderne systemen in korte tijd levensechte beelden en video’s maken. De grens tussen echt en nep vervaagt, en dat maakt het voor het publiek lastiger om te zien wat er in werkelijkheid is gebeurd.

Source: Fok frontpage

Previous

Next