Afgelopen woensdag verscheen een open brief van honderden AI-prominenten die overheden wereldwijd opriepen meer en strengere wetgeving door te voeren om de impact te beperken van deepfakes (met behulp van kunstmatige intelligentie gemaakte video’s, foto’s, spraakberichten en teksten die echt lijken, maar dat niet zijn).
Naast een volledige verbod op bijvoorbeeld deepfakekinderporno, inclusief van fictieve kinderen, pleiten de ondertekenaars terecht ook voor strengere wetgeving om politieke desinformatie tegen te gaan. In 2024, het jaar waarin wereldwijd zo’n 4 miljard mensen kunnen stemmen, vrezen ze voor de invloed van steeds realistischere deepfakes op democratische processen in tientallen landen.
Deepfaketechnologie wordt natuurlijk vooral ontwikkeld en beschikbaar gemaakt door bedrijven, niet door overheden. Twintig prominente AI-bedrijven, waaronder OpenAI, Meta, TikTok, Google en X, leken vorige week al de vlucht vooruit te kiezen met het gezamenlijke initiatief om deepfakegebruik rond verkiezingen wereldwijd te bestrijden. De AI-ontwikkelaars beloven om nauwer te gaan samenwerken bij het detecteren en verwijderen van deepfakes en om gebruikers beter te informeren.
Over de auteur
Jochem de Groot is zelfstandig adviseur over AI-vraagstukken en lid van de Commissie Vrede & Veiligheid (CVV) van de Adviesraad Internationale Vraagstukken (AIV). Hij werkte eerder voor Microsoft en het ministerie van Buitenlandse Zaken.
Dit is een ingezonden bijdrage, die niet noodzakelijkerwijs het standpunt van de Volkskrant reflecteert. Lees hier meer over ons beleid aangaande opiniestukken.
Eerdere bijdragen in deze discussie vindt u onder aan dit artikel.
Dat initiatief lijkt niet alleen sympathiek, maar is ook noodzakelijk. Om deepfakes automatisch te herkennen en te markeren, is de inzet van de bedrijven achter de technologie onontbeerlijk. De impact ervan is immers direct schadelijk, en real-timebestrijding daarom een must. Toch legt het wederom bloot hoe afhankelijk overheden wereldwijd zijn geworden van de welwillendheid van technologiebedrijven.
Maar overheden, niet bedrijven, zijn de hoeders van vrije en betrouwbare verkiezingen in open democratieën en hebben in die rol de fundamentele taak kiezers en de samenleving als geheel weerbaar te maken tegen oneigenlijke beïnvloeding door AI.
Want het gevaar van deepfakes voor de integriteit van verkiezingen is reëel. Zo ging kort voor de Slowaakse verkiezingen in oktober al een deepfake-audioclip viraal van de pro-westerse kandidaat Michal Šimečka, waarin hij ‘sprak’ over het manipuleren van de verkiezingen en een verdubbeling van de bierprijs. Šimečka’s partij verloor uiteindelijk van de pro-Russische kandidaat.
En tijdens de Amerikaanse voorverkiezingen in New Hampshire afgelopen januari ontvingen Democraten door AI gegenereerde ‘robocalls’ met de nagemaakte stem van president Joe Biden, die zijn partijgenoten ‘opriep’ vooral niet te gaan stemmen.
De EU heeft in de Digital Services Act (DSA) eindelijk wetgeving die platformen verplicht om AI-gegenereerde informatie te labelen. De verantwoordelijk Eurocommissaris Thierry Breton heeft recent nog laten weten er streng op toe te zien dat bedrijven dat in aanloop naar de verkiezingen voor het Europees Parlement begin juni ook daadwerkelijk doen.
En de Europese AI Verordening, die oneigenlijke beïnvloeding van verkiezingen door AI-toepassingen verbiedt, is waarschijnlijk wel aangenomen maar nog niet van kracht tijdens deze Europese verkiezingen.
Maar los daarvan blijft het de vraag hoe effectief deepfakebestrijding in de praktijk zal uitpakken, of bedrijven maatregelen nou vrijwillig nemen of onder dwang. Want naast hyperrealistische deepfakes creëert generatieve AI ook nieuwe manieren om ze in te zetten.
Zo bleek vorige maand dat China in aanloop naar de presidentsverkiezingen in Taiwan al gebruik maakte van generatieve AI om via korte filmpjes op YouTube en TikTok op genuanceerde wijze pro-Chinese of anti-westerse boodschappen aan kiezers in Taiwan voor te schotelen. De afzender leek daarbij neutraal, maar stemde de inhoud zo af dat Beijing in een beter daglicht kwam te staan.
Deze zogenoemde cognitieve oorlogsvoering wordt door generatieve AI bovendien steeds geraffineerder: bots kunnen bijvoorbeeld steeds meer op maat worden gesneden. In de context van verkiezingen is vooral de combinatie tussen bots én generatieve AI een nieuw risico. Waar bots voorheen alleen informatie herhaalden en versterkten die door anderen was gecreëerd, kunnen ze door generatieve AI nu zelf langere teksten produceren die heel menselijk lijken en bovendien moeilijker te traceren zijn dan beelden of video.
Kwaadwillenden die verkiezingen willen beïnvloeden kunnen kiezers op basis van hun publieke kernmerken zo gepersonaliseerd voeden met (deepfake-)informatie, om ze ertoe te bewegen wel of niet op een partij of kandidaat te stemmen. Een soort Cambridge Analytica-op-steroïden. Het databedrijf dat zich als een ‘wereldwijd agentschap voor verkiezingsmanagement’ presenteerde en onder meer werk deed voor de presidentscampagne van Donald Trump in 2016 en het leave-kamp tijdens het Brexitreferendum.
Door deze nieuwe mogelijkheden is het van groot belang niet alleen maatregelen te treffen bij de verzending, maar juist ook bij de ontvangst van gemanipuleerde informatie. Bij de kiezer dus. Het initiatief van grote techbedrijven tegen deepfakes stelt onder meer graag te willen samenwerken met relevante verkiezingsinstanties. Die publiek-private samenwerking is dus onmisbaar, maar Europese overheden, ook de Nederlandse, moeten daarbij wel zélf de regie pakken.
Zo zou de overheid tijdig brede publiekscampagnes moeten beginnen voor het kunnen herkennen van AI-gegenereerde desinformatie en deepfakes. Zolang dat is gericht op het informeren van gebruikte technieken en het goed kunnen herkennen van geverifieerde bronnen, blijft de vrijheid van meningsuiting intact.
Ook bij het beperken en opsporen van AI-gestuurde manipulatie van kiezers en verkiezingsprocedures moet de overheid de leiding nemen. In internationale samenwerking met andere landen kunnen bijvoorbeeld trends en bewijsmateriaal worden verzameld en doeltreffende rechtsmiddelen worden uitgewisseld.
Één van de vier uitgangspunten van de recent gepresenteerde overheidsbrede visie op generatieve AI is het borgen van menselijke autonomie. Die van kiezers beschermen op weg naar het stemhokje, is bij uitstek een essentieel fundament van onze democratie.
Wilt u reageren? Stuur dan een opiniebijdrage (max 700 woorden) naar opinie@volkskrant.nl of een brief (maximaal 200 woorden) naar brieven@volkskrant.nl
Om u deze content te kunnen laten zien, hebben wij uw toestemming nodig om cookies te plaatsen. Open uw cookie-instellingen om te kiezen welke cookies u wilt accepteren. Voor een optimale gebruikservaring van onze site selecteert u "Accepteer alles". U kunt ook alleen de sociale content aanzetten: vink hiervoor "Cookies accepteren van sociale media" aan.
U bent niet ingelogd
Antwoord op al uw vragen
Updates, wijzigingen en klachten
Op alle verhalen van de Volkskrant rust uiteraard copyright.
Wil je tekst overnemen of een video(fragment), foto of illustratie gebruiken, mail dan naar copyright @volkskrant.nl.
© 2024 DPG Media B.V. - alle rechten voorbehouden