Niet alleen kiezen Europeanen in juni hun parlement, bijna de helft van de wereldbevolking gaat dit jaar naar de stembus. Hoe voorkom je dat, door de opkomst van AI, een ‘shitstroom’ aan desinformatie die verkiezingen overspoelt?
Donald Trump spreekt in een filmpje steun uit voor de Pakistaanse premier Imran Khan. De Indonesische vicepresident is te horen terwijl hij arme kinderen beledigt. En vermoedelijk Chinese accounts delen op sociale media in hoog tempo beelden die de integriteit van Joe Biden in twijfel trekken.
Het zijn echte voorbeelden, maar de beelden zijn nep, door het gebruik van AI in verkiezingscampagnes. Dit jaar gaat bijna de helft van de wereldbevolking naar de stembus, in meer dan 64 landen. Wie meer AI-namaak wil zien, neemt alvast een kijkje op de AI-tracker van Rest of World, een non-profitorganisatie die de invloed van technologie buiten de westerse bubbel in kaart brengt.
Van 6 tot 9 juni kiezen Europeanen hun nieuwe parlement en het besef begint te dagen hoe uniek en riskant deze verkiezingen zijn. Met de snelle opkomst van laagdrempelige AI-programma’s is meer nieuwe technologie beschikbaar die de stembusuitslag kan beïnvloeden dan ooit tevoren.
Kunnen we nog samenwerken tegen klimaatverandering en oorlog? Wie denkt nog in termen van een algemeen belang? De Volkskrant onderzoekt wat de wetenschap zegt, waar struikelblokken liggen en wat we hiervan kunnen leren. Eerdere afleveringen: volkskrant.nl/WijZij
Het bekendste voorbeeld van generatieve AI is ChatGPT, dat zelf teksten schrijft. Maar AI kan met hetzelfde gemak fotorealistische beelden produceren of de stemmen van politici nabootsen.
Deze ontwikkelingen kunnen juist dit jaar extra hard aankomen in Europa, zegt Claes de Vreese, hoogleraar kunstmatige intelligentie en maatschappij aan de Universiteit van Amsterdam. Want 2024 is ‘een soort tussenjaar’ voor regels voor AI-technologie. Het Europees Parlement werkt daaraan met de AI Act, maar die wet is niet van kracht voor 2026.
De Digital Services Act (DSA) verplicht platformen al om informatie die van AI komt als zodanig te labelen. Dinsdag nog verplichtte de Europese Commissie Facebooks moederbedrijf Meta op korte t duidelijk te maken hoe het bedrijf aan die wet gaat voldoen.
Wat kunnen we de komende campagneweken van AI merken? Zeven lessen rond AI in verkiezingscampagnes.
Microtargeting is het gericht sturen van politieke boodschappen aan specifieke groepen kiezers: gebeurt allang, maar kan zich dankzij AI nu met een factor oneindig vermenigvuldigen.
Hoe microtargeting werkt, bleek bij het schandaal rond het Amerikaanse databedrijf Cambridge Analytica. Dat verstuurde sinds 2013 op basis van persoonlijkheidsprofielen van vijftig miljoen Facebookgebruikers advertenties op maat, voor Donald Trump en pro-Brexit-politici.
Facebook trok hierna het boetekleed aan, toonde beterschap en deelt profielen van gebruikers niet langer stiekem met externe partijen. Maar politici en spindoctors zijn nog steeds gretig om kiezers te beïnvloeden.
Politieke partijen kunnen bij Facebook of Google nog altijd gerichte profielen inkopen, gebaseerd op interesses. Op die manier bereiken ze met hun boodschap precies de mensen die daar gevoelig voor zijn: maakt de 58-jarige Barry uit Berkhout zich zorgen over massa-immigratie? Dan krijgt Barry berichten die hierop inspelen. Nederlandse politieke partijen gaven hier in 2022 2,6 miljoen euro aan uit.
Nieuw is nu de combinatie met generatieve AI en de opkomst van ChatGPT. Die kunnen de invloed van microtargeting enorm doen toenemen, zegt De Vreese.
AI verandert microtargeting in een ‘manipulatiemachine’, schreven ook onderzoekers in vakblad PNAS Nexus. Deze machine richt zich niet langer op groepen mensen met dezelfde politieke voorkeur of religie, maar op individuen met unieke gevoeligheden. ChatGPT schrijft moeiteloos een oneindige reeks persoonlijke berichtjes, wat voor ouderwetse microtargeting onbetaalbaar zou zijn. En omdat de boodschap persoonlijker is, zullen ontvangers er vaker op klikken.
Een recente aflevering van Party Party, een nieuwsbrief voor politieke professionals, is in de aanloop naar de Europese verkiezingscampagne al helemaal gericht op de inzet van ChatGPT. Party Party geeft voorbeeldprompts die campagnemedewerkers kunnen invoeren in ChatGPT: zorg in een boodschap voor een jong persoon bijvoorbeeld voor ‘bijzondere aandacht voor kwesties als klimaatverandering, betaalbaar onderwijs en werkgelegenheid’.
Al echt gebeurd: een AI-versie van de Indiase premier Modi sprak tijdens zijn campagne kiezers toe in sterk gepersonaliseerde WhatsAppberichten. Modi noemde de naam van de toegesprokene en sprak afwisselend een van de tientallen talen die de miljard kiezers in India spreken. Zo is niet meer te controleren of een politicus aan de ene kiezer iets anders belooft dan aan de ander, om zieltjes te winnen. ‘Vroeger reisde een journalist met de politicus mee en die schreef het dan op als hij in Groningen iets anders zei dan in Maastricht’, zegt De Vreese. ‘Dat werkt dus niet meer.’
Zo zaait de manipulatiemachine bij voorbaat teleurstelling, de voedingsbodem van wantrouwen in de politiek.
Met dit risico voor ogen tekenden bijna alle Europese politieke partijen in april een vrijwillige gedragscode, waarin ze beloven het gebruik van gemanipuleerde AI-media altijd expliciet te vermelden. Alleen de radicaal-rechtse fractie Identity and Democracy (ID) weigerde.
Nieuwe Europese regels moeten behalve AI ook microtargeting aan banden leggen. Het wordt adverteerders verboden hun boodschap toe te spitsen op persoonlijke informatie zoals seksuele geaardheid of etniciteit. Maar ook deze regels komen te laat voor de komende verkiezingen.
Bovendien kun je socialemediagebruikers ook gericht benaderen zonder advertenties: grote platforms zijn gebouwd rondom aanbevelingsalgoritmen die de consument nu al voorschotelen waaraan die behoefte lijkt te hebben.
Europarlementariërs Paul Tang (PvdA) en Kim van Sparrentak (GroenLinks) willen daarom dat de Europese Commissie ‘snel meer actie onderneemt’ tegen de algoritmen van sociale media die ‘online buitenlandse beïnvloeding en desinformatie actief verspreiden’. Een brede groep Europarlementariërs steunt dit voorstel. Zij vrezen vooral Russische pogingen om verdeeldheid te zaaien.
Tom Dobber, onderzoeker politieke communicatie en journalistiek aan de Universiteit van Amsterdam, deelt die zorg. ‘Rusland probeert bestaande spanningen in Europa te vergroten en het vertrouwen in de rechtsstaat en democratische instituten te ondermijnen. Desinformatie is daar een van de beproefde middelen voor.’
Een paar dagen na het gesprek met Dobber zegt Erik Akerboom, hoofd van de AIVD, hetzelfde bij de presentatie van het jaarverslag van de inlichtingendienst. Een netwerk van het Kremlin wakkert volgens de AIVD onvrede in Europa aan door een stroom onbetrouwbare berichten in sociale media rond te pompen. Onderwerpen zijn onder meer asielzoekers, de economische crisis en complottheorieën over oppositieleider Aleksej Navalny – in Nederland mede verspreid door FvD-leider Thierry Baudet.
Bekend is het voorbeeld van de Russische trollen die in de twee dagen na het neerhalen van de MH17 65 duizend tweets verstuurden in een grootschalige, gecoördineerde desinformatiecampagne vanuit Sint-Petersburg. En zelfs rond de bedwantsenplaag in Parijs probeerden Russische trollen verdeeldheid te zaaien, door een vals verband te leggen met de komst van Oekraïense vluchtelingen.
Europese verkiezingen zijn een nog betere voedingsbodem voor verwarring dan landelijke verkiezingen, waarschuwt Dobber: ‘Europa staat verder af van de kiezer. We weten minder goed wie de kandidaten zijn en waar ze voor staan. Je trapt dus eerder in een val.’
Westerse voorbeelden van deepfakes zijn er ook al: in april pleitte een nepversie van de Deense premier Mette Frederiksen voor het afschaffen van alle christelijke feestdagen. In Slowakije was de leider van de liberale partij Progressief Slowakije, Michal Šimečka, kort voor de verkiezingen van vorig jaar te horen in een opname waarin hij zogenaamd bespreekt hoe je de uitslag kunt manipuleren. En in de Amerikaanse voorverkiezingen riep een AI-versie van de stem van Joe Biden kiezers telefonisch op niet te gaan stemmen in New Hampshire. Ook in de Poolse verkiezingen werd een deepfake ingezet van de Poolse premier.
In Nederland zijn nog geen succesvolle voorbeelden bekend. Wel dook in november op sociale media een AI-foto op van Frans Timmermans die zich in een vliegtuig te goed leek te doen aan een copieuze maaltijd, maar daar trapte bijna niemand in.
Toch vinden De Vreese en Dobber dat we ons hierdoor niet in slaap moeten laten sussen. Onderzoekers wijzen op een groter probleem.
Over de auteurs
Margriet Oostveen en Laurens Verhagen zijn wetenschapsredacteur van de Volkskrant. Zij schrijft over sociale wetenschappen, geschiedenis en maatschappij, hij over technologie en de impact van kunstmatige intelligentie op de maatschappij.
Stel je het gemak voor waarmee ChatGPT een permanente stroom persoonlijke, politieke boodschappen kan formuleren, plus de snelheid en massaliteit waarmee AI-bots boodschappen over sociale netwerken kunnen verspreiden. Zo kan ook desinformatie vanaf nu oneindig en in hoog tempo de wereld over worden gepompt om kiezers te beïnvloeden.
De eerdergenoemde Russische trollen waren nog van vóór die nieuwe mogelijkheden. Zelfs als mensen niet massaal in nieuwe soorten AI-manipulatie trappen, groeit een veel fundamenteler gevaar. Claes de Vreese noemt dit ‘de permanente shitstroom van desinformatie’: het gaat er de komende verkiezingen niet zozeer om of je een bepaald geval van desinformatie wel of niet doorziet, maar of die stroom aan onbetrouwbare berichten de verwarring zo groot maakt dat mensen misschien al niet meer eens beginnen met zoeken naar informatie die nog klopt. En vervolgens hun vertrouwen in politici en instituties zoals de vrije pers steeds meer verliezen.
Het woord ‘shitstroom’ is niet toevallig gekozen: het verwijst naar een beruchte uitspraak van Steve Bannon, de architect van Donald Trumps verkiezingsoverwinning in 2016, over zijn doelbewuste strategie. ‘De Democraten doen er niet toe’, zei Bannon. ‘De echte tegenstanders zijn de media. En de manier om ermee om te gaan is (alles) met stront te overspoelen.’ Ook Bannon doelde op desinformatie.
De Britse, in de Sovjet-Unie geboren journalist Peter Pomerantsev beschreef in zijn boek Dit is geen propaganda (2019) hoe ook politici in de Filipijnen, Mexico, Rusland, Turkije, Oekraïne, Engeland en de rest van Europa desinformatie pushen om het vertrouwen van mensen te beschadigen en de roep om een sterke leider aan te wakkeren.
Op een congres over media en democratie in Amsterdam vorige week gebruikten onderzoekers in hetzelfde verband de term enshittification voor het grootschalig vervuilen van het onlinedebat met desinformatie.
In het Nederlands zou een bruikbare vertaling voortaan ‘verdrekking’ van het debat kunnen zijn: het verwijst naar zowel ‘drek’ als ‘verdrukking’.
Dus hoe werkt deze verdrekking?
De Australische onderzoeker en filosoof Adam Henschke voltooit een boek over wat hij ‘cognitieve oorlogsvoering’ noemt. Henschke, verbonden aan de Universiteit Twente, is gespecialiseerd in de ethiek van technologie en in cyberoorlogen in democratieën.
Het doel van cognitieve oorlogsvoering, legt hij uit, is het ondermijnen van het gemeenschappelijke vertrouwen in instituties, systemen en organisaties die als de pijlers van een democratie worden beschouwd – van rechtspraak tot media en politieke partijen zelf.
Verdrekking is in deze oorlog de beproefde strategie: het gaat er in de politieke campagne niet meer om de kiezer mee te krijgen in een verhaal, maar om het debat zodanig te vertroebelen dat mensen het vertrouwen in democratische instituties verliezen.
Je zag deze strategie ook rond de covidpandemie en in de aanloop naar de verkiezing van Joe Biden, zegt Henschke: ‘Overweldig mensen met zoveel informatie dat ze de feiten niet meer van fictie kunnen onderscheiden en al snel doet de waarheid er niet meer toe.’
Generatieve AI is een uiterst gevaarlijk en krachtig nieuw instrument voor verdrekking. ChatGPT kan op verzoek onuitputtelijk drek genereren. Of zoals Henschke het formuleert: ‘De vloed aan desinformatie die er al was, kan nu een tsunami worden.’
Zo, zegt De Vreese, kunnen politici en andere actoren dankzij ChatGPT niet alleen ‘ongelooflijk veel meer’ verwarring zaaien, maar ‘dus ook veel heviger emoties aanwakkeren’. Zie de (vaak nep)filmpjes die nu al in sociale media worden rondgepompt om migranten in een kwaad daglicht te stellen.
Deze polarisatie beschadigt uiteindelijk dus altijd de instituties die een democratie overeind houden, legt Henschke uit. Hoe gaat dat precies in zijn werk?
Polarisatie-onderzoekers onderscheiden uiteenlopende standpunten (bijvoorbeeld Zwarte Piet is wel/geen racisme) van zogeheten affectieve polarisatie. Affectieve polarisatie gaat over de mate waarin je mensen met andere standpunten werkelijk afwijst. Henschke: ‘Het meeste onderzoek naar affectieve polarisatie komt uit Amerika. Mensen met een andere mening werden daar de laatste jaren grotere vijanden dan vroeger.’
Dit is mede te wijten aan de sociale media, die er volgens Henschke ‘alles aan doen om onze aandacht vast te houden, en dat lukt nu eenmaal goed door mensen kwaad te maken. Ik ben er zelf ook erg gevoelig voor.’ Onderzoekers als Henschke spreken daarom al van een ‘woede-economie’ in plaats van een ‘aandachtseconomie’.
Maar hoe leidt die woede vervolgens tot het beschadigen van democratische instituties? Henschke: ‘Als je anderen als je vijand gaat zien, en je ziet instituties die vijand behandelen op een manier die niet in overeenstemming is met jouw vijandbeeld, dan vertrouw je al snel die instituties niet meer. Progressieve Amerikanen beschouwen alle beslissingen van het Hooggerechtshof tegenwoordig bijvoorbeeld als politieke in plaats van juridische beslissingen. Omdat Trump die rechters heeft benoemd, kunnen we er niet meer op vertrouwen, is daarbij de redenering.’
Het doel van cognitieve oorlogvoering is precies het aanwakkeren van dit soort wantrouwen om een democratie op de lange termijn te destabiliseren. ‘Het doel is dus niet zozeer een bepaalde kandidaat te laten winnen: het gaat erom het vertrouwen in en de steun voor democratische instellingen in Europa blijvend te ondermijnen.’
Wie hebben er belang bij dit soort cognitieve oorlogsvoering? ‘Rusland, China, waarschijnlijk Noord-Korea’, zegt Henschke. ‘En misschien Iran.’
De Zweedse overheid opende al een ‘Agentschap Psychologische Verdediging’ om het bewustzijn tegen desinformatie op volle sterkte te verhogen. Zweedse inwoners worden via abri’s en overheidsspotjes aangespoord twee keer na te denken en de bron te checken voordat ze een bericht waarover ze boos zijn doorsturen. Een druppel op de gloeiende plaat misschien, maar het is tenminste iets, vindt Henschke.
Ook De Vreese vindt dat we meer moeten doen dan alleen op regelgeving uit Brussel te wachten. Europese politieke partijen spraken daar in april alvast af geen deepfakes te gebruiken. EU-landen moeten zelf ook snel afspraken maken over verkiezingscampagnes: ‘Waarom sluiten Nederlandse politieke partijen geen alliantie over generatieve AI?’
Je kunt bijvoorbeeld afspreken AI alleen in te zetten als chatbot, om vragen van kiezers te beantwoorden. En om duidelijk te zijn over wat een partij precies aan AI gebruikt. ‘Iedereen experimenteert nu maar wat. Dat leidt tot voor de politiek zeer schadelijke maatschappelijke discussie. Wat is authentiek? Wie is nog te vertrouwen?’
Ook sociale platforms moeten meer duidelijkheid geven, zegt De Vreese. ‘Ze doen nu vage beloften over het labelen en verwijderen van desinformatie, maar er wordt geen enkele definitie bij gegeven. Dus wat beloven ze nu eigenlijk? Platforms moeten daar veel concreter over worden. Dat is ook in hun eigen belang, willen ze het vertrouwen niet verliezen.’
Lichtpuntje: met hetzelfde gemak waarmee ChatGPT inhoud kan creëren, kan het worden ingezet om de inhoud van verkiezingsprogramma’s toegankelijker te maken voor een breed publiek. Partijen zouden een chatbot kunnen trainen met hun eigen partijprogramma.
Die chatbot kan dan op de individuele kiezer toegesneden informatie geven als die daarom vraagt. Bijvoorbeeld meer details over een nieuwe huurwet ‘en dan met Omtzigt-achtige precisie’. Of juist informatie in woorden met weinig lettergrepen, voor mensen die niet goed kunnen lezen.
De Vreese: ‘Zo kan een partij ook verantwoord en begrijpelijk uitleggen wat de plannen zijn.’
Tegen de AI-verdrekking, kortom, is AI ook een krachtig wapen. Maar dan om politiek juist weer voor iedereen betrouwbaar te maken.
Luister naar onze podcast over de gereedschapskist van rechtse populisten:
Video wordt geladen...
Geselecteerd door de redactie
Source: Volkskrant