Is Poetin een dictator? Heeft Rusland oorlogsmisdaden gepleegd? Is Zelensky corrupt? Wie voor de beantwoording op dit soort vragen te rade gaat bij chatbots, moet beseffen dat ze nogal wispelturig kunnen zijn en hun antwoorden aanpassen op basis van de taal waarin gebruikers met ze spreken.
Dat geldt met name voor Google’s chatbot Bard, blijkt uit nieuw Zwitsers onderzoek. Zij stelden Bard, ChatGPT en Microsofts Bing, die allen ook in Nederland actief zijn, telkens dezelfde vragen, maar in verschillende talen: Russisch, Oekraïens en Engels.
Over de auteur
Laurens Verhagen schrijft voor de Volkskrant over technologie, internet en kunstmatige intelligentie. Daarvoor was hij onder andere hoofdredacteur van nu.nl.
Bard ‘weigerde consequent te reageren op vragen over Vladimir Poetin in het Russisch, zelfs als de relevante informatie toegankelijk was via Google Search’, schrijven de onderzoekers. Google’s chatbot volgt daarmee de door de Russische autoriteiten uitgevaardigde censuurrichtlijnen, concluderen ze.
Van alle vragen over Poetin in het Russisch bleef bij Bard 90 procent onbeantwoord, terwijl op exact dezelfde vragen in het Engels of Oekraïens wél een antwoord komt. ChatGPT en Bing praten beduidend vaker terug in het Russisch over politiek gevoelige onderwerpen. Opvallend is dat Bard op exact dezelfde vragen, maar dan in het Engels of Oekraïens, meestal wél antwoord geeft.
Ter vergelijking stelden de onderzoekers ook dezelfde soort vragen, maar dan over Poetins tegenstanders Navalny, Biden of Zelensky. Bard was bij deze personen ineens een stuk spraakzamer.
Tot slot zijn er ook verschillen tussen de chatbots in de gevallen dat ze wel een inhoudelijk antwoord geven: onafhankelijke factcheckers concluderen dat Bard ‘vaker geneigd is valse claims te maken met betrekking tot tegenstanders van het Russische regime dan andere chatbots’.
Voor Eugène Loos, universitair hoofddocent bestuurs- en organisatiewetenschap aan de Universiteit Utrecht en niet betrokken bij deze studie, is het een nieuw bewijs voor de maatschappelijke gevaren van chatbots. ‘We hebben geen flauw idee hoe ze precies werken, waar ze precies op zijn getraind en in welke mate ze later zijn bijgestuurd om tegemoet te komen aan de eisen van een specifiek land. Dat is problematisch.’
Van de onlangs gelanceerde Chinese chatbots werd al eerder bekend dat ze ingebouwde moderatiemechanismen hebben die gevoelige vragen uit de weg gaan over bijvoorbeeld Taiwan.
Maar westerse burgers moeten zich niet in slaap laten sussen, waarschuwt Loos. ‘Het is makkelijk wijzen naar China en Rusland, maar het grote achterliggende probleem is dat we niet goed weten hoe die taalmodellen werken en hoe ze tot hun antwoorden komen.’ En dat niet alleen: ‘Misschien dat de chatbots zich in democratische landen wel goed gedragen, maar wie verzekert mij dat dit in de toekomst ook zo is?’
Google, het bedrijf achter Bard, heeft geen commentaar op de studie.
Om u deze content te kunnen laten zien, hebben wij uw toestemming nodig om cookies te plaatsen. Open uw cookie-instellingen om te kiezen welke cookies u wilt accepteren. Voor een optimale gebruikservaring van onze site selecteert u "Accepteer alles". U kunt ook alleen de sociale content aanzetten: vink hiervoor "Cookies accepteren van sociale media" aan.
U bent niet ingelogd
Op alle verhalen van de Volkskrant rust uiteraard copyright.
Wil je tekst overnemen of een video(fragment), foto of illustratie gebruiken, mail dan naar copyright @volkskrant.nl.
© 2023 DPG Media B.V. - alle rechten voorbehouden