Als een chatbot wat informatie krijgt over zijn tegenpartij, kan die met betere argumenten komen in een debat, blijkt uit een nieuwe studie in Nature Human Behavior. Volgens wetenschappers roept dat vragen op over hoe AI online meningen kan manipuleren.
Voor het onderzoek werden driehonderd deelnemers gekoppeld aan menselijke tegenstanders in een online debat. Een andere groep van driehonderd deelnemers werd gekoppeld aan ChatGPT-4, een 'groot taalmodel' (LLM). Vervolgens kregen ze de opdracht om over bepaalde thema's te debatteren.
Ze moesten het onder meer hebben over het nut van een schooluniform en een verbod op fossiele brandstoffen in de Verenigde Staten. In de helft van de gevallen kregen de deelnemers wat achtergrondinformatie over hun tegenpartij, zoals hun geslacht, opleidingsniveau en politieke voorkeur.
Zonder achtergrondinformatie over de tegenpartij deden mensen en AI het ongeveer even goed in een debat. Maar met wat extra kennis slaagde AI er beter in om met overtuigende argumenten te komen. In 64 procent van de gevallen kon de chatbot de opinie van de tegenstander meer bijsturen dan de menselijke deelnemers. Na het debat moesten deelnemers telkens aangeven in welke mate ze waren overtuigd door hun gesprekspartner.
AI is er vooral goed in om de redevoering precies af te stemmen op het profiel van de tegenpartij. "Het is alsof je in een debat zit met iemand die niet alleen goede argumenten heeft, maar ook precies weet op welke knoppen hij moet drukken", zegt een van de betrokken onderzoekers tegen The Guardian.
Volgens de onderzoekers laat het experiment zien dat AI ingezet kan worden om online opinies te manipuleren, zeker als het de beschikking heeft over persoonlijke data. Dat brengt gevaren met zich mee. "Iedereen moet zich bewust zijn van de microtargeting die mogelijk is door de enorme hoeveelheid persoonlijke gegevens die we over het web verspreiden", zegt een van de auteurs tegen The Washington Post.
Sandra Wachter, een professor aan de University of Oxford die niet bij het onderzoek was betrokken, noemde in die Amerikaanse krant de ontdekking "nogal alarmerend". Ze maakt zich vooral zorgen over de mogelijkheden om online leugens en foute informatie te verspreiden. "Taalmodellen maken geen onderscheid tussen feiten en fictie. Ze zijn niet ontworpen om de waarheid te vertellen", zei Wachter.
Source: Nu.nl algemeen