Home

ChatGPT begint steeds meer op een irritante collega te lijken. Hij slijmt, liegt en bedriegt

Kunstmatige intelligentie zoals ChatGPT maakt veel fouten, verzint dingen en bedenkt uitvluchten die nergens op slaan. „Net een collega”, schrijft Japke-d. Bouma. „Maar dan wel eentje waarvan je er liever niet te veel hebt.”

Het gebeurt niet elke dag dat je er ineens een zoon bij hebt. Of een broer. Een echtgenoot. Of een dochter die in je voetsporen treedt en ook columns schrijft.

Even voor de duidelijkheid: ik heb geen broer, geen echtgenoot en geen zoon. En mijn dochter schrijft geen columns. Toch las ik dat laatst, toen ik mezelf had gegoogled in de AI-modus. „Japke-d. Bouma heeft een broer, Rudy Bouma, die correspondent is bij de NOS. Ze woont met haar echtgenoot in Utrecht. Haar dochter treedt in haar voetsporen en schrijft ook columns.” Een vriendin appte dat Google haar had verteld dat ik een zoon heb, en dat mijn dochter Doutzen Bouma heet, „vernoemd naar haar moeder.”

Dat klopte ook niet.

Het is allemaal verzonnen. Door de ‘AI-modus’ van Google. Je weet wel. De kunstmatige intelligentie-modus waar niemand om gevraagd heeft. Die razendsnel miljoenen websites en teksten uitpluist. En bakken stroom en liters water kost. Superzonde. Want wat er uitkomt is vaak fout. Dat noemen ze ‘hallucineren’.

Ik was best pissig dat hij een suffe muts van me had gemaakt. En niet dat ik een geheime relatie heb met Brad Pitt, winnaar van de NS-publieksprijs ben of ooit met Barack Obama in een werkgroep voor de wereldvrede had gezeten.

Maar ik schrok er ook van. Want wat als hij voor me had verzonnen dat ik een greep in de kas had gedaan bij NRC, m’n kind had verkocht op een slavenmarkt of m’n katten had opgegeten? Dat zou ook iedereen lezen.

En Google dus hè!? De zoekmachine die je vroeger – meestal – keurig naar Wikipedia of een nieuwssite leidde. Maar nu in de AI-modus ineens creatief mensenlevens gaat lopen verzinnen. Zou iedereen dat weten?

‘Volgens ChatGPT was ik al overleden’

Kunstmatige intelligentie heeft sowieso nog wel wat, euh, opstartprobleempjes. Neem ChatGPT. Een vriend vroeg ‘hem’ laatst om een PowerPoint naar zijn mailadres te sturen. Het duurde uren. Chat bleef maar draaien. ‘Ik heb een ander mailadres nodig’. ‘Het komt er nu echt aan’. ‘Ik weet dat ik niet lever waar jij om vraagt, maar ik ga het nu goed maken’. ‘Dit moet echt beter, dit is niet wat je van me verwacht’.

Tot de aap uit de mouw kwam, en bleek dat Chat de PowerPoint helemaal niet kón sturen, omdat dat technisch te ingewikkeld voor hem was. Hij had moedwillig valse mailadressen bedacht, excuses en uitvluchten die nergens op sloegen. En toen dat uitkwam: nóg meer excuses.

Dat is herkenbaar, bleek op LinkedIn. Mensen die volgens Google-AI ineens in Toronto wonen. Mensen wier zoon hun echtgenoot is. Buslijnen die niet stoppen op de verlangde plek. Seniors die ineens rijkstrainees zijn.

Er was ook iemand die Chat notulen had laten uitwerken waarin volstrekt willekeurig gekozen notulen van een vergadering elders op de wereld waren gebruikt. Iemand die volgens Google een fictief personage was, „gecreëerd door Herman Koch” – dát had ik ook wel willen zijn! Met als klap op de vuurpijl de persoon die schreef: „Ik ben blijkbaar al overleden. Na een kort ziekbed. Gelukkig hebben mijn compagnons mijn goede werk na mijn tragische dood voortgezet.”

ChatGPT? Dat is ‘KletsGPT’

Op Linkedin werden er grappen over gemaakt. Hoogleraar Organisatieverandering Woody van Olffen noemt ChatGPT ‘klets GPT’ – die houden we erin. ‘Misschien ziet Chat meer in jou, dan je zelf”, schreef iemand. „Het is ook wel weer menselijk dat Chat niet durft te zeggen: ‘ik weet het niet’”, een ander.

„Chat lijkt een beetje op zo’n date die doet of hij alles onder controle heeft, maar als je bij hem thuis komt, het hele aanrecht vol beschimmelde vaat heeft staan”, schreef een vriendin. Of zo’n oom, die op een verjaardag ‘iets op Feestboek heeft gelezen’. „Dat uitstellen, dat liegen, dat draaien, de beloftes, de smoesjes en excuses”, schreef mijn vriend. „Ik heb dit echt nog nooit eerder gezien.”

Ik wel, dacht ik. AI begint steeds meer op een collega te lijken. Maar dan wel zo eentje waarvan je er liever niet te veel hebt. Zo’n irritante slijmbal, die glashard liegt, en vervolgens gaat draaien als hij écht moet leveren.

AI-zoekmachines zouden moeten zeggen: ik weet dit niet. Maar ze zijn ontworpen om te ‘pleasen’. Dat levert nepnieuws op, dat weer wordt overgenomen, en verder wordt gepompt door andere machines. Dat maakt me angstig voor de toekomst waarin steeds meer mensen zich op dat soort informatie gaan verlaten.

AI is een levensgevaarlijke hindermacht

Een aantal lezers wees me er op LinkedIn op dat de AI-modellen snel beter worden. Dat je in je ‘prompt’ kan instellen dat er geen informatie verzonnen mag worden (werkelijk?? Dat doet hij niet automatisch?!). Dat het jammer zou zijn „om angst in de weg te laten staan van broodnodige innovatie”. Maar ik dacht: dit is geen broodnodige innovatie, dit is een levensgevaarlijke hindermacht. Als dit de toekomst is, moeten we een stuk voorzichtiger worden.

Want kunstmatige intelligentie is geen collega die je kan ontslaan als hij het keer op keer verprutst. AI is een black box waar we nooit meer vanaf komen. Een struikrover die terugkomt met spullen waarvan we geen idee hebben waar ze vandaan komen.

Want een broer verzinnen – was het maar zo onschuldig. Artificial intelligence jat informatie vanachter betaalmuren. Praat met de Russen. Ontkleedt vrouwen, kinderen en baby’s op Twitter. Raadt mensen aan suïcide te plegen. Legt trouwambtenaren teksten in de mond, waardoor huwelijken ongeldig worden. En dat zijn nog maar een paar kwalificaties die ik tegenkwam op het web. Maar maak je geen zorgen joh.

Misschien klopt dat ook niet.

Heb je een vraag van de week, taboe, of ‘kwestie’ voor deze rubriek? Mail dan naar japkeddenktmee@nrc.nl

Schrijf je in voor de nieuwsbrief NRC Voorkennis

Economieredacteuren nemen je mee in de discussies die zij op de redactie voeren over actuele ontwikkelingen

Uitgelichte artikelen

Source: NRC

Previous

Next