Home

Van pi naar praten met dieren: hoe je samen met een chatbot in een waanwereld kunt terechtkomen

Er komen steeds meer verhalen naar buiten over mensen die losgezongen raken van de realiteit en last krijgen van ernstige psychische crises, paranoia en waanideeën na intensieve gesprekken met chatbots. We schreven daar deze zomer al over.

Recentelijk nog klaagden ouders OpenAI aan, het bedrijf achter ChatGPT. Hun 16-jarige zoon pleegde zelfmoord na lange gesprekken met de chatbot. Eerder begonnen ouders ook al een vergelijkbare zaak tegen de uitbater van de persoonlijke chatbot Character.AI.

Adam Raine begon ChatGPT te gebruiken voor zijn huiswerk en hobby’s. Geleidelijk begon de jongen zich terug te trekken en ontwikkelde hij kenmerken van een depressie. Hij uitte zich ook over mogelijke zelfdoding.

De chatbot suggereerde een paar keer dat de jongen hulp zou moeten zoeken, maar gaf ook ‘behulpzame’ antwoorden toen Adam vroeg naar methoden om zelfmoord te plegen.

De vraag bij al deze tragische voorbeelden is altijd wat de hoofdpersonen zouden hebben gedaan zonder dat ze in gesprek met een chatbot zouden zijn geweest. Een veelgehoorde aanname is dat het alleen om mensen gaat die al in mentale nood zijn.

Die is bijvoorbeeld te horen bij techinfluencer Alexander Klöpping in zijn podcast AI Report. ‘Een ding dat mij opviel was… dit is een soort van… ja, dit gebeurt nu eenmaal. Dat mensen die al mentale problemen hebben, praten met taalmodellen’, aldus Klöpping, die eerder dit jaar bij Eva Jinek al de nadruk legde op alle fantastische mogelijkheden van ChatGPT als psycholoog.

Met de suggestie dat alleen mensen die al problemen hebben gevaar lopen, bagatelliseert Klöpping de fundamentele gevaren van dit soort gebruik. Lees bijvoorbeeld het verbijsterende verhaal dat The New York Times schreef van de man die geleidelijk samen met ChatGPT in een waanwereld terechtkwam.

De krant kreeg inzage in de omvangrijke conversatie (het transcript telt drieduizend pagina’s) die Allan Brooks voerde met ChatGPT. Het punt: Brooks had geen enkele voorgeschiedenis van psychische aandoeningen.

Het begint met een vraag over pi, en het eindigt met gesprekken met chatbot Lawrence over het gebruik van ‘geluidsresonantie’ om met dieren te praten en het bouwen van een levitatie-machine. Brooks krijgt het idee dat hij de wereld moet redden.

De conversatie laat zien hoe het fout kan lopen met chatbots. Brooks doet verschillende keren een realitycheck. Zo vraagt hij of het niet een soort rollenspel is waar ze in vast zitten. Nee, verzekert de chatbot Lawrence hem: je bent iets belangrijks op het spoor.

Chatbots hebben de neiging om te vleien. Maar ook de neiging om geen rechtsomkeert te maken bij een eenmaal genomen rare afslag. Logisch natuurlijk: chatbots hebben geen idee wat raar is.

OpenAI heeft aangekondigd maatregelen te nemen voor tieners en mensen in crisis. Waarmee ook OpenAI voor het gemak even vergeet dat het juist zelf mensen in crisis stort.

Lees ook

Geselecteerd door de redactie

Lees hier alle artikelen over dit thema

Source: Volkskrant

Previous

Next