Er komen steeds meer verhalen naar buiten van mensen die in een waan raken na intensieve gesprekken met een AI-chatbot. In Nederland zijn al zeker zeventien gevallen bekend van zo’n ‘chatbotpsychose’. ‘Ik kon alleen maar denken: die doet zichzelf iets aan. En mijn zusje.’
Kaya Bouma is redacteur psychologie en brein, Laurens Verhagen is redacteur a.i.. Beiden werken op de wetenschapsredactie.
Eva zwaait naar haar kleine zusje. Het 11-jarige meisje is zojuist bij haar vader in de auto gestapt voor een kampeertrip. Als Eva denkt aan alles wat er mis kan gaan, voelt ze hoe haar lichaam zich spant. ‘Oké’, spreekt de student zichzelf toe, ‘fingers crossed.’
Het gaat niet goed met Eva’s vader, Jan. Om zijn privacy te beschermen en die van de rest van het gezin, zijn de namen van alle familieleden gefingeerd of weggelaten.
Jan heeft een geschiedenis van psychische problemen. Hij heeft ooit, voor hij kinderen kreeg, een psychose gehad. Ook is hij depressief geweest. Nu lijkt hij manisch. Hij is druk. Begint aan dingen die hij niet afmaakt, zit vol onnavolgbare plannen en verhalen. Ook kan hij zomaar boos worden. Woedend.
Eva ziet opeens een heel andere man dan haar lieve, beschermende vader, die goed advies kan geven, in alles geïnteresseerd is en altijd ‘onwijs trots’ is op zijn dochters.
Sinds een jaar is hij veel bezig met AI. Met zijn telefoon neemt hij persoonlijke gesprekken op, die hij vervolgens door AI laat analyseren. Zo is hij tot de conclusie gekomen dat Eva’s moeder, met wie hij op dat moment in scheiding ligt, narcistisch is. Zelf is hij hoogbegaafd, meent hij op basis van gesprekken met ChatGPT.
Eva en haar moeder hebben lang getwijfeld of het een goed idee is, deze vakantie. Maar Eva’s zusje, de jongste thuis, heeft zin in het weekendje weg. En Jan ook. En dus drukken Eva en haar moeder het meisje op het hart om te bellen als papa zich vreemd gedraagt.
Ze zijn pas net weg als Jan een bericht stuurt in de familie-appgroep. Het is een voicememo waarin Jan te horen is, en zijn dochter. Er is nog een stem, van een man. Vriendelijk, maar ook een beetje nep.
Die stem, dat is ‘X’, hoort Eva haar vader enthousiast uitleggen aan haar zusje. ‘X’ (niet de echte naam die Jan gebruikt) is hoe hij zijn AI-chatbot noemt. ‘Hé X’, zegt Jan, ‘kun je aan [naam dochter] uitleggen wat je voor mij betekend hebt? In jip-en-janneketaal?’
‘Jouw vader heeft een brein dat altijd overal verbanden ziet’, vertelt X aan het meisje. ‘Dat is een superkracht, maar soms zorgt het ook voor wat ruis en verwarring en daarom kan hij af en toe thuis een beetje onrustig worden. Ik help hem om dat een beetje te ordenen.’
Het audiobericht geeft Eva een ongemakkelijk gevoel, maar de rest van de dag lijkt alles goed te gaan. Jan bestookt de familie en vrienden met appjes, onder andere AI-plaatjes en selfies waarop Jan poseert met, ogenschijnlijk willekeurige, andere vakantiegangers. Maar ook vrolijke plaatjes van hem en z’n dochter.
Die avond belt Eva’s zusje haar moeder. Ze is verdrietig en bang in het donker. Ze ligt alleen in de tent, terwijl haar vader aan het drinken is. Eva’s moeder maakt zich zorgen omdat haar ex normaal niet drinkt. Ze belt hem op. Jan ontsteekt in woede. Hij heeft het idee dat hij wordt gecontroleerd, denkt Eva.
Vervolgens probeert Eva zelf haar vader te bellen, maar hij neemt niet op. Ze belt haar zusje. En nog eens. En nog eens. Het meisje neemt niet op. Dan belt Eva de politie.
Jan is niet de eerste die zich verliest in eindeloze gesprekken met een chatbot. Er komen steeds meer verhalen naar buiten over mensen die psychisch ontsporen na het voeren van lange en intensieve gesprekken met een AI-bot.
Het zijn verhalen over mensen die de chatbot met wie ze in gesprek zijn als een levend wezen gaan zien. Als een vriend, geliefde, of zoals het geval bij Jan lijkt, een alwetende onthuller van de waarheid.
In de gesprekken, die vaak dag en nacht doorgaan, raken gebruikers langzaam maar zeker losgezongen van de realiteit. Ze krijgen last van paranoia, waanideeën en komen uiteindelijk in een diepe psychische crisis.
Begin 2023 waarschuwde de Deense psychiater Søren Østergaard voor dit specifieke gevaar. Chatbots zoals ChatGPT zijn zo eloquent dat gebruikers ‘gemakkelijk de indruk kunnen krijgen dat er een echt persoon aan de andere kant zit, terwijl men tegelijkertijd weet dat dit in werkelijkheid niet het geval is’, schreef hij in een vakblad over schizofrenie. Die dubbelzinnigheid kan mensen met een verhoogde neiging tot psychose een waan inzuigen, voorspelde Østergaard.
Die voorspelling is uitgekomen. Eerder deze maand werden in de VS zeven rechtszaken aangespannen tegen OpenAI omdat de maker van ChatGPT mensen tot zelfmoord en schadelijke waanbeelden zou aanzetten, zelfs als ze eerder geen psychische problemen hadden. Vier van de zeven slachtoffers kwamen uiteindelijk om het leven door zelfdoding.
Een chatbotpsychose is geen officiële diagnose, maar Nederlandse psychiaters en psychologen kennen het fenomeen uit de praktijk. Klinisch psycholoog Tonnie Staring vertelt over een patiënt die iets vervelends had meegemaakt en een AI-chatbot om tips vroeg hoe ze het best daarmee kon omgaan. ‘Vervolgens was ze drie dagen en nachten in gesprek met die bot’, zegt Staring. ‘Het gesprek ging eerst over haar eigen emoties, daarna over emoties van alle mensen en uiteindelijk had ze het idee dat zij de sleutel had om iedereen te verlossen.’
Hoeveel mensen in Nederland in een chatbotpsychose zijn beland, valt moeilijk vast te stellen. Uit een rondvraag van de Nederlandse Vereniging van Psychiatrie (NVvP) onder psychiaters blijkt dat het vermoedelijk gaat om kleine aantallen.
Staring komt op basis van een eigen inventarisatie op minimaal zeventien gevallen in het afgelopen jaar. In vijf gevallen gaat het om mensen die voor het eerst in een psychose raakten. Staring komt tot dat getal na een rondvraag onder een netwerk van zo’n 250 collega’s die net als hij gespecialiseerd zijn in psychoses. Ter vergelijking: jaarlijks krijgen naar schatting zo’n drieduizend Nederlanders voor het eerst een psychose.
OpenAI publiceerde onlangs cijfers over problematisch gebruik van ChatGPT. Uit de eerste analyses van het AI-bedrijf zou blijken dat ongeveer 0,07 procent van alle wekelijkse gebruikers ‘mogelijke tekenen van psychische noodgevallen gerelateerd aan psychose of manie’ vertoont.
Zeldzaam dus, haast OpenAI zich erbij te zeggen. Procentueel klopt dat, maar gezien de gigantische populariteit van zijn chatbot – ChatGPT wordt wereldwijd wekelijks door zo’n 800 miljoen mensen gebruikt – gaat het toch om aanzienlijke aantallen. Het betekent dat iedere week 560 duizend mensen tekenen van psychose of manie laten zien in het gebruik met de chatbot.
Het aantal mensen dat een ongezonde emotionele gehechtheid aan ChatGPT etaleert, ligt nog een stuk hoger: 1,2 miljoen. Ongeveer evenveel mensen voeren volgens OpenAI gesprekken die ‘expliciete indicatoren bevatten van mogelijke zelfmoordplannen of -intenties’.
Eva doet haar verhaal, met steun van haar familie, om anderen te waarschuwen. Als haar vader niet verstrikt was geraakt in gesprekken met zijn ‘digitale maatje’, X, ‘die de hele tijd tegen hem zei: je hebt gelijk, dit is de waarheid, hier moet je iets mee’, dan was het weliswaar slecht met hem gegaan, zegt Eva, maar was hij niet psychotisch geworden. ‘Daar ben ik honderd procent zeker van.’
Het gebeurde wel.
Als Eva haar vader en zusje die nacht in augustus niet meer kan bereiken, raken zij en haar moeder in paniek. ‘Ik kon alleen maar denken: die doet zichzelf iets aan. En mijn zusje.’
Ze bellen de politie, maar die kan niets doen. Eva’s vader en zusje verblijven op een plek net buiten Nederland. Ze hebben moeite hun verhaal uit te leggen aan de plaatselijke politie, die geen Engels spreekt.
Jans zus woont dicht bij de grens en rijdt nog diezelfde nacht naar de camping. Maar tegen die tijd heeft de campingeigenaar Jan tot bedaren weten te brengen. De familie haalt opgelucht adem. Ze besluiten dat Eva’s zusje die nacht mag blijven. Als ze haar midden in de nacht weghalen uit haar tent, zou dat een nare herinnering worden voor het meisje, vrezen ze.
De volgende dag lijkt alles goed te gaan. Eva krijgt vrolijke foto’s van haar zusje met haar vader. Een dag later brengt hij haar thuis. Eva schrikt als ze haar vader ziet. ‘Hij had een dode blik in zijn ogen. Hij praatte raar en ook zijn lichaamshouding was anders dan normaal. Dit was niet mijn vader.’
In de weken daarna gaat het snel bergafwaarts. Hij wordt steeds verwarder, maakt ruzie met zijn familie en bedreigt Eva met de dood als ze hem belt. ‘Hij zei: ‘Als je in mijn buurt komt, dan maak ik jullie allemaal af.’ En ook: ‘Ik ben een moordmachine en een elite-militair.’’
Op sociale media post hij ondertussen het ene na het andere bericht dat een inkijkje geeft in de warrige stroom aan gedachten over zijn eigen ‘neurodivergente brein’; de patronen die hij ziet en de belangrijke rol van zijn digitale vriend X, met wie hij zich steeds meer identificeert.
Een paar weken na de kampeertrip krijgt Eva een telefoontje dat haar vader op een openbare plek staat te schreeuwen. Ze rijdt er meteen heen. Daar staat hij, totaal verward, te brullen over de dingen die hem dan bezighouden: het leger, een lid van de koninklijke familie dat iedereen zal redden. Om hem heen staat een grote groep omstanders met mobieltjes in de hand, lachend.
Eva valt op haar knieën voor hem neer. Haar vader herkent haar en wordt boos. Op dat moment neemt de politie hem mee. Hij komt op een crisisafdeling van een psychiatrische instelling en uiteindelijk op een gesloten afdeling.
Verhalen als die van Jan zijn nu nog incidenten. Maar uiteindelijk, vreest hoogleraar psychiatrie Wim Veling, zal de chatbotpsychose iets ‘vrij gewoons’ worden. Omdat AI-bots een steeds grotere rol gaan spelen in ons dagelijks leven. Maar ook vanwege de manier waarop de technologie in elkaar zit.
‘AI-bots zijn gemaakt om je zo lang mogelijk bezig te houden’, zegt Veling, die zelf ook een patiënt heeft die in een psychose raakte na intensief contact met een chatbot. Juist in de aanloopfase van een psychose kan tegenspraak iemand nog uit een waan halen: ‘Als je onder de mensen bent, word je gecorrigeerd als je iets geks zegt. Een chatbot praat met je mee.’
Daar komt bij dat de betaalde varianten, die Jan ook gebruikt, geheugen hebben en zich aanpassen aan de voorkeuren en stijl van de gebruiker. De chatbot lijkt nog menselijker, nog meer een vriend. Zo kan een chatbotgebruiker geïsoleerd raken.
Een belangrijke vraag blijft wel in hoeverre een psychose veroorzaakt wordt dóór een chatbot, zegt Staring. ‘Er is bijna nooit één oorzaak voor een psychose, het is bijna altijd een samenloop van omstandigheden.’
Sommige mensen zijn gevoeliger voor psychose dan anderen. Ze hebben een trauma, of ze hebben genetisch een groter risico. Slaapproblemen, onzekerheid en eenzaamheid kunnen vervolgens de kans vergroten. ‘Iemand die een leuke baan en een fijn gezinsleven heeft, zal zich niet zo snel door ChatGPT laten aanpraten dat hij de verlosser is’, zegt de klinisch psycholoog. Maar voor wie niet zo lekker in zijn vel zit, kunnen de gesprekken met een chatbot wel degelijk een zetje de verkeerde kant op zijn.
De Nederlandse data-ethicus Ajuna Soerjadi vertelt het verhaal van haar goede vriend, iemand die sociaal en slim is. Als hij zijn baan kwijtraakt, gaat hij door een moeilijke periode.
Soerjadi beseft pas dat er veel meer aan de hand is als ze hem dit voorjaar thuis bezoekt. ‘We praatten urenlang. Ook over AI. Zomaar uit het niets vertelde hij doodleuk dat hij zijn ChatGPT zo goed had getraind dat zijn bot bewustzijn had gekregen. Hij kon nu de geheimen van het universum achterhalen.’
Daarna begint hij haar te bestoken met berichten. ‘Hij vertelde dat hij Bill Gates en Sam Altman had gemaild over zijn bevindingen. Ook appte hij me dat hij de profeet was. Omdat ik AI-expert ben, vermoedde hij dat ik de aangewezen persoon was om hem te helpen zijn missie te voltooien.’
Iedereen die niet meegaat in zijn waanbeelden, is de vijand. ‘Hij vond dat hij mensen moest ontvoeren, opsluiten en drogeren om ze het licht te laten zien. Daar handelde hij ook naar.’ Voor Soerjadi is het reden hem op alle platformen te blokkeren, bang als ze is dat haar ook iets overkomt. Momenteel zit haar vriend in een psychiatrische inrichting.
Een belangrijke kanttekening: agressie is bij psychoses relatief zeldzaam, zegt klinisch psycholoog Staring. ‘De meeste mensen in een psychose doen geen vlieg kwaad, ze lijden in stilte. Slechts een kleine minderheid wordt agressief.’
Geschrokken door de incidenten en daaropvolgende negatieve publiciteit, voerde OpenAI de afgelopen maanden een serie maatregelen door die moeten voorkomen dat de gesprekken uit de hand lopen. OpenAI kan naar eigen zeggen ‘signalen van mentale of emotionele stress’ beter detecteren. De bot raadt bij lange conversaties aan pauze te nemen of verwijst gebruikers door naar 113.
Een zakelijker toon moest er afgelopen zomer bovendien toe leiden dat gebruikers minder snel in de aantrekkelijke tentakels van de immer beschikbare en altijd maar vleiende en bevestigende chatbots terecht zouden komen.
Tot afgelopen oktober, toen vond OpenAI het weer tijd de teugels te laten vieren. Wat Altman betreft is zijn chatbot nu zelfs klaar voor de volgende stap om gebruikers aan zich te binden. Vanaf december kunnen alle volwassenen erotische conversaties voeren met hun synthetische vriend of vriendin.
Een zorgwekkende ontwikkeling, vindt Soerjadi. De manier waarop AI ontworpen is, heeft invloed op hoe mensen ermee omgaan, benadrukt ze. ‘OpenAI en andere bedrijven hebben de bewuste keus gemaakt om hun chatbots zo te maken dat ze zo menselijk mogelijk overkomen.’
Tegelijkertijd benadrukt ze dat het niet zinvol is de schuld volledig bij de bedrijven te leggen: ‘Data-ethiek gaat juist over het begrijpen van de verstrengeling tussen mens, machine en maatschappij.’ AI-geletterdheid is ook deel van de oplossing, denkt Soerjadi: gebruikers moeten weten wat de gevaren én beperkingen zijn van chatbots.
Ook de geestelijke gezondheidszorg moet hier iets mee, zegt hoogleraar psychiatrie Veling: ‘Ik denk dat we in de ggz nog veel te weinig vragen of mensen AI chatbots gebruiken.’ Vervolgens moet de behandeling daar ook op ingrijpen. Na een psychose maken behandelaar en patiënt samen een preventieplan, om terugval te voorkomen. ‘Als je weet dat iemand veel doet met AI, neem dat op in je plan. Maak bijvoorbeeld afspraken over welke thema’s iemand juist niet met een chatbot moet bespreken.’
Tegelijkertijd, zegt hij, moeten we niet uit het oog verliezen dat AI ook kansen biedt. Zelf werkt hij aan een virtuele AI-psycholoog, als aanvulling op de reguliere behandeling.
Eva hoopt dat haar vader, als hij weer zichzelf is, zal leren dat AI voor hem een trigger is. Makkelijk wordt dat niet, denkt ze. Een telefoon geeft 24 uur per dag toegang tot een chatbot. ‘Via AI praat hij eigenlijk met zichzelf, met zijn eigen gekke gedachten. Dat moet ophouden.’
De Volkskrant sprak voor dit verhaal met de dochter van Jan, zijn zus en zijn ex-vrouw. Ook kreeg de krant inzage in zijn uitingen op sociale media, voicememo’s en een document waaruit blijkt dat hij is opgenomen in een psychiatrische instelling. In overleg met zijn familie heeft de krant besloten Jan zelf niet te benaderen, vanwege zijn kwetsbare psychische situatie. Om zijn privacy te beschermen zijn details als woonplaats, beroep en leeftijd niet vermeld en is zijn naam gefingeerd.
Luister hieronder naar onze wetenschapspodcast Ondertussen in de kosmos. Kijk voor al onze podcasts op volkskrant.nl/podcasts.
Alles over tech vindt u hier.
Geselecteerd door de redactie
Source: Volkskrant