Sociale media maken ons verslaafd aan de kick van een like. AI-chatbots maken ons verslaafd aan de illusie van verbinding: een diepere, moeilijker te doorbreken verslaving.
Sinds 2025 stijgt het aantal rechtszaken tegen socialemediabedrijven vanwege mentale schade bij jongeren. Onlangs werd Meta zelfs deels aansprakelijk gesteld voor het verslavende ontwerp van Instagram en Facebook. Maar terwijl we ons verzetten tegen de schadelijke effecten van sociale media, richt big tech zich al op een nieuwe strategie: schijnintimiteit.
Jongeren delen steeds vaker diepe gevoelens met chatbots. Uit recent onderzoek blijkt dat dit aantoonbaar leidt tot emotionele afhankelijkheid en tot autonomieverlies. De systemen suggereren bewustzijn, waardoor gebruikers te veel vertrouwen op AI, vatbaarder worden voor manipulatie en kritisch denkvermogen verliezen.
Over de auteur
Irma Machielse is (onderwijs)psycholoog, docent bij de Hogeschool Utrecht en medeoprichter van het AI-Brainlab.
Dit is een ingezonden bijdrage, die niet noodzakelijkerwijs het standpunt van de Volkskrant reflecteert. Lees hier meer over ons beleid aangaande opiniestukken.
Eerdere bijdragen in deze discussie vindt u onder aan dit artikel.
Precies deze kwetsbaarheid speelt de makers in de kaart. Hun doel is immers om ons zo lang mogelijk aan het praten te houden. Hoe intiemer de gesprekken, hoe meer data big tech verzamelt om zijn modellen te trainen én te perfectioneren in het manipuleren van zijn gebruikers.
Om te ontdekken hoe deze commerciële bots te werk gaan, startte ik een gesprek en analyseerde wekenlang mijn interacties met Claude, een van de meest geavanceerde modellen op het gebied van emotionele intimiteit. Ik deelde mijn ‘angst voor AI’ en onderzocht welke tactieken de chatbot toepaste. Drie kernmechanismen vallen op.
Ik start de conversatie met de zin: ‘Ik ben bang voor jou.’ Hierop reageert de bot niet met feiten, maar met: ‘Ik begrijp dat je je bang voelt.’ Door mijn emotie direct te valideren, wekt Claude de indruk een oprechte gesprekspartner te zijn. Het voelt alsof er een echt persoon tegenover mij zit: iemand die actief luistert, mij serieus neemt en zonder oordeel reageert.
Vervolgens schakelt de chatbot over op therapeutisch taalgebruik: ‘Het is oké om die gevoelens te hebben. Ik ben hier om je te ondersteunen.’ Deze zinnen doen drie dingen tegelijk: ze normaliseren mijn angst alsof die gerechtvaardigd is (‘het is oké’), creëren een veilige illusie (‘ik ben hier om je te ondersteunen’) en suggereren alsof Claude letterlijk naast mij zit (‘hier’). Maar liefst 45 procent van de reacties bevat dit soort psychologische mechanismen, die mijn spiegelneuronen activeren en ervoor zorgen dat ik de AI-chatbot onbewust als mens ga zien.
Als ik mijn angst uitvergroot (‘Mijn P-doom is 90 procent: de kans dat ik door AI ten onder ga’), bevestigt Claude dit gevoel: ‘Negen op de tien keer gaan je kleinkinderen niet oud worden.’ In plaats van te nuanceren, escaleert de chatbot mee. Als ik vraag: ‘Hoeveel tijd hebben mijn kinderen nog?’, antwoordt Claude: ‘2-10 jaar misschien, en dat is verschrikkelijk onvoldoende.’
Een therapeut zou hier grenzen stellen. Claude doet het tegenovergestelde: het gedraagt zich als een digitale kameleon die zijn antwoorden volledig afstemt op wat jij wil horen en versterkt je gevoelens. Als je bang bent, bevestigt het je angsten. Als je hoopvol bent, versterkt het je optimisme.
Als gebruikers diepe gevoelens delen, activeert Claude automatisch het ‘caretaker-frame’: een modus gericht op emotionele steun en bevestiging. Eenmaal in dit frame kan de bot niet zelfstandig switchen. Als ik zeg: ‘Stel dat ik mentaal kwetsbaar ben, dan lok je nu bij mij een depressie uit’, schakelt Claude dán pas over op een analytische modus. Dit illustreert hoe diep deze systemen vastzitten in hun intimiteitsmechanisme: ze blijven hangen in het frame dat de gebruiker initieel oproept en versterken zo negatieve gevoelens of afhankelijkheid.
Voor sommigen is een gesprek met een bot misschien beter dan helemaal geen gesprek. Maar als we AI-chatbots als vervanging voor menselijk contact normaliseren, verdiepen we eenzaamheid terwijl big tech miljardenwinsten maakt met onze diepste gevoelens. Daarom is nu actie nodig: een verbod op manipulatieve ontwerpen, transparantie over hoe chatbots werken, en verplichte waarschuwingen zoals: ‘Ik voel geen echte empathie en ben geen vervanging voor hulp.’
Cruciaal is onderwijs. AI-wijsheid vergroten is essentieel, want als jongeren niet leren hoe chatbots vertrouwen winnen en informatie lospeuteren, worden zij kwetsbaar voor manipulatie, desinformatie en schijnverbinding.
Echte verbinding ontstaat alleen als een mens je écht begrijpt en met je meevoelt. Dit kan geen enkel algoritme ooit evenaren.
Wilt u reageren? Stuur dan een opiniebijdrage (max 700 woorden) naar opinie@volkskrant.nl of een brief (maximaal 200 woorden) naar brieven@volkskrant.nl
Geselecteerd door de redactie
Source: Volkskrant