Home

De mens is niet te reduceren tot een stukje code, aldus AI-pionier Joseph Weizenbaum. Ontmenselijking is nabij

Als we niet oppassen, ligt ons een gemechaniseerd en zielloos bestaan in het vooruitzicht. Het is de hoogste tijd voor een Joseph Weizenbaum-hype. Deze computer­wetenschapper zag in de jaren zestig al dat we door AI anders gaan kijken naar onze eigen menselijkheid.

Het is misschien wat deterministisch om een mensenleven te willen vangen in een videofragment van slechts een paar minuten, maar toch.

Davos, 2008. De dan 85-jarige Duits-Amerikaanse computerwetenschapper Joseph Weizenbaum – rond brilletje, volle snor, zijn wit-grijze haar naar achteren gekamd – is met andere deskundigen in gesprek over technologie en digitalisering.

Wanneer de moderator voor de zoveelste keer ‘it is happening’ zegt, veert Weizenbaum overeind. ‘Hoezo, het is aan het gebeuren?’ Met zijn pen prikt hij de moderator in zijn schouder. ‘Ik heb het tegen jou! It is happening, alsof technologie autonoom en onvermijdelijk is, zichzelf ontwikkelt. Alsof het niet mensen zijn die haar bedenken en maken, mensen met allerlei verschillende motieven. En het publiek hier schrikt allang niet meer van zulke woorden. Nee, het gelooft écht dat technologie ons maar gewoon overkomt, dat technologische vooruitgang niet te stoppen is, dat verzet niet langer nodig is!’

Ja, Weizenbaum (1923-2008) kon zich vreselijk opwinden over deze mythe van technologische onvermijdelijkheid, die volgens hem een krachtig kalmeringsmiddel voor het geweten vormt. Ze ontslaat mensen van de plicht om verantwoordelijkheid te voelen voor de manier waarop technologie, en kunstmatige intelligentie (AI) in het bijzonder, onze menselijkheid steeds verder uitgumt.

Weizenbaum voelde die verantwoordelijkheid, uiteindelijk, tot in zijn diepste vezels.

Chatbot Eliza

In 1966 ontwikkelde Weizenbaum aan het Massachusetts Institute of Technology (MIT) een chatbot die hij Eliza noemde. Dat project vloeide voort uit een zojuist door de universiteit verworven technologisch systeem waarmee het eenvoudiger werd om computers te besturen. In plaats van een handgeschreven programma te moeten coderen op een ponskaart en in de computer te stoppen, konden programmeurs via een aangesloten typemachine eenvoudig een opdracht invoeren en direct antwoord krijgen van de computer.

Weizenbaum was benieuwd of hij deze nieuwe manier van interacteren verder kon verfijnen. Zou het mogelijk zijn om niet via code, maar gewoon in het Engels met een computer te praten? Hij programmeerde een script waarin de chatbot als een soort psychotherapeut de antwoorden van de patiënt herhaalt in de vorm van een vraag, wat relatief eenvoudig was vast te leggen in een paar regels code. Via deze specifieke ‘rogeriaanse’ (verwijzend naar psycholoog Carl Rogers) gesprekstechniek moest de indruk worden gewekt dat de chatbot zijn gesprekspartner begreep, dat het een bepaalde vorm van intelligentie bezat.

Dat ging bijvoorbeeld zo:

Gebruiker: Mannen zijn allemaal hetzelfde.
Eliza: Op welke manier?
Gebruiker: Ze zeuren altijd ergens over aan onze kop.
Eliza: Kun je een specifiek voorbeeld geven?
Gebruiker: Nou, ik moest van mijn vriend hiernaartoe komen.
Eliza: Je moest van je vriend hiernaartoe komen.
Gebruiker: Hij zegt dat ik vaak depressief ben.
Eliza: Het spijt me te horen dat je vaak depressief bent.

Echt serieus nam Weizenbaum zijn creatie niet. Hij wilde vooral iets ludieks ontwikkelen, een programma dat mensen aan het lachen zou maken. In zijn kringen begon het idee te leven dat het menselijk brein een computer was die nagebouwd kon worden. Weizenbaum verwachtte dat het brede publiek door Eliza zou zien dat AI eerder een soort goochelarij was: de magie zou vanzelf afbrokkelen wanneer gebruikers zouden doorhebben dat de chatbot slechts bepaalde regels volgde en zelf niet beschikte over enige vorm van menselijke intelligentie.

Het liep anders. Gebruikers hadden juist de neiging om de chatbot te humaniseren. Ze voelden zich al snel zo op hun gemak dat ze hun diepste geheimen opbiechtten aan de machine. Zelfs wanneer Weizenbaum probeerde uit te leggen hoe het programma in elkaar zat en benadrukte dat het absoluut geen bewustzijn had, bleef de illusie intact en beweerden de meeste mensen dat de chatbot hen écht begreep.

Jaren later vertelde Weizenbaum nog altijd met verbazing de anekdote over zijn secretaresse die hem, nadat ze hem maandenlang aan de chatbot had zien werken en dus wist dat het slechts een computerprogramma was, verzocht haar kamer te verlaten omdat ze midden in een intiem gesprek verkeerde met de machine.

In zijn paper Eliza (1966) schreef hij de inmiddels legendarische woorden: ‘Sommige testpersonen zijn heel moeilijk te overtuigen dat Eliza geen mens is.’

Precies dat was het baanbrekende aan Eliza. Mensen antropomorfiseren: wanneer een object onze taal ‘spreekt’, moet het wel levend zijn, denken we, beschikken over een vorm van bewustzijn, in staat zijn ons te begrijpen, of toch tenminste op ons lijken. We hunkeren naar aandacht en begrip, en dus dichten we de chatbot menselijke intelligentie toe. Een illusie die we actief in stand houden.

Ingesleten in de samenleving

De huidige hype rondom AI is vergelijkbaar met die van de jaren zestig. Ook ten tijde van Eliza heerste het geloof dat de computer binnen afzienbare tijd zou beschikken over net zoveel intelligentie als de mens. Na een ‘AI-winter’ van bijna vijftig jaar, een periode zonder noemenswaardige technologische vooruitgang, wordt dat narratief opnieuw breed gedeeld in tech-achtige kringen.

Ja, er is de laatste jaren vooruitgang geboekt op technologisch gebied. Maar de grootste verandering is cultureel van aard. Er is een verhaal, er is enthousiasme, AI komt eraan, it is happening, onze hele samenleving zal op zijn kop worden gezet.

Het geloof in de onvermijdelijkheid van technologie zit dieper dan ooit ingesleten in onze samenleving. Dat zie je terug in hoe we AI-ethiek bedrijven. Natuurlijk, er zijn meer critici dan in de tijd van Weizenbaum. Het grote verschil is alleen dat AI zelf nauwelijks ter discussie wordt gesteld, zelfs niet wanneer het typisch menselijke vaardigheden als creativiteit, intuïtie, oordeelsvermogen en empathie dreigt over te nemen en dus wel heel nadrukkelijk het domein van de mens binnenwandelt.

It is happening. De uitrol van AI, de gedweeë maatschappelijke overgave eraan, lijkt geen angst in te boezemen. In plaats daarvan beweren techdenkers dat het draait om onszelf zo goed mogelijk voorbereiden op en aanpassen aan de ‘AI-revolutie’.

Welke kant willen we op? En, terwijl er voor honderden miljarden datacenters worden gebouwd, welke kant kunnen we nog op?

Het wordt tijd dat we het werk van Weizenbaum herontdekken en herwaarderen. Ik zou bijna zeggen: de samenleving is dringend gebaat bij een Weizenbaum-hype.

Dubbel onder vuur

Joseph Weizenbaum groeide op in een Joods gezin uit de hogere middenklasse in Berlijn. Van een warm nest was geen sprake. Zijn moeder was na een zware bevalling nogal teleurgesteld over het resultaat. ‘Moet dit mijn kind voorstellen?’, zou ze hebben gezegd. Later draaide ze bij en schonk hem een overdaad aan liefde, die hij als verstikkend ervaarde. Ze kwam veel te dichtbij, hij begreep niet wat ze van hem wilde.

Zijn vader, een succesvol bontwerker, was kil en afstandelijk. Hij was ervan overtuigd dat zijn zoon een ‘waardeloze idioot’ was, dat het nooit wat met hem zou worden. Telkens wanneer de jonge Weizenbaum iets bereikte, werd het weggewuifd. Hij had gewoon geluk gehad. Weizenbaum kon zich op latere leeftijd niet één fatsoenlijk gesprek met hem herinneren.

En dan waren er nog de nazi’s. Op zijn 10de werd er een wet aangenomen die het aantal Joodse leerlingen inperkte dat op openbare scholen les mocht krijgen. Hij stapte noodgedwongen over naar een Joodse jongensschool. In die jaren zag hij het geweld tegen Joden die bij hem in de buurt woonden toenemen.

Hij lag dubbel onder vuur: ongeliefd als kind van zijn ouders, ongewenst als Jood in Duitsland.

In 1936, op zijn 13de verjaardag, vluchtte het gezin naar Amerika. Weizenbaum, die als de wiedeweerga Engels moest leren, behaalde zijn middelbareschooldiploma en ging vervolgens wiskunde studeren aan de Wayne State University in Detroit. Dat was deels een vlucht: in de wereld van de wiskunde was een goede beheersing van de Engelse taal geen vereiste.

Het verloste hem daarnaast bij vlagen van zijn eenzaamheid. Hij kon opgaan in wiskunde alsof het een spelletje was: de macht die je had over de computer, het op zijn kop zetten van natuurwetten – de mogelijkheden waren onbegrensd.

Zijn studie werd tijdens de Tweede Wereldoorlog onderbroken omdat hij als meteoroloog bij de luchtmacht aan de slag ging. In die tijd trouwde hij, met Selma, met wie hij een zoon kreeg. Een paar jaar later gingen ze uit elkaar. Selma kreeg de voogdij, wat Weizenbaum, wiens mentale welbevinden toch al behoorlijk broos was, moeilijk kon verwerken.

Hij werd in het ziekenhuis opgenomen voor anorexia en leed aan chronische zelftwijfel, waarvoor hij in psychoanalyse ging. Hij verweet het zijn vader: ‘Als je altijd hebt gehoord dat je waardeloos bent, ga je het vanzelf geloven.’

In de jaren vijftig braken betere tijden aan. Hij trouwde met Ruth, een lerares met wie hij vier dochters kreeg. In dezelfde periode werkte hij als assistent aan de Wayne State University aan de bouw van de eerste computers. Het was magisch om te werken aan iets compleet nieuws, aan iets waar nog geen handleiding voor bestond, vond hij.

Pas in 1963 kwam zijn wetenschappelijke carrière op gang. Hij kreeg een baan aangeboden als computerwetenschapper bij het prestigieuze MIT, waar hij uiteindelijk, na zijn Eliza-experiment, hoogleraar zou worden.

Nasleep van Eliza

De nasleep van Eliza was ingewikkeld voor Weizenbaum. Voor hem was het allemaal een soort van grap geweest, maar de rest van de wereld, waaronder het wetenschappelijke veld, nam zijn chatbot bloedserieus.

Het sterkte de kunstmatige intelligentsia, zoals Weizenbaum AI-wetenschappers consequent noemde, in hun droom om een kunstmatige mens te bouwen. Weizenbaum was kritisch. Hij zag met lede ogen aan hoe de ‘computermetafoor’ – de mens is een computer – zich steeds steviger in de samenleving verankerde.

Het liefst wilde hij in verzet komen, want de mens was in zijn optiek een complex, ongrijpbaar en gelaagd wezen, niet te reduceren tot een stukje code. Maar ja. Hij kon nog steeds niet geloven dat hij het tot MIT had geschopt, voor het eerst in zijn leven voelde hij iets van eigenwaarde. Hij was iemand geworden. Moest hij dat zomaar weggooien door met gestrekt been tegen zijn collega’s in te gaan?

Zijn houding veranderde toen het protest tegen de Vietnamoorlog eind jaren zestig aanzwol. Terwijl veel van zijn collega’s verheugd waren dat er voor de computerafdeling meer geld beschikbaar kwam, begon Weizenbaum in te zien hoe zij bijdroegen aan de oorlog door bijvoorbeeld te werken aan computers die berekenden waar napalmbommen het beste konden worden neergegooid. MIT faciliteerde de steeds meer wiskundige, calculerende denkwijze die binnen het Pentagon werd ingevoerd, een denkwijze die de verantwoordelijkheid verschoof van mensen naar technologie en de mens als gevolg op comfortabele afstand plaatste van alle gruwelijkheden.

Deze medeplichtigheid viel Weizenbaum zwaar. Hij zag een parallel met nazi-Duitsland, waar Duitse wetenschappers de houding van onwetendheid hadden aangenomen: ze beweerden geen idee te hebben van wat er met hun onderzoek gebeurde, ze waren slechts wetenschappers, geen politici, der Führer besliste. Dezelfde mentaliteit zag hij terug bij zijn MIT-collega’s. Ach, zeiden ze, als wij het niet doen, doen anderen het wel.

Weizenbaum wilde wél verantwoordelijkheid nemen voor de gevolgen van zijn onderzoek. Dat maakte dat hij met een nieuwe blik ging kijken naar zijn Eliza-experiment en alle reacties die het had opgeroepen.

Gemechaniseerde blik

Wat hem het meest verbijsterde, was dat serieuze psychologen en psychiaters geloofden dat de chatbot zou kunnen uitgroeien tot een AI-therapeut. In wetenschappelijke artikelen werd het beeld geschetst van honderden patiënten die tegelijkertijd werden behandeld. ‘Deze groep ziet de eenvoudigste mechanische parodie op één enkele therapeutische interviewtechniek als voldoende om de essentie van een menselijke ontmoeting te kunnen vastleggen’, reflecteerde hij later.

Het opportunisme van de psychiaters was exemplarisch voor de manier waarop de mens steeds meer werd beschouwd als een informatieverwerker die beslissingen neemt door een set regels te volgen, regels die óók kunnen worden vastgelegd in een computer.

Deze gemechaniseerde blik op de mens is terug te zien in hoe de psychologie en psychiatrie zich de laatste decennia hebben ontwikkeld: intuïtie en ervaringskennis zijn in toenemende mate ingewisseld voor geprotocolleerde, gestandaardiseerde behandelingen, de patiënt wordt vanaf het prilste begin opgesloten in een DSM-beschrijving, het lijden via de cijfers van de vragenlijst gekwantificeerd.

Het laatste half jaar werd er al veel geschreven over de toenemende hoeveelheid mensen die therapeutische gesprekken met AI voeren – en daarover enthousiast zijn.

Je zou willen dat psychiater en psychologen deze ontwikkeling afremmen, maar vaak lijkt het tegenovergestelde te gebeuren. Ze bediscussiëren het op congressen, doen er wetenschappelijk onderzoek naar, wijden er bevlogen columns aan. De grenzen van de verbeelding reiken tot kritische noten over privacy en het behandelresultaat. Maar wie stelt de vraag of we dit überhaupt zouden moeten willen?

‘Wat weet een rechter of psychiater dat wij een computer niet kunnen vertellen?’, hoorde Weizenbaum vaak vanuit de kunstmatige intelligentsia. Bijna niets maakte hem bozer dan zulke opmerkingen. Alleen al het stellen van zo’n vraag beschouwde hij als een ‘monsterlijke obsceniteit’, als een teken van ‘de waanzin van deze tijd’.

Het is moeilijk om AI-therapie als iets anders dan een bedreiging voor onze menselijkheid te zien. Het staat haaks op zoiets als de therapeutische relatie, het vertrouwen dat, soms via een hobbelig pad, wordt opgebouwd tussen patiënt en behandelaar, de genezende factor, de kern van therapie.

Waar koersen we op af wanneer we telkens juist dat wat menselijk is opruimen met technologie?

Volgens Weizenbaum op niets minder dan dehumanisering. De mens kan door de computer nooit in zijn volledigheid worden gezien. Dus verandert de computer ons idee van wat begrijpen inhoudt, van wat empathie is, van wat tot kunst en creativiteit wordt gerekend. Deze rijke, menselijke vaardigheden verworden tot dingen die machines kunnen. Zodra mensen daar genoegen mee nemen, ligt een zielloos en gemechaniseerd bestaan in het vooruitzicht.

De enige remedie: een grens trekken tussen mens en machine.

De computer terug op zijn plaats

Dat deed hij dan ook in zijn in 1976 verschenen boek Computer Power and Human Reason – From Judgment to Calculation, waarin hij, op zijn weizenbaums, met veel temperament en passie de grenzen van zijn eigen beroep verkende. Kort samengevat was zijn boodschap dat we ons niet moeten afvragen wat computers allemaal zouden kunnen, maar welke taken we ze zouden moeten toekennen. De discussie omtrent AI was niet technologisch, maar ethisch van aard.

Ja, het nemen van een beslissing kan een computationele activiteit zijn, iets wat uiteindelijk kan worden geprogrammeerd, bijvoorbeeld door alle psychologische vakliteratuur in een chatbot te proppen. Maar het vormen van een oordeel is heel wat anders. Dat draait om het maken van morele keuzen, iets waartoe alleen mensen in staat zijn.

Computers kunnen immers slechts berekenen en zijn niet bij machte om niet-wiskundige factoren als intuïtie, emotie, empathie, rechtvaardigheid en het onbewuste te vangen. Ze zijn gemaakt, niet geboren, niet afhankelijk van de liefde van een ander mens, ze hoeven geen obstakels te overwinnen, bouwen geen levenservaring op, hebben geen geschiedenis, geen lichaam, geen angsten en dromen en ze verwerven geen waarden en idealen in de loop van hun leven.

De kunstmatige intelligentsia wil de complete mens nabouwen, maar wat niet te kwantificeren valt, wordt uitgefilterd. Wat blijft er dan van de mens over?

Weizenbaums concrete voorstel was om de computer terug op zijn plaats te zetten, het weer uitsluitend te beschouwen als een hulpmiddel bij het maken van berekeningen. Deze vorm van ethiek bedrijven behelst niet het nadenken over hoe een AI-therapeut zo ethisch mogelijk het gesprek met patiënten kan aangaan en diagnoses kan opstellen, maar draait om de constatering dat zulke chatbots überhaupt niet zouden moeten worden gemaakt, omdat ze de patiënt in kwestie ontmenselijken, omdat besluitvorming niet iets is wat zou moeten worden geautomatiseerd.

Hetzelfde geldt voor AI-algoritmen die rechters helpen bij het bepalen of een gevangene voorwaardelijk mag worden vrijgelaten of niet, zoals in Amerika inmiddels is genormaliseerd. Wederom: ethici zouden zich niet moeten buigen over de vraag hoe je de vooroordelen en racistische neigingen uit zo’n algoritme sloopt, maar moeten eisen dat zulke algoritmen niet worden gebouwd, omdat technologie daarmee menselijke oordeelsvorming reduceert tot koele kansberekening.

Het is bovendien naïef om te geloven dat mensen, in een ideale situatie, zouden kunnen afwijken van het oordeel van de machine. Het is gewoonweg te verleidelijk om de verantwoordelijkheid op machines of ‘het systeem’ af te schuiven, helemaal wanneer er fouten kunnen worden gemaakt (zie: de toeslagenaffaire).

Ketters en luddieten

Wie in 2025 nog zo’n harde grens tussen mens en machine optrekt, wordt waarschijnlijk voor luddiet uitgemaakt, wat dan weer treffend illustreert hoever we verwijderd zijn geraakt van Weizenbaums kritische blik op AI.

Toch zou Weizenbaum, al werd hij in zijn latere jaren behoorlijk pessimistisch, vermoedelijk nog wel mogelijkheden zien voor een mentaliteitsverandering. Hij bleef tot aan zijn dood hameren op verzet tegen de zogenaamde onvermijdelijkheid van technologie en op het nemen van verantwoordelijkheid. Dat is een taak voor wetenschappers en politici, maar ook voor jou en mij, want burgers kunnen volgens Weizenbaum transformeren tot ‘eilandjes van rede’, waarmee hij bedoelde dat je zelf kunt nadenken over hoe technologie het alledaagse leven verarmt.

Herken de waanzin om je heen en spreek je uit. Dan volgt collectief verzet vanzelf.

Computer Power and Human Reason markeerde de omwenteling in de carrière van Weizenbaum: van computerwetenschapper naar een van de scherpste critici van kunstmatige intelligentie. Het maakte hem niet geliefd bij zijn collega’s, die hem afschilderden als ketter.

Zelf was Weizenbaum erg blij met zijn koerswijziging. Hij was trots op de erkenning die hij vanuit de maatschappij kreeg. Hij kon er daarnaast mee leven dat er een wig was gedreven tussen hem en zijn collega’s. Al tijdens zijn studie wist hij dat hij méér wilde zijn dan enkel een computerwetenschapper. Hij wilde iets betekenen voor de maatschappij, de diepte in, nadenken over de vraag wat de mens tot mens maakt.

Toch brak er in de jaren na zijn boek weer een donkere periode aan. Weizenbaum kwam niet los van zijn zelftwijfel. Hij was teleurgesteld in collega’s die hem weliswaar vertelden hoe belangrijk ze zijn boek vonden, maar het publiekelijk nooit voor hem opnamen. Begin jaren tachtig deed hij een suïcidepoging. Toen hij werd opgenomen in het ziekenhuis, diagnosticeerde een psychiater hem met een narcistische persoonlijkheidsstoornis. Hij schommelde geregeld tussen grootheidswaanzin en neerslachtigheid, wat voor spanningen binnen zijn gezin zorgde.

In 1988 ging hij met pensioen. Kort daarop gingen hij en Ruth uit elkaar. Een paar jaar later, in 1996, keerde hij terug naar Berlijn, aangetrokken door zijn jeugdervaringen en de Duitse taal. Zijn maatschappijkritiek werd daar door met name de jongere generatie goed ontvangen. Hij sprak regelmatig over de politieke en maatschappelijke gevolgen van (computer)technologie. Al met al leek hij in Duitsland tevredener en meer betrokken bij het leven. Hij liep zelfs op zijn 80ste nog mee met demonstraties tegen de oorlog in Irak.

Hij stierf in 2008, een paar maanden na Davos.

Verliefd op de mens

Weizenbaum werd eerst verliefd op computers, daarna op de mens. Wat vaak terugkwam in zijn werk was dat de mens afhankelijk is van andere mensen om te overleven. We moeten in al onze volledigheid gezien en geliefd worden.

Nog een laatste poging om iets van Weizenbaum te vangen. Een videofragment van een paar minuten. Weizenbaum naast zijn dochter, die vertelt dat ze vroeger voor een schoolopdracht aan haar docent vroeg of ze een essay over het boek van haar vader mocht schrijven. Haar vader, die altijd bezig was met computers en zo vaak in een andere, ondoorgrondelijke wereld leek te verblijven. Voor het eerst las ze zijn boek. Ze vond het heel goed. Ze schreef hem een brief: ‘Ik ben eindelijk aangekomen in jouw wereld.’

Nu wij nog.

Lees ook

Geselecteerd door de redactie

Source: Volkskrant

Previous

Next