Home

ChatGPT ontneemt ons het nadenken

‘Ik heb iets nieuws ontdekt”, zegt een vriendin op het terras. Ik kijk haar verwachtingsvol aan. Iets nieuws! Wat zou het zijn? Een manier om je langer dan twee uur per dag te kunnen concentreren? Een Sally Rooney met humor? Een café waar je nog een daghap hebt voor 10 euro?

Helaas, het blijkt te gaan om ChatGPT. De vriendin is een late adopter, maar ze maakt haar achterstand goed door ‘Chat’ voor werkelijk alles te gebruiken: van dilemma’s in haar privéleven tot advies over voedingssupplementen. Ik moet toegeven: dit klinkt heel handig. Het kan zelfs een uitkomst zijn, want ik kamp met een weigerachtige vaatwasser. Voor mij zijn huishoudelijke apparaten iets als Probleemwolf Bram: ten diepste onbegrijpelijk en onvoorspelbaar, en daarom moeilijk te benaderen. Misschien kan ChatGPT het raadsel voor mij ontsluiten.

Toch stuit haar enthousiasme me tegen de borst. Ik herken me in de woorden van Frank Heinen, donderdag in de Volkskrant: „Ik zou best eens iets willen opzoeken op ChatGPT, maar iets in mij zegt dat ik daarmee een deur openzet die ik nooit meer dicht krijg.” Maar waarom eigenlijk? Daar moet ik over nadenken. Uiteindelijk concludeer ik dat het precies dit is, het nadenken, dat large language models (LLM’s) als ChatGPT niet alleen van ons overnemen, maar ons ook óntnemen. Immers: wie bezig is met denken, doet (als het goed is) aan selecteren, samenvatten, onderscheid maken, verifiëren, verbanden leggen. Hoe behoud je die vaardigheden als je ze uitbesteedt aan een LLM?

Gelukkig blijkt er onderzoek te zijn naar deze vraag. Dit voorjaar werd een hoofdstuk gepubliceerd uit het nog te verschijnen boek The Artificial Intelligence Revolution: Challenges and Opportunities, waarnaar nu al veel wordt verwezen. De centrale stelling van Barbara Oakley, de auteur van het hoofdstuk: als we er geen kennis in opslaan, gaat ons brein achteruit. Ten eerste omdat je werkgeheugen verspilt aan het opzoeken van dingen die je ook had kunnen weten, en ten tweede omdat je je brein niet traint om feiten te ordenen en onderling te verbinden. Door patronen te herkennen in de feitenbrij leren we efficiënter en creatiever denken.

Het gebruiken van externe geheugensteuntjes zoals ChatGPT heet cognitive offloading, en bestaat veel langer dan AI. Denk aan rekenmachines en verjaardagskalenders: daardoor hoeven wij geen tafels en verjaardagen te onthouden. Maar bewaar je te veel kennis buiten je brein, dan beïnvloedt dat dus je cognitieve vermogens. Er ontstaat, in de woorden van de onderzoekers, ‘metacognitieve luiheid’.

Over de dommer wordende mens bestaan al langer zorgen. Het IQ werd wereldwijd lange tijd steeds hoger, maar daalt in diverse landen alweer een paar decennia. Afgelopen maart noemde Financial Times-journalist John Burn-Murdoch in zijn artikel ‘Have humans passed peak brain power?’ de afleiding door technologie als voornaamste oorzaak. Dat speelt zeker een rol, zegt Oakley, maar het probleem ligt dieper: het onderwijs richt zich al decennia op vaardigheden in plaats van op kennis, met die metacognitieve luiheid als resultaat. AI zal dit nog erger maken.

Het sluit aan bij wat neurobioloog Kenan Malik onlangs schreef in The Observer. LLM’s als ChatGPT tasten niet ons denken aan, het is omgekeerd, aldus Malik: ze worden omarmd omdat we denken, en de kennis die je daarvoor nodig hebt, niet meer waardevol vinden op zichzelf. Nu leek dit me een typisch geval van ‘waarom niet allebei’: het denken kan laag in aanzien staan, vervangen worden door AI, en daarom nog matiger beoefend worden. Maar los daarvan was het een interessant punt: we gooien iets weg omdat we de waarde ervan niet (er)kennen.

Voor mij als columnist is het belang van een intern archief heel duidelijk. Ik kan alleen op ideeën komen door de dingen die ik gezien en gelezen heb met elkaar in verband te brengen. Maar hetzelfde principe geldt op allerlei vlakken voor ons allemaal. We betrappen een liegende politicus alleen als we de feiten kennen. We begrijpen het nieuws door kennis van de context. We kunnen afstanden inschatten als we wel eens kaartlezen en nadenken over de beste route.

Kunstmatige intelligentie mag geen ‘kruk’ zijn, in de zin dat je niet meer zonder kunt, aldus Oakley. Het moet een aanvulling zijn op je denken, geen vervanging. The New York Times liet laatst zien hoe dat werkt. De 81-jarige psycholoog Harvey Lieberman beschreef in een essay zijn ervaringen met ChatGPT als zijn persoonlijke therapeut. Hij was positief verrast: sommige bijdragen waren matig of onjuist, maar andere leverden hem nieuwe inzichten op. Lieberman plukte eruit wat hij nuttig vond en negeerde de rest: hijzelf bleef als denker aan het roer. Het model was „geen kruk, maar een cognitieve prothese – een actieve uitbreiding van mijn denkproces”.

Lieberman zag ChatGPT als gesprekspartner, niet als orakel. Maar daarvoor moet je wel intellectueel zelfvertrouwen hebben. Dat ontwikkel je alleen door ook zelf te blijven denken.

Schrijf je in voor de nieuwsbrief NRC Broncode

Doorzie de wereld van technologie elke week met NRC-redacteuren 

Source: NRC

Previous

Next