Home

ChatGPT verheft de middelmaat

ChatGPT voedt de zesjescultuur aan universiteiten. Peter Kuipers Munneke verwacht van studenten meer dan middelmatige teksten.

Voor het maken van hun opdrachten gebruiken mijn studenten steeds vaker ChatGPT of vergelijkbare generatieve kunstmatige intelligentie (AI). De ontwikkeling daarvan gaat zo snel dat examencommissies en docententeams op universiteiten pas langzaam een beeld beginnen te krijgen van de plaats die AI in het academische onderwijs moet hebben.

Er begint consensus te ontstaan over waar AI studenten wel en niet mee mag helpen. Spelling controleren, een stukje computercode schrijven, daar kan AI uitstekend bij helpen. Dan is AI een scheidsrechter die kan vertellen wat correct is, en wat niet. Maar voor mij is er een duidelijke grens: het gebruik van generatieve AI voor het schrijven van teksten zou verboden moeten worden. Generatieve kunstmatige intelligentie is ontworpen om zo goed mogelijk een gemiddelde tekst te schrijven. Gemiddeld, dat is saai, plat en voorspelbaar. En opleiden voor saaie middelmaat, daar is een universiteit niet voor.

Om te snappen waarom ChatGPT nooit in staat zal zijn om een creatieve tekst of een origineel idee voort te brengen, moeten we heel even ontleden wat zo’n large language model eigenlijk doet. In de kern zoekt het model naar het meest waarschijnlijke woord dat volgt op de woorden die al geschreven zijn. Je kunt de werking daarvan mooi zien in chatapps op je telefoon. Als je zelf „van harte” intoetst, geeft je telefoon als vervolgsuggesties „gefeliciteerd”, „proficiat”, of een emoji met een feestmuts. Daarmee heb je hoogstwaarschijnlijk het juiste vervolg van die zin wel te pakken – die ene keer dat je van harte een condoleance per tekstbericht afdoet daargelaten.

De essentie van generatieve taalmodellen is dat ze altijd het meest waarschijnlijke vervolg kiezen. Dat voorkomt zo’n beetje alle taalkundige uitglijders, en ook een deel van de inhoudelijke missers. Maar het elimineert ook de kans dat er aan een verhaal een onverwachte draai wordt gegeven. Nooit eens word je positief verrast door een originele wending in een ChatGPT-tekst. In de drang om fouten in een tekst uit te sluiten, gooit het ook de deur voor een positieve uitschieter dicht.

Het sturen op waarschijnlijkheid is de reden dat AI geen verkiezingsprogramma’s uit elkaar kan houden. Een taalmodel heeft geen enkele inhoudelijke kennis van onderwerpen. Als je dan aan zo’n model gaat vragen wat de VVD en de PVV voor standpunten over migratie hebben, dan weet een taalmodel halverwege een zin over asielzoekers simpelweg niet of daar VVD of PVV bij moet staan. De kans op een van beide mogelijkheden is ongeveer even groot. Beide partijen schrijven vergelijkbare teksten over asiel. En in plaats van dat een taalmodel toegeeft dat het niet goed in staat is om het verschil aan te geven, kiest het dan maar een van beide. Het is alsof je op de menukaart meerdere hoofdgerechten even lekker vindt. Toch ga je er echt maar eentje kiezen. De uiteindelijke keuze komt dan toch in blinde paniek tot stand. Maar waar jezelf dan nog minutenlang kan denken of je niet tóch het andere gerecht had moeten kiezen, is het algoritme van een taalmodel na zo’n arbitraire keuze alweer bezig met de rest van zijn verhaal.

Muziekdienst Spotify stopt tegenwoordig ook liedjes die met AI gemaakt zijn in playlists van luisteraars. Dat is handig, want daarover hoeft Spotify geen rechten te betalen aan een artiest. Maar die AI-liedjes zijn allemaal ongelofelijk zielloos en mainstream. Ook hier schittert het onvermogen om iets creatiefs te maken, omdat AI nu eenmaal ontworpen is om het meest waarschijnlijke vervolg te geven aan een melodie of akkoordenschema. AI zal daarom ook nooit de volgende Beethoven, Stravinsky, Queen of Radiohead worden.

Het probleem met het gebruik van AI in het academische onderwijs vind ik precies de neiging van taalmodellen om zo gemiddeld mogelijke teksten te maken. ChatGPT voedt de zesjescultuur. We mogen van studenten meer verwachten dan teksten die streven naar middelmaat. Van een conservatoriumstudent zouden we het ook niet accepteren als die composities door een computer liet maken.

Ik moest denken aan de Feynman Lectures on Physics van de briljante natuurkundige Richard Feynman. Hij legt uit dat je een bestaande natuurkundige formule altijd kunt reconstrueren door twee andere formules met elkaar te combineren. Al heb je niet alle formules onthouden, je kunt ze door te combineren altijd terugvinden. Maar dat is niet het nut van een goede natuurkundige, zegt Feynman. Een goede natuurkundige maakt combinaties van formules die nog nooit iemand anders heeft gemaakt. Alleen dat leidt tot nieuwe ontdekkingen. Om te leren hoe je dat moet aanpakken, moet je de verbanden in de natuur echt goed begrijpen.

Zo is het ook met goed schrijven. AI is prima in staat om teksten te schrijven die in het verlengde liggen van wat er al geschreven is. Maar om nieuwe ideeën te formuleren en ze helder op papier te krijgen, zul je zelf aan het werk moeten. Schrijven gaat niet over na-apen of reproduceren. Schrijven is een scheppend proces waar originaliteit en verrassing de kern zijn. Het is een essentiële academische vaardigheid, die je zelf zult moeten leren. Schrijven uitbesteden aan AI hoort op een universiteit dus niet thuis.

Schrijf je in voor de nieuwsbrief NRC Broncode

Doorzie de wereld van technologie elke week met NRC-redacteuren 

Source: NRC

Previous

Next