is hoogleraar Informatica.
‘Maar Felienne, ben jij dan niet amazed wat LLM’s kunnen?’, vroeg een collega me laatst. Meteen begonnen alle tegenargumenten over deze geavanceerde AI-systemen die natuurlijke taal kunnen begrijpen en genereren op te borrelen: de diefstal van data, de impact op het klimaat, de bias, de verloren interesse in leren en denken die ik om me heen zie.
‘Ja, maar gewoon de LLM’s zelf, is dat dan niet cool?’ Ik haalde heel diep adem, liet al die bezwaren even los, beschouwde het ding an sich, en ja, dan moet ook ik concluderen dat het supercool is wat een Large Language Model kan.
In het boek What computers still can’t do uit de jaren negentig legt filosoof Herbert Dreyfus uit waarom een computer nooit menselijke taal zal kunnen doorgronden. Er zijn, zegt hij, simpelweg te veel regels voor een computer om te kennen. Een zin als ‘The box is in the pen’ lukt hem nooit. Want je moet weten dat een pen in het Engels niet alleen iets is om mee te schrijven, maar ook een omheining, voor dieren of voor peuters (zo’n ding dat wij Nederlanders dan weer een box noemen), en hoe groot beide dingen zijn, en op basis daarvan de meest waarschijnlijke betekenis kiezen. Want het zou hier ook nog over een doosje in een pen kunnen gaan, zegt Dreyfus, als het een zin uit een Bond-film is; een minuscuul doosje met een microchip.
Vraag echter ChatGPT wat die zin betekent en het is geen probleem: de doos ligt in de omheining. Computers waarvan we altijd hebben gedacht dat ze volgens precies vooraf geprogrammeerde regels moesten werken, kunnen nu dealen met wat ooit het laatste bastion van menselijkheid leek – ongeveer.
En soms, misschien zelfs wel vaak, is ongeveer precies wat je nodig hebt. Maar ongeveer wordt een probleem als we het over de algemene toegang tot kennis hebben.
Columnisten hebben de vrijheid hun mening te geven en hoeven zich niet te houden aan de journalistieke regels voor objectiviteit. Lees hier onze richtlijnen.
Als ik op Google zoek naar informatie, krijg ik ongevraagd (en soms zelfs onzichtbaar) informatie die misschien ongeveer klopt, op de plek waar vroeger een lijstje met bronnen stond. Outlook stelt me voor mijn mails niet meer helemaal te lezen, maar ongeveer. En als ik Word of Docs open, wil de machine mij wel even helpen om de tekst ongeveer goed te krijgen.
Het is alsof er een soort epistemische wereldraad heeft plaatsgevonden waarin softwarebedrijven voor iedereen hebben besloten dat we vanaf nu allemaal afscheid moeten nemen van die gekke neiging om woorden precies te willen wegen, en genoegen moeten nemen met uitvoer van de misschien-machien. Zelfs Sam Altman geeft inmiddels toe dat hallucinaties er altijd bij zullen horen, zo werkt een stochastisch taalmodel nu eenmaal.
En dan is het nog een ding dat grote softwarebedrijven ons willen wijsmaken dat ongeveer altijd genoeg is, die willen ons ook bestoken met advertenties en onze persoonlijke data doorverkopen, die hebben er dus belang bij als wij overal AI gebruiken.
Ze worden geholpen in hun missie door een eindeloze schare ‘gewone mensen’ die ook ten prooi zijn gevallen aan het ‘ongevirus’. Ze melden zich voortdurend in mijn mailbox en op mijn tijdslijn met het idee om AI te gaan gebruiken in het onderwijs. Want, zo zeggen ze, dat gaat het lesgeven, nakijken of voorbereiden echt beter maken!
Maar we weten simpelweg niet, ook ik niet, wat het effect is van het gebruik van LLMs in de klas, of in de journalistiek, in het onderzoek, of in de medische zorg. Zeker niet op de lange termijn.
Willen we zomaar een hele generatie kinderen en studenten blootstellen aan iets waarvan we het effect niet kennen? Zouden we een lesboek of een leraar accepteren die om de paar zinnen even wat ongeveer ertussendoor gooit? Nee, toch? Zouden we een nieuwe totaal onbewezen lesmethode op alle kinderen ter wereld tegelijk proberen? Dat zou me wat zijn.
Waarom zouden dat bij LLM’s wel goed vinden? Zo’n buitengewone claim dat deze technologie gaat werken, vergt wel buitengewoon bewijs. En dat bewijs blijft voorlopig nog uit.
Het indrukwekkendste van LLM’s is dus misschien niet dat ze menselijke taal zo goed kunnen nadoen, maar dat mensen nu LLM’s gaan nadoen en de precisie van taal niet meer waarderen.
Geselecteerd door de redactie
Source: Volkskrant columns