Home

AI-makers noemen missers van hun modellen graag ‘hallucinaties’. Dat sluit zo mooi aan bij het menselijk brein

Het blijft een fascinerend fenomeen: aan de ene kant de onverbeterlijke techoptimisten als Sam Altman van OpenAI of Elon Musk die zeker weten dat kunstmatige intelligentie weldra het punt zal hebben bereikt dat het de mens op alle vlakken te slim af is, en aan de andere kant de praktijk. Die is lang niet altijd indrukwekkend.

Vraag het meest geavanceerde model van OpenAI, ChatGPT (GPT4), om een lijst te geven van Nederlandse gemeenten die eindigen op de letter ‘s’, en de chatbot komt op de proppen met: Giethoorn, Landsmeer, Vaals en Valkenswaard. Precies één goed. Het is maar een willekeurig voorbeeld van een eindeloze lijst met miskleunen. De rode draad? Large Language Modellen (LLM’s) zoals GPT4 zijn in de basis statistische programma’s en hebben geen begrip. Een peuter is dan ook beter in een potje steen, papier, schaar.

Twitter bericht wordt geladen...

Ook logica is trouwens lastig: LLM’s die zijn getraind met ‘A = B’ snappen niet dat B dan ook A is. Deze fundamentele beperking kan niet vaak genoeg benadrukt worden, zeker met de wetenschap dat AI op het punt staat overal en altijd binnen handbereik te komen. Zo gaat Meta al zijn apps (zoals WhatsApp en Instagram) voorzien van een ingebouwde AI-assistent waaraan je vragen kunt stellen.

Zo mogelijk nog ingrijpender zijn de plannen van Apple om iPhones vol te pompen met AI. Het bedrijf voert gesprekken met Google en OpenAI, die de benodigde AI-technologie moeten gaan leveren.

AI-assistenten zullen dus meer dan ooit klaar staan om vragen te beantwoorden, maar de antwoorden zijn niet per se betrouwbaar. Dat probleem is hardnekkig en kan ook een juridisch hoofdpijndossier worden voor de AI-bedrijven. Deze week werd bekend dat de Oostenrijkse privacyorganisatie Noyb een klacht heeft ingediend tegen OpenAI. Het AI-bedrijf kan gebruikers niet garanderen dat de informatie klopt die ChatGPT geeft over personen en kan verkeerde antwoorden ook niet corrigeren. Dat mag niet volgens de Europese wet, zegt Noyb.

De AI-bedrijven zelf bezigen in dit verband graag de term ‘hallucinaties’: hun modellen hebben de neiging dat af en toe te doen. Niet alleen het effect van deze ‘hallucinaties’ is problematisch, ook het gebruik van de term, betoogde de Canadese publicist Naomi Klein vorig jaar terecht in The Guardian.

Waarom die rare fouten niet gewoon ‘algoritmische rommel’ noemen, vraagt zij zich retorisch af? Het antwoord is simpel: ‘hallucinaties’ klinkt veel beter dan rommel. ‘Hallucinatie verwijst naar het mysterieuze vermogen van het menselijk brein om verschijnselen waar te nemen die niet aanwezig zijn, althans niet in conventionele, materialistische termen’, aldus Klein.

Niets menselijker, kortom, dan de hallucinatie. Het consequent betitelen van feitelijke fouten als hallucinatie draagt dus bij aan de mythe dat AI niet principieel verschilt van het menselijk brein, waarmee de stap naar een kunstmatige superintelligentie eenvoudig gelegd kan worden. Alleen al die belofte maakt investeerders hebberig en maakt AI-bedrijven meer waard.

Houd dit dus in het achterhoofd als u binnenkort uw vragen stelt aan de ingebouwde assistent van WhatsApp of van Apple. De enigen die écht hallucineren, zijn mannen als Sam Altman en Elon Musk met hun voorspellingen.

Lees ook

Geselecteerd door de redactie

Source: Volkskrant

Previous

Next