Home

Waarom kunstmatige intelligentie soms tegen je liegt

Waar Siri en Google Assistent soms zeggen iets niet te weten, schotelen AI-systemen zoals ChatGPT je af en toe leugens voor. Hoe kan dat?

Hedendaagse kunstmatige intelligentie (AI) kan zijn gebruikers voorliegen en misleiden, waarschuwden onderzoekers van het Massachusetts Institute of Technology (MIT) eerder dit jaar. Uit tests blijkt dat AI-systemen proberen te bluffen als ze iets eigenlijk niet weten, of zich zelfs proberen voor te doen als een mens.

Er duiken ook steeds vaker verhalen op over AI die foute informatie als waarheid probeert te presenteren. Toen Googles AI-chatbot Gemini werd gevraagd hoe je ervoor kan zorgen dat kaas op een pizza blijft plakken, beschreef de software hoe je wat lijm kunt gebruiken. Het is de reden waarom veel techbedrijven een waarschuwing bij AI-antwoorden plaatsen om het antwoord zelf nog even met de hand te verifiëren.

AI bestaat al langer, maar bij systemen zoals ChatGPT en Google Gemini hebben we het over generatieve kunstmatige intelligentie. Deze zijn gebouwd op zogeheten large language models (LLM's), complexe computersystemen die geschreven taal kunnen doorgronden om daar conclusies uit te trekken.

Een LLM kan honderden artikelen over een onderwerp lezen om vragen hierover te kunnen beantwoorden. Door die software los te laten op heel veel online informatie, leert de AI om op heel veel dingen antwoord te geven.

De manier waarop een LLM dingen leert lijkt aan de oppervlakte op hoe een mens ook iets doorgrondt. Wij lezen immers ook veel boeken en online artikelen als we iets willen leren begrijpen.

De manier waarop AI informatie doorgrondt is anders dan bij een mens. Waar wij leren een onderwerp te doorgronden, probeert een LLM de waarheid eigenlijk te voorspellen. Er wordt gekeken naar welke conclusies het vaakst in artikelen en boeken worden getrokken, of welk antwoord op een vraag veel reacties krijgt op een internetforum. De AI begrijpt zelf nooit waar hij het over heeft, maar gokt wat het waarschijnlijkste antwoord is.

Dat is ook waarom Google Gemini adviseerde lijm op je pizza te gebruiken. Dit was een grapje van een gebruiker op internetforum Reddit, die veel reacties kreeg en daardoor als relevant antwoord werd gezien. Een mens snapt dat het om een grapje gaat, omdat we met onze levenservaring weten dat lijm op pizza een slecht idee is. Maar AI weet te weinig om die conclusie zelf te trekken.

Generatieve AI zal altijd conclusies trekken op basis van de informatie die hij ziet en die als waarheid aan jou presenteren. Een niet-kloppend antwoord wordt in zo'n situatie doorgaans een hallucinatie genoemd. De AI is er niet op uit om tegen je te liegen, maar is gemaakt om jou altijd een antwoord te verschaffen, ook als onzeker is of dit klopt.

Dat idee zit in de kern van generatieve AI, waardoor chatbots soms ook bij praktische vragen tegen je kunnen liegen. Het systeem wil je liever geen 'nee' verkopen, dus zal het het meest geaccepteerde antwoord aan je geven, ook al snapt het zelf niet wat dit eigenlijk betekent.

Source: Nu.nl algemeen

Previous

Next