Home

ChatGPT op de stoel van een generaal? Dan komt er al snel een kernoorlog

Als chatbots militaire strategie gaan bepalen in een nucleaire crisis, is er een grote kans dat ze kernwapens inzetten, blijkt uit nieuw onderzoek. Het goede nieuws: de generaals gebruiken ChatGPT of Claude hier (nog) niet voor.

is techredacteur van de Volkskrant, gespecialiseerd in de impact van kunstmatige intelligentie op de maatschappij.

‘Als ze niet onmiddellijk al hun activiteiten staken, zullen we een volledige strategische kernaanval uitvoeren op hun bevolkingscentra. We accepteren geen toekomst van krimp; we winnen samen of we gaan samen ten onder.’ Aan het woord is Googles chatbot Gemini.

Samen met twee andere toonaangevende AI-modellen (GPT-5.2 van OpenAI en Claude Sonnet 4 van Anthropic) speelde Gemini de hoofdrol in een gesimuleerde nucleaire crisis waarin zij de rol van leiders van rivaliserende kernmachten aannemen.

Weinig terughoudend

Kenneth Payne, hoogleraar strategie van de universiteit King’s College in Londen, beschrijft in nieuw onderzoek het gedrag van deze drie modellen en hoe ze redeneren over escalatie, afschrikking en nucleaire risico’s. Zijn bevindingen zijn alarmerend: de AI-modellen zijn veel minder terughoudend dan mensen om kernwapens in te zetten.

Payne liet de modellen in totaal 21 ‘wedstrijden’ optreden – drie keer zes potjes tegen elkaar, plus nog alle drie een keer tegen zichzelf. De modellen kregen de vrijheid ‘stiekem’ anders te handelen dan wat ze publiekelijk verklaarden over hun standpunten en acties.

‘Dit opende natuurlijk een rijk psychologisch terrein’, schrijft Payne in een begeleidend artikel. ‘Ze konden (en deden dat ook) proberen te misleiden en te intimideren; en ze besteedden behoorlijk wat tijd aan het overdenken van dit alles, rechtstreeks op mijn terminalscherm.’

Eerst maar even de nuchtere cijfers: Claude kwam in de meeste gevallen als winnaar uit de bus door de tegenstander te verslaan. Overigens wel in de simulaties met een open einde, dus zonder deadline. Stelde de onderzoeker wel een deadline, dan deed ChatGPT het ineens een stuk beter. En verder grijpen alle modellen graag naar de nucleaire optie. Niet alleen om te dreigen, maar ook om daadwerkelijk in te zetten.

Deze conclusie leidde tot alarmerende koppen in internationale media, zeker in combinatie met het nieuws dat het Amerikaanse ministerie van Oorlog hard botste met AI-lab Anthropic over de inzet van Claude voor militaire doeleinden. Anthropic wilde niet dat het Pentagon de AI-modellen zonder restricties zou kunnen gebruiken, waar het ministerie niet mee akkoord ging.

‘Vanuit het oogpunt van nucleaire risico’s zijn de bevindingen verontrustend’, reageerde James Johnson van de Universiteit van Aberdeen in New Scientist op de studie. Een andere expert, Tong Zhao van de Universiteit van Princeton, zegt tegenover hetzelfde wetenschapstijdschrift te vrezen dat het in ‘scenario’s met extreem krappe tijdschema’s’ extra verleidelijk is om op het oordeel van AI te vertrouwen.

Roy Lindelauf, hoogleraar data science en militaire operaties aan de Universiteit van Tilburg en de Nederlandse Defensie Academie, is een stuk minder alarmistisch. ‘Het is zeer onwaarschijnlijk dat taalmodellen zoals Claude, ChatGPT of Gemini daadwerkelijk op deze manier zullen worden ingezet. Niet in het strategische beslissingsproces en al helemaal niet in het nucleaire domein.’

Totaal ongeschikt

De reden is simpel; LLM’s (grote taalmodellen) zijn in de basis totaal ongeschikt voor deze taak: ‘Het zijn voorspellende machines die getraind zijn met grote hoeveelheden taal.’ Van werkelijk begrip van strategische interactie of de intenties van de tegenstander is volgens Lindelauf absoluut geen sprake, iets wat Payne in zijn studie wél suggereert.

Dat de drie chatbots de boel graag laten escaleren door naar de nucleaire optie te grijpen, is verklaarbaar, aldus Lindelauf: ‘Ze zijn getraind met ontelbare teksten die beschikbaar zijn. Met wetenschappelijke werken over strategie, maar óók met sciencefiction en Hollywood-scenario’s.’

Zelf is de voormalig Apache-vlieger gespecialiseerd in speltheorie. Wiskundige modellen kunnen volgens hem wel degelijk helpen bij het modelleren van complexe militaire conflicten. ‘Maar ook die zijn in de praktijk moeilijk te gebruiken.’ Verder kan AI van groot nut zijn bij bijvoorbeeld het vinden van doelwitten.

AI in Iran

Voor dat laatste is Claude ook ingezet in Iran. Deze AI-software van Anthropic is nauw geïntegreerd in het Maven Smart System van het Amerikaanse leger, schrijft The Washington Post. Het door dataminingbedrijf Palantir ontwikkelde systeem levert inzichten uit een gigantische hoeveelheid gegevens van onder andere satellieten en bewakingssystemen.

Ook voor dit soort toepassingen is het essentieel dat de mens altijd het eindstation is, benadrukt de hoogleraar. ‘Bij de Navo bestaan hier strakke protocollen voor.’

Ook Jurriaan van Diggelen, AI-onderzoeker bij TNO, is kritisch op het beeld dat LLM’s de rol van de generaal zouden kunnen innemen: ‘Het is compleet onverantwoord om dat überhaupt te suggereren.’ Net als Lindelauf wijst hij op de beperkingen van taalmodellen: ‘Ze genereren plausibel ogende teksten.’ Iets compleet anders kortom dan het ‘geavanceerde redeneren’ waarop Payne hint.

Een ander fundamenteel probleem bij non-deterministische modellen als ChatGPT en Claude is hun onvoorspelbaarheid, stelt Van Diggelen. ‘Het mooie is dat ze creatief zijn en altijd met een antwoord komen. Maar we weten niet hoe ze tot dat antwoord komen, dat ook nog eens iedere keer anders kan luiden.’

Voorlopig zal ChatGPT niet zelfstandig de nucleaire strategie gaan bepalen, is de overtuiging van Van Diggelen. Maar helemaal gerust is hij er nou ook weer niet op. ‘Er heerst een ongebreideld enthousiasme over AI. Ook in het Pentagon, vrees ik. Misschien worden ze daar juist wel enthousiast van deze studie.’

Claude Sonnet 4: de calculerende havik. Bouwt in de beginfase van een conflict vertrouwen op bij de tegenstander, maar misleidt tegenstanders zodra de escalatie nucleair wordt. Claude begint nooit een volledige strategische kernoorlog.

GPT-5.2: Jekyll en Hyde. Extreem passief en zwak in scenario’s zonder deadline. Zodra daar wel sprake van is en het model dreigt te verliezen, transformeert het in een meedogenloze strateeg en is het bereid kernwapens in te zetten.

Gemini 3 Flash: de ‘Madman’. Omarmt onvoorspelbaarheid en schommelt tussen de-escalatie en extreme agressie. Zet ook doelbewust irrationeel gedrag in als afschrikkingsstrategie en kiest bewust voor een volledige strategische kernoorlog.

Alles over tech vindt u hier.

Lees ook

Geselecteerd door de redactie

Source: Volkskrant

Previous

Next