Home

In een democratie beslist de politiek over militaire inzet van AI, niet een particulier bedrijf

Kunstmatige intelligentie

Dit is het dagelijkse commentaar van NRC. Het bevatmeningen, interpretaties en keuzes. Ze worden geschreven door een groepredacteuren, geselecteerd door de hoofdredacteur. In de commentaren laat NRC zien waar het voor staat. Commentaren bieden de lezer eenhandvat, een invalshoek, het is ‘eerste hulp’ bij het nieuws van de dag.

Het was hoog tijd. De knetterende ruzie in de Verenigde Staten tussen het Pentagon en AI-bedrijf Anthropic heeft eindelijk een principieel debat losgemaakt over militaire toepassingen van kunstmatige intelligentie. Het draait om de vraag:  wie bepaalt waarvoor die nieuwe, en soms onvoorspelbare technologie kan worden ingezet? Ligt die verantwoordelijkheid bij de  makers van het AI-model, die het best weten waartoe de AI wel en niet in staat is? Of bij het Pentagon, dat deze producten aanschaft om ze in oorlogssituaties naar eigen goeddunken te kunnen gebruiken?

Zonder veel debat heeft AI de afgelopen jaren een steeds centralere rol gekregen bij oorlogvoering. In Oekraïne, in Gaza en nu ook bij de Amerikaans-Israëlische oorlog tegen Iran. Veel sneller dan mensen kan AI bijvoorbeeld grote hoeveelheden informatie analyseren, en op basis daarvan doelwitten selecteren voor bombardementen. AI blijkt effectief, maar leidt ook tot „schaalvergroting van dood en verderf”, zoals NRC eerder schreef.

Dat is een ontwikkeling die grote morele vragen opwerpt, en niet alleen omdat AI ernstige fouten kan maken. Want wat is de waarde van de verzekering dat de uiteindelijke beslissing altijd bij een mens ligt, als die menselijke beoordelaar op één dag moet beslissen over vele tientallen doelen die de AI hem voorschotelt? Hoe zorgvuldig kan dat menselijke toezicht dan zijn? „Ik besteedde twintig seconden aan ieder doelwit”, aldus een Israëlische militair twee jaar geleden in The Guardian over bombardementen op Gaza. „Als mens had ik geen enkele toegevoegde waarde.” Toch lijkt deze praktijk al stilletjes te zijn geaccepteerd.

Anders ligt dat met de twee voorwaarden die Anthropic nu stelt aan het gebruik van zijn AI-model Claude door het Pentagon. Het bedrijf wil niet dat het Pentagon Claude inzet voor massasurveillance van Amerikaanse burgers, en ook niet voor autonome wapensystemen die kunnen doden zonder menselijke tussenkomst. Anthropic heeft overigens geen principiële bezwaren tegen autonome wapens, maar zegt dat de AI nog niet ver genoeg ontwikkeld is om veilig voor autonome wapens te gebruiken.

Trumps minister van Defensie Hegseth weigerde in te stemmen met de twee voorwaarden van Anthropic. Maar Anthropic weigerde ze te laten vallen, waarop het Pentagon zijn contract met het bedrijf opzegde, en Anthropic formeel bestempelde tot ‘risico in de toeleveringsketen’. Daardoor mogen andere instellingen en bedrijven die zakendoen met het Pentagon ook geen producten van Anthropic meer gebruiken. Anthropic vecht dat juridisch aan.

Het is goed dat Anthropic – het enige grote techbedrijf dat een confrontatie met de regering-Trump aandurfde – een debat over militair gebruik van AI heeft losgemaakt. Maar in een democratische rechtsstaat hoort de politiek uiteindelijk te beslissen over zaken van oorlog en vrede, niet een particuliere onderneming. Elon Musk sloot in 2022 op eigen houtje de toegang van het Oekraïense leger tot het internet af in een deel van het land waar gevochten werd – een voorbeeld dat geen navolging verdient.

Maar in een rechtsstaat dient de overheid op haar beurt zich te houden aan wetten en regels. Het Pentagon zegt zich bij de inzet van AI aan de wet te zullen houden. Maar in de VS zijn er vrijwel geen wetten en regels voor AI – en als het aan de regering-Trump ligt blijft dat zo. Het huidige debat maakt duidelijk hoe belangrijk het is dat zulke wetten er toch komen.

Schrijf je in voor de nieuwsbrief NRC Broncode

Doorzie de wereld van technologie elke week met NRC-redacteuren 

Kunstmatige intelligentie

Lees meer

Lees meer

Lees meer

Source: NRC

Previous

Next