Het is onze verantwoordelijkheid om AI zodanig te ontwerpen, te produceren, te gebruiken en te beheren dat de levens van kinderen en jonge mensen niet in gevaar worden gebracht.
Op 28 februari 2024 maakte Sewell Setzer III, een 14-jarige jongen uit Florida, een eind aan zijn leven op aandringen van een levensecht AI-personage gegenereerd door Character.AI. Dat is een platform waar ook pro-anorexia chatbots te vinden zijn die gestoord eetgedrag onder jonge mensen aanwakkeren. Er moeten duidelijk dringend strengere maatregelen komen om kinderen en jonge mensen tegen AI te beschermen.
Natuurlijk heeft AI, zelfs in strikt ethisch opzicht, een immens positief potentieel, van het bevorderen van gezondheid en waardigheid tot het verbeteren van duurzaamheid en onderwijs onder gemarginaliseerde bevolkingsgroepen. Deze beloofde opbrengsten zijn echter geen excuus voor het bagatelliseren of negeren van de ethische risico’s en daadwerkelijke kosten. Iedere schending van mensenrechten moet worden beschouwd als ethisch onacceptabel. Wanneer een levensechte AI-chatbot de dood van een tiener uitlokt, wordt dat niet goedgemaakt door het feit dat kunstmatige intelligentie een rol kan spelen in het bevorderen van medisch onderzoek.
Over de auteur
Peter G. Kirschschläger is hoogleraar Ethiek en directeur van het Instituut voor Sociale Ethiek ISE aan de Universiteit van Luzern en gasthoogleraar aan ETH Zürich.
Dit is een ingezonden bijdrage, die niet noodzakelijkerwijs het standpunt van de Volkskrant reflecteert. Lees hier meer over ons beleid aangaande opiniestukken.
Eerdere bijdragen in deze discussie vindt u onder aan dit artikel.
De zaak-Setzer staat ook niet op zichzelf. Afgelopen december hebben twee gezinnen in Texas een aanklacht ingediend tegen Character.AI en Google – een van de financiers – omdat de chatbots van het platform hun schoolgaande kinderen seksueel en emotioneel zouden hebben misbruikt, met zelfbeschadiging en geweld tot gevolg.
Deze film hebben we eerder gezien, toen een generatie van kinderen en tieners het slachtoffer werden van socialemediabedrijven die profiteren van de verslavende werking van hun platforms. We zijn ons maar langzaam bewust geworden van de sociale en psychologische schade die door de ‘a-sociale media’ wordt veroorzaakt. Inmiddels hebben veel landen ze verbannen of de toegang ertoe beperkt en ook jonge mensen zelf vragen om strengere regelgeving.
Toch is het hoogst dringend dat we de manipulatieve macht van AI beteugelen. Dankzij de enorme hoeveelheden persoonlijke data die de techindustrie over ons heeft vergaard, kunnen degenen die platforms zoals Character.AI bouwen algoritmes maken die ons beter kennen dan wij onszelf. Het risico op misbruik daarvan is zeer hoog. AI-systemen weten precies op welke knoppen ze moeten drukken om onze verlangens aan te spreken of ons op een bepaalde manier te laten stemmen. De pro-anorexia chatbots op Character.AI zijn slechts het recentste en extreemste voorbeeld. Er is geen enkele reden om ze niet onmiddellijk te verbieden.
Maar de tijd dringt omdat generatieve AI-modellen zich sneller ontwikkelen dan verwacht – en over het algemeen in de verkeerde richting. De ‘peetvader van AI’, Nobelprijswinnaar en cognitief wetenschapper Geoffrey Hinton, waarschuwt voortdurend dat AI kan leiden tot het uitsterven van de mens: ‘Ik maak me zorgen dat de ‘onzichtbare hand’ ons niet kan behoeden. Dit maar overlaten aan het winstbejag van grote bedrijven is niet voldoende om er zeker van te zijn dat zij dit veilig ontwikkelen. Het enige dat deze grote bedrijven ertoe kan dwingen om meer onderzoek te doen naar veiligheid is regulering door de overheid.’
Gezien het voortdurend falen van big tech om zich aan ethische normen te houden, is het dwaas om te denken dat deze bedrijven toezicht op zichzelf kunnen houden. Google heeft in 2024 2,7 miljard dollar in Character.AI gestoken, ondanks de reeds bekende problemen. Er moet dus regulering komen, maar AI is een wereldwijd fenomeen en dus moeten we streven naar mondiale regulering die wordt verankerd in een nieuw wereldwijd systeem van handhaving, zoals het door mij voorgestelde International Data-Based Systems Agency (IDA) bij de Verenigde Naties.
Dat iets mogelijk is, betekent nog niet dat het wenselijk is. Wij mensen hebben de verantwoordelijkheid om te besluiten welke technologieën, welke innovaties en welke vormen van vooruitgang er moeten komen en kunnen worden opgeschaald, en welke niet. Het is onze verantwoordelijkheid om AI zodanig te ontwerpen, te produceren, te gebruiken en te beheren dat mensenrechten worden gerespecteerd en zo een duurzamer toekomst voor de mensheid en de planeet mogelijk wordt.
De 14-jarige Sewell zou ongetwijfeld nog in leven zijn als er mondiale regulering was geweest ter bevordering van op mensenrechten gebaseerde ‘AI’ en als er een mondiaal instituut had bestaan dat de innovaties op dit terrein in de gaten hield. Het respecteren van mensenrechten en de rechten van het kind vergt bestuurlijk toezicht op de gehele levenscyclus van technologische systemen, van ontwerp en ontwikkeling tot productie, distributie en gebruik.
Nu we al weten dat AI dodelijk kan zijn, is er geen enkel excuus om passief toe te kijken terwijl de technologie steeds verder oprukt en er iedere maand weer meer ongereguleerde modellen op het algemene publiek worden losgelaten. Welke voordelen deze technologieën ook op een dag te bieden mogen hebben, ze zullen nooit in staat zijn om het verlies goed te maken dat iedereen die van Sewell hield al geleden heeft.
@Project Syndicate
Vertaling: Leo Reijnen
Wilt u reageren? Stuur dan een opiniebijdrage (max 700 woorden) naar opinie@volkskrant.nl of een brief (maximaal 200 woorden) naar brieven@volkskrant.nl
Geselecteerd door de redactie
Source: Volkskrant