De een is doodsbang voor de existentiële risico’s van AI, voor de ander kan de ontwikkeling ervan niet snel genoeg gaan. Handige ondernemers opereren in beide kampen tegelijk: zij ontwikkelen de AI én werpen zich op als redders in nood.
Gaat AI de mensheid verheffen, of tekenen we met onze laatste vinding onze eigen ondergang? Het is het soort vraag dat tegenwoordig op veler lip besloten ligt, maar waar de tech-elite zich al veel langer druk om maakt.
Het is ook precies de vraag die in 2015 de inzet vormt van een verhit debat tussen de vrienden Elon Musk en toenmalig Google-baas Larry Page. De setting: Musks verjaardagsweekend in een weelderig wijnresort in de groene heuvels van Californië.
Over de auteur
Laurens Verhagen is wetenschapsredacteur voor de Volkskrant. Hij schrijft over technologie, internet en kunstmatige intelligentie. Daarvoor was hij onder meer hoofdredacteur van Nu.nl.
Na het diner nemen de twee vrienden plaats bij een knapperend vuur naast het zwembad, zo memoreert The New York Times aan deze avond. Page en Musk blijken diametraal tegenover elkaar te staan in hun opvattingen over AI. Uiteindelijk, betoogt Page, zullen er vele soorten intelligentie bestaan: kunstmatige, menselijke en hybride vormen. ‘En de beste zal winnen’, concludeert hij nuchter.
Maar dat betekent dat we ten dode zijn opgeschreven, reageert Musk: slimme computers zullen de mensheid vernietigen. Hierop noemt Page hem neerbuigend een ‘speciësist’: iemand die de voorkeur geeft aan mensen boven (in dit geval) machines.
Het debat vormt de opmaat voor de oprichting van OpenAI: niet lang erna begint Musk gesprekken met Sam Altman. Hun gezamenlijke doel is de start van een AI-bedrijf dat de mensheid moet beschermen tegen de visioenen van mensen zoals Page.
Page en Musk mogen dan tegenover elkaar staan, voor techcritici zijn ze juist exponenten van hetzelfde kamp. Namelijk: de club van extreem vermogende ondernemers die fantaseren over buitensporige sciencefictionscenario’s en tegelijkertijd degenen zijn die de meest geavanceerde AI-technologieën op de markt brengen of faciliteren.
Zij zijn immers ook uitverkoren om de mensheid te beschermen tegen AI. Krachtige AI moet in hun handen blijven, dan komt het allemaal wel goed. Dat ze daar nog veel meer geld mee verdienen, is natuurlijk mooi meegenomen.
Nu, negen jaar later, wordt deze existentiële discussie op sommige feestjes in Silicon Valley teruggebracht tot een doodnormale vraag om het ijs te breken: wat is je (p)doom? Dit is, in procenten uitgedrukt, de kans dat AI de mensheid vernietigt. Een hoge score betekent dat je een ‘doomer’ bent. Daartegenover staan de ‘AI-boomers’: de mensen die geen gevaar zien en wars zijn van regelgeving of andere beperkende maatregelen. AI brengt volgens hen zo veel voordelen dat we haast moeten maken met het op de markt brengen van toepassingen.
Doemscenario’s gaan in Silicon Valley prima hand in hand met optimistische vergezichten waarin de AI-apologeten en de data-euforisten een wereld schetsen van oneindige rijkdom en zeeën van vrije tijd voor de mens.
De grote vraag die vanaf het prille begin boven AI zweeft: is er sprake van échte intelligentie, of blijven de soms indrukwekkende prestaties het resultaat van optimalisaties en statistiek?
Een sleutelbegrip in deze discussie is het moment dat Artificial General Intelligence (AGI, zie kader onderaan) wordt bereikt, de vorm van AI die de mens op (bijna) alle vlakken overstijgt. Dat moment komt er onherroepelijk aan, meent de ene groep AI-wetenschappers en -ondernemers. Onderzoekers van Microsoft stelden in maart vorig jaar zelfs dat ‘de eerste vonkjes van AGI’ nu al zijn bereikt. De studie was nuttige zuurstof voor de op volle toeren draaiende AI-hypemachine. Ook Google-onderzoeker Blaise Agüera y Arcas betoogde recentelijk dat AGI al aanwezig is in ChatGPT of Google’s eigen Bard.
Andere experts zien ondertussen geen enkele aanwijzing voor de komst van synthetische intelligentie die in de buurt van menselijke vermogens komt. Meta’s AI-baas Yann LeCun bijvoorbeeld, die als een van de ‘peetvaders van AI’ wordt aangeduid, bagatelliseert juist keer op keer de existentiële gevaren. Ook denkt hij niet dat AGI er snel zal zijn.
Een van de problemen in dit debat is het gebrek aan overeenstemming over begrippen, zegt Stefan Buijsman, onderzoeker naar verantwoord gebruik van AI aan de TU Delft. ‘De definitie van AGI verschuift telkens weer.’ Logisch dus dat er geen consensus bestaat over de vraag of AGI bestaat.
De techniekfilosoof ziet vooral grote verschillen tussen mens en machine. ‘ChatGPT is vooral een programma dat een statistisch trucje heel goed toepast. Maar van daadwerkelijk inzicht is geen sprake. Snapt een chatbot waarover hij het heeft? Kan hij redeneren?’ Dat is een heel ander verhaal: ‘Het menselijk brein doet meer dan alleen statistiek. We hebben bijvoorbeeld causaal inzicht.’
Ook Roel Dobbe, onderzoeker data en algoritmen aan de TU Delft, vindt het problematisch om over intelligentie te spreken bij machines, alsof die hetzelfde is als menselijke intelligentie. ‘Dat is een nogal sciencefictionachtige benadering. In de praktijk werken informatiesystemen niet zo.’
Het weerhoudt ondernemers als Altman en Musk er niet van om uitbundige voorspellingen te doen: het is een kwestie van een paar jaar. Dat de AI-ondernemers zo hameren op AGI vindt Dobbe goed verklaarbaar. ‘Het hele bedrijfsmodel van ondernemingen als OpenAI staat of valt met de hype die rond AI hangt.’ Hoe hoger de verwachtingen, hoe meer geld de bedrijven waard zijn en hoe meer investeerders er klaarstaan met vers kapitaal.
Op een miezerige avond in april vorig jaar is de grote zaal in het Amsterdamse debatcentrum Pakhuis de Zwijger afgeladen. Ademloos staren de aanwezigen naar verontrustende slides die de risico’s schetsen van AI. Existentiële risico’s. Oftewel: risico’s die de ‘menselijke potentie’ op langere termijn dreigen te ondermijnen, zoals ‘het uitsterven van de mensheid’.
Die avond, georganiseerd door de non-profitorganisatie Existential Risk Observatory, komt op een uitgelezen moment. De initiële bewondering van het grote publiek voor programma’s als ChatGPT is in korte tijd overschaduwd door alarmistische doemverhalen over de effecten van AI.
Voor veel van degenen die geloven in de komst van AGI is het al langer de enige logische vervolgstap in hun denkproces: kunstmatige superintelligentie betekent een existentieel gevaar voor de mensheid. De X-riskers, zoals deze groep wordt genoemd, pleiten voor maatregelen door de overheid of door bedrijven zelf om die risico’s te beteugelen.
Als oprichter en directeur van het Existential Risk Observatory, dat wordt gesteund met geld van de steenrijke Skype-oprichter Jaan Tallinn, is Otto Barten in Nederland een van die stemmen: ‘Nu is er nog geen AGI, maar dat zou binnen een paar jaar anders kunnen zijn.’
De risico’s worden actueel op het moment dat geavanceerde AI menselijke intelligentie overstijgt. ‘Ik hoor critici vaak zeggen dat het nog lang niet zover is en dat we ons dan pas zorgen hoeven te maken. Maar dat lijkt me geen slimme strategie. Tegen die tijd zijn we te laat. We moeten ons nu al voorbereiden.’
Er zijn genoeg scenario’s waarover Barten zich zorgen over maakt. Superintelligentie kan bijvoorbeeld in handen komen van kwaadwillenden. Dat kan een land zijn dat niet het beste met de mensheid voor heeft, maar ook een individu of organisatie.
Verder is het er nog het klassieke scenario dat bekend is geworden van het gedachte-experiment uit 2003 van de invloedrijke Zweedse filosoof Nick Bostrom: de paperclip-maximalisator. Hierin stelt Bostrom zich een superintelligente AI voor die als taak heeft zo veel mogelijk paperclips te produceren. De doelstellingen van deze AI kunnen vervolgens in conflict komen met die van de mensheid omdat beide entiteiten strijden om dezelfde grondstoffen. Om zijn taak te volbrengen, zou de AI kunnen besluiten de mensheid uit te schakelen. De paperclip van Bostrom staat inmiddels symbool voor het X-risico van AI.
Barten is niet de enige die zich zorgen maakt: uit een rondvraag onder 2.700 AI-wetenschappers kwam recentelijk een gemiddelde p(doom) van 5 procent naar voren.
Ook onder gerenommeerde AI-wetenschappers die waarschuwen voor de existentiële risico’s is er veel opportunisme, ziet onderzoeker Dobbe. ‘Door extreme scenario’s te schetsen, trek je aandacht en uiteindelijk ook geld. Eigenlijk zeggen ze: alleen wij, als peetvaders van AI, zijn gepositioneerd om de mensheid te redden.’ Zo kon wetenschapper Stuart Russell bijvoorbeeld een AI-instituut optuigen, met geld van filantropen.
Ook Daniël Mügge, hoogleraar politieke arithmetiek aan de Universiteit van Amsterdam, is kritisch. ‘Prima om onderzoek te doen naar X-risk, maar de existentiële langetermijnproblemen zijn niet het enige risico.’ Net als andere critici legt Mügge het verband tussen X-riskers en ‘effectief altruïsme’, een beweging die in Silicon Valley een stevige voet aan de grond heeft gekregen. Het idee daarbij, om maximaal goed te doen voor de mensheid, klinkt nobel, maar heeft een problematische kant, zegt Mügge: ‘Het is een wiskundige benadering van altruïsme: hoe kun je op basis van een bepaalde inzet als tijd of geld maximale impact bereiken?’
De combinatie van de aanwezigheid van geld en nerds maakt Silicon Valley tot een logische voedingsbodem. Verdien zoveel mogelijk geld en je kunt maximaal goeddoen. Maak een zo krachtig mogelijk AI-systeem en je lost zoveel mogelijk problemen op.
Door zoveel te hameren op X-risk verdwijnen concrete problemen als discriminatie, verlies aan menselijke controle en het nemen van automatische besluiten zonder transparantie naar de achtergrond, vindt ook onderzoeker Buijsman. Hij noemt OpenAI als concreet voorbeeld. ‘Dat bedrijf keek bij het ontwikkelen van zijn modellen alleen naar de langetermijnrisico’s, niet naar zaken als privacy of duurzaamheid.’
Buijsman ziet dit bij veel AI-bedrijven: mooie woorden over ethische principes. ‘Maar wat betekenen die echt? Hebben ze hun systemen getest? Zijn die testen beschikbaar? Mooie woorden moeten consequenties hebben, anders zeggen ze niets.’
Met de aandacht voor X-risk zwelt ook de kritiek aan. Roel Dobbe is een van die critici. Het palet aan X-riskers is breed en varieert van ondernemers die een rechtstreeks commercieel belang hebben tot een groep die zich volgens Dobbe ‘oprecht zorgen maakt’. Al gebeurt dat laatste dan weer wel vanuit een ‘bijna religieus en ongegrond geloof’ in de capaciteiten van AI.
Op zichzelf is er niets mis met nadenken over de risico’s van AI, vindt Dobbe, maar het probleem is dat de focus op de langetermijnrisico’s de aandacht afleidt van de problemen die er nu al zijn met AI. Dobbe wijst op de recente AI-bijeenkomst in het Britse Bletchley Park, waar het ook weer over X-risk ging en waar onder anderen Elon Musk mocht opdraven voor een gesprek met Rishi Sunak.
Op de gastenlijst van de Britse premier ontbraken echter vertegenwoordigers van groepen die nu al schade ondervinden van AI-systemen, zoals mensen in lagelonenlanden die tegen extreem lage vergoedingen helpen die systemen te verbeteren. Een ander veelgenoemd probleem is de aanwezigheid van seksistische of raciale vooroordelen in datasets, waarmee bias wordt vergroot. Concreet: vraag aan een plaatjesmaker om een club ceo’s te portretteren, en je krijgt vijf witte mannen in pak.
De belangen van de techbedrijven zijn helder, stelt Dobbe: ‘Zij hopen op zelfregulering of, in het ergste geval, op een halfbakken vorm van toezicht die zo min mogelijk gaat over feitelijke veiligheidsrisico’s. Op die manier verplaatsen ze de aandacht effectief naar een in de toekomst liggend risico dat niet goed geduid kan worden.’
AGI: Artificial General Intelligence, een vorm van AI die de mens op (bijna) alle vlakken overstijgt.
P(doom): de kans dat AI de mensheid vernietigt.
X-risk: existentieel risico als gevolg van de komst van AGI. Het ultieme risico: het verdwijnen van de mensheid.
AI-pocalyps: het idee dat de mens naar de afgrond stevent als gevolg van de komst van AGI.
Effectief altruïsme (EA): beweging die maximaal goed wil doen. Omdat veel EA’ers geloven dat AI het einde van de mensheid kan betekenen, willen ze AI aan banden leggen.
Effectief accelerationisme (e/acc): beweging die ontstond als reactie op EA. Maximaal het gaspedaal indrukken is het devies. Hangt samen met een blind geloof in technologie als oplossing voor alles; het techoptimisme.
Posthumanisme: extreem uitvloeisel van het techoptimisme en het idee dat de huidige menselijke vorm gelimiteerd is. De mens kan verbeterd of overstegen worden met behulp van AI en biotechnologie. Aanhangers vinden het een logisch gevolg dat een non-biologisch bewustzijn uiteindelijk de mens vervangt.
Longtermisme: ethische filosofie die het belang benadrukt van het overwegen van langetermijngevolgen van onze acties en beslissingen. Onder AI-ethici vaak ook gebruikt als pejoratief.
Tescreal: verzamelterm van AI-ethici om de invloedrijke (en problematische) denkbeelden van veel AI-investeerders en -ondernemers te duiden (acroniem voor transhumanisme, extropisme, singularisme, cosmisme, rationalisme, effectief altruïsme en longtermisme).
Source: Volkskrant