Home

Experts bevechten elkaar over die ene cruciale vraag: gaan we er allemaal aan door AI?

Van alle denkers over kunstmatige superintelligentie is Eliezer Yudkowsky de meest alarmistische: AI gaat de mensheid uitroeien. Maar is dat doemscenario niet gewoon onderdeel van de AI-hype?

is techredacteur van de Volkskrant, gespecialiseerd in de impact van kunstmatige intelligentie op de maatschappij.

We gaan eraan. Dat is de rotsvaste overtuiging van AI-denker Eliezer Yudkowsky. Onder deze proclamatie ligt een andere zekerheid: AI overvleugelt ons.

Voor filosofen is de vraag der vragen niet of AI ooit al onze banen gaat innemen. Ook niet of AI daadwerkelijk gaat zorgen voor het genezen van ziekten en de komst van nieuwe medicijnen. Nee, de wijsgerige hamvraag is: zal AI ooit slimmer worden dan mensen?

En voorafgaand aan die vraag natuurlijk: wat is intelligentie überhaupt?

Waar voor- en tegenstanders lijnrecht tegenover elkaar staan – het is onvermijdelijk dat AI slimmer wordt óf het is sciencefiction – bewandel ik een agnostische weg. En die leidt ook langs die moeilijk te vatten figuur Yudkowsky en zijn recente speculatieve manifest: If Anyone Builds It, Everyone Dies.

In de rap groeiende stapel AI-boeken springt dit werk eruit door zijn compromisloze aanpak. Logisch dat het vorig jaar verschenen werk in de Engelstalige wereld veelbesproken is. Positief (‘Iedereen met belangstelling voor de toekomst heeft de plicht dit te lezen’, aldus The Guardian), maar ook vaak uitgesproken negatief, vanwege het hoge sciencefictiongehalte.

Yudkowsky ramt samen met coauteur Nate Soares zijn boodschap erin: als we AI zijn gang laten gaan, gaan we allemaal naar de klote. Letterlijk.

‘Als een bedrijf of groep, waar ook ter wereld, een kunstmatige superintelligentie bouwt met behulp van technieken die ook maar enigszins lijken op de huidige methoden, gebaseerd op de huidige kennis van AI, dan zullen alle mensen, overal ter wereld, sterven’, schrijven ze.

Om er voor de zekerheid aan toe te voegen: ‘Dit is geen overdrijving.’ Hoe we zullen sterven? Bijvoorbeeld door een grootscheepse biologische aanval, door corrupte of naïeve biomedische onderzoekers om te kopen en te manipuleren. Zij kunnen met behulp van AI nieuwe dodelijke virussen ontwerpen en verspreiden.

Alles in hun boek werkt toe naar één conclusie: een conflict tussen mens en superintelligentie is bij voorbaat een verloren zaak. ‘Het zou zijn als de Azteken die tegenover geweren staan.’

Yudkowsky is geen agnost, kunnen we vaststellen – hij weet heel veel dingen zeker.

Doomporno

Nogmaals: bepaald niet iedere expert is het met Yudkowsky eens dat AI op zeker moment de mens te slim af is. Ook de aanname van Yudkowsky dat het onmogelijk is om een slim systeem op zeker moment gewoon uit te kunnen zetten, is betwistbaar.

Bovendien, zeggen diezelfde experts, de doomporno van Yudkowsky is uiteindelijk ook gewoon onderdeel van de hype rondom AI. De schrijver ziet hel en verdoemenis, terwijl de topmannen van AI-bedrijven OpenAI en Anthropic juist werelden van oneindige voorspoed en transcendente schoonheid voorspellen.

Wat ze met elkaar gemeen hebben is hun overtuiging dat superslimme AI binnen handbereik is.

Tot slot is de figuur Yudkowsky zelf ook nog eens in hoge mate omstreden. Op jonge leeftijd pleit hij voor een zo snel mogelijke komst van superintelligentie, inmiddels betitelt Silicon Valley-sleutelfiguur Peter Thiel hem als de antichrist omdat hij de vooruitgang juist tegenhoudt. In één ding is Yudkowsky trouwens zeer consequent: zijn rotsvaste geloof in de komst van superintelligentie.

Het verschil met de vroege en late Yudkowsky – we behandelen hem maar even als een soort Wittgenstein – is de consequentie die hij aan dit geloof verbindt.

Als tiener kan hem dit niet snel genoeg gaan en wil hij het gaspedaal maximaal intrappen, waarmee hij een typische Silicon Valley-accelerationist is. Inderdaad: als tiener. Normaal gesproken hoeven we het natuurlijk niet te hebben over de denkbeelden van een tiener, maar Yudkowsky is op jonge leeftijd al invloedrijk. Met dank aan een obscure mailinglijst in de jaren negentig, genaamd The Extropians.

Hier komt een bont gezelschap van futuristen, transhumanisten, libertariërs en technologiefilosofen bij elkaar om te praten over kunstmatige intelligentie, nanotechnologie, cryptografie en levensverlenging. Grote namen ook, onder wie robotica-expert Hans Moravec, AI-pionier Marvin Minsky, filosoof Nick Bostrom (over wie straks meer) en futurist en schrijver Ray Kurzweil.

Het ethos is er een van onbegrensd optimisme: technologie is de bevrijder die de menselijke conditie zal ontstijgen. De term ‘extropisme’ is goed gekozen, als antigif voor entropie. Die laatste term komt uit de natuurkunde en geeft aan dat systemen altijd bewegen naar meer onzekerheid en wanorde.

Wonderkind

De 17-jarige Yudkowsky beweegt zich in deze intellectuele kringen als een wonderkind, niet gehinderd door twijfels over zijn jonge leeftijd of gebrek aan opleiding. Yudkowsky maakt nooit zijn middelbare school af, maar verslindt boeken over onder andere nanotechnologie en de technologische singulariteit, het punt waarop machine-intelligentie de menselijke intelligentie overstijgt en de toekomst onvoorspelbaar wordt.

Die aanname is dat we op een gegeven moment een computer kunnen bouwen die net zo slim is als de mens. Deze computer kan dag en nacht werken en maakt al snel een betere versie van zichzelf.

Versie 2.0 is zo slim en snel dat hij in een oogwenk versie 3.0 ontwerpt, waarna versie 3.0… Enfin, u snapt het idee: de machine verbetert zich exponentieel.

In Yudkowsky’s kringen worden ze hier heel opgewonden van. De jongeman krijgt al snel een bijzondere status bij de extropianen vanwege zijn bijdragen. Dat zijn er niet alleen veel, ze getuigen ook van zijn enorme belezenheid en scherpe verstand. Zelf gelooft hij dat het creëren van een superintelligentie de hoogste morele plicht van de mensheid is, omdat zo’n entiteit alle menselijke problemen, zoals ziekte, dood en schaarste, in een oogwenk kan oplossen.

Het is het soort denken dat nog steeds gangbaar is in Silicon Valley. Lees de blogs van OpenAI-topman Sam Altman: ook hij schetst een wereld van uitbundigheid en voorspoed waarin mensen niet meer aan ziekten lijden en baden in vrije tijd. Allemaal dankzij AI.

Yudkowsky maakt later een radicale transformatie door, als hij zich realiseert dat een machine met oneindige intelligentie niet per se goed nieuws is voor de mens. Zo’n machine kan immers doelen nastreven die catastrofaal kunnen uitpakken.

Niet uit haat, maar uit onverschilligheid: ‘De AI haat je niet, noch houdt hij van je, maar je bent gemaakt van atomen die hij voor iets anders kan gebruiken.’

Met precies dat denken wordt Nick Bostrom, auteur van de bestseller Superintelligentie, later wereldberoemd. De filosoof poneert hierin de stelling dat de creatie van een machine die de menselijke intelligentie overtreft de belangrijkste en mogelijk laatste uitvinding van de mensheid zal zijn.

In het klassieke scenario van een mensbedreigende AI voert hij het gedachte-experiment van de paperclip-maximalisator op. Hierin stelt de filosoof zich een superintelligente AI voor die als taak heeft zoveel mogelijk paperclips te produceren. De doelstellingen van deze AI kunnen vervolgens in conflict komen met die van de mensheid omdat beide entiteiten strijden om dezelfde grondstoffen.

Om zijn taak te volbrengen, zou de AI kunnen besluiten de mensheid uit te schakelen. De paperclip van Bostrom staat inmiddels symbool voor het existentiële risico van AI.

Moeilijk serieus te nemen? Misschien helpt de mieren-analogie meer. De natuurkundige Max Tegmark schrijft in zijn boek Life 3.0 (2017) dat machines helemaal niet kwaadaardig hoeven te zijn om gevaarlijk voor de mens te worden – het echte gevaar is competentie. Hij beschrijft een mierenhoop die in een gebied ligt dat onder water wordt gezet voor een waterkrachtcentrale.

De mensen die het project leiden zijn geen mierenhaters die uit wraakzucht op mieren trappen; hun doel is simpelweg niet verenigbaar met het voortbestaan van de mieren. Weg mier.

‘Mensvriendelijke AI’

Terug naar Yudkowsky. Eerst probeert hij de bakens te verzetten door onderzoek te doen naar het ontwikkelen van veilige AI. Met dit type onderzoek is Yudkowsky van grote invloed op een nieuwe generatie AI-ondernemers, van wie Sam Altman en Elon Musk de bekendste zijn.

Met OpenAI willen ze in 2015 naar eigen zeggen ‘mensvriendelijke AI’ ontwikkelen voordat onveilige AI de wereld overneemt. Yudkowsky was volgens Altman cruciaal bij de beslissing OpenAI te starten. Grote kans dat Yudkowsky dit soort complimenten kan missen als kiespijn: hij stelt vast dat hij, door te waarschuwen voor de gevaren, per ongeluk de mensen heeft gemotiveerd die de technologie nu juist versneld bouwen.

Een technische oplossing (voor veilige AI) komt nooit op tijd, beseft hij. Na 2020 verschuift zijn focus daarom naar het stoppen van de AI-machinerie. De culminatie van die tweede wending is een geruchtmakend opiniestuk in Time in maart 2023, waarin hij pleit voor een stop op alle training van krachtige AI-systemen.

Daarbij blijft het niet; als een land of groep in het geheim de regels overtreedt, dan moet de internationale gemeenschap bereid zijn om een vijandig datacentrum met een luchtaanval te vernietigen.

Ook in If Anyone Builds It, Everyone Dies promoot hij zo’n drastische ingreep, mocht dat nodig zijn. Ook als die vijandige mogendheid over een kernwapen beschikt. De gevolgen van een kernoorlog zijn nog altijd minder groot dan die van superintelligentie.

Zijn grimmige boodschap: als een bedrijf of land ergens ter wereld een kunstmatige superintelligentie bouwt, leidt dit onherroepelijk tot de dood van ieder mens op aarde.

Het maakt hierbij niet uit of de makers van die technologie goede of slechte intenties hebben; het probleem is dat niemand weet hoe je een superintelligentie kunt bouwen die de mensheid níét vernietigt.

Omdat deze superintelligentie slimmer is dan de mens, is het een fluitje van een cent om ons altijd te slim af te zijn, is Yudkowsky’s redenering. Hij gaat er hierbij vanuit dat de doelen van die hypothetische ultraslimme AI en die van de mens uiteindelijk altijd met elkaar in conflict komen. Een uitknop zal hoe dan ook niet werken: die slimme AI is listig genoeg om te voorkomen dat deze wordt ingedrukt, bijvoorbeeld door ons te chanteren.

Sciencefiction

Geen speld tussen te krijgen, toch?

Toch wel. Het hele betoog leunt op de aanname dat er iets als superintelligentie aankomt én dat deze een soort eigen wil heeft. De eerste horde is AGI, Artificial General Intelligence. In de meest nuchtere definitie (er zijn er meer) is dit het soort AI dat alle cognitieve taken minstens even goed kan uitvoeren als mensen. Daar blijft het dan niet bij; de volgende stap is ASI, artificial superintelligence.

Iedereen is het er over eens dat AGI nog niet bestaat, maar daar houdt de consensus op. Vrijwel alle topmannen van grote AI-bedrijven, van Musk met zijn xAI tot de hoogste baas van DeepMind, beloven dat AGI voor de deur staat. In hun kielzog gaat ook Ursula von der Leyen, voorzitter van de Europese Commissie, daar vanuit. De vroegste voorspellingen gaan al uit van dit jaar.

Daar tegenover staan de critici die zeker weten dat het hele concept van AGI sciencefiction is. Het is een van de redenen dat veel AI-critici geen woorden aan hem willen vuilmaken. ‘Yudkowsky kan erg overtuigend overkomen, maar het is speculatie. Er is geen enkele wetenschappelijke onderbouwing’, zo vertelt de Amerikaanse journalist Karen Hao me in Amsterdam, tijdens haar promotietour van haar boek Empire of AI.

Zij is niet de enige. Toen ik een jaar geleden negen Nederlandse experts vroeg naar het concept van superslimme AI, was het antwoord vrijwel unaniem: dit hele concept is onzinnig. ‘Ik geloof niet in het populaire SF-beeld van de superintelligente AI’, zei AI-hoogleraar Eric Postma bijvoorbeeld. ‘Het komt voort uit een verkeerde voorstelling van intelligentie. Mensen zijn biologische wezens, en hun intelligentie wordt in belangrijke mate gevormd door hun maatschappelijke en culturele omgeving. Het door computers gedomineerde wereldbeeld onderschat de complexiteit van de echte wereld.’

Wie de recente boeken van Lode Lauwaert (hoogleraar techniekfilosofie KU Leuven), Thomas Moerland (AI-onderzoeker Universiteit Leiden) en Toby Walsh (hoogleraar AI aan de universiteit van New South Wales) erbij pakt, kan echter op basis van hun argumentatie tot de conclusie kunnen komen dat AGI helemaal niet zo’n bizar concept is.

De een is wat stelliger dan de ander, maar, is hun boodschap: we moeten er ernstig rekening mee houden dat computers slimmer worden dan wij.

Hoe kan het toch dat de ene groep hooguit ruziet over de vraag of het twee, vijf of misschien dertig jaar duurt, terwijl een andere groep het hele begrip AGI ziet als een commerciële en totaal niet realistische ideologie van bedrijven die er baat bij hebben hun technologie als revolutionair te presenteren?

Een van de eerste verklaringen hiervoor is het gebrek aan overeenstemming over de begrippen die de hoofdrol spelen in deze discussie. Wat is AGI precies? Of, fundamenteler nog: wat is intelligentie?

Vraag dit laatste aan een filosoof, een computerwetenschapper, een evolutionair bioloog, een cognitief psycholoog of een neurowetenschapper, en je krijgt telkens een ander antwoord.

Wat voor AI-hoogleraar Frank van Harmelen (VU Amsterdam) in ieder geval vooropstaat, is dat het idee dat intelligentie op een lineaire lijn ligt, niet het juiste is: ‘Van bacteriën naar vissen, apen, mensen, en dan uiteindelijk ASI. Dat is een verkeerde manier om naar intelligentie te kijken. Er zijn gewoon veel verschillende soorten intelligentie. Vliegt een huismus beter dan een Boeing? Ze vliegen op een totaal andere manier. Zo moeten we ook over AI praten.’

Discussies

Een ander probleem is dat er verschillende soorten discussies door elkaar lopen. Lauwaert constateert in zijn boek dat ‘je ofwel in een techbubbel ofwel in een ethiekbubbel leeft’.

De eerste trompettert over de exponentiële vooruitgang van AI-onderzoek, terwijl de tweede focust op alle problemen die samenhangen met het soort AI waaraan de grote commerciële AI-labs werken.

Op AGI en ASI in het algemeen, en Yudkowsky in het bijzonder, zijn grofweg vier soorten kritiek te onderscheiden. De eerste is ad hominem: Yudkowsky is een rare reactionaire figuur die zijn halve leven in radicaal libertarische kringen rondhangt. Klopt.

De tweede luidt: mensen als Altman hebben er een commercieel belang bij om de hypemachine te blijven voeden. Ook dat klopt, maar die redenatie gaat dan weer niet op voor Yudkowsky.

De derde aanval is fundamenteler en komt uit de ethische hoek. Ethici als Timnit Gebru en Emily Bender betogen dat Yudkowsky’s obsessie met uitstervingsrisico’s en de verre toekomst een afleiding is van de reële schade die AI nu al aanricht: bias in algoritmen, uitbuiting van werknemers en energiebronnen, concentratie van macht bij big tech.

Ze zien ook een rechte lijn van de eugenetica van de 20ste eeuw naar het transhumanisme dat in Silicon Valley hoogtij viert en dat streeft naar een ‘perfecte’ mensheid of post-mensheid.

De vierde en laatste aanval is technisch van aard: iets als AGI kán gewoon niet, en al helemaal niet via alleen taal. Iedereen kan dit type argumentatie inmiddels dromen: chatbots kunnen heel overtuigend overkomen, maar in de basis zijn het statistische machines, die niet veel meer doen dan voorspellen welk woord er achter het volgende woord moet komen.‘Stochastische papegaaien’ is de term die Emily Bender samen met andere kritische AI-onderzoekers voor dit gedrag van chatbots gebruikt.

Onvergelijkbaar dus met de magie van het menselijk brein. Brandt er ergens binnen die systemen een lichtje – de metafoor die vaak opduikt om aan te geven dat een brein bewust handelt? Kan uit het kunstmatige brein van een computer uiteindelijk iets als bewustzijn opborrelen?

Intelligent

Interessante vragen misschien, maar ze doen er niet toe, benadrukt Yudkowsky. Hij concentreert zich liever op de cognitieve prestaties en capaciteiten van AI en spreekt van superintelligentie als een systeem ‘[dat] veel capabeler is dan welke mens dan ook in bijna elk soort stuur- en voorspellingsprobleem’.

Deze benadering doet sterk denken aan de bekende turingtest. Alan Turing stelde in 1950 dat een ‘imitatiespel’ zou volstaan: als een machine niet van een mens te onderscheiden is bij het geven van antwoorden, moeten we haar intelligent noemen. De taalfilosoof John Searle kwam later als reactie met zijn Chinese kamer. Met dit gedachte-experiment probeerde ook hij antwoord te krijgen op de vraag: kunnen we computers intelligent noemen?

In Searles gedachte-experiment zit een man in een kamer die Chinese tekens verwerkt volgens een handboek, zonder de taal te begrijpen. De output is perfect, het inzicht nul. Voor Yudkowsky is dit onderscheid irrelevant: het maakt in het geheel niet uit of de machine ‘begrijpt’ wat hij doet.

Al zijn er tegenwoordig genoeg mensen uit het AI-hypekamp die ervan overtuigd zijn dat ook computers uiteindelijk bewustzijn kunnen hebben, dit is nooit het uitgangspunt van AI-onderzoek geweest, stelt Moerland. Intelligentie is in zijn definitie een rekenkundig proces van informatieverwerking dat we kunnen implementeren in een computer.

Lauwaert op zijn beurt beschrijft intelligentie als het vermogen om problemen op te lossen, zo vertelt hij mij als ik hem spreek over zijn boek. ‘Die vermogens kunnen voorkomen in biologische breinen, maar ook in kunstmatige.’

En natuurlijk: anders dan AI hebben wij mensen een centraal zenuwstelsel en ervaren we pijn en genot en zijn we ons bewust van onszelf. ‘AI ervaart niets, maar maakt dat uit? Bewustzijn is helemaal geen voorwaarde voor superintelligentie.’

Die term suggereert van wel, maar is dit dan wel échte intelligentie? Net als voor Yudkowsky doet die vraag er voor Lauwaert niet toe: het maakt niet uit of een AI-systeem écht denkt, begrijpt of redeneert. Searle kan in zijn kamer gaarkoken.

Black box

Ooit was een van de doelen van AI om meer inzicht te krijgen in het menselijk brein. Door dit na te bouwen, zouden de geheimen zich ontvouwen, was het idee. Dat werden uiteindelijk de kunstmatige neurale netwerken, die heel losjes gebaseerd zijn op ons eigen netwerk van zenuwcellen en synapsen (verbindingen tussen hersencellen, red.).

Maar in plaats van de black box van het menselijk brein te ontvouwen, bouwden we een nieuwe black box. De huidige AI-systemen functioneren juist zo goed omdat ze niet expliciet regel voor regel zijn geprogrammeerd, maar omdat ze leren van voorbeelden. De AI-experts bouwden geen digitale volwassene met alle kennis van de wereld, maar een digitale variant van een peuter die alles nog moet leren van de buitenwereld.

We weten niet precies wat er in die kunstmatige neurale netwerken gebeurt. En misschien is dat ook wel de essentie van ons eigen brein. ‘Als het menselijk brein zo simpel was dat we het konden begrijpen, zouden wij zo simpel zijn dat we het niet konden begrijpen’, zo zei computerwetenschapper Emerson Pugh ooit.

Wat gebeurt er als we genieten van kunst of natuur, als we worden geraakt door een ander? Als we een transcendente ervaring hebben? Is het een kwestie van vurende neuronen? Ongetwijfeld. Maar dat zegt niets over het wonder van bewustzijn.

De ene black box is de andere niet, zoveel is duidelijk. Toch fijn. Maar voor Yudkowsky zal dat geen geruststelling zijn.

Zes boeken over AI, geselecteerd door de Volkskrant

Lode Lauwaert: AI, wat niemand ons vertelt (Prometheus). De Vlaamse AI-onderzoeker bouwt een brug tussen de wereld van de AI-ethici en die van de AI-onderzoekers en -bedrijven die de komst van AGI en superintelligentie beloven.

Thomas Moerland: Van IQ naar AI (Atlas Contact). Geschiedenis van het AI-werkveld en onderzoek naar de technologie achter AI en de gelijkenissen met ons brein. Ons brein is een biologische computer, betoogt Moerland. Maar wel een verdomd complexe.

Gabriella Obispa en Laurens Vreekamp: Niet onze AI (Van Duuren). Een boek dat de nadruk legt op het problematische verhaal rondom AI van de techbro’s, en daar een ander narratief tegenover zet.

Toby Walsh: De kortste geschiedenis van AI (De Bezige Bij). Toegankelijk geschreven geschiedenis van kunstmatige intelligentie met uiteraard ook een blik in de toekomst. Vertaald uit het Engels.

Eliezer Yudkowsky: If Anyone Builds It, Everyone Dies (The Bodley Head). Uitgesproken boek over de komst van superintelligentie en de grote gevaren daarvan voor de mensheid.

Emily Bender en Alex Hanna: The AI Con (The Bodley Head). Kritisch boek over de hypeindustrie rondom AI en alle beloften die daarmee samenhangen. Net als Obispa/Vreekamp een contrapunt bij alle hypes, ook die van Yudkowsky.

Luister hieronder naar onze wetenschapspodcast Ondertussen in de kosmos. Kijk voor al onze podcasts op volkskrant.nl/podcasts.

Alles over tech vindt u hier.

Lees ook

Geselecteerd door de redactie

Source: Volkskrant

Previous

Next