Home

De mensen achter AI verdienen ons diepe wantrouwen en strikte regels

Stel dat een farmaceut zegt: we hebben een nieuw, zeer krachtig middel. We hebben het getest, maar zeggen niet hoe. We zeggen ook niet hoe het werkt. Dat begrijpen we zelf niet volledig. Nu gaan we dat spul bij de wereldbevolking injecteren, omdat we dan pas duidelijk de voor- en nadelen zien. Samen maken we er zo een medicijn van waar iedereen van zal profiteren!

Ondenkbaar. Toch is dit wat we accepteren van techreuzen. Ook nu weer, terwijl ze de nieuwste generatie AI-producten op ons los laten.

De ontvangst is wel anders dan bij eerdere techrevoluties. We liggen niet slechts in katzwijm voor vlotte herauten van de glorieuze toekomst. We kennen de keerzijden van al die vorige nieuwe mogelijkheden: privacyschendingen, dataroven, leugens, chantage, verslaving, discriminatie, massasurveillance en onderdrukking.

Ook nu was er wel even die fase: kijk hoe knap die chatbot antwoordt! Zie hoe echt dit plaatje lijkt! Maar al snel verschoof de aandacht naar de risico’s. Meest in het oog springen: heviger cyberaanvallen, slinksere grootschalige oplichting en een hausse van zeer overtuigende desinformatie. Momenteel wordt gelukkig Europese wetgeving aangenomen die AI aan banden legt, fundamentele rechten beschermt en eisen aan toezicht stelt. Maar de zorgvuldigheid waarmee wetten worden gemaakt loopt steeds achter bij het achteloze gemak waarmee techbedrijven prototypes over ons uitstorten. Al hebben we onze onschuld verloren, de rolverdeling lijkt onontkoombaar: big tech overspoelt ons met producten, wij proberen spartelend ons hoofd boven water te houden.

OpenAI, dat recentelijk de baanbrekendste producten uitbracht, test ze heus eerst. Maar, voegt het bedrijf daaraan toe: je kunt maar zoveel leren in een lab. Om echt te weten te komen wat mensen aan de technologie hebben én hoe ze er misbruik van kunnen maken, moet die de wereld in. En OpenAI, in feite een verlengstuk van Microsoft, belooft plechtig om dan zo nodig in te grijpen. ‘Samen zorgen we ervoor dat AI de hele mensheid voordeel brengt’, mijmert bestuursvoorzitter Greg Brockman.

Dit is vanuit de ontwikkelaar logisch: hoe meer gebruik, des te meer informatie en des te beter je product. Een frisse start-up met een geinig nieuw appje moet het ook zeker zo aanpakken. Maar op deze schaal en met deze enorme gevolgen, is het onverantwoord.

Computerprogramma’s kiezen toch al vaak oplossingen met ongewenste uitkomsten die de bedenkers niet zien aankomen. Bij deze zelflerende programma’s, die eigenhandig nieuwe programma’s kunnen schrijven én verbindingen kunnen aangaan met mensen en andere machines, is dat probleem een veelvoud groter. Er is al een voorbeeld waarbij AI een mens misleidde om een taak uit te kunnen voeren.

Met zijn utopische taal moffelt Brockman ook de keiharde commerciële race weg. Komt Microsoft op voorsprong, dan voelt Google zich verplicht om gehaast zíjn AI-producten te lanceren, desnoods wat minder getest. Volgens Geoffrey Hinton, die mede aan de wieg stond van de huidige technologie en die onlangs zijn baan bij Google opgaf omdat hij vrijuit wil kunnen waarschuwen voor AI-gevaren, stoppen bedrijven 99 procent van hun middelen in ontwikkeling en 1 procent in veiligheid, waar dat fiftyfifty zou moeten zijn.

De zelfoverschatting van zo’n Brockman ook: hoezo denkt iemand die toevallig een vernieuwend techbedrijf kan leiden, dat hij geschikt is om maatschappelijke repercussies in goede banen te leiden? ‘De vraag die we zouden moeten stellen over AI en over elke nieuwe technologie’, schrijft Roger McNamee in Time, ‘is of bedrijven ongecontroleerde experimenten mogen uitvoeren op de hele bevolking zonder vangrails of veiligheidsnet.’ McNamee was een vroege Facebook-investeerder die uitgroeide tot fel criticaster. ‘Moet het wel legaal zijn voor bedrijven om producten op de massa’s los te laten zonder dat ze hebben hoeven bewijzen dat die producten veilig zijn?’

Maar een grondig goedkeuringsproces vóóraf, daar zitten zeker de VS nog heel ver vandaan.

Intussen wakkeren juist sommige ontwikkelaars en voormalige pleitbezorgers van AI de onrust aan. Zij verwachten binnen afzienbare tijd een AI die slimmer is dan de mens. De Amerikaanse AI-onderzoeker Eliezer Yudkowsky waarschuwt voor niets minder dan de uitroeiing van de mensheid en krijgt flink bijval. Maar hier is iets raars mee. De meeste onafhankelijke deskundigen vinden dit sciencefiction, die slechts afleidt van werkelijke gevaren. En hoor je iemand als Yudkowsky praten, dan lijkt hij niet erg gebukt te gaan onder de door hemzelf geschetste apocalyps.

Dat AI potentieel onze eindtijd inluidt, is dan ook geen plots opgedaan schokkend inzicht. Het is al jaren de fascinatie van dit soort lui. Shane Legg, Googles topwetenschapper op dit gebied, zei al in 2011 dat AI boven aan de lijst met existentiële dreigingen voor de mensheid stond. Vervolgens sleutelde hij lekker verder. Sam Altman, de ceo van OpenAI, laat casual vallen dat AI ‘voor ons allemaal het licht uit kan doen’ en beroept zich in The New York Times vervolgens doodleuk op Robert Oppenheimer, de ‘vader van de atoombom’, die discussie iets vond voor ná het technische succes. ‘Technologie ontstaat omdat zij mogelijk is’, aldus Altman.

Zo zijn ook deze horrorscenario’s vooral een symptoom van het kernprobleem: nauwelijks gecontroleerde wereldveranderende ontwikkelingen worden doorgevoerd door nihilistische uitvinders, in dienst van op winst beluste bedrijven met schier eindeloze middelen.

Kunstmatige intelligentie, AI, verandert de wereld in hoog tempo. Deze week bracht de Volkskrant in kaart op welke terreinen AI grote invloed heeft. Deze verhalen, en meer, zijn gebundeld op volkskrant.nl/ai

Source: Volkskrant

Previous

Next