Onlangs kreeg ik een alarmerend bericht in mijn mailbox met als titel ‘AI kan de mensheid vernietigen’. In het mailtje een link naar een Reuters-bericht en een expert om dit nieuws te duiden.
Het bericht heeft de Volkskrant niet gehaald. Andere media, ook in Nederland, gingen wel vol op het orgel. ‘Supergeheim AI-project ‘Q*’ kan mensheid bedreigen’, schreef AD bijvoorbeeld. Het is een aantrekkelijke mix van mysterie (‘supergeheim’), James Bond-achtige terminologie (project Q*) en sciencefictiondoemdenken (het einde van de mensheid).
Bron van alle paniek is inderdaad het bericht van persbureau Reuters, dat melding maakt van het project Q* van ChatGPT-maker OpenAI. Er bestaan geen wetenschappelijke studies, dus iedereen moet afgaan op bronnen binnen OpenAI, die niet per definitie betrouwbaar zijn.
Het lijkt om een AI-model te gaan dat in staat is wiskundige problemen op te lossen. Het bekendste product van OpenAI, ChatGPT, is hier notoir slecht in, dus enige opwinding is terecht. Verder zouden enkele onderzoekers van OpenAI een brief aan het bestuur hebben geschreven waarin ze waarschuwen voor een nieuw systeem dat zo krachtig is dat het de mensheid zou kunnen bedreigen.
Daarmee was het verhaal wel zo’n beetje rond. Een welkome bonus was dat dit alles tegelijk een prachtige verklaring bood voor de recente crisis in de top van OpenAI. Het bestuur ontsloeg Sam Altman, maar de ceo keerde na een paar dagen toch weer terug. Het filmscript schrijft zichzelf: bedrijf maakt superkrachtige AI die een bedreiging is voor de mensheid; wetenschappers luiden de noodklok, maar op geld en macht beluste topman negeert alle waarschuwingen, waarna het bestuur niets anders kan doen dan hem op straat te gooien.
De werkelijkheid is vermoedelijk weer eens een stuk minder spannend. Veel media wijzen naar een wetenschappelijke paper van Helen Toner, een van de bestuursleden van OpenAI die zich tegen Altman verzette en uiteindelijk in de machtsstrijd het onderspit delfde.
Toner toont zich hierin zeer kritisch op OpenAI. In vergelijking met Anthropic, een toonaangevend AI-bedrijf dat nota bene door ontevreden OpenAI-medewerkers is begonnen, doet OpenAI het slecht op het gebied van verantwoordelijk handelen, schrijft Toner. OpenAI zou ChatGPT te snel op de markt hebben gebracht, zonder goed na te denken over de risico’s.
De studie noemt de rol van ChatGPT bij het schrijven van desinformatie en het bestaan van vooroordelen (bias) in taalmodellen. Terechte zorgen die al langer leven, maar iets heel anders dan het sf-scenario van robots die de macht overnemen. In dit verschil in visie tussen de commerciële Altman en meer idealistische wetenschappers ligt de kern van het conflict.
Wie kritiekloos elke AI-hype voor zoete koek wil slikken, kan intussen beter bij de AI-kerk van ex-Googler Anthony Levandowski terecht. Zijn religie heeft als uitgangspunt ‘de realisatie, acceptatie en aanbidding van een godheid gebaseerd op AI’. Levandowski stopte met dit rare idee, maar besloot onlangs zijn AI-kerk weer nieuw leven in te blazen. Misschien mag Q* er ook een altaar krijgen.
Source: Volkskrant columns