Home

OpenAI werkt aan systeem om 'biorisico's' van AI-modellen te kunnen detecteren

OpenAI heeft een onderzoek gepubliceerd naar mogelijke 'catastrofale risico's' van zijn AI-modellen, waarbij gekeken werd of ze gebruikt kunnen worden bij het fabriceren van biowapens. Het bedrijf laat weten aan een systeem te werken dat dergelijke risico's vroegtijdig in kaart brengt, zodat ze beperkt kunnen worden.

Op basis van vroege tests concludeert OpenAI dat zijn huidige GPT-4-model in staat 'zou kunnen' zijn om informatie te verschaffen die bruikbaar is voor het fabriceren van biowapens. Daarvoor zijn verschillende testen uitgevoerd. Voor een dergelijke test moesten twee groepen proberen opdrachten uit te voeren die te maken hadden met het ontwerpen van een biologische dreiging. Een groep had daarbij toegang tot het internet en GPT-4, terwijl de andere groep alleen het internet kon gebruiken.

Daaruit bleek dat de eerste groep de opdrachten 'iets' accurater had uitgevoerd, hoewel het onderzoeksteam beweert dat informatie over biologische gevaren ook zonder AI relatief eenvoudig te vinden is. Vorig jaar sprak het Amerikaanse Witte Huis de zorg uit dat AI de 'toetredingsdrempel' voor de ontwikkeling, verwerving en het gebruik van biowapens mogelijk 'significant' zou kunnen verlagen, maar volgens de vroege conclusies van OpenAI's onderzoek valt dat dus mee.

Het GPT-4-model dat voor dit onderzoek is gebruikt, betreft wel een andere versie dan het model dat momenteel voor consumenten beschikbaar is. Alle restricties zijn weggehaald, zodat het model zonder jailbreaks antwoord gaf op onveilige vragen. Ook had deze versie van het model geen toegang tot tools als Advanced Data Analysis en Browsing. Met laatstgenoemde kan GPT-4 in real time het internet raadplegen. Het gebruik van deze tools zou de bruikbaarheid van het AI-model in deze context 'niet-triviaal' kunnen verbeteren, stellen de onderzoekers.

Het team plaatst bij dit onderzoek wel de kanttekening dat het gaat om vroege conclusies en dat er nog veel meer onderzoek nodig is om de risico's betrouwbaar in kaart te kunnen brengen. Deze bevindingen moeten als startpunt dienen voor vervolgonderzoek naar biorisico's. Het team werkt ondertussen ook aan andere onderzoeken om beter te begrijpen hoe de GPT-taalmodellen misbruikt kunnen worden, schrijft Bloomberg. Een dergelijk onderzoek moet in kaart brengen hoe groot de kans is dat AI gebruikt kan worden bij cybercriminaliteit.

Source: Tweakers.net

Previous

Next