Gebruikers onder de 18 jaar krijgen een aangepaste versie van ChatGPT, die terughoudend moet zijn met ‘flirterige gesprekken’. In april van dit jaar pleegde een Amerikaanse tiener zelfmoord na lange gesprekken met de chatbot.
‘Sommige van onze principes botsen met elkaar’, zo begint OpenAI-topman Sam Altman een blogpost waarin hij de nieuwe maatregelen aankondigt die tieners beogen te beschermen. Die principes zijn aan de ene kant vrijheid en privacy en aan de andere kant de veiligheid van jonge gebruikers.
Tot nu toe sloeg de balans binnen OpenAI door naar vrijheid en privacy. ‘Mensen praten over steeds persoonlijkere zaken met AI. Dat is een verschil met eerdere generaties technologie’, aldus Altman. Hij voegt eraan toe dat een gesprek met een chatbot even vertrouwelijk moet zijn als een gesprek met een dokter.
Verder benadrukt de topman dat gebruikers veel vrijheid moeten hebben om de chatbot naar eigen believen in te zetten. Willen ze een flirterig gesprek voeren met ChatGPT? Dan moet dat kunnen. En als een volwassene ‘om hulp vraagt bij het schrijven van een fictief verhaal over zelfmoord, dan moet het model daarbij helpen’.
Voor kinderen maakt het bedrijf nu een andere afweging. Deze knieval kan niet los worden gezien van recente verhalen over chatbots als ChatGPT die totaal uit de bocht vlogen.
Recentelijk nog klaagden ouders OpenAI aan, nadat hun 16-jarige zoon na lange gesprekken met de chatbot een eind aan zijn leven had gemaakt. In de rechtbankdocumenten staat dat ChatGPT in de gesprekken met de tiener 1.275 keer het woord ‘zelfmoord’ noemde en hem actief aanmoedigde zichzelf te beschadigen.
De aankondiging van OpenAI komt in dezelfde week dat de Amerikaanse Senaat in Washington een hoorzitting start over de mogelijke bedreiging van AI voor jongeren.
Concreet kondigt het bedrijf van Sam Altman nu een tweestappenplan aan. Allereerst gaat het werken aan een systeem dat automatisch moet detecteren of iemand onder de 18 is. Deze leeftijdsvoorspeller baseert zich op eerdere chats.
Is de gebruiker volgens OpenAI onder de 18, dan krijgt hij of zij een aangepaste ervaring. Géén flirterige gesprekken meer bijvoorbeeld. Ook belooft OpenAI dat zijn chatbot niet meer meedoet aan conversaties over zelfbeschadiging of zelfmoord, zelfs niet in een fictieve setting.
Het kost enige tijd om die aanpassing te bouwen. Tot die tijd leunt OpenAI op ouderlijk toezicht. Ouders krijgen nog deze maand de mogelijkheid om de accounts van hun kinderen te koppelen aan die van henzelf. Daarna kunnen zij het gebruik beperken of waarschuwingen ontvangen als OpenAI detecteert dat kinderen in ‘acute nood’ zijn.
Marijn Sax, universitair docent bij het Instituut voor Informatierecht van de Universiteit van Amsterdam, noemt de maatregelen ‘een doekje voor het bloeden’. Zijn fundamentele bezwaren tegen de taalmodellen achter chatbots als ChatGPT blijven recht overeind: ‘Het blijven voorspellende taal-genereer-modellen, zonder notie van de waarheid.’
Dat betekent dat dit soort systemen principieel nooit helemaal goed te temmen zijn, aldus Sax. ‘Ook de genoemde veiligheidsmaatregelen klinken weer onbetrouwbaar, omdat ze zijn gebaseerd op statistiek en voorspellingen. Wanneer is een onderwerp riskant? Menselijke moderatoren zullen dat niet bepalen, maar AI.’ En dat zal nooit waterdicht zijn, concludeert Sax. ‘Dat risico accepteren ze blijkbaar.’
Geselecteerd door de redactie
Source: Volkskrant