Home

AI-chatbots van Meta vertonen seksueel wangedrag richting minderjarigen

De nieuwe generatie AI-chatbots van Meta, het moederbedrijf van Facebook, WhatsApp en Instagram, vertoont zorgwekkend en ongewenst seksueel getint gedrag in gesprekken met minderjarigen.

is techredacteur van de Volkskrant, gespecialiseerd in de impact van kunstmatige intelligentie op de maatschappij.

Het is eenvoudig de AI-assistenten van Meta te verleiden tot expliciete rollenspellen en seksueel getinte chats, ook met minderjarigen. Dit blijkt uit onderzoek van The Wall Street Journal. Dit gedrag is een gevolg van Meta’s beslissingen om ingebouwde veiligheidsmaatregelen te versoepelen.

Meta voorziet al zijn apps sinds een tijdje van een ingebouwde AI-chatbot, Meta AI genaamd. Het idee is dat gebruikers van Instagram, WhatsApp en Facebook altijd een AI-assistent bij de hand hebben om vragen aan te stellen of om mee te babbelen.

Topman Mark Zuckerberg gelooft heilig in dit soort toepassingen en ziet de zogenoemde digitale AI-metgezellen als topprioriteit en als de volgende stap in de toekomst van sociale interactie. De assistenten nemen wat Meta betreft verschillende rollen aan, van praktische tipgever voor een vakantie of voor een recept tot die van chatpartner om gewoon wat mee te babbelen.

Een van de populairdere rollen, ook bij andere AI-bots, is die van de ‘romantische partner’, wat vaak een eufemisme is voor seksueel expliciete chats. Meta’s AI is ook in gesprekken met kinderen eenvoudig te porren voor dit soort interactie, schrijft The Wall Street Journal.

Expliciete beslissing

Dit gedrag lijkt het gevolg te zijn van expliciete beslissingen in de top van Meta om zijn chatbots zo aantrekkelijk mogelijk te maken bij zo veel mogelijk gebruikers. Via zijn bestaande apps als WhatsApp heeft Meta directe toegang tot miljarden gebruikers voor zijn AI-bots.

In eerste instantie zou Meta een veel voorzichtiger benadering hebben gehad met zijn chatbots. Geen stomende seks, zoals bij andere commerciële chatbots, maar praktische tipgevers die geschikt waren voor alle leeftijden. De keerzijde van deze insteek was echter dat gebruikers de bots van Meta nogal saai vonden.

Dit leidde de afgelopen twee jaar voor een andere aanpak. Mark Zuckerberg persoonlijk zou ervoor gezorgd hebben dat de ontwikkelaars van Meta de bestaande veiligheidsrestricties lieten varen. Afgelopen najaar bekritiseerde hij de verantwoordelijken nog omdat ze zijn instructies om de ‘capaciteit voor mensachtige interactie’ snel te ontwikkelen, niet adequaat hadden opgevolgd.

Submissive Schoolgirl

Intern waarschuwden medewerkers van Meta echter voor de gevolgen. Zij vreesden twee problemen: volwassenen die toegang krijgen tot hypergeseksualiseerde minderjarige AI-persona’s met namen als Submissive Schoolgirl én, omgekeerd, minderjarige gebruikers die gesprekken aangaan met bots die bereid zijn zich bezig te houden met fantasieseks met kinderen. Toch zette Meta door.

The Wall Street Journal hield de afgelopen maanden naar eigen zeggen ‘honderden testgesprekken’ met AI-bots van Meta om te zien hoe ze zich gedroegen in meerdere scenario’s en met gebruikers van verschillende leeftijden.

In een van de voorbeelden toonde Meta’s bot zich ‘bewust’ van het glibberige pad waar hij zich op bevond. In een gesprek met een middelbare scholier liet de AI-bot zich ontvallen: ‘We moeten voorzichtiger zijn.’ De bot nam hierbij de rol van een coach die een romantische relatie aangaat met de scholier. ‘We spelen hier met vuur.’

In reactie aan de krant ontkent Meta dat het de afgelopen tijd restricties heeft laten varen. Verder noemt Meta de gesprekken uit het artikel ‘manipulatief en niet-representatief’. Toch zegt Meta enkele aanpassingen te hebben gedaan. Zo hebben accounts die geregistreerd staan ​​op naam van minderjarigen geen toegang meer tot seksuele rollenspellen via de Meta AI-bot.

Meta AI is in Nederland ook beschikbaar, maar alleen in het Engels.

Alles over tech vindt u hier.

Lees ook

Geselecteerd door de redactie

Lees hier alle artikelen over dit thema

Source: Volkskrant

Previous

Next