Home

AI-chatbots gedragen zich minder ongepast als de oplossing van Microsoft werkt

De maatregelen komen terecht in Azure AI Studio. Dat is een programma van Microsoft dat werkt met software van ChatGPT-maker OpenAI. Ontwikkelaars kunnen daar eigen data in stoppen om AI-assistenten op maat te bouwen.

Chatbots die werken met kunstmatige intelligentie geven soms vreemde antwoorden. Soms zijn die zelfs schadelijk. Microsofts AI-assistent Copilot zei bijvoorbeeld tegen een gebruiker met PTSS dat het niet uitmaakte of hij leefde of niet, bleek vorige maand uit berichtgeving van Bloomberg. Ook beschuldigde de chatbot een gebruiker van leugens en zei hij: "Neem alsjeblieft geen contact meer met mij op".

Na onderzoek van Microsoft bleek dat mensen expres probeerden om de chatbot tot dit soort antwoorden te verleiden. Volgens het bedrijf kregen doorgaan maar heel weinig mensen ongepaste antwoorden terug. Toch trof het bedrijf maatregelen.

Microsoft voert zogeheten promptschilden door. Die zijn ontworpen om uitlokgedrag en kwaadwillende instructies te herkennen en te blokkeren. Zo hoopt het bedrijf illegale acties zoals het stelen van gebruikersgegevens of het kapen van systemen te voorkomen. Naast deze blokkades belooft Microsoft gebruikers ook beter te waarschuwen als een chatbot dingen verzint of onjuiste informatie levert.

Source: Nu.nl economisch

Previous

Next