Home

OpenAI zoekt een 'hoofd Paraatheid' om grootste AI-gevaren in kaart te brengen

Ben jij zo'n doemdenker die 's nachts wakker kan liggen van alle risico's die AI met zich meebrengt? Die bang is voor Judgment Day meets HAL9000 meets Matrix? Dan is OpenAI's nieuwe functie misschien iets voor je. Het bedrijf zoekt een 'Head of Preparedness', die onder andere de gevaren van nieuwe modellen in kaart moet brengen.

OpenAI schrijft in een vacature dat het zoekt naar een 'Head of Preparedness', iets dat overigens geen nieuwe term is. De maker van ChatGPT werkt al langer aan 'preparedness' als vakgebied, onder andere met een zelfopgezet framework dat de risico's van AI op alle mogelijke vlakken in kaart moet brengen. Het nieuwe afdelingshoofd moet zorgen dat die risico's in kaart worden gebracht, maar ook dat programmeurs deze volgen en dat de juridische afdeling daar weet van heeft.

Nou weet je bij Sam Altman nooit echt of zo'n functie serieus bedoeld is of dat het vooral marketing richting AGI is, maar op X noemt de OpenAI-oprichter verschillende risico's waar het Head of Preparedness zich mee bezig moet houden. Altman noemt onder andere modellen die belangrijke kwetsbaarheden in software kunnen vinden. "We komen in een wereld terecht waar we een genuanceerder begrip moeten krijgen van hoe nieuwe mogelijkheden kunnen worden misbruikt", zegt hij. "Die vragen zijn ingewikkeld en er is weinig precedent voor."

Altman noemt zelf alleen cybersecurity als mogelijk risicogebied, maar er zijn er natuurlijk meer te bedenken. Recent zijn er veel gevallen opgedoken waarbij met name jonge mensen overleden door zelfdoding nadat ze daarover veelvuldig spraken met chatbots. Tweakers schreef eerder dit jaar al hoe AI-modellen structureel falen bij het praten over zelfdoding.

Denk jij aan zelfdoding? Neem 24/7 gratis en anoniem contact op met 113 Zelfmoordpreventie via 0800-0113 of chat op 113.nl. In Belgiƫ kun je terecht bij de Zelfmoordlijn op het nummer 1813 of via zelfmoord1813.be.

Source: Tweakers.net

Previous

Next