Home

Opinie: Feministisch en queer denken is cruciaal voor eerlijke technologie

AI duwt vrouwen en minderheden naar de zijlijn door geautomatiseerde vooroordelen. Het is tijd dat we kunstmatige intelligentie bevrijden van hokjesdenken.

Waar veel mensen zich zorgen maken over hun banen, ligt de diepere zorg over kunstmatige intelligentie wat mij betreft ergens anders: bij de structuren die deze technologie reproduceert. Want wie iets beter kijkt, ziet namelijk vooral een systeem dat bestaande ongelijkheid digitaliseert en daarmee normeert.

Een aantal voorbeelden:

• ChatGPT adviseert vrouwen en minderheden stelselmatig een lager salaris.

•AI-platforms voor psychiatrische patiënten beveelt zwaardere medicatie aan voor zwarte patiënten met dezelfde diagnose.

• Meta’s AI-moderatie verwijdert Pride en andere lhbti-posts tot 3x vaker dan vergelijkbare posts over hetzelfde thema (bijvoorbeeld evenementen, relaties, gezondheid) maar zónder Pride en andere lhbti-labels, hashtags of context.

• Gezichts‑AI mis-classificeert trans- en non‑binaire personen.

AI‑systemen worden gebouwd op enorme hoeveelheden data die zelden objectief zijn. Ze weerspiegelen wie historisch toegang had tot kennis, technologie en representatie. En het zal geen verrassing zijn: dat was vaak de witte, hetero, westerse cis‑man. Het resultaat? Systemen die uitsluiting automatiseren. Taalmodellen die binair denken over gender. Algoritmes die queerverhalen missen omdat ze ‘afwijken’. Standaarden die mensen met een beperking buitensluiten. Best eenzijdig dus - en saai.

Over de auteur

Esther van Tol is creatief strateeg op het snijvlak van technologie, cultuur en identiteit.

Dit is een ingezonden bijdrage, die niet noodzakelijkerwijs het standpunt van de Volkskrant reflecteert. Lees hier meer over ons beleid aangaande opiniestukken.

Eerdere bijdragen in deze discussie vindt u onder aan dit artikel.

Voorgekauwd

AI-ontwikkelaars zeggen vaak: er zit een ‘mens in de loop. Daarmee bedoelen ze dat een mens de uiteindelijke beslissing neemt. Dat klinkt geruststellend. Maar de mens kijkt in de praktijk vooral naar wat het systeem al heeft voorgekauwd en volgt dat advies meestal gewoon op.

Voorbeeld: een algoritme selecteert sollicitanten. De HR-medewerker krijgt alleen de top 10 te zien. Het model is getraind op eerdere succesvolle medewerkers; toevallig allemaal witte mannen.

Gevolg: de ‘mens in de loop’ ziet alleen wie het systeem al geschikt vindt en dus verandert er niets, behalve dat vooringenomenheid nu geautomatiseerd is en dus de standaard wordt. Je kunt geen diversiteit toetsen als je alleen monocultuur te zien krijgt.

Anders gaan denken

We moeten anders gaan denken. Erkennen dat technologie mensenwerk is, met alle blinde vlekken en vooroordelen van dien. Daarvoor bieden feministisch en queer denken precies de juiste lens. In plaats van te vragen ‘werkt het?’, vragen deze stromingen ‘voor wie werkt het en wie blijft buiten beeld?’

Ze maken duidelijk dat mensen niet altijd passen in een simpel kader als man/vrouw, normaal/afwijkend. Ze laten zien dat uitsluiting vaak systemisch is, ingebakken in beleid, data en ontwerp. Ze herinneren ons eraan dat technologie geen natuurwet is, maar mensenwerk. En, on a positive note, dus anders kan.

Om dit praktisch te maken, stel ik een eenvoudige test voor, laten we ‘m de InclusiScan noemen. Geïnspireerd op de Bechdeltest uit de filmwereld, een simpele opdracht die voorschrijft dat in een film ‘minimaal’ twee vrouwen met élkaar moeten praten, over iets anders dan een man.

Drie simpele vragen

Zoiets hebben we nu ook nodig voor AI. Niet als audit, maar als reality check. Mijn InclusiScan bestaat uit drie simpele vragen:

1. Wie zit erin? Komt de trainingsdata van diverse stemmen en lichamen, of vooral van de dominante norm?

2. Wie wordt erkend? Kan het systeem identiteiten buiten standaardcategorieën verwerken, of dwingt het mensen in hokjes?

3. Mag het twijfelen? Is het ontworpen om altijd te antwoorden? Of is er ruimte voor twijfel, reflectie of weigering?

Een toepassing die de InclusiScan doorstaat is weliswaar niet perfect, maar wel eerlijker, nieuwsgieriger en bovenal menselijker.

In tijden van polarisatie en ongelijkheid is het belangrijk dat we systemen bouwen die verschil (h)erkennen in plaats van verbergen. Technologie die alleen werkt voor wie al gezien werd door systemen en datasets, vergroot de kloof. Als we systemen bouwen die niet op de gemiddelde mens zijn afgestemd, maar op de menselijke breedte, dán wordt technologie iets dat verbindt.

De InclusiScan voor AI is meer dan een metafoor. Het is een praktische manier om onderliggende normen zichtbaar te maken en te bevragen. Dan wordt technologie geen spiegel van het verleden, maar het begin van een kleurrijkere en interessantere toekomst.

Wilt u reageren? Stuur dan een opiniebijdrage (max 700 woorden) naar opinie@volkskrant.nl of een brief (maximaal 200 woorden) naar brieven@volkskrant.nl

Lees ook

Geselecteerd door de redactie

Source: Volkskrant

Previous

Next