Home

Aan een vreemde glans herken je de AI-mens ook niet meer

AI-esthetiek Steeds meer AI-personages, vrijwel niet van echt te onderscheiden, delen online hun ‘gevoelens’ en ‘ervaringen’. Waarom zien zij eruit zoals ze eruitzien? En welke invloed heeft de AI-esthetiek op ons mensbeeld?

Is zij eigenlijk wel echt? Begin dit jaar was soulzangeres Sienna Rose groot in het nieuws. Ze haalde niet alleen de Spotify-hitlijsten, maar zelfs het NOS Journaal. Want, zo blijkt, miljoenen mensen vragen zich af of ze wel echt bestaat. „Ik vóél me echt”, geeft ze als antwoord in een filmpje op haar Instagram-account. Mooi cryptisch verwoord, alsof het er niet eens toe doet of ze een echt mens is of een creatie van artificiële intelligentie. En het is een feit: niet alleen haar muziek kan net zo goed met AI worden gemaakt, haar menselijke verschijning op video óók.

De verwarring over Rose is alweer groter dan die rond ‘AI-actrice’ Tilly Norwood, nog geen vijf maanden geleden – zij vertelde ons nog eerlijk dat ze een AI-ontwerp was. De ophef in Hollywood was er niet minder om: een ‘onecht’ wezen dat eruit zag als een girl next door en ook nog eens diepmenselijke emoties zou kunnen vertolken? Dat gaat niet gebeuren, zei acteur Ben Affleck in januari in een podcast. Bij Sienna Rose blijkt de grens tussen echte en onechte menselijkheid toch alweer meer vervaagd dan najaar 2025 mogelijk leek. 

Rose en Norwood tonen de opkomst van het ‘artificiële personage’ in de hedendaagse beeldcultuur, het best te zien aan het succes van de zogeheten AI-influencer. Eerst was er alleen de ‘19-jarige Braziliaans-Amerikaanse’ Lil Miquela, wier duidelijk kunstmatige verschijning in 2023 nog door BMW in een reclamefilm werd gebruikt om een gevoel van technologische vooruitgang op te roepen. Maar het afgelopen jaar zijn deze personages steeds realistischer geworden. Op sociale media vertellen ze ons over hun ervaringen, gevoelens en ideeën. Gezien de aantallen volgers, soms miljoenen, kan met hen zelfs een soort band worden opgebouwd. Of het nu gaat om een AI-personage als Aitana López die over haar ‘leven’ als twintiger in Barcelona vertelt of om erotische verschijningen als Emily Pellegrini, ‘fun loving girlie’ uit Californië.

Afbeeldingen van de Instagramprofielen van Sienna Rosely, Tilly Norwood en Emily Pellegrini. 

Afbeeldingen van de Instagramprofielen van Sienna Rosely, Tilly Norwood en Emily Pellegrini. 

Afbeeldingen van de Instagramprofielen van Sienna Rosely, Tilly Norwood en Emily Pellegrini. 

Tot voor kort waren deze personages complexe technische creaties, maar de bekendste aanbieders van AI-beelden en -video’s, zoals Googles Nano Banana, ChatGPT en Midjourney, beloven dat iederéén zoiets in een handomdraai kan produceren. In de app Higgsfield hoef je slechts een videoclip van een beweging te uploaden plus een foto van een gewenst personage, en je hebt je eigen realistisch bewegende AI-mens. Als voorbeeld zien we een pukkelige jongeman transformeren in – natuurlijk – een sportieve babe van het Kendall Jenner-type.

Artificiële intelligentie confronteert ons zo met een nieuw soort wezen: menselijk op het eerste gezicht, misschien tóch onmenselijk op het tweede. Zelfs kenners kunnen niet uitleggen hoe de realistische AI-personages precies ontstaan. Twee jaar geleden leek hun onechtheid nog te achterhalen, op techsites deden tips de ronde. Zie je een verkeerde pixel, een wazig stukje op een beeld, een zesde vinger aan één hand? En toen dat allemaal verholpen was hadden ze nog een bepaalde glans, ‘weirdly glossy’, zoals een Reddit-commentaar het omschrijft. „Te heldere kleuren, te mooie mensen, te dramatisch de belichting”, schreef het Amerikaanse weekblad The Atlantic. Maar bij de nieuwste versies biedt ook deze herkenbaar glanzende AI-esthetiek geen doorslaggevend bewijs meer. Deze gezichten vermengen zich moeiteloos met échte menselijke gezichten, die op sociale media immers vaak van eenzelfde zacht gesuikerd filter zijn voorzien.

De vervaagde grens tussen echte en onechte mensen roept onbehagen op. Al in vroege commentaren over menselijke AI-personages kwam het begrip ‘the uncanny valley’ voor, uit de robotica, waarmee de vervreemdende ervaring van het ‘menselijke onmenselijke’ wordt uitgedrukt: eerst reageren we positief omdat we een mens als echt denken te herkennen, maar daarna ontstaat ongemak, soms zelfs afkeer – volgens psychologen omdat we iets niet kunnen plaatsen en dan als mogelijk bedreigend inschatten.

Dit existentiële ongemak wordt er niet minder op. Sterker: de „AI-beeldenbrij” die dit jaar over ons zal worden uitgestort wordt alleen maar „enger”, zei hoogleraar sociologie Tressie McMillan Cottom in januari in een podcast van The New York Times. Daarbij groeit de onrust over de maatschappelijke gevolgen die deze beeldtypes zouden kunnen hebben. Denk aan pornografische vervormingen van echte mensen, maar óók aan politieke toepassingen. Want was het toeval dat zowel de PVV als de Duitse radicaal-rechtse partij AfD vorig jaar bijna exact dezelfde blonde AI-vrouw had gecreëerd, als onderdeel van een AI-panorama van hun ideale wereld?

Een ding is zeker: hoe meer AI-personages er op sociale media verschijnen, des te groter de invloed van deze technologisch geproduceerde mensbeelden op onze verbeelding, ons mensbeeld, onszelf. Wat zou die invloed kunnen zijn?

Grootste gemene deler

Te glad, te perfect? Suzan Verberne, hoogleraar Natural Language Processing (NLP) in Leiden, noemt de esthetiek van AI-beelden liever het ‘gemiddelde’. Een door AI gegenereerd beeld is gebaseerd „op de grootste gemene deler” van alles wat er online beschikbaar is, legt ze uit. Dat betekent niet dat een AI-beeld letterlijk uit miljoenen andere beelden wordt samengesteld, maar een AI-generator zoals ChatGPT of Google’s Nano Banana is getraind met miljoenen plaatjes van mensen, om op basis daarvan zijn eigen mensbeelden te creëren.

Lil Miquela in de BMW-commercial.

AI-afbeeldingen van mensen laten het mogelijke gevolg hiervan het duidelijkst zien (beter nog dan AI-video’s, die weer een ander complex ontstaansproces volgen). AI-gezichten zien er vaak uit alsof ze met de beste belichting zijn gefotografeerd en met de duurste filter zijn bewerkt. Dat komt, stelt Verberne, omdat „foto’s van mediagenieke gezichten” nu eenmaal het meest gebruikte oefenmateriaal zijn: professionele foto’s, maar ook gefilterde foto’s die door gewone gebruikers op sociale media zijn geplaatst.

Een AI-beeldgenerator, zegt Verberne, is ontworpen om die beelden te gebruiken die door de meeste mensen worden gewaardeerd. In de geschreven opdracht (de ‘prompt’) aan een AI-generator kun je nog zulke wilde fantasieën beschrijven; die voorstelling, de textuur van de huid, het uiterlijk van het personage, zal op esthetisch gebied de ‘veilige’ keuze zijn: „Geoptimaliseerd op basis van wat mensen mooi vinden.”

Geliked worden, dat is wat het AI-beeld graag wil. Als je de AI-generator niet expliciet vraagt om het anders te doen, krijg je daarom een prototype waarvan het model zeker weet dat het de meeste mensen bevallen zal: een zonsondergang wordt ‘de’ zonsondergang, een boom ‘de’ boom. Een ‘mens’ wordt een door vooroordelen, westerse schoonheidsidealen en door wat online het beste aanslaat ingegeven beeld van een mens.

In de cultuurtheorie rondom AI duikt ook weleens de naam op van de omstreden negentiende-eeuwse wetenschapper Francis Galton, zoals in de essaybundel Mean Images (2023) van de Duitse kunstenaar Hito Steyerl. Ze vergelijkt AI-beelden met de compositiefoto’s die Galton destijds van criminelen maakte. Galton, een neef van Darwin met een twijfelachtige reputatie als grondlegger van de eugenetica, legde op een lichtbak een reeks foto’s van criminelen over elkaar heen, in de hoop één oertype crimineel te kunnen vinden.

Het experiment mislukte, want uit het gemiddelde van alle gezichten kreeg hij helemaal geen ’typische’ crimineel maar juist een charmante gentleman. 

Niet genoemd door Steyerl, maar nóg beter passend bij de huidige AI-personages is het onverwachte, intrigerende vervolg dat Galtons experiment later in de psychologie kreeg. Rond 2000 werd een van de eerste psychologische onderzoeken gedaan naar de aantrekkingskracht van het gemiddelde, van averageness. Proefpersonen kregen compositiefoto’s voorgelegd van mannen en vrouwen. Deze foto’s waren niet van echte personen, maar samengesteld uit minimaal 4 en maximaal 32 verschillende foto’s van gezichten. Verreweg de meeste proefpersonen kozen de foto’s waarin de meeste beelden waren verwerkt.

Vervolgonderzoek heeft laten zien dat de waardering voor schoonheid nóg hoger wordt als de ideale doorsnee-eigenschappen nog wat worden uitvergroot. Het meest aantrekkelijk is een uitvergroting van dat wat geldt als het gemiddelde.

Looksmaxxing

Je zou het de ‘overdrijving van het gemiddelde’ kunnen noemen, en precies dat concept zou de aantrekkingskracht van bepaalde AI-personages kunnen verklaren. De meeste hebben opvallend uitvergrote gemiddelde kenmerken – zie de vele AI-beelden met erotische of etnische stereotypering, of juist de nadrukkelijke ‘gewoonheid’ van Tilly Norwood – en het ontbreekt hen aan individuele eigenaardigheden.

Dit succes van averageness (dat zeker niet met middelmatigheid mag worden verward) past ook prima bij de werking van de sociale media. De meeste AI-beelden worden gezien op de kleine beeldschermen van de smartphone en volgen daarom de belangrijkste succesformule om in de beeldenstroom van de sociale media gezien te worden: herkenbaar genoeg om een band met ze te voelen, maar net overdreven genoeg om op te vallen.

Over de rol die dergelijke AI-esthetiek verder zal gaan spelen, kan alleen nog maar worden gespeculeerd, zegt Pim Haselager, hoogleraar AI aan het Donders Institute for Brain, Cognition and Behaviour aan de Radboud Universiteit Nijmegen. Zo staat het gebruik van AI-technologie in de neuromarketing, waarin gekeken wordt naar welke stimuli worden getriggerd bij het zien van beelden, nog in de kinderschoenen. Maar nu zie je het principe van de uitvergroting van succesvolle kenmerken al in bepaalde AI-filmpjes op sociale media, zoals video’s waarin ogen van katten nét iets groter zijn gemaakt om nog schattiger over te komen. Of waarin de borsten of billen van een vrouwelijk model net iets zijn uitvergroot, of de biceps en kaaklijn van de man.

Looksmaxxing, wordt dat ook wel genoemd. AI-technologie kan door bedrijven verder worden getraind om met bepaalde kenmerken aandacht te trekken, zegt Haselager. En deze triggers zijn „effectiever dan drugs”: aan het effect ontkomen wordt steeds moeilijker, omdat er evolutionaire knoppen worden ingedrukt.

Cosmetische ingrepen

De vraag of een beeld echt of nep is, lijkt in de huidige, technologisch aangedreven beeldcultuur al irrelevant te worden. In de schijnwereld van de sociale media, zoals het invloedrijke Duitse weekblad Der Spiegel in een artikel over AI-influencers schrijft, maakt het niet meer uit: als het maar genoeg volgers trekt. Echte mensen zetten beelden van zichzelf online die ze met behulp van AI-filters op hun mobiel aanpassen en ‘verbeteren’. AI-personages zijn op hun beurt ontwikkeld op basis van hetzelfde type gefilterde foto’s.

Maar die AI-mensbeelden kunnen wél invloed krijgen op het echte leven. Zo bieden meerdere praktijken voor plastische chirurgie nu AI-hulp aan. AI-technologie gaat aan de slag met een foto van je gezicht, om op basis daarvan een voorstel te doen voor hoe het gezicht ‘verbeterd’ kan worden met chirurgische of cosmetische ingrepen. Indien breed toegepast, zouden steeds meer mensen op een versie van zichzelf kunnen gaan lijken die door AI-technologie is gegenereerd, en dat zal per definitie een meer ‘gemiddelde’ versie van henzelf zijn.

Ook via politici dringt AI door in de echte wereld. Vooral radicaal-rechtse partijen plaatsen AI-video’s en -beelden op sociale media, bleek vorig jaar. Qua toekomstvoorstelling van de ideale samenleving leken die beelden sterk op elkaar. Dat was geen toeval, stelde de Duitse media-wetenschapper Roland Meyer, hoogleraar voor Digitale Cultuur en Kunst in Zürich bij een lezing op het technologie-congres re:publica. Volgens Meyer heeft AI-technologie – althans: die welke nu commercieel het meest wordt toegepast – vanwege de ingebouwde voorkeur voor ‘het gemiddelde’ „per definitie” een affiniteit met rechtse ideologie. De technologie grijpt altijd terug op (reeds lang) bestaande beelden, waardoor een AI-gegenereerd toekomstbeeld automatisch neigt naar nostalgie. En de technologie is een „versterker van clichés”: gevraagd om voorstellingen die aan ‘mooi’ of ‘goed’ of ‘gezond’ refereren, levert het als eerste de beelden die online het meest worden herhaald.

Die neiging tot cliché heeft de technologie zeker, maar, benadrukt AI-filosoof Pim Haselager, AI hóéft niet te leiden tot een overmaat aan stereotype afbeeldingen. Wie dat wil kan met AI-beelden ook een meer gevarieerde werkelijkheid opwekken. „Voor het uitzonderlijke moet je alleen meer je best doen.” Als je in je prompt specifieke aanwijzingen geeft dat het anders moet, dan worden er ook andere beelden gecreëerd.

Tegen het stereotype ingaan, dat probeert kunstenaar Jan Hoek met AI te doen, vertelt hij. Juist het vervreemdende aspect van AI-beelden gebruikt hij om het tegenovergestelde te maken van wat AI vanzelf doet. „AI heeft het óók in zich beelden te maken die je nooit eerder hebt gezien.” En ja, zijn AI-gebruik wordt dan vanzelf ook een politieke stellingname, zegt hij: hij ziet het gebruik van de technologie niet voor niets nu ook opduiken in onder andere de queerbeweging, die andere beelden dan ‘het gemiddelde’ willen scheppen. Hoek gebruikt AI-technologie nu nog vooral voor zijn eigen Instagram, zoals voor een portretreeks van mensen uit de kunstwereld, maar maakt ook al werk in opdracht.

Poriën toevoegen

Zelfs bij commerciële aanbieders blijkt er een markt te zijn voor meer variatie in het door AI-technologie geschapen mensbeeld. Zo wordt er bij diverse sites reclame voor gemaakt dat AI-beelden nu nóg ‘echter’ kunnen worden gemaakt. In de huid van je AI-personage kan je dan poriën of kleine adertjes toevoegen. Misschien dat deze nieuwe ‘realistische’ toepassingen de komende maanden inderdaad ook minder stereotypes voortbrengen – maar helemaal zeker is het niet, zegt hoogleraar Verberne. Het beeld van een mens dat uit een AI-generator komt zal ook dan nog afhangen van de input waarmee de ontwikkelaars hun technologie trainen.

En hier heeft de AI-technologie gelijk alweer een nieuw probleem, zegt Haselager. „Aangezien een steeds grotere hoeveelheid AI-gegenereerde beelden online te vinden is, traint AI steeds meer op zijn eigen output.” Dat is de paradox: om uit een vicieuze cirkel van stereotype beelden te breken, heeft AI nu vooral meer échte beelden van échte mensen nodig. Anders, zegt Haselager, „verzuipt AI in zijn eigen gif”.

Schrijf je in voor de nieuwsbrief NRC Broncode

Doorzie de wereld van technologie elke week met NRC-redacteuren 

Lees meer

Lees meer

Lees meer

Source: NRC

Previous

Next