Home

Verdachte studenten laten checken door AI: een sterk staaltje grenzeloos techno-wensdenken

Het is alweer een tijdje geleden dat ik het op deze plek had over de serie Black Mirror, dus het kan wel weer. Wie Black Mirror zegt, hoort automatisch ‘dystopie’. Want daarin blonk de Britse serie altijd uit: het schetsen van een inktzwarte, door technologie gedreven wereld die akelig dichtbij voelt.

Een van de vele hoogtepunten was de aflevering ‘Nosedive’, uit het derde seizoen (2016). Hoofdpersoon is de behaagzieke jonge vrouw Lacie, die obsessief bezig is met haar mobieltje. Iedereen geeft elkaar constant punten voor daden, iets wat natuurlijk nu al overal gebeurt via sociale media. In de wereld van Lacie hebben die punten ook praktische implicaties. Weinig punten? Dan kun je niet vliegen. Of geen auto huren.

In China leken ze de aflevering als handleiding te hebben gebruikt voor het veelbesproken socialekredietsysteem. Daarvan konden wij, in het vrije Westen, zeggen: kijk die enge Chinese overheid nou.

Zou de Amerikaanse minister van Buitenlandse Zaken Marco Rubio ook enthousiast zijn over dit soort toepassingen? Daar lijkt het wel op. Volgens nieuwssite Axios tuigt hij momenteel een systeem op dat de visa intrekt van buitenlandse studenten die zich ‘pro-Hamas’ gedragen.

Hoe? Door de socialemedia-accounts van de tienduizenden houders van een studentenvisum systematisch door te akkeren op verdacht gedrag. De analyse wordt voor een belangrijk deel overgelaten aan kunstmatige intelligentie.

Axios noemt dit terecht ‘een drastische verergering’ van de controle van de Amerikaanse overheid op het gedrag en de uitlatingen van buitenlanders. Maar er speelt nog wat meer: de rol van AI bij dit alles. De combinatie van AI en het uitzetten van buitenlandse studenten op basis van hun socialemedia-uitingen gaat nog een stapje verder dan de makers van Black Mirror konden fantaseren.

De aanname dat AI een goede oplossing is bij het beoordelen van verdachte gedragingen, getuigt van een grenzeloos techno-utopisch wensdenken. Het zou zo langzamerhand toch genoegzaam bekend moeten zijn dat AI-systemen vol zitten met vooroordelen en vatbaar zijn voor fouten. Dat is niet zo’n ramp als je een sinterklaasgedicht schrijft, maar wel bij iets als het beoordelen van socialemedia-uitingen bij het uitzetten van buitenlanders.

Het ligt voor de hand dat Rubio en consorten de AI-modellen van Elon Musk zullen gebruiken. Musk positioneert zijn chatbot Grok tegenover concurrent ChatGPT als anti-woke. De bot, die is ingebouwd in X, heeft volgens hem geen vooroordelen en vertelt altijd de waarheid.

Onzin natuurlijk, maar Rubio en Trump zullen hem blind geloven. Des te hilarischer is de recente vraag van een columnist van de Arizona Republic aan Grok over de waarschijnlijkheid dat president Trump in de zak van Rusland zit.

Er is geen ‘smoking gun’ die directe controle bewijst, aldus Grok na uitgebreide analyse. Maar de kans dat Trump een ‘nuttige idioot’ is voor Poetin schat Grok op 75 tot 85 procent, vooral gezien het feit dat Trumps ego en schulden hem ‘onbewust plooibaar maken’.

Het tragische is dat aan deze voorspelling geen consequenties vastzitten. Aan die van de gedragingen van buitenlandse studenten wél.

Lees ook

Geselecteerd door de redactie

Source: Volkskrant columns

Previous

Next