De vlucht die AI neemt in de zorg brengt risico’s met zich mee voor de patiënt, betoogt onderzoeker Hannah van Kolfschooten. Kwetsbare ouderen zijn de dupe, vrouwen ook, en we dreigen empathie te verliezen. ‘Het is tijd voor strengere Europese regels.’
is zorgverslaggever van de Volkskrant.
Het proefschrift waarmee Hannah van Kolfschooten onlangs promoveerde aan de Universiteit van Amsterdam telt 385 pagina’s. Niet al te bijzonder, vindt ze zelf. ‘Als je aan de rechtenfaculteit promoveert, wordt er wel van je verwacht dat je een boek schrijft.’
Van Kolfschooten deed twee masterstudies voor ze aan haar promotietraject begon (en onderzoeker-docent werd, een functie die ze vanwege de onderwijsbezuinigingen noodgedwongen alweer moet opgeven). Gezondheidsrecht, omdat ze gelooft in een systeem dat de kwetsbaarste patiënten moet beschermen. En informatierecht, omdat ze zich zorgen maakt over de almaar toenemende macht van de techbedrijven.
Combineer die twee en je komt uit op de belangrijkste waarschuwing in haar proefschrift: nu AI dankzij die techbedrijven aan een stormachtige opkomst in de zorg bezig is, komen de rechten van patiënten in het geding. Voornaamste slachtoffer: de kwetsbaarste patiënten.
Alles over wetenschap vindt u hier.
AI neemt artsen en verpleegkundigen taken uit handen. Daarmee blijft de zorg toch juist toegankelijk en betaalbaar voor de mensen die dat het meest nodig hebben?
‘Ik ben nog nooit een onafhankelijk onderzoek tegengekomen dat de financiële voordelen van AI in de zorg hardmaakt. Er zijn veel beloften, maar weinig doorrekeningen. AI implementeren vergt enorme investeringen voor een ziekenhuis, terwijl veel algoritmen niet zijn getest op een daadwerkelijke ziekenhuispopulatie. Je zou in de praktijk moeten berekenen of AI kosten en tijd bespaart. Dat bewijs is er vooralsnog niet.
‘Het gaat mij vooral om de positie van de patiënt. Die wordt vaak vergeten bij de ontwikkeling van AI-producten. Als een product op de markt komt, wordt er – net als bij auto’s of speelgoed – gekeken of het niet in de fik vliegt, of je je er niet in kunt verslikken, maar niet wat het effect is op de patiënt. De echte gevaren van AI komen daarom pas in de praktijk aan het licht. Te laat.’
Wat zijn de gevaren?
‘Algoritmen zijn statistiek, ze zijn gebouwd voor de gemiddelde patiënt. Voor hen kan AI misschien betere voorspellingen doen dan artsen. Maar als je niet binnen de gemiddelde patiëntengroep valt, als je bijvoorbeeld in een rolstoel zit of een zeldzame ziekte hebt, is het niet zeker dat het algoritme even goed werkt. En het is al helemaal niet gezegd dat de arts weet dat het algoritme niet voor jouw doelgroep is ontwikkeld.
‘Dus juist patiënten die minder gezond zijn, die al een lange ziektegeschiedenis kennen, of die de taal niet spreken en niet goed met een chatbot overweg kunnen, komen op een grotere gezondheidsachterstand. Omdat zij niet de doelgroep van zo’n AI-systeem zijn.’
Hoe vertaalt zich dat in de praktijk?
‘Neem 80-plussers, de groep die wereldwijd het meest gebruikmaakt van zorg en dus ook het meest te maken zal krijgen met AI in de zorg. Omdat zij vaak meerdere ziekten tegelijk hebben, worden ze uitgesloten van klinische studies. Daardoor zijn er over deze groep minder data beschikbaar om AI-modellen te trainen.
‘Of omdat alles via de smartphone gaat, en zij de kleine lettertjes moeilijker kunnen lezen.
‘Ergens is het ironisch: de doelgroep die er het meest gebruik van gaat maken, is de doelgroep waarvoor het niet is gebouwd.
‘Ander klassiek voorbeeld: de zorg voor vrouwen met hart- en vaatziekten is minder goed. Zij hebben het vaak benauwd bij hartproblemen, mannen hebben vaker pijn op de borst. Die laatste aandoening is bekender en zit in de historische data die we gebruiken bij de ontwikkeling van AI-modellen.
‘Wat je dus krijgt: meer mannen met hartkloppingen in het ziekenhuis, die komen in de nieuwe data terecht, waardoor de AI-modellen alleen maar meer gaan afwijken van de werkelijkheid. Zo kom je in een vicieuze cirkel. De fouten die al in ons medisch systeem zitten, vergroot je op deze manier.’
U schrijft dat het probleem zich soms al voordoet voordat patiënten überhaupt zorg krijgen. Hoe dan?
‘Het Europees netwerk van alarmnummers experimenteert nu met stemanalyse als je 112 belt. Zodat AI kan helpen vaststellen wie het eerst nodig hulp heeft. Er lopen in het buitenland ook pilots bij de zelfmoordhulplijn of de kindertelefoon. Voordat je bij een arts bent, heeft AI je dus al beoordeeld. Ook hier geldt: die algoritmen gaan uit van het gemiddelde. Heb je een afwijkende stem, dan heb je mogelijk een probleem.’
Overzien artsen en patiënten deze problemen wel?
‘Patiënten hebben recht op geïnformeerde toestemming. Je hebt autonomie over je lichaam en daarom moet je genoeg informatie hebben om de arts toestemming te kunnen geven een behandeling te beginnen. Met AI wordt die informatievoorziening lastiger, want hoe moet een patiënt weten óf er bij de behandeling AI aan te pas komt? En zo ja, hoe dat dan precies werkt.
‘Ook voor artsen is niet altijd inzichtelijk hoe een algoritme tot stand komt. Als het een arts niet duidelijk is dat het algoritme vooral gewicht toekent aan druk op de borst bij hartklachten, kan die daar ook niet op handelen. Je zou willen dat de arts zegt: dit algoritme heeft een bias voor mannen, dus hoewel de AI negatief adviseert, ga ik jou als vrouw wel verder onderzoeken.’
U vreest dat wanneer artsen zich te veel laten leiden door AI-modellen, dat ten koste gaat van empathie in de zorg.
‘Vertrouwen is een belangrijke waarde in de zorg. Vertrouwen in de arts, maar ook in het zorgsysteem. Empathie draagt bij aan dat vertrouwen: je ziet dat de arts of verpleegkundige met je begaan is, hun doel is jou beter te maken. In landen waar dat basisvertrouwen er niet is, gaan patiënten de zorg mijden.
‘Empathie kan onder druk komen te staan als artsen hun patiënten gaan zien als datapunten. Niet als mensen die hulp nodig hebben, maar als bouwstenen van hun algoritme. Aan wie ze nog veel geld kunnen verdienen ook.
‘Of kijk naar de thuiszorg, waarin AI-sensoren een steeds belangrijkere plaats innemen. Ze meten hoe vaak de koelkast opengaat, hoe vaak er bezoek komt, hoeveel glazen water iemand drinkt. En op basis daarvan voorspellen ze het risico op blaasontsteking, depressie, uitdroging. In plaats van dat er elke dag iemand even langskomt om te zien hoe het met een oudere gaat.
‘Dat soort AI wordt slimmer en steeds eerder in iemands huis geïnstalleerd. Kinderen van de oudere krijgen een schuldgevoel aangepraat. Ze willen wel zorgen, maar het lukt niet: drukke baan, gezinsleven, wonen ver weg. Dus dan schaffen ze zelf zo’n AI-systeem aan, dat ze via hun socialemediakanalen krijgen gepusht, want de techbedrijven weten inmiddels dat je kind bent van een hulpbehoevende ouder.’
Zijn de gevaren van AI in de zorg groter dan de voordelen?
‘Zo denk ik er niet over na: AI is er en gaat niet meer weg, dat is een gegeven. De juiste vraag is: hoe gaan we de rechten van de patiënt beschermen?’
Nou, hoe moeten we dat doen?
‘Vooral regulering is belangrijk. AI-toepassingen zouden pas op de markt mogen komen als ze op de juiste manier zijn ontwikkeld, zijn getest op de doelgroep die ze ook daadwerkelijk gaan gebruiken. De regels voor geneesmiddelen zijn veel strenger dan voor medische hulpmiddelen als AI, de lobby van de industrie is daar enorm krachtig geweest. Maar volgens mij zijn de risico’s vergelijkbaar.
‘Er zijn geen zorgspecifieke regels voor AI. Of het nou een algoritme is dat je helpt bij een hypotheekaanvraag of de AI op een operatiekamer: ze vallen onder dezelfde wet. Daar moeten we, in Europees verband, een andere vorm aan gaan geven.’
En als een product dan op de markt is?
‘Als er iets misgaat, heb je vooral die patiëntenrechten nodig. Die verschillen per land, in Nederland staat er in de Wet op de geneeskundige behandelingsovereenkomst nog niets over AI. Volgens mij moeten die rechten op Europees niveau worden vastgelegd: op welke informatie heb je recht als behandelaars AI gebruiken, heb je recht op de nieuwste versie van AI, bij welke instantie kun je een klacht indienen?
‘En tot slot: artsen, juristen en ethici zullen snel richtlijnen moeten opstellen voor het gebruik van AI. Zodat duidelijk is welke behandeling zij op welk moment kunnen beginnen. Dat beschermt de rechten van de patiënt, maar ook die van artsen. Pas dan wordt duidelijk wie er aansprakelijk is, mochten de gevaren van AI helaas werkelijkheid worden.’
Geselecteerd door de redactie
Source: Volkskrant