Het congres AI in de GGZ (https://wiegerinck.nu/aiggz/), afgelopen juni in de Rode Hoed in Amsterdam, geeft een goed overzicht van de stand van zaken. Kunstmatige intelligentie heeft een grote sprong voorwaarts gemaakt, zowel in mogelijkheden en toepassingen als in acceptatie en gebruik. Maar in alle enthousiasme is er nog weinig aandacht voor de risico’s van AI voor de fundamentele rechten van patiënten. De Europese AI Verordening gaat daar verandering in brengen, zo vertelt advocaat gezondheidsrecht Roland Bertens.
Roland Bertens is advocaat Zorg en Sociaal Domein bij Van Benthem & Keulen Advocaten (https://www.vbk.nl/) in Utrecht en universitair docent gezondheidsrecht bij het UMC Utrecht. Afgelopen juni publiceerde hij samen met kinder- en jeugdpsychiater Floriane Jaspers van Levvel het artikel De ggz-behandelaar in het Wilde Westen van de Natural Language Processing Tools – De mogelijkheden en risico’s van het gebruik van AI in de spreekkamer (https://www.vbk.nl/sites/default/files/documents/Marketing/Publicaties/JGGZRplus-2024-21_Bertens_Jaspers.pdf) in het tijdschrift JGGZRPlus. Roland Bertens legt zich in toenemende mate toe op artificiële intelligentie. Europese regelgeving in de AI Verordening staat daarbij centraal. Die verordening is onlangs gepubliceerd en gaat waarschijnlijk over twee jaar in werking. Welke gevolgen heeft de verordening nu al voor behandelaren en instellingen? In zijn presentatie AI en de arts-patiënt relatie: Brave New World of juridisch bedrijfsongeval? formuleert Roland Bertens daar een antwoord op. De advocaat noemt de AI Verordening een ‘ingewikkeld Europees bakbeest’, maar er enige kennis van hebben is ook voor zorgverleners cruciaal.
WGBO
De AI Verordening komt niet in de plaats van, maar is aanvulling op bestaande Nederlandse wet- en regelgeving zoals de Wet op de Geneeskundige Behandelingsovereenkomst (WGBO), de wet BIG, de Wet kwaliteit, klachten en geschillen zorg (Wkkgz) en de Algemene verordening gegevensbescherming (AVG). De patiëntenrechten zijn sinds jaar en dag verankerd in de WGBO. Die bewaakt de autonomie en geestelijke en lichamelijke integriteit van de patiënt, uitgaande van een asymmetrie in kennis en macht tussen patiënt en zorgverlener. Daaruit volgen een aantal patiëntrechten, zoals recht op informatie en toestemming, zeggenschap over gegevens en vernietiging van dossier, maar ook het beroepsgeheim en de dossierplicht voor de zorgverlener.
Niet nieuw
Roland Bertens wil af van het ‘Terminator-achtige beeld’ dat veel mensen van kunstmatige intelligentie hebben. AI is helemaal niet nieuw. Het gaat om het versnellen van algoritmen door middel van het voeden van data en dat gebeurt al een hele tijd. En er gebeuren mooie dingen met AI, zeker in de gezondheidszorg. Maar er is controle nodig om de nadelige gevolgen voor gezondheid en veiligheid te waarborgen. Daarom komt de EU met regelgeving.
Risiconiveaus
Binnen de Europese Verordening worden AI-systemen ingedeeld in vier verschillende risiconiveaus: van ‘onaanvaardbaar risico’ via ‘hoog risico’ en ‘beperkt risico’ naar ‘minimaal risico’. Bij ‘onaanvaardbaar’ gaat het om bijvoorbeeld subliminale technieken die mensen dwingen om dingen te doen die ze normaal niet zouden doen. AI mag ook geen misbruik maken van kwetsbare groepen. En ook bijvoorbeeld emotieherkenning of ‘social scoring’ zijn taboe. Maar veel applicaties voor de ggz – die bijdragen aan diagnoses of voorspelling van behandelingen – zal de EU waarschijnlijk kwalificeren als ‘hoog risico’. De verordening verwijst dan naar de Medical Device Regulation (MDR), waar bepaalde kwaliteitscriteria bij horen. Maar in de AI Verordening staan ook een aantal voorschriften. Een belangrijke is menselijk toezicht. Kunstmatige intelligentie moet zodanig worden ontwikkeld dat menselijke interventie altijd mogelijk is. Het moet ook op zo’n manier zijn ontworpen dat mensen altijd weten dat ze met AI te maken hebben.
AVG
Daarnaast sluit de verordening aan op artikel 22 uit de AVG: Personen mogen niet worden onderworpen aan uitsluitend geautomatiseerde besluitvorming als er rechtsgevolgen uit voortvloeien, tenzij bepaalde waarborgen in acht worden genomen. (Denk daarbij aan bijvoorbeeld het al of niet toekennen van een uitkering of een programma van een radioloog dat bepaalt wie behandeld wordt of niet.) Bovendien mogen gezondheidsgegevens – bijvoorbeeld uit het medisch dossier – alleen voor hele specifieke en vooraf bepaalde doeleinden worden gebruikt.
Blackbox
Als het gaat om de inzet van AI binnen de WGBO, dan gaan de komende jaren een aantal cruciale ethische en juridische vraagstukken spelen, zo legt Bertens uit. AI is een soort ‘blackbox’ waar alle data ingaat en we weten niet precies wat daarin gebeurt. Hoe komt AI tot uitkomsten of beslissingen? Als zorgverleners zelf niet weten hoe dat werkt, hoe kunnen ze dan patiënten hierover informeren? Daaruit volgt de vraag of shared decision making bij AI eigenlijk wel mogelijk is. Een andere vraag is hoe het beroepsgeheim bewaard blijft. En heel prangend zijn de vragen rondom aansprakelijkheid. Wat gebeurt er als het lerend systeem zich anders gaat gedragen dan waar het oorspronkelijk voor bedoeld was? Dan zou je civielrechtelijk een ongeschikt medisch hulpmiddel hebben. Wie is er dan verantwoordelijk als er iets fout gaat?
Gezond verstand
We stappen een ‘Brave New World’ binnen. Roland Bertens is optimistisch over het gebruik van AI in de zorg. Maar hij wil voorkomen dat we doorschieten naar het ‘Wilde Westen’. In zijn presentatie roept hij behandelaars en zorgverleners op om rekening te houden met de vrij heldere wettelijke kaders zoals die nu gelden. Hij roept vooral op tot het gebruik van gezond verstand. Dat begint al met een voorvraag: Zijn AI-applicaties überhaupt wel nodig in een ggz-praktijk of -instelling? Voor welke doeleinden worden ze ingezet? Welke processen worden daarmee verbeterd? Bij het oriënteren op welke programma’s worden gebruikt en het opstellen van contracten, moeten zorgverleners daarnaast goed kijken naar de voorwaarden van leveranciers. Worden patiëntgegevens niet voor allerlei andere zaken gebruikt? Want daar kunnen ook zorgverleners op worden aangesproken. Zeker bij grote instellingen is het belangrijk dat er a. een centraal aanspreekpunt is en b. beleid is voor de inzet van AI. dat geldt zeker ook als er intern applicaties worden ontwikkeld. Dit is in de ggz – en sowieso in de gezondheidszorg – nog lang niet altijd het geval. De bankensector is daarin al veel verder en daar kunnen we van leren, aldus Bertens.
-
Tijdens het congres AI in de GGz, bedreiging of zegen werd het onafhankelijke Kennisplatform AI in de GGZ gelanceerd. Daarop staan korte video’s, artikelen, checklists en geaccrediteerde webinars. Kijk op www.aiggz.nl (https://www.aiggz.nl/).
Lees ook andere artikelen over AI in de ggz (https://www.ggztotaal.nl/tp-29166-2/transgender)
-----------------------------------------------------------------------------------------
Vind je dit interessant? Misschien is een abonnement op de gratis nieuwsbrief dan iets voor jou! GGZ Totaal verschijnt tweemaal per maand en behandelt onderwerpen over alles wat met de ggz te maken heeft, onafhankelijk en niet vooringenomen.
Abonneren kan direct via het inschrijfformulier (http://www.ggztotaal.nl/pg-29166-7-89775/pagina/abonneren.html), opgeven van je mailadres is voldoende. Of kijk eerst naar de artikelen in de vorige magazines (http://www.ggztotaal.nl/pg-29166-7-89779/pagina/e-magazine.html).