AI integreren in de oncologie: de nieuwe ESMO-richtlijnen
ARTIFICIËLE INTELLIGENTIE De Large Language Models (LLM), die o.a. ChatGPT gebruikt, hebben het landschap van de gezondheidszorg al grondig veranderd, met name in de oncologie. Gezien de enorme toename van de medische kennis, de complexiteit van het zorgtraject van kankerpatiënten en de intensieve follow-up staan oncologen voor een zware taak. AI kan artsen en patiënten ondersteunen. Dat neemt evenwel niet weg dat er toch heel wat uitdagingen zijn.
De ESMO is zich daarvan bewust en heeft tijdens haar congres 2025 in Berlijn een eerste reeks gestructureerde richtlijnen gepresenteerd voor het gebruik van LLM in de oncologie. De titel van het document is: ESMO guidance on the Use of Large Language Models in Clinical Practice (ELCAP).
Een referentiekader
Tussen november 2024 en februari 2025 is een multidisciplinaire groep van twintig specialisten (oncologen, bio-informatici, biostatistici en experts in digitale gezondheid, ethiek en gegevensbescherming) samengekomen onder leiding van een panel van de ESMO. Het doel was een referentiekader definiëren voor een beveiligde en verantwoordelijke invoering van LLM in de oncologie, rekening houdend met de mogelijke voordelen en (vooral?) risico’s zoals biases, fouten, lekken van persoonlijke gegevens en onbeheerd gebruik.
Drie niveaus van waakzaamheid voor drie types gebruik
ELCAP structureert het gebruik van LLM in drie types naargelang van de doelpopulatie en het toepassingsgebied en formuleert voor elk type specifieke richtlijnen:
- Type 1, apps voor de patiënten (educatieve chatbots, follow-up van de symptomen, tools met informatie over de behandeling enz.): een gezondheidswerker moet toezicht uitoefenen op het gebruik ervan; de app moet deel uitmaken van een geformaliseerd zorgtraject en last but not least mag nooit een medisch advies vervangen. Gegevensbescherming, uitleg over de beperkingen van de app en heldere correctiemechanismen in geval van een waarschuwingssignaal zijn noodzakelijk.
- Type 2, tools voor gezondheidswerkers (hulp bij het nemen van een beslissing, samenvatting van een document, vertaling, opstellen van rapporten,…): die tools moeten formeel zijn gevalideerd, moeten transparant zijn wat de beperkingen ervan betreft, en de gebruiker moet altijd verantwoordelijk blijven voor de klinische beslissingen die hij neemt.
- Type 3, institutionele achtergrondsystemen (integratie van LLM in de ziekenhuisinfrastructuur voor elektronische dossiers, automatische gegevensextractie en analyse ervan, matching voor klinische studies,... ): die systemen vergen een institutionele supervisie met continue bewaking van de prestaties en biases, een regelmatige herevaluatie als de gegevensbronnen veranderen, en een helder beheer en heldere documentering. De gebruikers moeten op de hoogte worden gebracht van het gebruik van dergelijke systemen.
Het panel van specialisten heeft 23 consensuselementen geformuleerd om de dagelijkse praktijkvoering te kaderen.
Te verwachten voordelen van LLM
De ESMO stelt dat een beredeneerd gebruik van LLM meerdere voordelen biedt. Een eerste voordeel is betere informatie en educatie van de patiënten, een vlottere toegang tot begrijpelijke uitleg, follow-up van bijwerkingen en een betere communicatie (in meerdere talen).
Een tweede voordeel is verlichting van de administratieve taken en een snellere documentering: samenvatting van het dossier, consultatieverslagen, brieven aan de behandelend arts, vertaling enz. zodat de oncoloog meer tijd kan besteden aan klinische dialoog.
Een derde voordeel van LLM is ondersteuning bij het nemen van klinische beslissingen en selectie van patiënten die in aanmerking komen voor klinische studies: gegevensextractie, matching voor gecontroleerde studies, opsporing van biomarkers, suggesties voor mogelijke behandelingen, hulp bij het doornemen van de literatuur. Volgens de specialisten van het panel verhogen LLM de efficiëntie van de ziekenhuissystemen via automatisering van repetitieve taken en een vlotter gegevensbeheer en sortering van de informatie.
Het management van gevoelige gegevens, het naleven van de AVG, het opslaan en de traceerbaarheid moeten goed worden omkaderd.
Risicomanagement
Zoals te verwachten was, hamert het panel van de ESMO erop dat je de risico’s zo goed mogelijk moet inperken:
- Biases, fouten en hallucinaties van AI: een LLM hangt volledig af van de invoergegevens. Een onvolledig dossier, een onnauwkeurige prompt (vraag) en verouderde gegevens kunnen leiden tot een onvolledig, een verkeerd of erger nog een bedrieglijk antwoord.
- Gebrek aan klinische validering: zoals al gezegd, moeten de tools voor gezondheidswerkers worden uitgetest, moeten de beperkingen ervan transparant zijn en mogen ze nooit een medisch oordeel vervangen.
- Gegevensbescherming en het respecteren van de vertrouwelijkheid: dat geldt vooral voor institutionele apps en apps die de arts direct impliceren. Het management van gevoelige gegevens, het naleven van de AVG, het opslaan en de traceerbaarheid moeten goed worden omkaderd.
- Institutioneel bestuur en continue herevaluatie: de geïntegreerde systemen (background) moeten worden beheerd door interne commissies en moeten worden geauditeerd. Tevens moeten ze worden gecontroleerd om tijdig oneigenlijk gebruik, biases en deregulering te achterhalen.
- AI mag de arts-patiëntrelatie en de klinische beslissingen niet vervangen. AI moet een hulpmiddel blijven en mag geen autonome speler worden.

En in de praktijk?
Bij het invoeren van een LLM in een dienst voor oncologie zou je volgens het ELCAP de volgende stappen kunnen volgen, waaronder een aantal algemene stappen:
1. De behoeften in kaart brengen: de repetitieve of tijdrovende taken opsporen (samenvatting van dossiers, verslagen, vertaling, informatie voor de patiënt, sorteren van de gegevens, screening voor klinische studies).
2. Een app kiezen volgens de ESMO-classificatie (type 1, 2 of 3).
3. Interne validering van de tool: de tool uittesten op een aantal reële gevallen, de kwaliteit van het antwoord, biases en de veiligheid van de gegevens controleren.
4. Supervisie en de verantwoordelijkheid preciseren: een referent aanduiden, heldere werkprocessen definiëren, corrigerende mechanismen voorzien mochten er fouten worden waargenomen.
5. Bestuur en audit: interne commissies opstellen (kliniek, IT, ethiek), regelmatige herevaluaties plannen en de traceerbaarheid van de genomen beslissingen verzekeren.
6. Bijscholing: de zorgverstrekkers bewustmaken van en informatie geven over de beperkingen van de tool, goede praktijkvoering en de verantwoordelijkheden.
ESMO vermeldt dat extra oriëntaties nodig zullen zijn om de nieuwe modellen te omkaderen.
Naar welke toekomst?
De publicatie van het ELCAP opent enkel de weg. Er worden echter alsmaar sneller nieuwe innovaties ontwikkeld, bijvoorbeeld “autonome agenten”, die handelingen kunnen starten zonder direct bevel. Dan zijn de uitdagingen inzake veiligheid, verantwoordelijkheid, regulering en ethiek nog groter. De ESMO vermeldt al dat extra oriëntaties nodig zullen zijn om die nieuwe modellen te omkaderen. En waarschijnlijk moet je er snel op reageren.
Het ELCAP is online gepubliceerd op de website van Annals of Oncology.