Intégrer l’IA en oncologie : les nouvelles recommandations de l’ESMO
INTELLIGENCE ARTIFICIELLE L’irruption des grands modèles de langage (Large Language Models, LLM) - comme ceux utilisés par des outils comme ChatGPT au travers de l’IA - modifie déjà profondément le paysage de la santé. Tout particulièrement dans le contexte de l’oncologie, où les volumineuses connaissances médicales, la complexité des parcours de soins et l’intensité du suivi rendent la tâche particulièrement ardue, l’IA promet de soutenir tant les médecins que les patients. Mais ce n’est pas sans poser de nombreux défis.
Consciente de ces enjeux, l’ESMO a présenté à Berlin, lors de son congrès 2025, la première série de recommandations structurées destinées à encadrer l’usage des LLM dans ce domaine de la médecine. Le document est intitulé 'ESMO guidance on the Use of Large Language Models in Clinical Practice' (ELCAP) [1].
Un cadre de référence
Entre novembre 2024 et février 2025, un groupe multidisciplinaire de 20 spécialistes - oncologues, bio-informaticiens, biostatisticiens, experts en santé numérique, en éthique et en protection des données - s’est réuni sous l’égide d’un panel de l’ESMO. L’objectif déclaré était de définir un cadre de référence pour l’introduction sécurisée et responsable des LLM en oncologie, en anticipant les bénéfices et (surtout ?) les risques potentiels, tels que les biais, les erreurs, les fuites de données personnelles ou encore l’utilisation non supervisée.
Trois niveaux de vigilance, pour trois types d’utilisation
ELCAP structure l’utilisation des LLM en trois types, selon le public ciblé et le cadre d’utilisation, et associe à chacun des recommandations spécifiques :
- Type 1, les applications orientées patient (chatbots éducatifs, assistants de suivi des symptômes, outils d’information sur les traitements, etc) : leur utilisation doit être supervisée par un professionnel de santé, s’intégrer dans un parcours de soins formalisé et - last but not least - ne jamais remplacer un avis médical. La protection des données, l’explicitation des limites de l’outil utilisé et des mécanismes clairs de correction en cas d’alerte sont indispensables.
- Type 2, les outils pour les professionnels de santé (aide à la décision, synthèse documentaire, traduction, rédaction de rapports...) : ces outils doivent faire l’objet d’une validation formelle, être transparents quant à leurs limites, et l’utilisateur doit rester toujours responsable des décisions cliniques qu’il prend.
- Type 3, les systèmes background institutionnels (intégration de LLM dans les infrastructures hospitalières pour les dossiers électroniques, l’extraction automatisée des données et leurs analyses, l’appariement pour les études cliniques, etc.) : ces systèmes nécessitent une supervision institutionnelle, incluant une surveillance continue des performances et des biais, une revalidation régulière en cas de modification des sources de données, ainsi qu’une gouvernance et une documentation claires. Les utilisateurs doivent être informés lorsque de tels systèmes sont à l’oeuvre.
Au total, le panel de spécialistes a formulé 23 éléments de consensus pour encadrer les pratiques quotidiennes.
Quels bénéfices attendre des LLM ?
L’ESMO avance plusieurs avantages potentiels à l’usage raisonné des LLM.
Le premier est l’amélioration de l’information et de l’éducation des patients, avec un accès plus fluide à des explications compréhensibles, des outils d’aide au suivi des effets indésirables, et une meilleure communication (en plusieurs langues). S’y ajoute un allègement des tâches administratives et une documentation plus rapide : synthèses de dossiers, comptes-rendus de consultations, lettres au médecin traitant, traductions, etc., permettant aux oncologues de consacrer plus de temps au dialogue clinique.
L’ESMO voit également dans les LLM un support à la décision clinique et à l’identification de candidats pour des études : extraction de données, appariement pour les études contrôlées, repérage de biomarqueurs, suggestion d’options thérapeutiques potentielles, aide à la revue de la littérature. Enfin, les spécialistes du panel évoquent une meilleure efficience des systèmes hospitaliers, via l’automatisation des tâches répétitives, ainsi que la facilitation de la gestion des données et du tri des informations.
La gestion des risques
Comme attendu, le panel de l’ESMO insiste sur les risques à limiter au maximum :
- Biais, erreurs et hallucinations de l’IA : un LLM reste tributaire des données d’entrée. Dès lors, un dossier incomplet, un prompt (demande) imprécis ou des données obsolètes peuvent conduire à des réponses incomplètes, erronées ou - pire encore - trompeuses.
- Le manque de validation clinique : comme évoqué plus haut, les outils pour professionnels doivent suivre des processus de test, être transparents sur leurs limites et ne jamais se substituer au jugement médical.
- La protection des données et le respect de la confidentialité : particulièrement pour les applications institutionnelles ou celles qui impliquent directement le médecin, la gestion des données sensibles, la conformité au RGPD, le stockage et la traçabilité sont essentiels à bien encadrer.
- La gouvernance institutionnelle et la réévaluation continue : les systèmes intégrés (background) doivent être pilotés par des comités internes, soumis à audits et surveillés pour les risques de dérives de performance, les biais et les éventuelles déréglementations.
- Ne pas substituer la relation médecin-patient ni les décisions cliniques : l’IA doit rester un outil d’aide, et pas devenir un acteur autonome.
L’ESMO mentionne déjà que des orientations supplémentaires seront nécessaires pour encadrer ces nouveaux modèles.
Et en pratique ?
Pour un service d’oncologie, l’introduction d’un LLM, selon ELCAP, pourrait suivre les étapes suivantes, dont certaines sont à considérer comme générales :
- Cartographier les besoins : identifier les tâches répétitives ou chronophages (synthèses de dossiers, comptes-rendus, traductions, information au patient, tri des données, screening pour les études cliniques) ;
- Choisir un type d’application selon la classification ESMO (type 1, 2 ou 3) ;
- Valider l’outil en interne : le tester sur un panel de cas réels, vérifier la qualité des réponses, les biais et la sécurité des données ;
- Mettre en place une supervision et préciser la responsabilité : désigner un référent, définir des processus de travail clairs, prévoir des mécanismes de correction en cas d’erreur ;
- Gouvernance et audit : établir des comités internes (clinique, IT, éthique), assurer des réévaluations régulières et assurer la traçabilité des décisions prises ;
- Formation continue : sensibiliser et informer les soignants des limites de l’outil, des bonnes pratiques et des responsabilités.
Vers quel futur ?
Il est clair que la publication d’ELCAP ne fait qu’ouvrir la voie, alors que le rythme des innovations s’accélère : des modèles « agents autonomes » se développent, capables d’initier des actions sans commande directe. Ils posent des défis encore plus importants en termes de sécurité, de responsabilité, de régulation et d’éthique.
L’ESMO mentionne déjà que des orientations supplémentaires seront nécessaires pour encadrer ces nouveaux modèles. Et sans doute faudra-t-il être... prompt pour y réagir.
1. L’ELCAP a été publié en ligne par la revue Annals of Oncology.