Deepfakes
Quand lâIA endosse la blouse blanche du Pr Serge Hercberg (Nutri-Score)
En ce début février 2026, le Pr Serge Hercberg, figure de santé publique en France et « pÚre » du Nutri-Score, alerte sur LinkedIn : des vidéos générées par IA ont usurpé son identité pour diffuser des conseils nutritionnels pseudo-scientifiques, visant notamment les plus de 60 ans. AprÚs Michel Cymes, Marine Lorphelin ou Jean-Michel Cohen, ce nouvel épisode montre que le deepfake ne cible plus seulement les « médecins médiatiques », mais aussi des scientifiques pur jus, pour conférer une crédibilité à de faux (et dangereux) messages en santé.
Pour les mĂ©decins belges aussi, la prudence est de mise et le rĂ©flexe doit ĂȘtre systĂ©matique : considĂ©rez toute vidĂ©o 'trop crĂ©dible' comme suspecte, vĂ©rifiez-en la source et signalez-la immĂ©diatement auprĂšs de vos confrĂšres. Car lâIA peut dĂ©sormais emprunter votre identitĂ© aussi facilement que votre blouse blanche...
Le cas Hercberg: décor réaliste, discours inventé
Le mĂ©canisme est rodĂ© : blouse blanche (allant jusqu'au nom brodĂ©!), faux cabinet et propos fabriquĂ©s de toutes piĂšces. Le Pr Hercberg dĂ©crit des vidĂ©os le mettant en scĂšne assis Ă un bureau « mĂ©dical » inexistant, tenant des discours « plus ou moins Ă©sotĂ©riques » sur lâeffet dâaliments (style: "manger une pomme avec la peau nettoierait le cerveau"), nutriments ou comportements sur la santĂ© osseuse et cĂ©rĂ©brale des sujets ĂągĂ©s... Des propos quâil affirme nâavoir « jamais tenus ».
Selon les Ă©lĂ©ments rapportĂ©s, lâĂ©metteur serait une chaĂźne YouTube intitulĂ©e « SantĂ© Sage », créée le 31 dĂ©cembre 2025 et ayant publiĂ© plusieurs dizaines de vidĂ©os, avant suppression du compte Ă©voquĂ©.
Quand la notoriété médicale devient une arme commerciale
Le phĂ©nomĂšne nâest pas neuf : depuis plusieurs annĂ©es, des deepfakes exploitent la confiance accordĂ©e Ă des mĂ©decins « connus et respectĂ©s » pour promouvoir des cures « miracle » (diabĂšte, hypertension, douleurs articulairesâŠ), allant parfois jusqu'Ă inciter Ă abandonner des traitements.
De prĂ©cĂ©dentes victimes ont publiquement dĂ©noncĂ© ces montages, Ă lâinstar de Marine Lorphelin (juillet 2024) ou du mĂ©decin urgentiste François-Xavier Moronval (septembre 2025).Â
Si les signaux dâalerte maintes fois citĂ©s demeurent utiles (dĂ©synchronisation lĂšvres/voix, clignements anormaux, variations dâĂ©clairage), la progression rapide de la technologie complique de plus en plus lâidentification...
Signalements, plateformes, droit : une riposte encore incomplĂšte
Le Pr Hercberg indique avoir signalĂ© les contenus via Pharos (site français de signalement de cybermalveillance, NdlR) et auprĂšs de YouTube, tout en appelant Ă une « rĂ©ponse juridique à de tels comportements malhonnĂȘtes » et Ă une rĂ©glementation plus dissuasive.Â
YouTube rappelle que lâusurpation dâidentitĂ© est interdite par son rĂšglement et met en avant des outils de protection, dont « Likeness ID », destinĂ© Ă repĂ©rer des vidĂ©os oĂč un visage a Ă©tĂ© gĂ©nĂ©rĂ© ou modifiĂ© par IA, avec possibilitĂ© de demander un retrait. Les experts dĂ©crivent toutefois un rapport de force et un "jeu du chat et de la souris" entre fraudeurs et victimes, et soulignent lâintĂ©rĂȘt de mĂ©canismes de certification du contenu (signatures numĂ©riques) pour attester quâune vidĂ©o nâa pas Ă©tĂ© altĂ©rĂ©e.Â