Deepfakes
Wanneer AI uw witte jas aantrekt
Begin februari slaakte prof. Serge Hercberg — de bedenker van de Nutri-Score en een toonaangevende figuur in de volksgezondheid in Frankrijk — een noodkreet via LinkedIn: door AI gegenereerde video’s kapen zijn identiteit om pseudowetenschappelijke of zelfs ronduit kolderieke voedingsadviezen te verspreiden, met name gericht op 60-plussers.
En als u de volgende keer aan de beurt bent? Wat prof. Hercberg overkwam, toont aan dat deepfakes niet langer enkel zeer gemediatiseerde artsen viseren van wie het beeld overal circuleert en dus makkelijk te kopiëren is, maar ook pure wetenschappers die meer in de schaduw werken. Doel? Altijd hetzelfde: een pseudowetenschappelijke geloofwaardigheid geven aan valse (en gevaarlijke) gezondheidsboodschappen, onder meer om behandelingen te verkopen.
Het kostte de “vader” van de Nutri-Score bovendien meerdere dagen en heel wat inspanningen om de scheve situatie recht te zetten. "Oef! De klachten en meldingen bij YouTube en de mobilisatie van heel veel actoren hebben ertoe geleid dat het kanaal Santé Sage werd verwijderd", zuchtte de emeritus professor van de Sorbonne enkele dagen geleden eindelijk opgelucht.
Het frauduleuze account, aangemaakt op 31 december 2025, richtte zich vooral op 60-plussers met voedingsadviezen rond onder meer hersen- en botgezondheid. Uiteindelijk werd het door YouTube afgesloten (zonder te weten wie er achter de schermen zat of met welk precies doel). Serge Hercberg had de video ontdekt via een collega die toevallig op een video was gestuit.
Verzonnen discours in een realistisch decor
De epidemioloog en voedingsdeskundige werd het slachtoffer van maar liefst 32 deepfakes. Met een goed geolied mechanisme: witte jas (tot en met zijn naam zogezegd geborduurd), een nep-medische praktijk en volledig uit de duim gezogen uitspraken. Prof. Hercberg beschrijft video’s waarin hij wordt voorgesteld terwijl hij aan een niet-bestaand bureau zit en esoterische verklaringen afsteekt over het effect van voedingsmiddelen (in de trant van: “een appel met schil eten zou de hersenen reinigen”), voedingsstoffen of gedragingen op de bot- en hersengezondheid van ouderen. Uitspraken die hij naar eigen zeggen "nooit heeft gedaan".
"Dit incident toont aan hoe waakzaam we moeten zijn voor deze nieuwe vorm van gezondheidsdesinformatie die steunt op artificiële intelligentie. Het toont ook hoe we ons ertegen kunnen wapenen, hoe we wetenschappers en gezondheidsactoren moeten beschermen en waarom we niets mogen laten passeren", besluit hij. Hij pleit ook voor "een juridisch antwoord op zulke oneerlijke gedragingen". De boodschappen waren in zijn geval niet echt gevaarlijk, maar wel verwarrend genoeg om de officiële voedingsaanbevelingen te vertroebelen.
Hoewel waarschuwingssignalen zoals lippen en stem die niet synchroon lopen en onnatuurlijk oogknipperen nuttig blijven, maken de snelle technologische ontwikkelingen het steeds moeilijker om nepinhoud te herkennen
Het fenomeen is niet nieuw. Al meerdere jaren misbruiken deepfakes op sociale media het vertrouwen dat mensen stellen in bekende en gerespecteerde artsen om “miracle cures” te promoten, die soms zelfs aanzetten om echte behandelingen stop te zetten. Eerdere slachtoffers hebben deze montages publiek aangeklaagd, zoals dr. Michel Cymes (die Meta voor de rechtbank daagde), dr. Marine Lorphelin (op TikTok en Instagram in juli 2024) of spoedarts François-Xavier Moronval (september 2025, via zijn medische educatiekanaal ‘Doc FX’).
Ook al blijven de vaak beschreven alarmsignalen nuttig — asynchroniteit lippen/stem, abnormale knipperbewegingen, schommelingen in belichting — de snelle vooruitgang van de technologie maakt de identificatie van de fake steeds moeilijker.
YouTube herinnert eraan dat identiteitsfraude volgens hun reglement verboden is en zet beschermingsinstrumenten zoals “Likeness ID” in de kijker, die bedoeld zijn om video’s op te sporen waarin een gezicht via AI is gegenereerd of aangepast (met de mogelijkheid tot verzoek tot verwijdering, hoewel YouTube in het geval van Hercberg er meerdere dagen over deed om te reageren). Experts op het gebied van cybercriminaliteit beschrijven echter een onevenwichtige machtsverhouding en een “kat-en-muisspel” tussen fraudeurs en slachtoffers, waarbij de eersten zeer snel terugkeren, mede dankzij de vooruitgang in deep learning voor het bouwen van algoritmes. Het ideale instrument zou eerder een systeem van certificering van inhoud zijn: een digitale handtekening die garandeert dat een video niet werd aangepast.