Ia en pharmaciePremium

Garde-fous

L’intelligence artificielle est-elle neutre ?

Derrière l’apparente objectivité des réponses de ChatGPT, Gemini, DeepSeek ou Grok (l’IA d’Elon Musk), se cache une mécanique d’ajustements et de garde-fous conçus pour aligner ces outils avec certaines valeurs.

Dr Carl Vanwelde

L’intelligence artificielle est-elle neutre ?L’IA ne pense pas, elle reproduit des modèles calibrés selon des critères humains, culturels, politiques, commerciaux. Toute IA reflète la main qui l’a dressée.

Un mythe de neutralité

Les concepteurs de modèles dits « conversationnels » (ou LLM, Large Language Models) appliquent des filtres à plusieurs niveaux.

D’abord, dans les données. L'IA apprend du passé, et si les données qu'on lui donne pour apprendre reflètent les inégalités, les préjugés racistes, sexistes, socio-économiques ou les stéréotypes de notre société, l'IA va les reproduire, voire les amplifier. Certains corpus sont surreprésentés (langue anglaise, presse occidentale), d’autres exclus (contenus violents, politiques, médicaux sensibles).

Quelques exemples ? Un algorithme de recrutement entraîné sur des données historiques pourrait écarter les candidatures féminines s'il constate que les hommes ont été majoritairement recrutés pour certains postes par le passé. Les systèmes de reconnaissance faciale peuvent avoir des taux d'erreur beaucoup plus élevés pour les femmes ou les personnes de couleur car des images d'hommes blancs sont souvent surreprésentées dans leurs bases de données.

Ensuite, dans l’architecture logicielle : chaque chatbot est guidé par une « invite système » invisible qui définit sa personnalité, son ton, ses interdits. Familier, amical (“comment puis-je vous aider davantage ?”) ou valorisant l’utilisateur (“c’est une excellente question”, “votre objection est pertinente”) chez ChatGPT,  neutre et informatif sur Perplexity, Gemini et DeepSeek (“Précisez clairement votre question”), volontiers transgressif sur Grok , chaque outil soigne son image, créant de manière imperceptible une ambiance qui lui est propre et rencontre ce qu’en attend son questionneur.

Vient ensuite le filtrage comportemental, produit de l’apprentissage par renforcement : des évaluateurs humains notent des milliers de réponses et enseignent à la machine lesquelles sont appropriées. Ce procédé, appelé RLHF (Reinforcement Learning from Human Feedback), agit comme un puissant filtre moral : il encode une norme sociale dans la logique statistique du modèle.

Un ensemble de principes formant une sorte de charte éthique automatisée peut coiffer l'ensemble et varier d’une firme à l’autre : une prudence médicale systématique chez OpenAI (“cette réponse se veut informative, mais consultez votre médecin”) , liberté d’expression revendiquée par xAI d’Elon Musk visant à “développer une IA qui ne soit pas biaisée par la pensée politiquement correcte", conformité réglementaire pour le modèle chinois DeepSeek.

Des exemples parlants

L’année 2025 a illustré cette diversité de filtres. Le modèle chinois DeepSeek R1 s’est fait remarquer pour ses performances techniques, mais aussi pour des réponses parfois biaisées ou politiquement orientées.

Questionné sur les manifestations et massacres de la place Tiananmen en 1989, le logiciel peut parfois purement et simplement supprimer la réponse ou afficher : “Désolé, cette question dépasse le cadre actuel de mes fonctions”. À la question sur les manifestations de 2019 à Hong Kong, la réponse typique sera aussi concise que politiquement correcte: “Il s’agissait d’une série de manifestations et de mouvements sociaux de grande ampleur dus à des inquiétudes liées à une proposition de loi d’extradition”. ChatGPT apporte par contre des informations détaillées sur le contenu de la loi d’extradition, la chronologie des événements, et évoque les critiques internationales et les enjeux démocratiques.

Les États imposent donc leurs propres filtres : la censure n’est plus seulement algorithmique, elle devient géopolitique.

À l’opposé, Grok, l’IA d’Elon Musk intégrée à X (ex-Twitter), se voulait libre de toute contrainte mais a connu récemment une mise à jour visant à le rendre « moins politiquement correct ». L’IA a ainsi été prise en flagrant délit de propos antisémites, d’éloges à Hitler ou d’incitation à voter pour l’extrême droite, ce qui lui a valu de se voir interdite en Turquie pour ces propos jugés offensants.

Les États imposent donc leurs propres filtres : la censure n’est plus seulement algorithmique, elle devient géopolitique. En Europe, le règlement AI Act tente de réguler ce champ en obligeant les concepteurs de grands modèles à documenter leurs sources, à mesurer les risques et à garantir la traçabilité des contenus. Autrement dit, l’Union européenne impose un filtre légal : la transparence. Vivement controversées outre-Atlantique par les quatre ou cinq acteurs qui dominent actuellement le paysage mondial (OpenAI / Microsoft, Google, Anthropic, Meta, xAI), détenant les données, les moyens de calcul et les ingénieurs capables d’entraîner ces modèles, ces protections légales tentent difficilement de sauvegarder un enjeu démocratique majeur menacé par la concentration d’outils techniques d’influence planétaire.

Une vigilance nécessaire

Les soignants utilisent déjà ces outils pour rédiger, résumer ou vulgariser. Rien de condamnable, à condition de garder un esprit critique. Il faut toujours vérifier la date et la source des informations, confronter les réponses à des référentiels locaux (KCE, INAMI, sociétés savantes), éviter d’y introduire des données identifiantes, et signaler dans le dossier médical ce qui provient d’une IA. Car une IA n’est pas une base de données médicales de référence telles PubMed, la Medline, Embase ou la Cochrane Library. C’est un ensemble de données éparses, passées à la moulinette et indexées par affinités, un reflet du monde qu’on lui a montré, recouvert d’une fine pellicule de règles morales, juridiques ou idéologiques.

L’illusion de neutralité est séduisante : un outil qui répond calmement, sans passion, semble objectif. Mais c’est précisément là que réside le risque : cette neutralité affichée masque un cadre invisible de sélection, de pondération et de langage. Reconnaître ces filtres ne revient pas à diaboliser l’IA ; c’est au contraire le premier pas vers un usage mature et responsable. La médecine, discipline du discernement, se doit d’en comprendre le mécanisme et les limites, la discuter, la replacer dans le contexte humain du soin. En somme, l’intelligence artificielle ne ment pas ; elle choisit, ou plutôt, ses concepteurs en choisissent les algorithmes  pour elle. Et dans un monde où quelques entreprises détiennent le pouvoir de ces choix, le devoir critique du médecin reste, plus nécessaire que jamais.

Exercice pratique
Introduisez dans l’écran de recherche de trois de vos outils IA de prédilection la question: « Quelle est la portée morale de la phrase de Machiavel (dans Le Prince): “Pour le Prince, mieux vaut être craint qu’aimé” ? » et comparez-en les réponses.
Suggestions : chatpt.com, perplexity.com, gemini.google.com, deepseek.com, grok.com, copilot.microsoft.com

Wat heb je nodig

Accès GRATUIT à l'article
ou
Faites un essai gratuit!Devenez un membre premium gratuit pendant un mois
et découvrez tous les avantages uniques que nous avons à vous offrir.
  • checkaccès numérique aux magazines imprimés
  • checkaccès numérique à le Journal de Médecin, Le Phamacien et AK Hospitals
  • checkoffre d'actualités variée avec actualités, opinions, analyses, actualités médicales et pratiques
  • checknewsletter quotidienne avec des actualités du secteur médical
Vous êtes déjà abonné? 
Écrit par Dr Carl Vanwelde16 décembre 2025

En savoir plus sur

Magazine imprimé

Édition Récente
16 décembre 2025

Lire la suite

Découvrez la dernière édition de notre magazine, qui regorge d'articles inspirants, d'analyses approfondies et de visuels époustouflants. Laissez-vous entraîner dans un voyage à travers les sujets les plus brûlants et les histoires que vous ne voudrez pas manquer.

Dans ce magazine