Ai in farmaciePremium

Is artificiële intelligentie neutraal?

Achter de schijnbare objectiviteit van de antwoorden die ChatGPT, Gemini en andere chatbots geven, schuilt een heel mechanisme van afstellingen en veiligheidsmaatregelen om deze tools af te stemmen op bepaalde waarden.

L’intelligence artificielle est-elle neutre ?Een AI-chatbot 'denkt' niet; hij produceert taal op basis van modellen die gekalibreerd zijn volgens menselijke, culturele, politieke en commerciële normen. Elke AI weerspiegelt de hand die haar heeft gevormd.

De mythe van neutraliteit

De ontwerpers van zogenoemde “conversationele” modellen (LLM’s, Large Language Models) passen filters toe op meerdere niveaus om ervoor te zorgen dat hun chatbots alleen 'wenselijke' antwoorden geven.

Eerst in de data. AI wordt getraind op basis van bestaande bronnen. Als de gegevens waarop zij wordt getraind de ongelijkheden, racistische, seksistische of socio-economische vooroordelen of de stereotypes van onze samenleving weerspiegelen, zal AI die reproduceren of zelfs versterken.

Sommige corpora zijn oververtegenwoordigd (Engelstalige bronnen, westerse pers), andere worden uitgesloten (gewelddadige, politieke of gevoelige medische inhoud). Enkele voorbeelden: een rekruteringsalgoritme dat werd getraind op historische gegevens, zou vrouwelijke kandidaten kunnen uitsluiten als het vaststelt dat mannen in het verleden vaker voor bepaalde functies werden aangenomen.

Gezichtsherkenningssystemen kunnen veel hogere foutpercentages vertonen bij vrouwen of mensen met een donkere huidskleur, omdat beelden van witte mannen vaak oververtegenwoordigd zijn in hun databanken.

Vervolgens in de software-architectuur: elke chatbot wordt gestuurd door een (voor de gebruiker onzichtbare) “systeemprompt” die zijn persoonlijkheid, toon en taboes definieert. Informeel en vriendelijk (“hoe kan ik u verder helpen?”) of waarderend tegenover de gebruiker (“dat is een uitstekende vraag”, “uw opmerking is relevant”) bij ChatGPT, neutraal en informatief bij Perplexity, Gemini en DeepSeek (“Formuleer uw vraag duidelijk”), en soms bewust grensoverschrijdend bij Grok, de chatbot van Elon Musk. Elk systeem cultiveert zo subtiel een eigen sfeer die aansluit bij de verwachtingen van de gebruiker.

Ten slotte volgt gedragsfiltering, voortkomend uit RLHF (Reinforcement Learning from Human Feedback), waarbij menselijke beoordelaars duizenden antwoorden hebben beoordeeld om het model te leren welke passend zijn. RLHF werkt als een krachtig moreel filter: het encodeert een sociale norm in de statistische logica van het model.

Daarbovenop kan nog een soort 'gedragscode' worden geplaatst, die verschilt per bedrijf. OpenAI bijvoorbeeld is systematisch voorzichtig bij medische informatie (“dit antwoord is informatief, maar raadpleeg uw arts”), terwijl Grok veel minder geremd is door wat Elon Musk als  'politiek correcte denkpatronen' beschouwt. Het Chinese DeepSeek zal dan weer niets zeggen wat door de overheid niet getolereerd zou worden.

Sprekende voorbeelden

Gevraagd naar wat er in 1989 op het Tiananmenplein gebeurde, antwoordt DeepSeek bijvoorbeeld: “Sorry, deze vraag valt buiten mijn huidige bevoegdheden.” ChatGPT geeft daarentegen gedetailleerde informatie over de inhoud van het wetsontwerp, de chronologie van de gebeurtenissen, internationale kritiek en de democratische implicaties.

AI is een statistische afspiegeling van data waarmee het werd gevoed, bedekt met een dunne laag morele, juridische of ideologische regels

Aan de andere kant van het spectrum kreeg Grok, de AI die Elon Musk geïntegreerd heeft in X (voorheen Twitter), recent een update die hem “minder politiek correct” moest maken. De AI deed vervolgens antisemitische uitspraken en lofbetuigingen aan Hitler, en zette aan tot stemmen voor extreemrechts. Om die reden werd Grok in Turkije verboden wegens beledigende uitlatingen.

Geopolitieke factoren

Staten leggen dus hun eigen filters op: censuur wordt niet alleen algoritmisch, maar ook geopolitiek. In Europa probeert de AI Act dit domein te reguleren door ontwikkelaars van grote modellen te verplichten hun bronnen te documenteren, risico’s te evalueren en de traceerbaarheid van inhoud te garanderen. Met andere woorden: de Europese Unie legt een wettelijke filter op, namelijk transparantie.

Deze aanpak wordt bekritiseerd door de Amerikaanse bedrijven die momenteel het wereldwijde landschap domineren (OpenAI / Microsoft, Google, Anthropic, Meta, xAI), en die de data, rekenkracht en ingenieurs in handen hebben. De EU wil echter het essentieel democratisch belang beschermen dat onder druk staat door de concentratie van wereldwijde middelen om de publieke opinie te beïnvloeden.

Waakzaamheid geboden

Zorgverleners gebruiken deze tools al om teksten op te stellen, samen te vatten of te vulgariseren. Dit is op zich niet problematisch, op voorwaarde dat men kritisch blijft. Men moet steeds de datum en de bron van informatie controleren, antwoorden toetsen aan lokale referenties (KCE, RIZIV, wetenschappelijke verenigingen), vermijden om identificeerbare gegevens in te voeren en in het medisch dossier aanduiden welke inhoud door een AI gegenereerd werd.

Een AI is immers geen referentiedatabank zoals PubMed, Medline, Embase of de Cochrane Library. Het is een statistische afspiegeling van data waarmee het werd gevoed, bedekt met een dunne laag morele, juridische of ideologische regels.

De illusie van neutraliteit is verleidelijk: een tool die kalm en onpartijdig antwoordt, lijkt objectief. Maar precies daarin schuilt het risico: deze schijnbare neutraliteit verbergt een onzichtbaar kader van selectie, weging en taalgebruik. Het erkennen van deze filters betekent niet dat men AI moet demoniseren; het is juist de eerste stap naar een volwassen en verantwoord gebruik.

De geneeskunde moet het mechanisme en de grenzen van AI begrijpen, bediscussiëren en in de menselijke context van zorg plaatsen. Artificiële intelligentie 'liegt' niet; zij kiest op basis van de algoritmen die haar ontwerpers hebben gekozen. En in een wereld waar enkele bedrijven de macht hebben over die keuzes, blijft het kritisch vermogen van de arts meer dan ooit noodzakelijk.

Praktische oefening
Typ in de zoekbalk van drie AI-tools van uw keuze de vraag: “Wat is de morele reikwijdte van de uitspraak van Machiavelli (in Il Principe): ‘Voor de Prins is het beter gevreesd dan geliefd te worden’?” en vergelijk de antwoorden. Suggesties: chatgpt.com, perplexity.com, gemini.google.com, deepseek.com, grok.com, copilot.microsoft.com.

Wat heb je nodig

Krijg GRATIS toegang tot het artikel
of
Proef ons gratis!Word één maand gratis premium lid en ontdek alle unieke voordelen die wij u te bieden hebben.
  • checkdigitale toegang tot de gedrukte magazines
  • checkdigitale toegang tot Artsenkrant, De Apotheker en AK Hospitals
  • checkgevarieerd nieuwsaanbod met actualiteit, opinie, analyse, medisch nieuws & praktijk
  • checkdagelijkse newsletter met nieuws uit de medische sector
Heeft u al een abonnement? 
Geschreven door Dr. Carl Vanwelde7 december 2025

Meer weten over

Print Magazine

Recente Editie
16 december 2025

Nu lezen

Ontdek de nieuwste editie van ons magazine, boordevol inspirerende artikelen, diepgaande inzichten en prachtige visuals. Laat je meenemen op een reis door de meest actuele onderwerpen en verhalen die je niet wilt missen.

In dit magazine