Bron: © Canva. Zie AI als hulpmiddel, niet als een vervanger van je huisarts.
Even snel je klachten intypen en wachten op een digitale diagnose. Het voelt efficiënt en geruststellend. Toch blijkt AI als huisarts een stuk minder betrouwbaar dan je misschien denkt. Uit nieuw onderzoek blijkt dat populaire chatbots in bijna de helft van de gevallen twijfelachtig of zelfs ronduit slecht medisch advies geven. Een wake-upcall als je kunstmatige intelligentie gebruikt alsof het je eigen dokter is.
De studie, gepubliceerd in het medische tijdschrift BMJ Open, legt 5 bekende AI-platforms langs de meetlat: ChatGPT, Gemini, Meta AI, Grok en DeepSeek. Onderzoekers uit de Verenigde Staten, Canada en het Verenigd Koninkrijk testen deze systemen met 250 medische vragen.
Zelfverzekerd maar onjuist
De uitkomst is duidelijk en weinig geruststellend: bijna 49,6 procent van de antwoorden wordt als problematisch beoordeeld, terwijl 19,6 procent zelfs als zeer problematisch geldt. “Populaire AI-chatbots geven vaak zelfverzekerd maar onjuist medisch advies”, meldt MedicalXpress.
Dat betekent dat je bij bijna 1 op de 2 antwoorden risico loopt op misleiding. Wat het probleem nog groter maakt, is de toon. AI klinkt vaak alsof het precies weet waar het over praat. Maar dat vertrouwen is misleidend.
Onzorgvuldige afwegingen
Volgens de onderzoekers redeneren chatbots niet zoals artsen dat doen en wegen ze geen medische bewijzen zorgvuldig af. Ze produceren vooral taal die logisch klinkt. Daardoor lijken antwoorden betrouwbaar, terwijl ze dat niet altijd zijn.
De Wereldgezondheidsorganisatie waarschuwt hier al langer voor: systemen kunnen antwoorden geven die “gezaghebbend en plausibel lijken, maar toch volledig onjuist zijn”, aldus de WHO.
Lees verder onder het bericht >>
Ik was laatst bij de huisarts, die stelde vragen en daarna beslitste AI of ik doorverwezen kon worden naar de Neuroloog, met ook echt stoplicht kleurtjes 🤣🤡
— JINX (@JINX_NL) April 8, 2026
Open vragen zorgen voor de meeste fouten
Niet elke vraag leidt tot problemen. Gesloten vragen, met duidelijke ja/nee-antwoorden, gaan relatief beter. Maar zodra jij open vragen stelt, gaat het vaker mis. Denk aan vragen zoals:
- Wat is een goed alternatief voor mijn behandeling?
- Wat moet ik doen bij deze klachten?
Juist bij dit soort vragen ontstaat ruimte voor speculatie en ongefundeerde adviezen. De studie laat zien dat open vragen aanzienlijk vaker leiden tot ernstige fouten.
Grote verschillen per onderwerp
AI scoort niet overal even slecht. Bij onderwerpen als kanker en vaccins doen de systemen het relatief beter. Maar ‘beter’ betekent hier zeker niet ‘veilig’.
Bij vaccins is nog steeds 22 procent van de antwoorden problematisch en bij kanker 26 procent. De zwakste prestaties zie je bij onderwerpen zoals voeding, stamcellen en sportprestaties. Daar lopen wetenschap en misinformatie online vaker door elkaar.
Daarnaast signaleren onderzoekers een bekend probleem. AI presenteert soms bewezen geneeskunde en onbewezen alternatieven als gelijkwaardige opties. Dat klinkt neutraal, maar is misleidend.
Bronvermeldingen geven schijnzekerheid
Veel gebruikers vertrouwen AI extra zodra er bronnen worden genoemd. Maar ook daar zit een valkuil. Geen enkele chatbot slaagt erin om volledige en correcte referenties te geven. Gemiddeld is slechts 40 procent van de bronvermelding compleet. Dat betekent dat een antwoord er wetenschappelijk uitziet, terwijl de onderbouwing rammelt.
Lees verder onder het bericht >>
Voel de laatste dagen zo vreemd en duizelig en niet mezelf dat ik toch maar een huisarts afspraak wil maken. Krijg ik op de website een vreemde vragenlijst (nog nooit eerder gezien) ik vermoed iets met AI. Krijg ik dit als antwoord dus mag geen afspraak inplannen. Wat??? pic.twitter.com/Zzksdy2zXM
— Alexx (@devinity111) December 17, 2025
Te ingewikkeld voor veel mensen
Alsof dat nog niet genoeg is, blijken de antwoorden vaak moeilijk te begrijpen. Het taalniveau ligt eerder op het niveau van hoger onderwijs dan van begrijpelijke patiëntinformatie. Dat vergroot het risico dat je informatie verkeerd interpreteert of belangrijke nuance mist.
AI als huisarts: handig, maar niet voor diagnose
Wat betekent dit voor jou? AI is niet per definitie slecht. Het kan juist nuttig zijn als hulpmiddel. Denk aan het uitleggen van medische termen of het voorbereiden van vragen voor je huisarts. Maar er zijn duidelijke grenzen:
- Gebruik AI niet voor diagnoses
- Vertrouw niet blind op behandelingsadvies
- Controleer altijd bij een echte arts
De American Medical Association benadrukt dat artsen patiënten actief moeten wijzen op deze beperkingen en risico’s.
Overtuigend, maar onbetrouwbaar
De belangrijkste les is simpel: AI als huisarts klinkt vaak overtuigend, maar begrijpt niet echt wat er speelt. En juist dat maakt het gevaarlijk bij gezondheidsvragen. Zie het als een hulpmiddel, niet als een vervanger van je huisarts. Want als het om je gezondheid gaat, is een goed gesprek met een echte arts nog altijd de veiligste keuze.
LET OP: Startpagina geeft geen medisch advies. Raadpleeg bij gezondheidsklachten altijd een arts.
Bronnen:
BMJ Open, MedicalXpress, WHO