Ga naar de inhoud

De schaduwzijde van ChatGPT: waarom menselijk contact onmisbaar blijft

ChatGPT Bron: © Canva. Met ChatGPT mis je de menselijke interactie. 

ChatGPT wordt steeds vaker gebruikt voor persoonlijke gesprekken, juist daarin schuilt een schaduwzijde van de AI. Misinformatie, emotionele afstand en groeiende eenzaamheid liggen op de loer. Hoe verantwoord is het om een AI te raadplegen in plaats van een mens?

Troost, advies, zingeving

Je staat er niet alleen voor, denk je. Je opent ChatGPT en stelt een vraag die je normaal aan een vriend, partner of therapeut zou stellen. De antwoorden komen snel, gestructureerd en vriendelijk. Maar wat gebeurt er werkelijk als je AI inzet voor menselijke behoeften zoals troost, advies of zingeving?

Illusie van empathie

Steeds meer mensen gebruiken ChatGPT als gesprekspartner bij persoonlijke dilemma’s of emotionele struggles. En hoewel het soms lijkt alsof je met een empathisch wezen praat, is dat niet zo. ChatGPT is geen mens. Het voelt niets, weet niets op eigen kracht en baseert zijn antwoorden op patronen in tekst, niet op begrip. Volgens een rapport van MIT Technology Review kan deze illusie van empathie zelfs leiden tot verkeerde aannames, misplaatste verwachtingen en uiteindelijk meer gevoelens van eenzaamheid.

Sluimerende eenzaamheid

Wat begint als een onschuldige vraag, “Waarom voel ik me zo alleen?”, kan uitmonden in een steeds grotere afhankelijkheid van een kunstmatig gesprek. Een onderzoek van de University of Cambridge toont aan dat gebruikers die AI inzetten voor emotionele ondersteuning, op langere termijn minder geneigd zijn om menselijke hulpbronnen te raadplegen.

Lees verder onder het bericht >>

Wél een antwoord, géén echte verbinding

“AI kan eenzaamheid dempen, maar uiteindelijk niet vervangen”, stellen de onderzoekers in hun rapport (Cambridge Centre for the Future of Intelligence, 2023). Je krijgt wél een antwoord, maar géén echte verbinding. Geen lichaamstaal. Geen stilte die iets zegt. Geen wederkerigheid. Alleen tekst. Voor sommigen is dat genoeg, tijdelijk. Maar voor velen versterkt het juist het gevoel dat niemand hen werkelijk begrijpt.

Misinformatie: het stille gevaar

Een ander probleem met ChatGPT is dat het soms fout zit. En niet een beetje. In complexe onderwerpen zoals gezondheid, psychologie of recht, kan 1 onnauwkeurig antwoord verregaande gevolgen hebben. Zo waarschuwt de World Health Organization (WHO) in een rapport uit 2024 voor het risico van AI-gegenereerde medische misinformatie, die “verpakt als betrouwbaar advies grote schade kan aanrichten bij kwetsbare gebruikers.”

Extra verraderlijk

Zelfs als ChatGPT waarschuwt dat het geen arts of therapeut is, blijkt uit onderzoek van Stanford University dat veel gebruikers de antwoorden tóch als gezaghebbend ervaren. Een AI die foutloos klinkt, is extra verraderlijk. Zeker als je emotioneel wankel bent, neem je al snel het eerste antwoord voor waarheid aan.

Lees verder onder de video >>

Een empathieloze illusie

De zogenaamde ‘empathie’ van ChatGPT is niet meer dan een gesimuleerde toon. Het is een afspiegeling van menselijk taalgebruik, geen bewuste ervaring. Volgens de Amerikaanse psychiater John Torous (Harvard Medical School) creëert deze schijnempathie een gevaarlijke vertrouwensband: “Gebruikers voelen zich gehoord, maar feitelijk praten ze tegen een spiegel zonder ziel.”

Geen echte troost, geen compassie

Je kunt ChatGPT dus alles vertellen, maar je krijgt geen echte troost, geen compassie, geen oordeel, geen nuance in intonatie. Alleen woorden. Soms goed gekozen, soms juist triggerend, maar altijd zonder menselijke bedding.

Waarom menselijke interactie essentieel blijft

Echte gesprekken zijn rommelig, traag, kwetsbaar, maar daarom juist waardevol. Een blik, een aanraking, een gedeelde stilte. Die dingen kan ChatGPT niet bieden. Ook de ethische verantwoordelijkheid ontbreekt: als AI je schade berokkent, voel je je machteloos. Er is geen ‘iemand’ die je ter verantwoording kunt roepen.

Daarnaast wijst de European Council on Digital Ethics erop dat langdurig gebruik van AI bij emotionele kwesties kan leiden tot vervorming van de realiteit, verlies van kritisch denkvermogen en sociale vervreemding. Vooral jongeren zijn gevoelig voor deze effecten, aldus hun rapport uit februari 2025.

Verantwoord gebruik van ChatGPT?

Er is niets mis met het gebruik van ChatGPT, mits je je bewust blijft van de beperkingen. ChatGPT kan prima helpen bij het structureren van je gedachten, het vinden van informatie of het oefenen van gesprekken. Maar bij persoonlijke of emotionele thema’s geldt:

  • Zie ChatGPT als een hulpmiddel, niet als een vervanging van menselijk contact.
  • Vertrouw niet blind op antwoorden: check feiten altijd bij erkende professionals.
  • Gebruik AI als voorbereiding op een echt gesprek, niet als vervanging ervan.
  • Wees eerlijk tegen jezelf: voel je je beter of juist leger na een gesprek met AI?

Als je merkt dat je vaker met ChatGPT praat dan met mensen, stel jezelf dan de vraag: zoek ik antwoorden of vermijd ik echte verbinding?

  1. Lees ook: AI en geneeskunde: artsen in opleiding gebruiken kunstmatige intelligentie.

Jij beslist

ChatGPT is een krachtig instrument. Maar zonder zelfreflectie, kritisch denken en menselijk contact, verandert dat instrument al snel in een scherm dat je langzaam vervreemdt van de wereld om je heen. Het is aan jou om het verstandig te gebruiken.

Bronnen:

MIT Technology Review, University Cambridge, World Health Organization, Interview John Torous – Harvard Medical School