Bron: © Canva. Met ChatGPT mis je de menselijke interactie.
ChatGPT wordt steeds vaker gebruikt voor persoonlijke gesprekken, juist daarin schuilt een schaduwzijde van de AI. Misinformatie, emotionele afstand en groeiende eenzaamheid liggen op de loer. Hoe verantwoord is het om een AI te raadplegen in plaats van een mens?
Troost, advies, zingeving
Je staat er niet alleen voor, denk je. Je opent ChatGPT en stelt een vraag die je normaal aan een vriend, partner of therapeut zou stellen. De antwoorden komen snel, gestructureerd en vriendelijk. Maar wat gebeurt er werkelijk als je AI inzet voor menselijke behoeften zoals troost, advies of zingeving?
Illusie van empathie
Steeds meer mensen gebruiken ChatGPT als gesprekspartner bij persoonlijke dilemma’s of emotionele struggles. En hoewel het soms lijkt alsof je met een empathisch wezen praat, is dat niet zo. ChatGPT is geen mens. Het voelt niets, weet niets op eigen kracht en baseert zijn antwoorden op patronen in tekst, niet op begrip. Volgens een rapport van MIT Technology Review kan deze illusie van empathie zelfs leiden tot verkeerde aannames, misplaatste verwachtingen en uiteindelijk meer gevoelens van eenzaamheid.
Sluimerende eenzaamheid
Wat begint als een onschuldige vraag, “Waarom voel ik me zo alleen?”, kan uitmonden in een steeds grotere afhankelijkheid van een kunstmatig gesprek. Een onderzoek van de University of Cambridge toont aan dat gebruikers die AI inzetten voor emotionele ondersteuning, op langere termijn minder geneigd zijn om menselijke hulpbronnen te raadplegen.
Lees verder onder het bericht >>
Wordt ‘zelf nadenken’ snel ‘iets van vroeger’?
— Vincent Vandeputte (@VincentVandep8) May 10, 2025
Ik merk dat meer en meer mensen geen vragen meer voor zichzelf stellen, ze stellen ze nu eerder aan AI…
“Is dit waar?” of “Denk ik dat dit waar is?” of “Hoe en waar kan ik dat nagaan?”
Wordt nu gewoon ‘copy paste’ en: “ChatGPT,…
Wél een antwoord, géén echte verbinding
“AI kan eenzaamheid dempen, maar uiteindelijk niet vervangen”, stellen de onderzoekers in hun rapport (Cambridge Centre for the Future of Intelligence, 2023). Je krijgt wél een antwoord, maar géén echte verbinding. Geen lichaamstaal. Geen stilte die iets zegt. Geen wederkerigheid. Alleen tekst. Voor sommigen is dat genoeg, tijdelijk. Maar voor velen versterkt het juist het gevoel dat niemand hen werkelijk begrijpt.
Misinformatie: het stille gevaar
Een ander probleem met ChatGPT is dat het soms fout zit. En niet een beetje. In complexe onderwerpen zoals gezondheid, psychologie of recht, kan 1 onnauwkeurig antwoord verregaande gevolgen hebben. Zo waarschuwt de World Health Organization (WHO) in een rapport uit 2024 voor het risico van AI-gegenereerde medische misinformatie, die “verpakt als betrouwbaar advies grote schade kan aanrichten bij kwetsbare gebruikers.”
Extra verraderlijk
Zelfs als ChatGPT waarschuwt dat het geen arts of therapeut is, blijkt uit onderzoek van Stanford University dat veel gebruikers de antwoorden tóch als gezaghebbend ervaren. Een AI die foutloos klinkt, is extra verraderlijk. Zeker als je emotioneel wankel bent, neem je al snel het eerste antwoord voor waarheid aan.
Lees verder onder de video >>
Een empathieloze illusie
De zogenaamde ‘empathie’ van ChatGPT is niet meer dan een gesimuleerde toon. Het is een afspiegeling van menselijk taalgebruik, geen bewuste ervaring. Volgens de Amerikaanse psychiater John Torous (Harvard Medical School) creëert deze schijnempathie een gevaarlijke vertrouwensband: “Gebruikers voelen zich gehoord, maar feitelijk praten ze tegen een spiegel zonder ziel.”
Geen echte troost, geen compassie
Je kunt ChatGPT dus alles vertellen, maar je krijgt geen echte troost, geen compassie, geen oordeel, geen nuance in intonatie. Alleen woorden. Soms goed gekozen, soms juist triggerend, maar altijd zonder menselijke bedding.
Waarom menselijke interactie essentieel blijft
Echte gesprekken zijn rommelig, traag, kwetsbaar, maar daarom juist waardevol. Een blik, een aanraking, een gedeelde stilte. Die dingen kan ChatGPT niet bieden. Ook de ethische verantwoordelijkheid ontbreekt: als AI je schade berokkent, voel je je machteloos. Er is geen ‘iemand’ die je ter verantwoording kunt roepen.
Daarnaast wijst de European Council on Digital Ethics erop dat langdurig gebruik van AI bij emotionele kwesties kan leiden tot vervorming van de realiteit, verlies van kritisch denkvermogen en sociale vervreemding. Vooral jongeren zijn gevoelig voor deze effecten, aldus hun rapport uit februari 2025.
Verantwoord gebruik van ChatGPT?
Er is niets mis met het gebruik van ChatGPT, mits je je bewust blijft van de beperkingen. ChatGPT kan prima helpen bij het structureren van je gedachten, het vinden van informatie of het oefenen van gesprekken. Maar bij persoonlijke of emotionele thema’s geldt:
- Zie ChatGPT als een hulpmiddel, niet als een vervanging van menselijk contact.
- Vertrouw niet blind op antwoorden: check feiten altijd bij erkende professionals.
- Gebruik AI als voorbereiding op een echt gesprek, niet als vervanging ervan.
- Wees eerlijk tegen jezelf: voel je je beter of juist leger na een gesprek met AI?
Als je merkt dat je vaker met ChatGPT praat dan met mensen, stel jezelf dan de vraag: zoek ik antwoorden of vermijd ik echte verbinding?
Jij beslist
ChatGPT is een krachtig instrument. Maar zonder zelfreflectie, kritisch denken en menselijk contact, verandert dat instrument al snel in een scherm dat je langzaam vervreemdt van de wereld om je heen. Het is aan jou om het verstandig te gebruiken.
Grok ging rogue!@superjan en @SBergsma bespreken de levensgevaarlijke gevolgen als we kunstmatige intelligentie teveel macht geven.
— Ongehoord Nederland TV (@ongehoordnedtv) July 18, 2025
De Bergsma & Bennink Podcast terugluisteren?
Dat kan via NPO Luister: https://t.co/YSO1jnhUjO pic.twitter.com/2ZmqbZ7MIp
Bronnen:
MIT Technology Review, University Cambridge, World Health Organization, Interview John Torous – Harvard Medical School