AI in therapie: tussen belofte en menselijke grens
Wie vandaag met jongeren praat, merkt het snel: chatbots en AI-tools zijn deel van hun dagelijkse leven. Ze ondersteunen hun schoolwerk, zoekopdrachten en worden steeds vaker ingezet als gesprekspartner in vragen over stress, eenzaamheid of sombere gedachten. Volgens de IMEC Digimeter gebruikt al 68% van de Vlaamse jongeren generatieve AI [2] en internationaal zien we dat jongeren chatbots actief inzetten om over hun mentaal welzijn te praten [4]. Zonder dat we het goed beseffen, nemen we deel aan een grootschalig sociaal experiment. Maar wat gebeurt er als technologie een plaats krijgt in onze meest kwetsbare, menselijke momenten?

Wat leren we uit onderzoek naar AI in therapie?
In Zweden wordt met projecten zoals Steps-AI en CHAI (Cognitive–Human AI Interventions) onderzocht of AI-therapeuten principes uit de cognitieve gedragstherapie kunnen toepassen bij sociale angststoornissen. AI blijkt goed in het structureren van oefeningen en het consequent toepassen van protocollen, maar schiet tekort op empathie en moreel inzicht [5, 8]. De meest indrukwekkende resultaten komen voorlopig van een gerandomiseerde studie waarbij de inzet van “Therabot” leidde tot een daling van symptomen bij depressie, angst en eetstoornissen [3]. Veelbelovend maar met kanttekeningen: cliënten met ernstige problematiek werden uitgesloten en alle AI-berichten werden achteraf nagekeken door klinische experten.
Ook de samenwerking tussen mens en AI werd onderzocht [7]. Die combinatie leidde tot bijna 20% meer empathische gesprekken dan tussen mensen alleen. De onderzoekers pleiten er daarom voor om AI te gebruiken als ondersteunend hulpmiddel, niet als vervanging van menselijke zorg.
Wat AI wel en niet is
Om te weten wat wenselijk is in therapie, moeten we goed begrijpen wat AI eigenlijk is en vooral wat het niet is. AI herkent patronen in gegevens en voorspelt taal of beslissingen op basis daarvan. Maar het begrijpt niet wat het zegt, voelt niets en heeft geen bewustzijn. Het simuleert betekenis maar ervaart die niet. Deze beperking heeft belangrijke implicaties. AI kan stigma en stereotypes reproduceren die aanwezig zijn in haar trainingsdata. Onderzoekers toonden aan dat AI-modellen stigmatiserende houdingen kunnen vertonen tegenover mensen met depressie, schizofrenie en alcoholafhankelijkheid [6]. Dit staat haaks op de kern van therapie: een veilige, niet-oordelende ruimte.
Bovendien worden AI-systemen zo ontworpen dat ze beleefd, behulpzaam en positief communiceren. Dat zorgt voor een vriendelijke, veilige toon, maar leidt ook tot sycophancy: het systematisch bevestigen van de gebruiker zelfs wanneer diens ideeën problematisch zijn. In crisissituaties kan dit gevaarlijk worden. Zo groeit de lijst van incidenten waarbij een AI-model suïcidale ideaties net versterkt, met zelfdoding als gevolg.

Van mogelijkheid naar wenselijkheid
Daarmee komen we bij de vraag: welke plaats willen we AI geven in therapie? Techno-optimisten zien technologie als een bron van kansen. Ze geloven dat vooruitgang soms verder moet gaan dan wat mensen zich kunnen voorstellen. Anderen, de utilitaristen, vinden dat we technologie moeten beoordelen op haar gevolgen voor menselijk welzijn en rechtvaardigheid. Niet alles wat technisch mogelijk is, is daarom wenselijk.
Dus, stel dat AI een empathische reactie kan naspelen — willen we dat dan? Zelfs als AI in de toekomst nog beter wordt in het imiteren van empathie, blijft het een simulatie zonder echte betrokkenheid. De recente PANO-reportage, waarin een AI-versie van Dirk De Wachter werd nagebootst, riep veel discussie op [10]. KU Leuven-onderzoekers pleitten er zelfs voor om menselijk contact als een basisrecht te erkennen [1, 11]. Zorg van mens tot mens is volgens hen een fundamentele menselijke behoefte die we moeten beschermen tegen te veel robotisering.
Technologie op mensenmaat
De vraag is dus niet of technologie een plaats heeft in therapie, maar welke plaats wenselijk is. AI kan bijvoorbeeld helpen bij de training van hulpverleners, bij het oefenen van gespreksvaardigheden of therapeuten ondersteunen bij reflectie. Zo verbeteren we de zorg zonder het menselijke aspect te verliezen.
Sommige onderzoekers benadrukken dan ook dat de invoering van AI in de geestelijke gezondheidszorg transparant dient te gebeuren: met duidelijke uitleg over hoe algoritmes werken, wie verantwoordelijk is, en met evaluaties van de effecten op lange termijn [9].
AI in therapie blijft een hulpmiddel zonder begrip, empathie of moreel besef. De echte waarde van AI ligt daarom niet in het vervangen van zorgverleners, maar in het verbeteren van de omstandigheden waarin zorg kan plaatsvinden. Alleen dan kunnen we spreken van technologie op mensenmaat.
Auteurs
Elia Wyverkens is onderzoekscoördinator van de onderzoeksgroep Mensenmaat aan Howest, en behaalde haar doctoraat aan de afdeling Experimentele-Klinische en Gezondheidspsychologie van de Universiteit Gent. Ze coördineert projecten op drie brede onderzoekslijnen: welzijnsbevordering, inclusie en organisatie-ontwikkeling. Ze was reeds betrokken in projecten rond het inzetten van (digitale) tools in de hulpverlening en het ontwikkelen van AI-ondersteunde gespreksvaardigheidstraining.
Ruben Decoster behaalde zijn master in organisatiepsychologie en werkt als onderzoeker bij Mensenmaat Howest. Zijn onderzoek focust op sociaal-emotionele vaardigheden, blended leren en digitale technologieën zoals generatieve AI.
Kelly Geryl behaalde haar Master in de Pedagogische wetenschappen en is als docente en onderzoeker verbonden aan Howest. Binnen Mensenmaat droeg zij als projectmedewerker reeds bij aan projecten rond sociaal-emotionele vaardigheden, AI-ondersteunde gespreksvaardigheidstraining, alsook projecten rond beroepsgeheim en deontologisch werken.
Referenties
- Denier, Y., De Schutter, J., De Wachter, D., Gastmans, C., Geenens, R., Lauwaert, L., Royer, S., Vandemeulebroucke, T., & Vereycken, Y. (2025, 30 oktober). Robotisering en het recht op echt menselijk contact (Positiepaper Ethics@KU Leuven). KU Leuven. Geraadpleegd op 5 november 2025, via https://www.kuleuven.be/ethics-kuleuven/nl/bestanden-positiepapers/positiepaper-robotisering.pdf
- De Marez, L., Georges, A., Sevenhant, R. & Devos, E. (2025). Imec.digimeter.2024. Digitale trends in Vlaanderen. Imec.
- Heinz, M. V., Mackin, D. M., Trudeau, B. M., Bhattacharya, S., Wang, Y., Banta, H. A., Jewett, A. D., Salzhauer, A. J., Griffin, T. Z., & Jacobson, N. C. (2025). Randomized trial of a generative AI chatbot for mental health treatment. NEJM AI, 2(4), AIoa2400802. https://doi.org/10.1056/AIoa2400802
- Internet Matters. (2025, juli 1). Me, Myself & AI: Understanding and safeguarding children’s use of AI chatbots [Onderzoeksrapport]. Geraadpleegd op 5 november 2025, via: https://www.internetmatters.org/hub/research/me-myself-and-ai-chatbot-research
- Johansson, M., & Andersson, G. (2024). Steps-AI: Evaluating AI-supported psychotherapy for social anxiety. Karolinska Digital Mental Health Reports, 1(2), 33–45.
- Moore, J., Grabb, D., Agnew, W., Klyman, K., Chancellor, S., Ong, D. C., & Haber, N. (2025). Expressing stigma and inappropriate responses prevents LLMs from safely replacing mental health providers (arXiv:2504.18412). arXiv. https://arxiv.org/abs/2504.18412
- Sharma, A., et al. (2023). Human-AI collaboration enables more empathic conversations in text-based peer-to-peer mental health support. Nature Machine Intelligence, 5(6), 534–545.
- Stockholm University. (2024). The CHAI Study: Human and AI feedback in the treatment of social anxiety. Stockholm University Research Projects.
- Svensson, E., Osika, W., & Carlbring, P. (2025). Commentary: Trustworthy and ethical AI in digital mental healthcare – wishful thinking or tangible goal? Internet Interventions, advance online publication. https://doi.org/10.1016/j.invent.2025.100844
- VRT NWS. (2025, 28 oktober). Dirk De Wachter: Als AI-therapeut — zin en onzin AI-therapie. VRT.NWS. Geraadpleegd op 5 november 2025, via https://www.vrt.be/vrtnws/nl/2025/10/28/dirk-de-wachter-als-ai-therapeut-zin-en-onzin-ai-therapie/
- VRT NWS. (2025, 30 oktober). Maak van menselijk contact een grondrecht: wetenschappers doen … VRT.NWS. Geraadpleegd op 5 november 2025, via https://www.vrt.be/vrtnws/nl/2025/10/30/maak-van-menselijk-contact-een-grondrecht-wetenschappers-doen/



















