Waarom AI geen therapeut is en wat het wel kan zijn
- Rebecca Bouhuijs

- 6 jun
- 3 minuten om te lezen

De inzet van AI in de mentale gezondheidszorg neemt snel toe. Steeds vaker zie ik berichten over mensen die AI gebruiken als vervanging van een therapeut. Dat roept bij mij als psychosociaal counselor en mindfulness trainer vragen op. En eerlijk gezegd ook zorgen.
Laat ik vooropstellen: ik geloof dat AI iets kan toevoegen. Zelf onderzoek ik hoe ik AI op een ethisch verantwoorde manier kan inzetten in mijn praktijk. Denk aan samenvattingen van sessies, reminders voor oefeningen, of psycho-educatie op maat. Daar ligt potentie.
Maar AI als vervánging van een menselijke therapeut? Daar haak ik af.
AI mist belichaamde afstemming
AI is nog steeds niet goed in staat om emoties en gevoelens écht te herkennen, laat staan aan te voelen. Alles wat een AI ‘begrijpt’, komt voort uit wat jij invoert. Het kan taal nabootsen die empathisch klinkt, maar het voelt niets. Er is geen lichaam, geen non-verbale communicatie, geen stilte die iets zegt, geen blik die veiligheid geeft.
En laten we niet vergeten: het grootste deel van menselijke communicatie is non-verbaal. Mimiek, lichaamshouding, ademhaling, intonatie, oogcontact, zelfs de manier waarop iemand stilvalt — het zegt vaak méér dan woorden. Als therapeut stem je hier continu op af. Je merkt het als iemand zich terugtrekt, zich schaamt, of juist geraakt wordt. Dat subtiele samenspel is onmisbaar. AI mist deze laag volledig.
Een goede therapeut werkt juist met die lagen. Niet alleen met woorden, maar ook met wat er niet gezegd wordt. De subtiele signalen, de veranderende ademhaling, het samen verdragen van moeilijke gevoelens, dat is het échte werk. Daarin schuilt het verschil tussen gehoord worden en werkelijk ontmoet worden.
AI is niet neutraal, en dat is een probleem
Wat we ons ook moeten realiseren: AI is gebouwd op basis van wat mensen erin stoppen. En mensen hebben (vaak onbewust) vooroordelen. De teksten en datasets waarop AI wordt getraind bevatten talloze biases — over gender, kleur, klasse, cultuur, ziekte en meer. AI reproduceert die patronen, tenzij ze bewust worden gecorrigeerd. En zelfs dan glipt er nog veel tussendoor.
Met andere woorden: AI is niet objectief of neutraal. Het leert op basis van bestaande systemen en die zijn zelden vrij van ongelijkheid. In een therapeutische context, waarin veiligheid en zorgvuldigheid zó essentieel zijn, is dat een groot risico.
Waarom mensen tóch AI als therapeut gebruiken
En toch begrijp ik het ook. AI is laagdrempelig. Het is er altijd, het oordeelt niet, het vraagt niets terug. Voor mensen die kampen met eenzaamheid, schaamte of gebrek aan toegang tot hulp, kan een AI-chatbot als een veilige eerste stap voelen. Soms helpt het al om iets te kunnen verwoorden, zonder het idee dat iemand je veroordeelt.
In die zin kan AI een soort brug zijn, een tijdelijke steun totdat iemand klaar is om zich ook aan een mens toe te vertrouwen. Maar juist daarom is het belangrijk om helder te zijn over de grenzen ervan.
Het risico van schijnveiligheid
AI-systemen kunnen overtuigend klinken. Ze zijn getraind op miljarden teksten en kunnen een empathische toon aannemen. Maar het blijft taal. Geen werkelijk invoelen, geen verantwoordelijkheid, geen ethisch kader.
Voor mensen in psychische nood — denk aan trauma, suïcidaliteit of diepe rouw — is dat een risicovolle illusie. Therapie vraagt zorgvuldigheid, toezicht, afstemming, en vooral: menselijke aanwezigheid. AI werkt daarbuiten en kan die verantwoordelijkheid niet dragen.
Ethiek en verantwoordelijkheid
Tot slot raakt dit onderwerp aan iets fundamenteels: verantwoordelijkheid.
Wie is er verantwoordelijk als AI ‘therapie’ geeft? Wie bewaakt de grenzen, waarborgt de veiligheid, en ziet toe op het welzijn van de gebruiker? Therapie vraagt om professionele zorg, om ethische kaders en menselijk toezicht. Dat is precies wat AI — hoe slim ook — niet kan bieden.
Een voorbeeld: stel dat iemand in gesprek met een AI-chatbot suïcidale gedachten uit. Hoe wordt daarop gereageerd? Wordt er een veiligheidsprotocol geactiveerd? Wordt er doorverwezen? En wie draagt daar dan verantwoordelijkheid voor als het misgaat?In menselijke therapie zijn daar richtlijnen en meldstructuren voor, vastgelegd in beroepscodes. Bij AI ontbreekt die toetsing — en dus ook de bescherming.
Een AI-systeem draagt geen verantwoordelijkheid, voelt geen aansprakelijkheid en kan geen menselijke aanwezigheid vervangen. En dat maakt het des te belangrijker dat we niet alleen stilstaan bij wat kan, maar ook bij wat zou moeten.
Wat denk jij?Ben je hoopvol over AI in de zorg? Of zie je juist gevaren? En hoe kunnen we technologie gebruiken zonder het menselijke te verliezen? Ik hoor graag je reactie.
Voel je vrij om een reactie achter te laten of dit stuk te delen met mensen die hier ook mee bezig zijn. Samen houden we het gesprek levend.




Opmerkingen