Artikel bewaren

Je hebt een account nodig om artikelen in je profiel op te slaan

Login of Maak een account aan
Reacties0

‘Chat, kun je reageren als een therapeut?’

AI ontwikkelt zich sneller dan je “Hoe voel je je daarover?” kunt zeggen. Dagelijks verschijnen er updates over hoe het ons werk makkelijker kan maken, maar ook over welke beroepsgroepen nu weer aan de kant kunnen worden gezet (programmeurs, journalisten en muzikanten, om er maar een paar te noemen).
Annemarie de Leng
foto: Christiaan Krop
Vooralsnog horen therapeuten en psychologen daar nog niet bij, gelukkig.
Maar of we het nou een goed idee vinden of niet, steeds meer mensen gebruiken ChatGPT als hun digitale behandelaar. Vooral scholieren, die al gewend zijn AI te gebruiken voor huiswerk, zien nauwelijks een drempel om hun zielenroerselen te delen.
Neem Noa, negentien jaar, die vorige maand aan RTL Nieuws vertelde dat ze ChatGPT als psycholoog gebruikt. Een echte therapeut vindt ze eng – misschien omdat die af en toe knikt en ‘hm’ zegt, zonder duidelijk te maken of dat een goed of slecht teken is. AI daarentegen voelt veilig. Het oordeelt niet als je je problemen bespreekt, en kan urenlang geduldig blijven luisteren, ook om drie uur ’s nachts.
Noa is niet de enige. Wereldwijd gebruiken honderden miljoenen mensen AI voor psychologische hulp. Ik vroeg ‘mijn Chat’ ook om wat tips over hoe ik een denkbeeldige jongere met een angststoornis kon helpen. Er volgde een uitgebreid antwoord met het aanbod om mij te helpen bij de behandeling. En toen ik vroeg om schematherapie of ACT aarzelde Chat geen moment! Enthousiast bood hij aan: “Hier is een stapsgewijze aanpak voor 10 sessies! We kunnen elke week een nieuw thema behandelen en oefeningen doen. Laat me weten of dit schema voor jou werkt!” Geen verwijzing naar een echte psycholoog, geen kanttekeningen, geen vragen over wie je bent en wat je nodig hebt.
Wat betekent dit voor ons behandelaars? Aan de ene kant kan AI een digitale wachtkamer zijn: mensen die eerst niet durfden, zetten uiteindelijk misschien wél de stap naar echte therapie. Aan de andere kant kan iemand denken: waarom zou ik ergens op de wachtlijst gaan staan als mijn telefoon al begripvol knikt? En in dat geval loopt deze persoon een risico: zolang techbedrijven geld verdienen aan digitale afhankelijkheid en er baat bij hebben dat mensen steeds terugkomen met nieuwe vragen en problemen, is het maar de vraag of de AI-hulp écht uit is op het verbeteren van iemands mentale gezondheid of dat ze iets willen verkopen.
Gelukkig investeert Europa in eigen AI-modellen waarin ethiek centraal staat. Hopelijk worden wij therapeuten hierbij betrokken, anders krijgen we straks AI die zegt: “Vertel me over je moeder” en ondertussen reclame voor moederdagcadeaus laat zien.
Tot die tijd kunnen we in ieder geval één ding doen: onze cliënten vragen wat ze aan ChatGPT vertellen, en of ze daar ook over willen praten. Al is het maar omdat wij, in tegenstelling tot AI, kunnen zien wanneer iemand huilt.

Over de auteur

Annemarie de Leng is hoofdredacteur van Kind en Adolescent Praktijk en psycholoog bij DC-klinieken.