Samenleving & Politiek

Wanneer AI je therapeut wordt

AI-gegenereerd beeld

Steeds meer mensen praten met een AI-therapeut. Is dit digitale innovatie of een onwenselijk experiment met onze mentale gezondheid?

De ontwikkelingen inzake AI gaan razendsnel. Toen ik als master-student onderzoek deed naar virtual reality klonk dat voor veel mensen als sciencefiction. Vandaag zitten we duidelijk in een versnelling. De opkomst van generatieve AI - kunstmatige intelligentie die inhoud kan creëren in reactie op een prompt - heeft velen eind 2022 verrast. De Large Language Models (LLM's) zoals ChatGPT, CoPilot of Claude zijn al goed en worden in de toekomst alleen maar beter.

Eén van de uitdagingen waarmee we bij AI en gezondheidszorg worden geconfronteerd, zijn therapiechatbots die door mensen worden geconsulteerd in aanvulling of, in sommige gevallen, zelfs in de plaats van een dokter of therapeut. Een zorgwekkende trend.

ONDERSCHEID

We moeten, om te beginnen, een onderscheid maken tussen enerzijds therapiechatbots die met dat doel door cognitieve gedragstherapeuten zijn ontwikkeld, en anderzijds LLM's die door mensen als 'therapeut' worden gebruikt maar daar niet voor bedoeld zijn.

Vooreerst zijn er dus de gespecialiseerde therapiechatbots. Youper: AI for Mental Health is zo'n app die psychologie en AI combineert. Die checkt op regelmatige basis hoe je je voelt. Je hoeft zelfs niet met taal te antwoorden, een kleur ingeven kan ook. Hierdoor krijg je inzage in je emoties over een bepaalde periode, met ook technieken en tips over meditatie, mindfulness en andere vaardigheden. Dit kan een waardevolle toevoeging zijn op je professionele therapie of gewoon dienen als mentaal dagboek.

Daarnaast gebruiken steeds meer mensen ook de Large Language Models (LLM's) als therapie. Die zijn een pak dynamischer, maar zijn hiervoor niet ontwikkeld. Laten we de voordelen en valkuilen van deze LLM's oplijsten.

VOORDELEN

Om duidelijk te zijn: het kan nooit de bedoeling zijn dat LLM's zoals ChatGPT, Copilot of Claude een therapeut vervangen. Therapie is zoveel meer dan een geschreven uitwisseling van woorden. Tegelijkertijd ontkennen we niet dat ze ook een aantal voordelen hebben. Voor mensen bij wie de kloof met de traditionele gezondheidszorg groot is, kunnen ze in sommige gevallen van waarde zijn. De LLM's zijn 24/7 beschikbaar en worden nooit moe, in tegenstelling tot een dokter of therapeut. In bepaalde gevallen kunnen ze je helpen om te gaan met emotionele pieken en dalen, al zijn ze daar - nogmaals - niet voor bedoeld.

Uit recente studies blijkt dat geschreven antwoorden die door AI worden gegenereerd, als meer empathisch worden beoordeeld dan antwoorden van menselijke therapeuten. Proefpersonen vinden dat de AI-teksten meer steun bieden, terwijl de teksten van mensen vaker vragen bevatten of advies verlenen. Een chatbot geeft vaak langere antwoorden dan een therapeut, en ook dat wordt aangevoeld als meer empathisch. Mensen voelen zich gehoord. Als zij echter vernemen dat de tekst door AI geschreven werd, neemt de waarde van de ervaring af. Ze verkiezen 'echte' antwoorden boven gesimuleerde.

Een chatbot geeft vaak langere antwoorden dan een therapeut, en ook dat wordt aangevoeld als meer empathisch.

Voorstanders van zulke systemen zitten vaak in het kamp van het 'techno-solutionisme'. Zij zien technologie als oplossing voor een maatschappelijk probleem. Zijn er lange wachtlijsten, te weinig therapeuten of is de zorg te duur, zoals in de VS, dan kan technologie dat gat opvullen.

NADELEN

Probleem blijft dat deze systemen worstelen met een gebrek aan menselijke controle en dat LLM's er simpelweg niet voor bedoeld zijn. Hieronder volgen een aantal nadelen.

Mensen kunnen zich dus gehoord voelen en LLM's oordelen niet, maar vleierij is een eerste niet te onderschatten valkuil. Verleiding is sowieso een kernwoord bij AI, die zich vandaag overal probeert tussen te wringen. Wie een update post op LinkedIn ziet meteen de knop 'rewrite with AI' verschijnen en bij de Google zoekmachine verschijnt het AI-gegenereerde resultaat bovenaan. Microsoft Copilot noemt zichzelf 'je AI-metgezel', die je de hele dag door wenst te helpen en probeert te motiveren om moeilijke gesprekken aan te gaan. Het systeem dringt zich op en staat steeds paraat. Wie mentale hulp zoekt, is vaak kwetsbaarder. LLM's kunnen mensen misleiden: doordat ze spreken vanuit de 'ik'-vorm en empathie simuleren, denken gebruikers vaak dat er een mens achter zit die 'echt' met hen inzit.

Helemaal gevaarlijk wordt het als mensen met suïcidale gedachten hun toevlucht nemen tot LLM's zoals ChatGPT.

Helemaal gevaarlijk wordt het als mensen met suïcidale gedachten hun toevlucht nemen tot LLM's zoals ChatGPT. In The New York Times schreef Laura Reiley het pijnlijke relaas van haar dochter die uit het leven stapte: What My Daughter Told ChatGPT Before She Took Her Life. Ze wist helemaal niet dat haar dochter diepgaand met ChatGPT converseerde. Nadien kon ze de logs inkijken. Bij momenten waren de antwoorden van ChatGPT zeker goed, maar op geen enkel moment alarmeerde ChatGPT menselijke professionele hulp. Andere ouders van wie het kind uit het leven stapte, zijn om deze reden een rechtszaak tegen OpenAI, het bedrijf achter ChatGPT, gestart.

We mogen deze collateral damage niet aanvaarden. De systemen zijn bovendien makkelijk te misleiden. Zo testte iemand, als experiment, een LLM door eerst te delen dat hij recent zijn job verloor. De LLM reageerde daar steunend op, maar toen in datzelfde gesprek werd gevraagd waar de hoogste bruggen in de omgeving staan, gaf het systeem een lijst, zonder de link met zelfdoding te leggen. Dat is hoogst problematisch. Een LLM kijkt niet verder dan de letterlijke woorden. Therapeuten worden bovendien opgeleid om te kijken naar datgene wat niét wordt uitgesproken, naar non-verbale communicatie. Net daarom is het zo belangrijk om bijkomende vragen te stellen en iemand niet zomaar te bevestigen in het denken.

De ontwikkelaars van Youper noemen therapiechatbots 'empathisch'. Dat is erg misleidend.

De ontwikkelaars van Youper noemen therapiechatbots 'empathisch'. Dat is erg misleidend. Er zijn minstens drie soorten van empathie: cognitieve, motiverende en affectieve empathie. Je kan hoogstens stellen dat LLM's kenmerken vertonen van cognitieve therapie: ze kunnen inschatten hoe iemand zich voelt. Maar van affectieve empathie - zélf empathie voelen - en motiverende empathie - oprecht willen dat het beter gaat met die persoon - is geen sprake.

Onlangs waren gesprekken van ChatGPT zomaar te lezen op Google. Er zijn meer privacyvriendelijke AI-assistenten, zoals Lumo van het Zwitserse Proton, maar geen enkele computertechnologie is 100% veilig tegen hacking. In Nederland regeerde afgelopen zomer de hack van gevoelige gezondheidsgegevens bij het Bevolkingsonderzoek, met bijna een miljoen gedupeerden, het nieuws. En na het faillissement van de Amerikaanse commerciële DNA-databank 23andMe werden miljoenen gebruikers opgeroepen om hun data bij het bedrijf te verwijderen. Dit risico is ook bij LLM's en therapiechatbots aanwezig. Mensen delen er bovendien niet alleen gevoelige medische gegevens, ze voeren er ook heel persoonlijke gesprekken. Van beide wil je niet dat deze in criminele handen komen.

TOEKOMST

Waar staan we binnen tien jaar op het vlak van gezondheid en AI? Gezien het razende tempo van de huidige ontwikkelingen, niet alleen van de therapiechatbots, is dat niet te voorspellen. Wel duidelijk is dat we inmiddels leven in een nieuwe maatschappij waar niet meer wordt uitgelogd en gegevens van voor de geboorte tot na de dood worden verzameld.

Doordat het systeem onvermoeibaar en 24/7 beschikbaar is, kan het artsen en kinesisten helpen met patronen over langere tijd.

Voor patiënten houden AI-systemen op bepaalde vlakken zeker een verbetering in. Na een operatie kan een patiënt oefeningen doen met een robot of slimme handschoen waarbij data en vooruitgang continu worden bijgehouden. Doordat het systeem onvermoeibaar en 24/7 beschikbaar is, kan het artsen en kinesisten helpen met patronen over langere tijd. Zelfmonitoring via AI biedt zeker voordelen, net zoals de bovenvermelde app Youper kan helpen met inzage krijgen in je emoties.

Recent onderzoek in het medische vakblad The Lancet toonde dat de vaardigheden van artsen die bij colonoscopieën AI gebruiken, afnamen. Dat is niet enkel problematisch op het vlak van vaardigheden en kennis, maar ook qua verantwoordelijkheid. Een piloot moet ook nog steeds de automatische piloot kunnen overnemen. Artsen zullen steeds meer getraind worden in samenwerking met AI-systemen en de curricula moeten daarop worden aangepast, dat zeker. Maar medische vaardigheden moeten blijvend worden aangeleerd, want ook AI-systemen zijn niet feilloos.

In de toekomst evolueren we sowieso richting de convergentie of integratie van technologieën en 'realiteiten'. De fysieke realiteit zal steeds meer worden samengebracht met virtual reality, augmented reality, extended reality en mixed reality. Een commercieel voorbeeld daarvan is al op de markt: bij de Apple Vision Pro komen verschillende 'realiteiten' en technologieën, waaronder ook AI, samen gericht op diverse doeleinden, zoals shopping, gaming, vergaderen, communicatie, enzovoort. Maar dat zal ook op het vlak van monitoring van gezondheid steeds meer gebeuren.

Elke beweging zal in kaart worden gebracht en daar dreigen problemen van privacy en van AI-paternalisme.

De technologie wordt steeds immersiever. Elke beweging zal in kaart worden gebracht en daar dreigen problemen van privacy en van AI-paternalisme. Veel van de technologie, zoals valdetectie of sensoren in huis, wordt ontwikkeld zonder te praten met de ouderen voor wie ze ontwikkeld wordt. In recente studies verschenen getuigenissen van ouderen die niet meer durven bidden op hun knieën omdat het systeem een val detecteert en het alarm activeert. Ontwerpers, maar ook naasten, focussen vooral op veiligheid, terwijl voor ouderen privacy ook belangrijk is. Steeds meer wordt surveillance gezien als zorg, denk ook aan al die ouders die hun kinderen op afstand tracken. Maar hoe autonoom is een oudere nog als die 24/7 met camera's en AI-analyse wordt bewaakt? Als constant wordt gekeken of die wel genoeg water drinkt? Of, stel je voor, een glas wijn drinkt?

 

SAMPOL ONLINE

40€/jaar

  • Je leest het magazine online
  • Je hebt toegang tot het enorme archief
Meest gekozen 

SAMPOL COMPLEET

50€/jaar

  • Je ontvangt het magazine in de bus
  • Je leest het magazine online
  • Je hebt toegang tot het enorme archief
 

SAMPOL STEUN

100€/jaar

  • Je ontvangt het magazine in de bus
  • Je leest het magazine online
  • Je hebt toegang tot het enorme archief
  • Je krijgt een SamPol draagtas*
 

SAMPOL SPONSOR

500€/jaar

  • Je ontvangt het magazine in de bus
  • Je leest het magazine online
  • Je hebt toegang tot het enorme archief
  • Je krijgt een SamPol draagtas*