De ontwikkelingen binnen artificiële intelligentie gaan razendsnel. Ook binnen psychotherapieën zullen toepassingen op basis van AI plaatsvinden. Er zijn al interessante mogelijkheden, al kan het bij de meeste nog wel even duren voordat ze daadwerkelijk worden gebruikt.
Wie apocalyptische profetieën wil vinden, hoeft niet ver te zoeken. Binnen sektes, Evangelische kerken, groepen complotdenkers, spirituelen, extreemrechtse groeperingen en ga zo maar door: het einde der tijden is er als idee onverminderd populair gebleven. En, zo oud als de mensheid zelf.
Het idee dat moderne technologie iets te maken zal hebben met onze teloorgang is ook niet per se iets nieuws. Dat mensen die verantwoordelijk zijn voor de ontwikkeling van bepaalde technologieën ons waarschuwen wél, en dat sommigen daarvan vrezen voor het einde van de mensheid ook. Een flink aantal CEO’s van grote, Amerikaanse bedrijven vreest namelijk precies dat eeuwenoude scenario. Ze denken dat artificiële intelligentie ooit in staat is de mensheid compleet te verwoesten, en dat die mogelijkheid er binnen vijf tot tien jaar al kan zijn.
‘Het is vrij donker en alarmerend’, zei de Yale professor Jeffrey Sonnenfeld in juni tegen CNN. Het gaat om 42% van 119 ondervraagde CEO’s, namelijk, waarmee een spoedig einde van de wereld opeens iets minder vergezocht of idioot lijkt.
Gunstige voorspellingen zijn er gelukkig ook, als het om artificiële intelligentie gaat: het zal ons helpen om gezond te blijven, het zal ons werk lichter maken, het zal ons nog meer comfort geven en het zal ons blijven verbazen. Dezelfde groep CEO’s stelden dat AI vanzelfsprekend grote impact zal hebben in de IT-sector en de mediasector, maar nog het meest in een andere: de gezondheidszorg.
Dat AI een rol kan en zal spelen in toekomstige psychotherapieën, is daarmee een veilige voorspelling. Technologische interventies worden al jaren gebruikt in de geestelijke gezondheidszorg, weet Tom van Daele, een Vlaamse klinisch psycholoog die al ruim 10 jaar onderzoek doet digitale toepassingen in de wereld van psychische zorg. Net als iedereen ziet hij ook dat dat de ontwikkelingen binnen AI razend snel gaan, maar na de vraag of hij dat ook terug ziet binnen zijn onderzoeksdomein schudt hij zijn hoofd. ‘Het valt eerder tegen’, stelt hij met een glimlach. ‘Veel wordt nu in onderzoek bekeken, maar de vertaalslag naar de praktijk gaat vaak heel langzaam. Het is en blijft een sector die langzaam technische innovaties omarmt. Of dat een probleem is, is een andere vraag.’ Van Daele snapt wel dat er terughoudend heerst onder therapeuten. ‘Het is niet zo dat er irrationele angsten onder clinici of psychotherapeuten zijn, of dat ze de toegevoegde waarde niet zien. Ze willen ook gewoon zeker willen zijn dat wat ze doen goed is, en dat er kwalitatief goed en veilig aanbod is voor hun cliënten.’
De mobiele telefoon als mentale spiegel
Ook al gaat de omarming van nieuwe technologie traag - er wordt momenteel veel onderzoek gedaan naar de psychotherapeutische mogelijkheden van AI. Zo is inmiddels al een tijdje duidelijk dat AI kan helpen bij het formuleren van een persoonlijke aanpak binnen apps die als ondersteuning worden gebruikt voor een therapie, bijvoorbeeld voor angst en depressie. Er is in Nederland binnen de Radboud Universiteit onderzoek gedaan naar de kadering van een zogenaamde ‘fenotype’ - een soort persoonlijk digitaal profiel - op basis van data uit de mobiele telefoon. Via deze fenotypen is er een voorspelling te maken over de verbetering die iemand ondergaat en kunnen adviezen binnen dergelijke apps gerichter worden geformuleerd.
Er zijn al apps die AI gebruiken van een dergelijke ‘taylored approach’, bijvoorbeeld Woebott en SilverCloud Health. De verwachting is dat de technieken nog veel geavanceerder worden, met name omdat er nog veel data uit smartphones te halen is die nog niet wordt gebruikt.
‘Het is een relatief veilige omgeving voor AI’, legt Van Daele uit. ‘Een digitaal fenotype kan inderdaad op basis van een mobiele telefoon worden gemaakt, maar ook met alle andere toestellen die om ons heen hangen. Ze kunnen heel veel zeggen over ons doen en laten namelijk. We leiden doorgaans vrij routineuze levens. Interessant zijn daarom deviaties van onze patronen in bijvoorbeeld sociale mediagebruik, berichten, email, enzovoort. Die variaties kunnen betekenen dat er iets aan de hand is. Maar daar heb je nog niet eens artificiële intelligentie voor nodig. Wat AI op termijn zou kunnen doen, is veel verder gaan dan die patronen in stabiliteit en instabiliteit ontdekken. Bijvoorbeeld, dat we bij iemand die een risico heeft om in een depressie terug te vallen het digitale reilen en zeilen gaan monitoren, zonder dat het per se voor het menselijk oog heel zichtbaar is wat die variaties zijn. We zouden gewoon een melding kunnen krijgen - er is iets aan de hand! Waarom precies, dat is dan niet helemaal duidelijk. Daarom wordt het wel een ‘black box’ genoemd, omdat de weg naar die melding toe niet te herleiden valt. Maar, het voordeel daaraan is, dat áls we gebruiken maken van dat extra vangnet er niet per se iets mis is met een valse positieve detectie. In het ergste geval komt er een extra follow-up van je psycholoog of therapeut. Een false negative hoeft er niet per se te zijn, als het past binnen een continue herstelpreventie bijvoorbeeld, of een ander programma. Het is een hulpmiddel, en dat moet het ook blijven.’
Van Daele ziet de telefoon als ‘mentale spiegel’ dan ook niet als een middel dat therapie ooit kan vervangen. ‘Ik zou niet kunnen leven met louter en alleen ‘een black box’ als ondersteuning’, verduidelijkt hij. ‘Als onderdeel van een ondersteuning kan het denk ik heel nuttig zijn, ook al weten we niet wat de aanleiding is van een rode vlag. De grote vraag wordt straks hoeveel vertrouwen we leggen in zo’n systeem, en hoe we het gaan combineren met therapie.’
Een drone als ‘AI therapeut’
Dat robots zekere zorgtaken kunnen overnemen, is allang geen nieuws meer - in de ouderenzorg bijvoorbeeld wordt het al toegepast. Daar houden de mogelijkheden niet op. Onderzoekers van de Erasmus Universiteit Rotterdam en de Technische Universiteit Delft (TU Delft) werken aan een gepersonaliseerde drone voor zwaar autistische kinderen, die betaalbaar is en met behulp van AI zelfstandig kan opereren. Anahita Jamshidnejad, universitair docent en ingenieur aan de TU Delft, deed als eerste onderzoek naar het gebruik van een drone als ‘therapeut’. ‘Ik had contact met een psycholoog en dankzij haar wist ik dat kinderen met autisme erg gefascineerd zijn door drones’, vertelt ze. ‘Ik wist iets van dansbewegingstherapie, en ik wist daarbij iets over robots en drones: robots bewegen in 2 dimensies, bijvoorbeeld, terwijl drones in 3 dimensies bewegen . Dat zorgt voor meer dynamiek in de interactie met mensen. Daarom heb ik voor ons onderzoek voor een drone gekozen.’
Jamshidnejad testte het gebruik van een ‘therapeutische drone’ met verschillende proefpersonen. Autistische kinderen zaten er nog niet bij, al is deze doelgroep wel degene die ze uiteindelijk willen bedienen. In haar onderzoek werd het accent vooralsnog eerst gelegd op een zo vloeiend mogelijke interactie met een mens.
‘In de drone die we gebruikten zit één camera’, aldus Jamshidnejad. ‘De camera registreert constant wat er in de omgeving van de drone gebeurt. In eerste instantie wordt de camera op de deelnemer gericht. Zodra de mens in de camera wordt gedetecteerd, gebruikt de drone twee parallelle algoritmen. Een van de systemen vangt het gezicht van de deelnemer, en de andere registreert het lichaam. We wilden dat de robot de interactie op gang brengt, omdat we weten dat kinderen met autisme niet geneigd zijn om zelf een interactie op gang te brengen. De drone speelt in het begin muziek af en begint wat te bewegen, op basis van de informatie die een therapeut in eerste instantie aan de drone heeft verstrekt. De drone scant daarna voortdurend de lichaamsuitdrukkingen en de gezichtsuitdrukkingen of bewegingen veranderen, en in hoeverre ze passen ze bij wat de drone doet. Is er sprake van spiegeling of niet? En op basis van deze evaluatie kan de moeilijkheidsgraad of het niveau van wijzigingen veranderen.’
De drone gebruikt artificiële intelligentie op twee manieren, legt Jamshidnejad uit: via deep learning en fuzzy logic. ‘Fuzzy logic heeft zijn basis in de wiskunde, maar het is heel anders dan de gebruikelijke logica, omdat het is geïnspireerd door menselijke perceptie en besluitvorming. Het werd in de jaren zeventig bedacht door een computerwetenschapper, op basis van hoe de redenering van mensen werkt. Daar maken we gebruik van, omdat we een heel menselijke interactie wilden nabootsen. Deep learning wordt door de drone gebruikt om te leren hoe de huidige betrokkenheid en prestaties van elke persoon kunnen worden beoordeeld. Voorafgaand aan het besluitvormingsgedeelte gebruiken we fuzzy logic.’
Momenteel doet Jamshidnejad een onderzoek waarmee ze deep learning hoopt te verbeteren, gezien dat proces nog vrij tijdrovend en intensief is. ‘Wat er momenteel gebeurt, is dat deep learning in feite een uitputtende test- en foutprocedure is. Daar betaal je wel wat voor, qua tijd en interactie. Met de drone moet het systeem in de eerste vijf a tien minuten van de interactie veel gegevens verzamelen, wat het risico met zich meebrengt dat een deelnemer afhaakt. Door te kijken naar literatuur van de cognitieve wetenschappen, bijvoorbeeld de theory of mind, proberen we een systeem met een model van cognitie te bouwen dat ervoor zorgt dat de drone niet blanco start. Het model geeft aan hoe een gewone start van een interactie zou werken en begint vervolgens met het verzamelen van gegevens om de aanpak aan te passen. Het wordt dus dan een meer op modellen gebaseerde benadering in plaats van op gegevens gebaseerde benadering.’
Jamshidnejad denkt dat nog zo’n zes jaar kan duren voordat de drone te koop is. ‘We moeten eerst zeker weten dat het werkt, en veilig gebruikt kan worden. Uiteindelijk willen we inderdaad dat het thuis inzetbaar is, zodat de drone altijd gebruikt kan worden. Het grote voordeel van een drone is dat deze zeer betaalbaar is. De robots die nu in de zorg worden gebruikt, kosten voordat ze worden geprogrammeerd al 10.000 euro. Een drone kost nu 250 of 500 euro, maar kan nog steeds het werk doen. Hiernaast werken we aan een zeer gebruiksvriendelijke interface. We willen dat de zorgverlener of therapeut op een gemakkelijke manier met het systeem kan werken.’
Deepfake als traumatherapie
Dan is er nog weer een hele andere therapeutische toepassing van artificiële intelligentie die zelfs nu al gebruikt kan worden. Via deepfake technologie, waarin het uiterlijk van iemand met AI wordt nagebootst en tot leven wordt gebracht, kunnen slachtoffers van misbruik in gesprek met de dader. De woorden van de dader zijn afkomstig van een therapeut, die via software, zonder dat het slachtoffer dat ziet, reageert op de vragen van het slachtoffer. Dezelfde techniek werd eerder al onderzocht als hulpmiddel bij rouwtherapie, waarbij een deelnemer in gesprek gaat met de overledene en zo hopelijk meer berusting vindt.
Het onderzoek naar deze toepassing voor slachtoffers van misbruik staat nog in de kinderschoenen, maar de voorlopige resultaten zijn positief. Vorig jaar werd door onderzoekers van de Universiteit van Amsterdam en de Radboud Universiteit een onderzoek gepubliceerd waarin twee vrouwen via Zoom in gesprek gingen met een nagebootste dader. Beide vrouwen stelden positief te zijn na dit gesprek, hoewel ze bewust bleven van het feit dat de dader niet echt was. Ze meldden beide meer positieve en minder negatieve emoties, dominantie ten opzichte van de dader en zelfvergeving. Ook bleek er sprake van minder zelfverwijt en hadden beide slachtoffers minder symptomen die duiden op een posttraumatische stress stoornis.
Die uitkomsten klinken dus veelbelovend. Ook Tom van Daele is enthousiast over deze toepassing, maar plaatst wel een kritische noot. ‘Mijn terughoudendheid is er vooral omdat dit platform al vrij online staat. Je kan dus surfen naar die site, je kunt er een account aanmaken, je kan credits aankopen, en je kunt dan vrolijk beginnen te Zoomen. Iedereen kan inloggen, zonder enige vorm van controle wie dat is. Ik vind het wel ver gaan om van twee beschikbare casestudies naar een vrij toegankelijke therapie te gaan, waar iedereen met nabestaanden of daders kan praten, als we eigenlijk nog bitter weinig weten over de effecten. Met een pil zouden we dat ook niet doen. Die techniek is in principe neutraal, maar als je het op deze manier aan de massa aangaat bieden kan het misgaan.’
Een aangepaste versie van dit artikel verscheen eerder in Psyche & Brein (5/2023)