AI helpt tegen psychische klachten, maar MIND eist kaders

AI helpt tegen psychische klachten, maar MIND eist kaders

03-11-2025 (10:31) - Tech

ChatGPT of andere generatieve AI kunnen psychsiche klachten verminderen. Dat concludeert MIND na een onderzoek onder bijna 800 mensen naar het gebruik van AI bij pyschische klachten. De belangenorganisatie bendarukt tegelijkertijd dat kunstmatige intelligentie nooit mag worden ingezet ter vervanging van menselijk contact.

De opkomst van generatieve AI roept veel vragen op over de rol van deze technologie bij psychische klachten: is het kansrijk of vooral zorgelijk? MIND onderzocht daarom onder 771 mensen met ervaring met psychische klachten of en in welke mate zij generatieve AI gebruiken om hierover te praten, waarom zij dat doen, hoe zij dit ervaren en welke risico’s en kansen zowel gebruikers als niet-gebruikers zien.

Hoewel de meerderheid van de gebruikers aangeeft liever over psychische klachten te praten met hun naasten of professionele hulpverlening, kan AI - mits veilig en verantwoord - extra steun bieden tussen de contactmomenten door. Het kan tevens drempels verlagen om te praten over psychische klachten.

Helpende hand

Ruim een derde van de deelnemers (38%) heeft wel eens generatieve AI gebruikt om te praten over hun psychische klachten. Het gebruik is het hoogst onder jongere mensen, mensen die op een wachtlijst staan en mensen die zorg ontvangen. De overgrote meerderheid gebruikt de gratis versie van ChatGPT. De meeste mensen gebruiken generatieve AI in aanvulling op professionele hulpverlening, slechts 13% zet het in ter vervanging daarvan.

Voor sommige gebruikers voelt het praten met generatieve AI onpersoonlijk of vergroot dit juist gevoelens van eenzaamheid

93% van de respondenten ziet AI als helpende hand. De belangrijkste redenen voor gebruik zijn het feit dat kunstmatige intelligentie altijd beschikbaar, laagdrempelig en oordeelloos is. Het voorziet mensen in een luisterend oor, hulp bij het ordenen, in kaart brengen en begrijpen van gedachten en informatie en adviezen over (het omgaan met) psychische klachten.

Zorgen over gebruik

Tegelijkertijd benadrukken zowel gebruikers als niet-gebruikers de risico’s en beperkingen van generatieve AI bij psychische klachten. Zo kunnen antwoorden van een chatbot volgens deelnemers te algemeen of standaard zijn, kan het taalmodel de neiging hebben om mee te gaan in gedachten en emoties in plaats van deze tegen te spreken en wordt de vraag en/of situatie soms niet goed begrepen.

Daarnaast bestaan er zorgen over privacy, veiligheid en betrouwbaarheid van informatie en adviezen en het risico op vervanging van menselijk contact. Voor sommige gebruikers voelt het praten met generatieve AI onpersoonlijk of vergroot dit juist gevoelens van eenzaamheid. Niet-gebruikers geven veelal de voorkeur aan menselijk contact, zijn bang dat generatieve AI foutieve informatie geeft en maken zich zorgen over hun privacy.

Strenge eisen aan privacy

MIND pleit voor duidelijke kaders en ethische richtlijnen voor het gebruik van AI bij psychische klachten. Onafhankelijke toetsing en toezicht zijn noodzakelijk om veiligheid, kwaliteit en ethiek te waarborgen. Er moeten strenge eisen worden gesteld aan privacy en dataveiligheid.

Ook onderzoek naar de kwaliteit van verschillende toepassingen, de effecten van het gebruik op korte en lange termijn en de voorwaarden voor veilig gebruik is noodzakelijk. Tot slot benadrukt MIND dat generatieve AI nooit mag worden ingezet ter vervanging van menselijk contact. Daarom roept de organisatie ontwikkelaars, beleidsmakers en zorgprofessionals op om ervaringsdeskundigen structureel en gelijkwaardig te betrekken in discussies en toekomstige ontwikkelingen gerelateerd aan het gebruik van generatieve AI bij psychische klachten.