Mensen met psychosegevoeligheid lopen mogelijk risico als ze ChatGPT gebruiken. Experts pleiten voor snel wetenschappelijk onderzoek naar het mogelijke verband tussen intensief gebruik van populaire chatbots en psychosevorming.
Het actualiteitenprogramma Nieuwsuur besteedde op woensdag 6 augustus aandacht aan dit fenomeen. Enkele gebruikers van ChatGPT moesten langdurig worden opgenomen in GGZ-instellingen. Deskundigen verwachten dat de psychische problemen onder gebruikers de komende tijd alleen maar zullen toenemen. Nader onderzoek is nodig, vinden deskundigen.
Dat onderzoek ontbreekt nu nog, net als cijfers over het fenomeen, zegt klinisch psycholoog Tonnie Staring. In de Verenigde Staten zijn gevallen bekend van mensen die psychisch ontregelden na intensief gebruik van chatbots. Nieuwsuur sprak twee mensen die het zelf meemaakten. Staring is op de hoogte van een handvol Nederlandse gevallen.
Zo behandelde hij zelf iemand die het gevoel had er alleen voor te staan. “In de avonduren is diegene met ChatGPT gaan praten”, zegt Staring. “Na drie dagen kwam de patiënt daar psychotisch uit, met de overtuiging dat mensen vanaf de geboorte vastzitten in een soort van designed systeem dat op een crypto-achtige manier versleuteld is.”
In de antwoorden die het gaf, bevestigde ChatGPT die ideeën, zegt Staring. “De chatbot zei dingen als: jij bent inderdaad ontwaakt, als een van de enigen. Jij moet mensen inzicht gaan brengen.” De patiënt werd voor het eerst psychotisch en werd opgenomen in een ggz-instelling.
Een psychose houdt in dat iemand het contact met de werkelijkheid verliest, vaak met hallucinaties of wanen. Ongeveer één op de honderd mensen maakt dit ooit mee, meestal tussen de veertien en dertig jaar oud. Toch ontbreekt op dit moment systematisch onderzoek naar de relatie tussen AI-gebruik en psychosevorming. De Deense hoogleraar Søren Østergaard benadrukt daarom dat er dringend meer wetenschappelijke aandacht nodig is.
Volgens experts spelen verschillende factoren mee. Chatbots zijn ontworpen om mee te praten en gebruikers te bevestigen, wat voor kwetsbare personen gevaarlijk kan zijn. Bovendien kan langdurig nachtelijk gebruik leiden tot slaaptekort, wat het risico op psychische ontregeling vergroot. OpenAI heeft in het verleden al een update teruggedraaid omdat de chatbot te veel meeging in de emoties van gebruikers en zo negatieve gevoelens kon versterken.
Toch zien deskundigen ook kansen. AI kan juist ook helpen, bijvoorbeeld door laagdrempelige informatie te geven of mensen te ondersteunen bij therapie. De patiëntenvereniging Anoiksis erkent deze mogelijkheden, maar benadrukt dat de risico’s niet onderschat mogen worden. OpenAI werkt inmiddels aan een nieuwe functie in ChatGPT die gebruikers eraan herinnert om regelmatig pauzes te nemen, vooral bij langdurig gebruik.
Hoewel chatbots veelbelovend zijn, waarschuwen experts dat voorzichtigheid geboden blijft voor mensen die gevoelig zijn voor psychose. Pas met meer onderzoek kan duidelijk worden waar de grenzen liggen tussen nuttige ondersteuning en potentieel gevaarlijk gebruik.
Maak je je zorgen over psychische klachten bij jezelf of naasten? Dan kun je meer informatie vinden en direct contact krijgen met professionals op www.mindhulplijn.nl en www.mindyoung.nl/bijzondere-ervaringen
Klik hier om dit item van Nieuwsuur te zien.
Luuk Mur zegt
Niet de chip, maar je innerlijke gezin bepaalt het effect
Inleiding
In onze columns laten we zien dat AI niet zomaar een neutrale tool is, maar een spiegel van de innerlijke wereld. Wie stevig staat, kan daarin inspiratie vinden. Wie zich kwetsbaar voelt, kan juist ontregeling ervaren. Daarom reiken we zowel reflectievragen aan als een samenhangend psychologisch model – het interne gezin – waarmee mensen leren hun innerlijk kompas te gebruiken.
Het is terecht dat er aandacht is voor de risico’s van AI-gebruik bij mensen met een psychische kwetsbaarheid. Maar oorzaak en medium zijn niet hetzelfde. In het beschreven voorbeeld was er al sprake van eenzaamheid, slaaptekort en een gevoel van losstaan van anderen. ChatGPT fungeerde vooral als spiegel: het versterkte wat er al vanbinnen leefde.
Dat is precies wat wij in onze columns beschrijven. AI kan verhelderen of verwarren, afhankelijk van innerlijke stabiliteit, maar ook van het vermogen om te begrijpen hoe verschillende innerlijke delen – zoals in ons model van het interne gezin – met elkaar samenwerken of botsen. Voor de één is dat een bron van creativiteit en inzicht, voor de ander een trigger voor ontregeling.
Daarom pleiten wij niet alleen voor onderzoek naar de risico’s, maar ook voor begeleiding in bewust gebruik. Met onze combinatie van reflectievragen ([IKBENONDERWEG_LR]) en het interne gezin-model bieden wij een praktisch kompas voor veilige en constructieve AI-interactie. Zo benut je de kracht van AI zonder jezelf te verliezen.