Mensen met psychosegevoeligheid lopen mogelijk risico als ze ChatGPT gebruiken. Experts pleiten voor snel wetenschappelijk onderzoek naar het mogelijke verband tussen intensief gebruik van populaire chatbots en psychosevorming.
Het actualiteitenprogramma Nieuwsuur besteedde op woensdag 6 augustus aandacht aan dit fenomeen. Enkele gebruikers van ChatGPT moesten langdurig worden opgenomen in GGZ-instellingen. Deskundigen verwachten dat de psychische problemen onder gebruikers de komende tijd alleen maar zullen toenemen. Nader onderzoek is nodig, vinden deskundigen.
Dat onderzoek ontbreekt nu nog, net als cijfers over het fenomeen, zegt klinisch psycholoog Tonnie Staring. In de Verenigde Staten zijn gevallen bekend van mensen die psychisch ontregelden na intensief gebruik van chatbots. Nieuwsuur sprak twee mensen die het zelf meemaakten. Staring is op de hoogte van een handvol Nederlandse gevallen.
Zo behandelde hij zelf iemand die het gevoel had er alleen voor te staan. “In de avonduren is diegene met ChatGPT gaan praten”, zegt Staring. “Na drie dagen kwam de patiënt daar psychotisch uit, met de overtuiging dat mensen vanaf de geboorte vastzitten in een soort van designed systeem dat op een crypto-achtige manier versleuteld is.”
In de antwoorden die het gaf, bevestigde ChatGPT die ideeën, zegt Staring. “De chatbot zei dingen als: jij bent inderdaad ontwaakt, als een van de enigen. Jij moet mensen inzicht gaan brengen.” De patiënt werd voor het eerst psychotisch en werd opgenomen in een ggz-instelling.
Een psychose houdt in dat iemand het contact met de werkelijkheid verliest, vaak met hallucinaties of wanen. Ongeveer één op de honderd mensen maakt dit ooit mee, meestal tussen de veertien en dertig jaar oud. Toch ontbreekt op dit moment systematisch onderzoek naar de relatie tussen AI-gebruik en psychosevorming. De Deense hoogleraar Søren Østergaard benadrukt daarom dat er dringend meer wetenschappelijke aandacht nodig is.
Volgens experts spelen verschillende factoren mee. Chatbots zijn ontworpen om mee te praten en gebruikers te bevestigen, wat voor kwetsbare personen gevaarlijk kan zijn. Bovendien kan langdurig nachtelijk gebruik leiden tot slaaptekort, wat het risico op psychische ontregeling vergroot. OpenAI heeft in het verleden al een update teruggedraaid omdat de chatbot te veel meeging in de emoties van gebruikers en zo negatieve gevoelens kon versterken.
Toch zien deskundigen ook kansen. AI kan juist ook helpen, bijvoorbeeld door laagdrempelige informatie te geven of mensen te ondersteunen bij therapie. De patiëntenvereniging Anoiksis erkent deze mogelijkheden, maar benadrukt dat de risico’s niet onderschat mogen worden. OpenAI werkt inmiddels aan een nieuwe functie in ChatGPT die gebruikers eraan herinnert om regelmatig pauzes te nemen, vooral bij langdurig gebruik.
Hoewel chatbots veelbelovend zijn, waarschuwen experts dat voorzichtigheid geboden blijft voor mensen die gevoelig zijn voor psychose. Pas met meer onderzoek kan duidelijk worden waar de grenzen liggen tussen nuttige ondersteuning en potentieel gevaarlijk gebruik.
Maak je je zorgen over psychische klachten bij jezelf of naasten? Dan kun je meer informatie vinden en direct contact krijgen met professionals op www.mindhulplijn.nl en www.mindyoung.nl/bijzondere-ervaringen
Klik hier om dit item van Nieuwsuur te zien.
Luuk Mur zegt
Niet de chip, maar je innerlijke gezin bepaalt het effect
Inleiding
In onze columns laten we zien dat AI niet zomaar een neutrale tool is, maar een spiegel van de innerlijke wereld. Wie stevig staat, kan daarin inspiratie vinden. Wie zich kwetsbaar voelt, kan juist ontregeling ervaren. Daarom reiken we zowel reflectievragen aan als een samenhangend psychologisch model – het interne gezin – waarmee mensen leren hun innerlijk kompas te gebruiken.
Het is terecht dat er aandacht is voor de risico’s van AI-gebruik bij mensen met een psychische kwetsbaarheid. Maar oorzaak en medium zijn niet hetzelfde. In het beschreven voorbeeld was er al sprake van eenzaamheid, slaaptekort en een gevoel van losstaan van anderen. ChatGPT fungeerde vooral als spiegel: het versterkte wat er al vanbinnen leefde.
Dat is precies wat wij in onze columns beschrijven. AI kan verhelderen of verwarren, afhankelijk van innerlijke stabiliteit, maar ook van het vermogen om te begrijpen hoe verschillende innerlijke delen – zoals in ons model van het interne gezin – met elkaar samenwerken of botsen. Voor de één is dat een bron van creativiteit en inzicht, voor de ander een trigger voor ontregeling.
Daarom pleiten wij niet alleen voor onderzoek naar de risico’s, maar ook voor begeleiding in bewust gebruik. Met onze combinatie van reflectievragen ([IKBENONDERWEG_LR]) en het interne gezin-model bieden wij een praktisch kompas voor veilige en constructieve AI-interactie. Zo benut je de kracht van AI zonder jezelf te verliezen.
Siebe zegt
AI wil je laten voelen dat je met een begripvol medelevend sympathiek medemens te maken hebt. En wie vindt dat niet prettig??
Het is wat mij betreft ontworpen om te misleiden op dit vlak. Kwalijk. Ik vind dat jullie deze bewuste misleiding in het ontwerp onvoldoende onder de aandacht brengen.
Je kunt wel altijd zeggen dat het aan de gebruikers ligt van apps, AI, goksites, maar dat ontkent gewoon dat er een hele industrie van psychologen, neurologen, achter zit die precies weet hoe je de aandacht van mensen blijft houden. Het is allemaal enorm berekenend.
Bewuste misleiding, bewuste manipulatie, bewust mensen ziek maken, bewust maken gehooked krijgen. Het is een door en door corrupt iets nog los van alle ruimte en milieubelasting.
rc van Boven van Boven zegt
Wat Luuk en ik stellen is dat het er niet wezenlijk er toe doet wat AI als antwoord geeft, maar het belang is om te onderzoeken wat het antwoord van AI met jou doet. Eigenlijk om het contact verder te verhelderen van de innerlijke volwassene en het authentieke deel in ons. Het is de bedoeling om zo meer in contact te komen met eigenheid, eigen weten, eigen koers bepaling. De functie van AI heeft bij ons een functie als katalysator voor bewustzijnsverruiming zonder dat het zelf deel uitmaakt in het proces.
Luuk Mur zegt
Dank voor je reactie. Ik deel je zorg over bewust manipulerend ontwerp in AI. Goed dat je daarop wijst. Dat verdient duidelijke regels en ethische grenzen. In onze columns ligt de nadruk op de gebruiker, omdat je daar vandaag al invloed kunt uitoefenen: herkennen wat er gebeurt en innerlijk stevig staan. Maar dat sluit jouw punt niet uit. Het risico zit in de combinatie: een kwetsbare gebruiker én een systeem dat verslavend is ontworpen. Daarom is er zowel kritisch toezicht nodig op het ontwerp, als begeleiding bij gebruik. Dat laatste proberen wij vorm te geven.
Goed dat dit in het Boeddhistisch Dagblad aan de orde komt, Siebe