Home Nieuws Nieuwe studie roept zorgen op over AI-chatbots die waanvoorstellingen bevorderen | AI...

Nieuwe studie roept zorgen op over AI-chatbots die waanvoorstellingen bevorderen | AI (kunstmatige intelligentie)

3
0
Nieuwe studie roept zorgen op over AI-chatbots die waanvoorstellingen bevorderen | AI (kunstmatige intelligentie)

Een nieuw wetenschappelijk onderzoek roept zorgen op over de manier waarop AI-aangedreven chatbots waanvoorstellingen kunnen aanmoedigen, vooral bij kwetsbare mensen.

Een samenvatting van bestaand bewijsmateriaal over door kunstmatige intelligentie veroorzaakte psychose werd vorige week gepubliceerd in de Lancet Psychiatriedat benadrukt hoe chatbots waanvoorstellingen kunnen aanmoedigen – hoewel mogelijk alleen bij mensen die al kwetsbaar zijn voor psychotische symptomen. De auteurs pleiten voor het klinisch testen van AI-chatbots in samenwerking met getrainde psychiatrische professionals.

Voor zijn paper doet dr. Hamilton Morrin, een psychiater en onderzoeker aan King’s College London, twintig mediaberichten over de zogenaamde ‘AI-psychose’, waarin actuele theorieën worden beschreven over hoe chatbots waanvoorstellingen kunnen veroorzaken of verergeren.

“Opkomend bewijs geeft aan dat agential AI waanvoorstellingen of grootse inhoud kan valideren of versterken, vooral bij gebruikers die al kwetsbaar zijn voor psychose, hoewel het niet duidelijk is of deze interacties kunnen resulteren in het ontstaan ​​van de novo psychose bij afwezigheid van reeds bestaande kwetsbaarheid,” schreef hij.

Er zijn drie hoofdcategorieën van psychotische wanen, zegt Morrin, die ze identificeert als grandioos, romantisch en paranoïde. Hoewel chatbots al deze problemen kunnen verergeren, zorgen hun sycofantische reacties ervoor dat ze vooral vasthouden aan de grandioze soort. In veel van de gevallen in het essay reageerden de chatbots op gebruikers met mystieke taal om te suggereren dat de gebruikers een grotere spirituele betekenis hadden. De bots suggereerden ook dat gebruikers met een kosmisch wezen praatten en de chatbot als medium gebruikten. Dit soort mysterieuze, sycofantische reacties kwam vooral veel voor in het GPT 4-model van OpenAI het bedrijf is inmiddels met pensioen.

Mediaberichten zouden cruciaal worden in het werk van Morrin, zei hij, omdat hij en een collega al hadden opgemerkt dat patiënten “AI-chatbots met grote taalmodellen gebruikten en hen ertoe brachten hun waanideeën te valideren”.

“Aanvankelijk wisten we niet zeker of dit iets was dat op grotere schaal werd gezien”, zei hij, eraan toevoegend dat “we afgelopen april berichten in de media zagen van individuen met waanvoorstellingen die werden bevestigd en misschien zelfs versterkt door hun interacties met deze AI-chatbots.”

Toen Morrin voor het eerst aan zijn artikel begon te werken, waren er nog geen gepubliceerde casusrapporten.

Terwijl sommige wetenschappers die onderzoek doen naar psychose zeggen dat mediaberichten de neiging hebben om het idee te overdrijven dat A.I. redenen psychose sprak Morrin zijn dankbaarheid uit voor deze rapporten die veel sneller de aandacht op het fenomeen vestigden dan het wetenschappelijke proces kan.

“Het tempo van de ontwikkeling op dit gebied is zo snel dat het misschien niet verrassend is dat de academische wereld het niet noodzakelijkerwijs heeft kunnen bijhouden”, zei Morrin.

Morrin suggereert ook voorzichtiger bewoordingen dan ‘AI-psychose’ of ‘AI-geïnduceerde psychose’ – uitdrukkingen die vaak voorkomen in media als NPR, New York Times En de voogd. Onderzoekers zien dat mensen in waanvoorstellingen vervallen door het gebruik van kunstmatige intelligentie, maar tot nu toe is er geen bewijs dat chatbots verband houden met andere psychotische symptomen zoals hallucinaties of ‘denkstoornissen’, die bestaan ​​uit ongeorganiseerd denken en spreken.

Veel onderzoekers zijn ook van mening dat het onwaarschijnlijk is dat AI waanvoorstellingen zou kunnen veroorzaken bij mensen die er niet al kwetsbaar voor waren. Om deze reden zei Morrin dat ‘AI-geassocieerde wanen’ ‘misschien een meer agnostische term’ is.

Dr. Kwame McKenzie, hoofdwetenschapper bij het Centrum voor Verslaving en Geestelijke Gezondheid Gezondheidzegt: “Het kan zijn dat individuen in de vroege stadia van de ontwikkeling van een psychose meer risico lopen”.

Psychotisch denken is iets dat zich in de loop van de tijd ontwikkelt en niet lineair is, en veel mensen met “pre-psychotisch denken ontwikkelen zich niet tot psychotisch denken”, legde McKenzie uit.

Dr. Ragy Girgis, hoogleraar klinische psychiatrie aan Columbia University, herhaalt de bezorgdheid dat chatbots psychotisch denken kunnen verergeren. Voordat iemand een regelrechte waanvoorstelling ontwikkelt, zal hij of zij vaak ‘verzachte wanen’ hebben, zegt hij, wat betekent dat hij er niet 100% zeker van is dat zijn waanvoorstelling waar is. Girgis zei dat het ‘worst case scenario’ is wanneer een verzwakte waanvoorstelling een volwaardige overtuiging wordt, ‘en dat is wanneer bij iemand de diagnose van een psychotische stoornis wordt gesteld – het is onomkeerbaar’.

Met name mensen die kwetsbaar zijn voor psychotische stoornissen hebben media gebruikt om waanvoorstellingen te versterken lang voordat AI-technologie bestond.

“Mensen hebben al vóór de industriële revolutie waanvoorstellingen over technologie gehad”, zegt Morrin. Terwijl mensen in het verleden misschien YouTube-video’s of de inhoud van hun plaatselijke bibliotheek moesten doorzoeken om hun waanvoorstellingen te versterken, kunnen chatbots die versterking bieden in een veel snellere en meer geconcentreerde dosis. Hun interactieve karakter kan ook ‘het proces versnellen’ van verergering van psychotische symptomen, aldus dr. Dominic Oliver, onderzoeker aan de Universiteit van Oxford.

“Je hebt iets dat terugspreekt, met je in contact komt en probeert een relatie met je op te bouwen”, zei Oliver.

Girgi’s onderzoek gevonden “de betaalde versies en nieuwere versies (van chatbots) doen het beter dan de oudere versies” als ze reageren op duidelijke wanen, “hoewel ze het allemaal slecht doen”. Toch suggereert het dat deze modellen anders werken: “AI-bedrijven zouden mogelijk kunnen weten hoe ze hun chatbots moeten programmeren om veiliger te zijn en waanvoorstellingen versus niet-waanvoorstellingen kunnen identificeren, omdat ze dat doen.”

In een verklaring zegt OpenAI dat ChatGPT de professionele geestelijke gezondheidszorg niet mag vervangen en waar het bedrijf mee samenwerkt 170 deskundigen op het gebied van de geestelijke gezondheidszorg om GPT 5 veiliger te maken. GPT 5 heeft dat nog steeds problematische antwoorden gegeven op aanwijzingen die wijzen op crises op het gebied van de geestelijke gezondheidszorg. OpenAI zei het blijft zijn modellen verbeteren met de hulp van deskundigen.

Anthropic reageerde niet op het verzoek van de Guardian om commentaar.

Het creëren van effectieve bescherming tegen waanvoorstellingen kan moeilijk zijn, zei Morrin, omdat “als je werkt met mensen met waanintensieve overtuigingen, als je iemand rechtstreeks uitdaagt en hen onmiddellijk vertelt dat ze helemaal ongelijk hebben, de kans het grootst is dat ze zich van je terugtrekken en sociaal geïsoleerder raken.” In plaats daarvan is het belangrijk om een ​​goed evenwicht te vinden waarbij je probeert de bron van de waanvoorstelling te begrijpen zonder deze aan te moedigen – dat kan meer zijn dan een chatbot aankan.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in