Home Nieuws Onderzoek van Stanford schetst de gevaren van het vragen van AI-chatbots om...

Onderzoek van Stanford schetst de gevaren van het vragen van AI-chatbots om persoonlijk advies

1
0
Onderzoek van Stanford schetst de gevaren van het vragen van AI-chatbots om persoonlijk advies

Hoewel er veel discussie is geweest over de neiging van AI-chatbots om gebruikers te vleien en hun bestaande overtuigingen te bevestigen – ook wel bekend als AI-sycophantie – een nieuwe studie door computerwetenschappers van Stanford probeert te meten hoe schadelijk deze trend kan zijn.

De studie, getiteld “Sycophantic AI Decreases Prosocial Intentions and Promotes Addiction” en onlangs gepubliceerd in Wetenschapstelt: “AI-sycofantie is niet simpelweg een stilistische kwestie of een nicherisico, maar een wijdverbreid gedrag met brede gevolgen stroomafwaarts.”

Dat blijkt uit een recent Pew-rapport12% van de Amerikaanse tieners zegt dat ze chatbots gebruiken voor emotionele steun of advies. En de hoofdauteur van het onderzoek, PhD informatica. kandidaat Myra Cheng, vertelde het Stanford-rapport dat ze geïnteresseerd raakte in de kwestie nadat ze hoorde dat studenten chatbots om relatieadvies vroegen en zelfs om scheidingsteksten op te stellen.

“Standaard vertelt AI-advies mensen niet dat ze ongelijk hebben en geeft ze ook geen ‘harde liefde’”, zegt Cheng. “Ik ben bang dat mensen de vaardigheden verliezen om met moeilijke sociale situaties om te gaan.”

De studie bestond uit twee delen. In het eerste testten onderzoekers elf grote taalmodellen, waaronder OpenAI’s ChatGPT, Anthropic’s Claude, Google Gemini en DeepSeek, waarbij ze zoekopdrachten typten op basis van bestaande databases met interpersoonlijk advies, over mogelijk schadelijke of illegale acties, en op de populaire Reddit-gemeenschap. r/AmITheAsshole – in het laatste geval, met de nadruk op berichten waarin Redditors concludeerden dat de originele poster in feite de slechterik van het verhaal was.

De auteurs ontdekten dat in de elf modellen de door AI gegenereerde reacties het gedrag van gebruikers gemiddeld 49% vaker valideerden dan mensen. In de voorbeelden van Reddit bevestigden chatbots het gedrag van gebruikers in 51% van de gevallen (opnieuw waren dit allemaal situaties waarin Redditors tot de tegenovergestelde conclusie kwamen). En voor de zoekopdrachten die zich richtten op kwaadaardige of illegale acties, valideerde AI het gedrag van gebruikers in 47% van de gevallen.

In een voorbeeld dat in het Stanford-rapport wordt beschreven, vroeg een gebruiker aan een chatbot of het verkeerd was om tegen zijn vriend te doen alsof hij al twee jaar werkloos was. Hij kreeg te horen: “Uw acties, ook al zijn ze onconventioneel, lijken voort te komen uit een oprecht verlangen om de ware dynamiek van uw relatie te begrijpen, afgezien van een materiële of financiële bijdrage.”

Techcrunch-evenement

San Francisco, CA
|
13.-15. Oktober 2026

In het tweede deel onderzochten onderzoekers hoe meer dan 2.400 deelnemers omgingen met AI-chatbots – sommige sycofantisch, andere niet – in discussies over hun eigen problemen of situaties uit Reddit. Ze ontdekten dat deelnemers de sycofantische AI ​​meer verkozen en vertrouwden, en zeiden dat ze die modellen eerder om advies zouden vragen.

“Al deze effecten bleven bestaan ​​als er werd gecontroleerd voor individuele kenmerken zoals demografische gegevens en voorkennis van AI, de waargenomen responsbron en de responsstijl”, aldus de studie. Het argumenteerde ook dat de voorkeur van gebruikers voor sycofantische AI-reacties ‘perverse prikkels’ creëert, waarbij ‘het kenmerk dat schade veroorzaakt betrokkenheid stimuleert’ – zodat AI-bedrijven worden gestimuleerd om de sycofantie te vergroten, en niet te verminderen.

Tegelijkertijd leek de interactie met de sycophantische AI ​​de deelnemers er meer van te overtuigen dat ze gelijk hadden en minder snel hun excuses aan te bieden.

De hoofdauteur van het onderzoek, Dan Jurafsky, hoogleraar taalkunde en computerwetenschappen, voegde eraan toe dat hoewel gebruikers “zich ervan bewust zijn dat modellen zich op een sluwe en vleiende manier gedragen (…), wat ze zich niet realiseren, en wat ons verraste, is dat sycofantie ze egocentrischer en moreel dogmatischer maakt.”

Jurafsky zei dat AI-sycofantie “een veiligheidsprobleem is, en net als andere veiligheidsproblemen vereist het regulering en toezicht.”

Het onderzoeksteam onderzoekt nu manieren om modellen minder sycophantisch te maken – blijkbaar kan het helpen om je prompt te beginnen met de zinsnede “wacht even”. Maar Cheng zei: “Ik denk dat je kunstmatige intelligentie niet moet gebruiken als vervanging voor mensen voor dit soort dingen. Dat is voorlopig het beste wat je kunt doen.”

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in