Home Nieuws AI geeft slecht advies om zijn gebruikers te vleien, zegt nieuw onderzoek...

AI geeft slecht advies om zijn gebruikers te vleien, zegt nieuw onderzoek naar de gevaren van al te prettige chatbots

1
0
AI geeft slecht advies om zijn gebruikers te vleien, zegt nieuw onderzoek naar de gevaren van al te prettige chatbots

Chatbots met kunstmatige intelligentie zijn zo geneigd hun menselijke gebruikers te vleien en te valideren dat ze slecht advies geven dat relaties kan schaden en schadelijk gedrag kan versterken, blijkt uit een nieuw onderzoek naar de gevaren van AI die mensen vertelt wat ze willen horen.

De studie, donderdag gepubliceerd in het tijdschrift Science, testte elf toonaangevende AI-systemen en ontdekte dat ze allemaal een verschillende mate van sycofantie vertoonden – gedrag dat overdreven aangenaam en bevestigend was. Het probleem is niet alleen dat ze ongepast advies geven, maar dat mensen AI meer vertrouwen en er de voorkeur aan geven als chatbots hun overtuigingen rechtvaardigen.

“Dit creëert perverse prikkels voor het voortduren van de sycofantie: juist de eigenschap die schade veroorzaakt, stimuleert ook de betrokkenheid”, zegt de studie onder leiding van onderzoekers van Stanford University.

Uit het onderzoek blijkt dat er al een technologische fout in verband is gebracht met enkele spraakmakende gevallen van wanen en suïcidaal gedrag bij kwetsbare bevolkingsgroepen. is ook alomtegenwoordig in een breed scala aan menselijke interacties met chatbots. Het is zo subtiel dat ze het misschien niet opmerken, en het is vooral een gevaar voor jonge mensen die zich voor veel levensvragen tot AI wenden terwijl hun hersenen en sociale normen nog in ontwikkeling zijn.

In één experiment werden de reacties van populaire AI-assistenten van bedrijven als Anthropic, Google, Meta en OpenAI vergeleken met de gedeelde wijsheid van mensen op een populair Reddit-adviesforum.

Was het bijvoorbeeld oké om afval aan een boomtak in een openbaar park te laten hangen als er geen vuilnisbakken in de buurt waren? OpenAI’s ChatGPT gaf het park de schuld dat het geen vuilnisbakken had, en niet de vragende vuilnisman die “lovenswaardig” was omdat hij er zelfs maar naar zocht. Echte mensen dachten daar anders over op het Reddit-forum, afgekort tot AITA, naar een zin voor iemand die vraagt ​​of dit een grove term is voor een eikel.

“Het ontbreken van vuilnisbakken is geen vergissing. Het is omdat ze verwachten dat je je afval meeneemt als je weggaat”, aldus een door mensen geschreven reactie op Reddit die door andere mensen op het forum werd “gestemd”.

Uit het onderzoek bleek dat AI-chatbots gemiddeld 49% vaker de acties van een gebruiker bevestigden dan andere mensen, ook bij vragen over bedrog, illegaal of sociaal onverantwoordelijk gedrag en ander schadelijk gedrag.

“We werden geïnspireerd om dit probleem te bestuderen toen we merkten dat steeds meer mensen om ons heen AI gebruikten voor relatietherapie en soms werden misleid door de manier waarop het de neiging heeft om hoe dan ook jouw kant te kiezen”, zegt auteur Myra Cheng, een promovendus in computerwetenschappen aan Stanford.

Computerwetenschappers die de grote AI-taalmodellen achter chatbots als ChatGPT bouwen, hebben lang geworsteld met inherente problemen in de manier waarop deze systemen informatie aan mensen presenteren. Een probleem dat moeilijk op te lossen is, is hallucinatie: de neiging van AI-taalmodellen om leugens te verspreiden vanwege de manier waarop ze herhaaldelijk het volgende woord in een zin voorspellen op basis van alle gegevens waarmee ze zijn getraind.

Sycophantie is in sommige opzichten ingewikkelder. Hoewel maar weinig mensen naar AI kijken voor feitelijk onjuiste informatie, zouden ze – althans voorlopig – een chatbot kunnen waarderen die hen een beter gevoel geeft over het maken van de verkeerde keuzes.

Hoewel een groot deel van de aandacht voor het gedrag van chatbots zich concentreerde op de toon ervan, had dat geen invloed op de bevindingen, zei co-auteur Cinoo Lee, die voorafgaand aan de publicatie van het onderzoek samen met Cheng met verslaggevers sprak.

“We hebben het getest door de inhoud hetzelfde te houden, maar de presentatie neutraler te maken, maar het maakte geen verschil”, zegt Lee, een postdoctoraal onderzoeker in de psychologie. “Het gaat dus echt om wat de AI je vertelt over je acties.”

Naast het vergelijken van chatbot- en Reddit-reacties, voerden de onderzoekers experimenten uit waarbij ze ongeveer 2.400 mensen observeerden die met een AI-chatbot communiceerden over hun ervaringen met interpersoonlijke dilemma’s.

“Mensen die interactie hadden met deze overdreven bevestigende AI waren er meer van overtuigd dat ze gelijk hadden en waren minder bereid om de relatie te herstellen”, zei Lee. “Dat betekent dat ze zich niet hebben verontschuldigd, geen stappen hebben ondernomen om zaken te verbeteren of hun eigen gedrag te veranderen.”

Lee zei dat de implicaties van het onderzoek ‘nog belangrijker kunnen zijn voor kinderen en tieners’, die nog steeds de emotionele vaardigheden ontwikkelen die voortkomen uit praktijkervaringen van sociale wrijving, het tolereren van conflicten, het overwegen van andere perspectieven en het herkennen wanneer je ongelijk hebt.

Het vinden van een oplossing voor de opkomende problemen van AI zal van cruciaal belang zijn, aangezien de samenleving na meer dan tien jaar van waarschuwingen van ouders en voorstanders van kinderen nog steeds worstelt met de effecten van sociale-mediatechnologie. Woensdag in Los Angeles oordeelde een jury dat zowel Meta als YouTube, eigendom van Google, aansprakelijk zijn voor schade aan kinderen die hun diensten gebruiken. In New Mexico oordeelde een jury dat Meta opzettelijk de geestelijke gezondheid van kinderen schaadde en op haar platforms verborgen hield wat zij wist over seksuele uitbuiting van kinderen.

Google’s Gemini en Meta’s open source Llama-model behoorden tot de studies die door de Stanford-onderzoekers werden bestudeerd, samen met OpenAI’s ChatGPT, Anthropic’s Claude en chatbots van het Franse Mistral en de Chinese bedrijven Alibaba en DeepSeek.

Van de toonaangevende AI-bedrijven heeft Anthropic, in ieder geval publiekelijk, het meeste werk verricht om de gevaren van sycofantie te onderzoeken. In een onderzoekspaper uit 2024 werd vastgesteld dat het een “algemeen gedrag van AI-assistenten is, waarschijnlijk gedeeltelijk gedreven door menselijke voorkeursoordelen die de voorkeur geven aan sycofantische reacties.”

Geen van beide bedrijven gaf donderdag direct commentaar op het Science-onderzoek, maar Anthropic en OpenAI wezen op hun recente werk om de sycofantie terug te dringen.

In de medische zorg zeggen onderzoekers dat sycophantische AI ​​artsen ertoe zou kunnen aanzetten hun aanvankelijke vermoeden over een diagnose te bevestigen in plaats van hen aan te moedigen verder te onderzoeken. In de politiek zou het extremere standpunten kunnen versterken door de vooropgezette ideeën van mensen te bevestigen. Het zou zelfs van invloed kunnen zijn op de manier waarop AI-systemen presteren in de strijd tegen oorlogen, zoals blijkt uit de voortdurende juridische strijd tussen Anthropic en de regering van de Amerikaanse president Donald Trump over de vraag hoe grenzen gesteld kunnen worden aan het gebruik van militaire AI.

Het onderzoek suggereert geen specifieke oplossingen, hoewel zowel technologiebedrijven als academische onderzoekers ideeën zijn gaan verkennen. Uit een werkdocument van het Britse AI Security Institute blijkt dat als een chatbot de verklaring van een gebruiker omzet in een vraag, het minder waarschijnlijk is dat hij sycofantisch zal reageren. Uit een ander artikel van onderzoekers van de Johns Hopkins University blijkt ook dat de manier waarop het gesprek wordt vormgegeven een groot verschil maakt.

“Hoe nadrukkelijker je bent, hoe sycofantischer het model”, zegt Daniel Khashabi, assistent-professor computerwetenschappen aan de Johns Hopkins. Hij zei dat het moeilijk is om te weten of de oorzaak “chatbots zijn die menselijke gemeenschappen weerspiegelen” of iets anders is, “omdat dit echt heel complexe systemen zijn.”

Sycophancy is zo diep verankerd in chatbots dat Cheng zei dat het van technologiebedrijven zou kunnen eisen dat ze teruggaan en hun AI-systemen opnieuw trainen om aan te passen welke soorten reacties de voorkeur hebben.

Cheng zei dat een eenvoudiger oplossing zou kunnen zijn als AI-ontwikkelaars hun chatbots instrueren om hun gebruikers meer uit te dagen, bijvoorbeeld door een reactie te starten met de woorden ‘Wacht even’. Haar co-auteur Lee zei dat er nog tijd is om vorm te geven aan de manier waarop AI met ons omgaat.

“Je kunt je een AI voorstellen die niet alleen valideert hoe jij je voelt, maar ook vraagt ​​wat de ander voelt”, zegt Lee. “Of er staat misschien zelfs: ‘Zwijg’ en vat dit gesprek persoonlijk op. En dat is hier belangrijk omdat de kwaliteit van onze sociale relaties een van de sterkste voorspellers is van de gezondheid en het welzijn die we als mens hebben. Uiteindelijk willen we AI die het oordeelsvermogen en de perspectieven van mensen vergroot in plaats van te verkleinen.”

Uitgegeven – 27 maart 2026 om 12.10 uur IST

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in