Home Nieuws Uit onderzoek blijkt dat het vragen van AI om advies je een...

Uit onderzoek blijkt dat het vragen van AI om advies je een slechter mens kan maken

4
0
Uit onderzoek blijkt dat het vragen van AI om advies je een slechter mens kan maken

Of we het nu leuk vinden of niet, AI is de werkplek geïnfiltreerd en medewerkers staan ​​onder druk om het te gebruiken. Echter, volgens een nieuwe studiemisschien wil je de AI niet vragen om je te helpen bij het omgaan met zaken van het hart.

De tweedelige studie, getiteld ‘Sycophantic AI Decreases Prosocial Intentions and Promotes Addiction’, werd onlangs gepubliceerd in Wetenschap. Uit het experiment bleek dat het gebruik van chatbots voor persoonlijk advies en het navigeren door emotionele situaties schadelijk kan zijn, omdat het systeem is ontworpen om mensen te vertellen wat ze willen horen. Het gebruik van chatbots kan verontrustend gedrag versterken in plaats van mensen te helpen verantwoordelijkheid te nemen voor de schade en zich te verontschuldigen.

Een recente Cognitieve FX-enquête ontdekte dat ongeveer 38% van de Amerikanen wekelijks AI-chatbots gebruikt voor emotionele steun, terwijl een recente Pew Research-enquête ontdekte dat 12% van de tieners kunstmatige intelligentie gebruikt voor counseling. Volgens één KFF-enquête, Het ontbreken van een verzekering stimuleert ook de consumptie, waarbij onverzekerde volwassenen vaker dan degenen met een verzekering er gebruik van maken (30% versus 14%).

Voor de laatste studie keken de onderzoekers naar de prevalentie van sycofantie, gedefinieerd als “de neiging van op AI gebaseerde grote taalmodellen om het buitensporig eens te zijn met gebruikers, ze te vleien of te valideren” in elf toonaangevende AI-modellen, waaronder GPT-4o, Claude en Google’s Gemini.

De onderzoekers voerden drie experimenten uit met 2.405 deelnemers. In het eerste onderzoek gaven de onderzoekers de AI een reeks vragen waarin om advies en input werd gevraagd reddit’s Am I the Asshole (AITA) forumen een reeks beschrijvingen van het willen schaden van andere mensen of zichzelf, en vergeleken hoe de AI reageerde op menselijke beoordelingen. Over het geheel genomen hadden de modellen gemiddeld 49% meer kans dan mensen om de acties van een gebruiker te ondersteunen, zelfs als deze schadelijk of illegaal waren.

In het tweede onderzoek stelden de deelnemers zich voor dat ze zich in een scenario bevonden dat werd beschreven door een AITA-post waarin hun acties als verkeerd werden beoordeeld. Vervolgens lezen ze een antwoord geschreven door een mens dat zegt dat ze ongelijk hadden, of een antwoord geschreven door een AI dat zegt dat ze gelijk hadden. In het derde onderzoek bespraken de deelnemers een echt conflict met een AI of een mens.

Zorgwekkend genoeg vertrouwden de deelnemers op reacties van sycofantische AI ​​die hun acties valideerden, maar gaven ze er ook de voorkeur aan. Ze raakten er ook meer van overtuigd dat ze gelijk hadden in hun eerste acties, waardoor ze in wezen de overtuigingen bevestigden die ze al hadden, in plaats van dat ze door de chatbot werden uitgedaagd om anders over de situatie te denken. Uit het onderzoek bleek dat het bevestigen van hun overtuigingen betekende dat ze zich minder snel verontschuldigden nadat ze met de chatbot hadden gesproken.

“In onze menselijke experimenten verminderde zelfs een enkele interactie met de sycofantische AI ​​de bereidheid van de deelnemers om verantwoordelijkheid te nemen en interpersoonlijke conflicten te herstellen, terwijl hun eigen overtuiging dat ze gelijk hadden, werd vergroot”, legde de studie uit.

Hoewel het inwinnen van advies van AI niet nieuw is, laat het onderzoek zien hoe schadelijk het kan zijn. Zoals algoritmen voor sociale media creëer betrokkenheid bij enthousiaste gebruikersAI merkt ons vermogen om ons te verontschuldigen en verantwoordelijkheid te nemen voor het kwetsen van iemand. Zoals de auteurs van het onderzoek opmerkten, betekent dit: “De functie die schade veroorzaakt, stimuleert ook betrokkenheid.”

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in