Twee nieuwe experimenten laten zien dat de meeste mensen denk er niet eens over na dat een persoonlijke boodschap kan zijn AI-gegenereerd, zelfs als ze er zelf gebruik van maken kunstmatige intelligentie schrijven.
Om te zien hoe mensen iemand beoordelen op basis van wat ze schrijven leeftijd van ChatGPTmijn collega Jiaqi Zhu en ik rekruteerde meer dan 1.300 in de VS gevestigde deelnemers van 18 tot 84 jaar en liet hen door AI gegenereerde berichten zien als verontschuldiging in een e-mail. We verdeelden onze vrijwilligers in vier groepen: Sommige mensen zagen de berichten zonder informatie over wie of wat ze schreef, zoals in het dagelijks leven. Anderen kregen te horen dat de berichten beslist door een mens waren geschreven en zeker door AI waren gegenereerd, of dat de bron een van beide zou kunnen zijn.
We vonden een duidelijke “AI-openbaarmakingsstraf.” Als mensen wisten dat een bericht door AI was gegenereerd, beoordeelden ze de afzender veel negatiever (‘lui’, ‘onoprecht’, ‘gebrek aan inspanning’) dan wanneer ze geloofden dat dezelfde tekst door iemand was geschreven (‘oprecht’, ‘dankbaar’, ‘attent’).
Maar hier is de twist: de deelnemers aan wie niets over auteurschap werd verteld, vormden indrukken die net zo positief waren als die van mensen aan wie werd verteld dat de berichten echte mensen waren.
Dit totale gebrek aan scepsis verraste ons – en roept nieuwe vragen op. Misschien waren de deelnemers niet voldoende bekend met AI om te beseffen dat de huidige modellen gedetailleerde en gepersonaliseerde boodschappen kunnen produceren. (Dat kunnen ze.) Of misschien hebben de deelnemers zelf nog nooit AI gebruikt. (Waarschijnlijk wel.) Daarom hebben we ook getest of het eigen AI-gebruik van de deelnemers de manier veranderde waarop zij afzenders beoordeelden.
Tot onze nog grotere verbazing vonden we weinig of geen effect. Mensen die generatieve AI vrij vaak gebruiken in hun dagelijks leven – tenminste om de dag – gestrafte AI gebruiken iets minder wanneer AI-auteurschap werd onthuld, vergeleken met mensen die nooit of zelden AI gebruiken. Maar de deelnemers waren standaard niet sceptischer: als het auteurschap niet werd onthuld, hadden zware AI-gebruikers, lichte AI-gebruikers en niet-gebruikers allemaal de neiging om aan te nemen dat de tekst door een persoon was geschreven en vormden ze in grote lijnen dezelfde indrukken.
Waarom het ertoe doet
Gebrek aan scepticisme en gebrek aan negatieve indrukken zijn belangrijk omdat mensen dat wel doen sociale oordelen voortdurend uit tekst. Ontvangers overwegen de tijd en moeite te nemen om schriftelijke berichten te verzenden, zoals een inzicht in de oprechtheid, authenticiteit of competentie van de auteur, en deze indrukken bepalen de beslissingen van mensen op het gebied van vriendschappen, daten en werk.
Toch laten onze belangrijkste bevindingen een opvallende discrepantie zien: mensen vermoeden het gebruik van AI meestal niet, tenzij dit het geval is is duidelijk. Deze onwetendheid creëert een moreel dilemma: mensen die in het geheim kunstmatige intelligentie gebruiken, kunnen van de voordelen genieten terwijl ze vrijwel geen risico lopen op ontdekking. Ondertussen komen mensen, paradoxaal genoeg, naar voren en geven toe dat ze AI gebruiken een reputatiehit ondergaan.

Na verloop van tijd zou een gebrek aan scepticisme en bewustzijn de betekenis van schrijven in het dagelijks leven kunnen veranderen. Lezers kunnen leren schrijven als één geheel te behandelen minder betrouwbaar signaleer iemands karakter of inspanning, en vertrouw in plaats daarvan op andere vormen van communicatie. Het wijdverbreide gebruik van kunstmatige intelligentie heeft er bijvoorbeeld al toe geleid dat werkgevers de waarde ervan buiten beschouwing hebben gelaten sollicitatiebrieven van sollicitanten. In plaats daarvan zijn ze dat meer vertrouwen op persoonlijke aanbevelingen van de huidige supervisor van een sollicitant of op verbindingen die zijn gelegd via persoonlijke netwerken.
Welk ander onderzoek wordt er gedaan
Andere onderzoekers hebben een breed scala aan negatieve indrukken gedocumenteerd van mensen die hun gebruik van kunstmatige intelligentie openbaar maken. Uit onderzoek blijkt dat sollicitanten erdoor werken minder wenselijk en medewerkers denken minder competent. Lezers van creatief schrijven beschouwen AI-gebruikers als minder creatief en onwettig. Mensen kijken persoonlijke excuses En de excuses van het bedrijf die voortkomen uit AI als minder efficiënt. Algemene openbaarmaking van AI-gebruik vermindert het vertrouwen en ondermijnt de legitimiteit.
Maar zonder openbaarmaking is er duidelijk bewijs dat de meeste mensen dat wel doen kan zich niet betrouwbaar registreren AI gegenereerde tekst, zelfs met gebruik van detectiemiddelenvooral wanneer tekst is een mengsel van door mensen geschreven en door AI gegenereerde inhoud. Zelfs als mensen vertrouwen hebben in hun vermogen om AI-tekst te herkennen, is hun vertrouwen misschien niets meer dan een zelfbevestigende illusie.
Wat is het volgende
Hoewel onze experimenten geen vermoedens over het gebruik van kunstmatige intelligentie aan het licht hebben gebracht, betekent dit niet dat mensen het in de echte wereld nooit vermoeden. In sommige omgevingen zijn mensen misschien al huiverig voor AI. Gebruik in de academische wereld is een duidelijk voorbeeld. In onze volgende onderzoeken willen we begrijpen wanneer en waarom mensen op natuurlijke wijze het gebruik van AI beginnen te vermoeden, en wat de verschuiving tussen vertrouwen en twijfel doet veranderen.
Als u wilt dat uw persoonlijke boodschap oprecht overkomt, kunt u tot die tijd het beste bellen, een voicemail achterlaten of, nog beter, deze persoonlijk uitspreken.
De Onderzoek overzicht is een kort aanbod van interessant academisch werk.
De wolken van anderen is assistent-professor in de psychologie bij Universiteit van Michigan.
Dit artikel is opnieuw gepubliceerd van Het gesprek onder een Creative Commons-licentie. Lezen origineel artikel.



