Het informeren van mensen over politieke deepfakes door middel van op tekst gebaseerde informatie en interactieve games verbetert het vermogen van mensen om deze te herkennen AI-gegenereerde video en audio die politici valselijk weergeven, aldus een studie mijn collega’s en ik hebben de leiding genomen.
Hoewel onderzoekers zich primair hebben gericht op het bevorderen van technologieën om deepfakes te detecteren, is er ook behoefte aan benaderingen die zich richten op de potentiële doelgroepen voor politieke deepfakes. Deepfakes worden steeds moeilijker te identificeren, verifiëren en bestrijden naarmate de technologie voor kunstmatige intelligentie verbetert.
Is het mogelijk om het publiek te inenten om deepfakes te detecteren en daardoor hun bewustzijn te vergroten vóór blootstelling? Mijn recent onderzoek met echtgenoot mediastudies onderzoekers Zong Jung Kim En Alex Scott door Visueel Medialab van de Universiteit van Iowa hebben ontdekt dat inentingsberichten mensen kunnen helpen deepfakes te herkennen en mensen zelfs meer bereid kunnen maken deze aan het licht te brengen.
De inentingstheorie stelt dat psychologische inenting – analoog aan het ontvangen van een medische vaccinatie – mensen kan immuniseren tegen overredingsaanvallen. Het idee is dat door mensen uit te leggen hoe deepfakes werken, ze bereid zullen zijn deze te herkennen als ze ze tegenkomen.
IN ons experimentwe hebben een derde van de deelnemers blootgesteld aan passieve inenting: traditionele, op tekst gebaseerde waarschuwingsberichten over de dreiging en kenmerken van deepfakes. Nog een derde onderwierpen we aan actieve inenting: een interactief spel dat deelnemers uitdaagde om deepfakes te identificeren. Het resterende derde deel kreeg geen inenting.
Deelnemers kregen vervolgens willekeurig een deepfake-video te zien met Joe Biden uitspraken doen over abortusrechten of een deepfake-video met Donald Trump verklaringen afleggen over anti-abortusrechten. We ontdekten dat beide soorten inenting effectief waren in het verminderen van de geloofwaardigheid die deelnemers aan deepfakes gaven, terwijl het bewustzijn van mensen en de intentie om er meer over te leren werd vergroot.
Waarom het ertoe doet
Deepfakes zijn dat wel een ernstige bedreiging voor de democratie omdat ze kunstmatige intelligentie gebruiken om zeer realistische nep-audio en video te creëren. Deze diepgaande vervalsingen kunnen ervoor zorgen dat politici dingen lijken te zeggen die ze nooit hebben gezegd, wat het vertrouwen van het publiek kan schaden en mensen ertoe kan brengen valse informatie te geloven. Sommige kiezers in New Hampshire ontvingen er bijvoorbeeld een telefoontjes die klonken als Joe Bidenen vertelt hen niet te stemmen bij de voorverkiezingen van de staat.
Deze deepfake-video van president Donald Trump, uit een dataset van deepfake-video’s verzameld door het MIT Media Lab, werd in dit onderzoek gebruikt om mensen te helpen dergelijke door AI gegenereerde vervalsingen op te sporen.
Nu AI-technologie steeds gebruikelijker wordt, is het vooral belangrijk om manieren te vinden om de schadelijke effecten van deepfakes te verminderen. Uit recent onderzoek blijkt dat het vaak mogelijk is om deepfakes te identificeren met behulp van factcheck-verklaringen niet erg effectiefvooral in politieke contexten. Mensen hebben de neiging om factchecks te accepteren of af te wijzen op basis van hun bestaande politieke overtuigingen. In aanvulling valse informatie verspreidt zich vaak sneller dan nauwkeurige informatie, waardoor het controleren van feiten te traag wordt om de impact van valse informatie volledig te stoppen.
Als gevolg daarvan roepen onderzoekers steeds vaker op tot nieuwe manieren om mensen voor te bereiden bij voorbaat weerstand bieden aan desinformatie. Ons onderzoek draagt bij aan de ontwikkeling van effectievere strategieën om mensen te helpen weerstand te bieden aan door AI gegenereerde desinformatie.
Welk ander onderzoek wordt er gedaan
Het meeste onderzoek naar inenting tegen desinformatie is hierop gebaseerd benaderingen van passieve mediakennis die voornamelijk tekstgebaseerde berichten bezorgen. Recente onderzoeken tonen dat echter aan actieve inenting kan effectiever zijn. Het is bijvoorbeeld aangetoond dat online games waarbij actieve deelname betrokken is, mensen helpen weerstaan aan gewelddadige extremistische boodschappen.
Bovendien heeft het meeste eerdere onderzoek zich gericht op het beschermen van mensen tegen op tekst gebaseerde verkeerde informatie. Onze studie onderzoekt in plaats daarvan de inenting tegen multimodale desinformatie, zoals deepfakes die video, audio en afbeeldingen combineren. Hoewel we verwachtten dat actieve inenting beter zou werken bij dit soort desinformatie, laten onze resultaten zien dat zowel passieve als actieve inenting mensen kan helpen om te gaan met de dreiging van deepfakes.
Wat is het volgende
Uit ons onderzoek blijkt dat inentingsberichten mensen kunnen helpen deepfakes te herkennen en te weerstaan, maar het blijft onduidelijk of deze effecten in de loop van de tijd aanhouden. In toekomstige studies zijn we van plan het langetermijneffect van inentingsberichten te onderzoeken.
We willen ook onderzoeken of inenting werkt op andere terreinen dan de politiek, waaronder de gezondheidszorg. Hoe zouden mensen bijvoorbeeld reageren als uit een deepfake blijkt dat een neparts verkeerde gezondheidsinformatie verspreidt? Zouden eerdere inentingsberichten mensen helpen dergelijke inhoud in twijfel te trekken en zich ertegen te verzetten?
De Onderzoek overzicht is een kort aanbod van interessant academisch werk.
Bingbing Zhang is assistent-professor journalistiek en massacommunicatie bij Universiteit van Iowa.
Dit artikel is opnieuw gepubliceerd van Het gesprek onder een Creative Commons-licentie. Lezen origineel artikel.



