Home Nieuws Deskundigen waarschuwen dat Trumps gebruik van AI-beelden nieuwe grenzen verlegt

Deskundigen waarschuwen dat Trumps gebruik van AI-beelden nieuwe grenzen verlegt

16
0
Deskundigen waarschuwen dat Trumps gebruik van AI-beelden nieuwe grenzen verlegt

De regering-Trump heeft zich niet teruggetrokken door AI gegenereerde afbeeldingen online delenomarmen cartoonachtige afbeeldingen en memes en promoot ze op officiële kanalen van het Witte Huis.

Maar een bewerkt – en realistisch – beeld van een burgerrechtenadvocaat Levy Armstrong voor sommigen in tranen na zijn arrestatie, waardoor er nieuwe alarmbellen rinkelen over hoe de regering de grenzen tussen wat echt en nep is vervaagt.

Het account van minister van Binnenlandse Veiligheid Kristi Noem is geplaatst originele afbeelding van de arrestatie van Levy Armstrong voordat het officiële Witte Huis-account een gewijzigde foto plaatste waarop ze huilde. Het verwerkte beeld maakt deel uit van een stortvloed aan AI-bewerkte beelden die sindsdien door het hele politieke spectrum zijn gedeeld fatale schietpartijen van Renee Good en Alex Pretti door Amerikaanse grenspolitieagenten in Minneapolis

Het gebruik van kunstmatige intelligentie door het Witte Huis heeft desinformatie-experts echter verontrust, die vrezen dat de verspreiding van door AI gegenereerde of bewerkte beelden de perceptie van het publiek over de waarheid aantast en wantrouwen zaait.

Als reactie op kritiek op het bewerkte beeld van Levy Armstrong verdubbelden functionarissen van het Witte Huis de positie van adjunct-communicatiedirecteur Kaelan Dorr schrijft bij X dat “de memes zullen doorgaan.” Abigail Jackson, plaatsvervangend persvoorlichter van het Witte Huis, heeft ook een bericht gedeeld spot met de kritiek.

David Rand, hoogleraar informatica aan de Cornell University, zegt dat het gewijzigde beeld een meme noemen “zeker een poging lijkt om er een grap of een humoristische post van te maken, zoals hun eerdere cartoons. Dit is waarschijnlijk bedoeld om hen te beschermen tegen kritiek vanwege het plaatsen van gemanipuleerde media.” Hij zei dat het doel van het delen van de gewijzigde arrestatiefoto ‘veel dubbelzinniger’ lijkt cartoonachtige beelden de administratie heeft eerder gedeeld.

Memes hebben altijd gelaagde boodschappen met zich meegebracht die grappig of informatief zijn voor mensen die ze begrijpen, maar die voor buitenstaanders niet te ontcijferen zijn. Met AI verbeterde of bewerkte afbeeldingen zijn slechts de nieuwste tool die het Witte Huis gebruikt om het segment van de achterban van Trump te bereiken dat veel tijd online doorbrengt, zegt Zach Henry, een Republikeinse communicatieadviseur die Total Virality heeft opgericht, een influencer. marketing stevig.

“Mensen die definitief online zijn, zullen het zien en onmiddellijk herkennen als een meme”, zei hij. “Je grootouders zien het misschien en begrijpen de meme niet, maar omdat het er echt uitziet, zorgen ze ervoor dat ze er hun kinderen of kleinkinderen naar vragen.”

Des te beter als het een gewelddadige reactie uitlokt waardoor het viraal gaat, zei Henry, die over het algemeen het werk van het socialemediateam van het Witte Huis prees.

Het creëren en verspreiden van gewijzigde beelden, vooral wanneer deze door geloofwaardige bronnen worden gedeeld, “kristalliseert een idee van wat er gebeurt in plaats van te laten zien wat er werkelijk gebeurt”, zegt Michael A. Spikes, professor aan de Northwestern University en onderzoeker op het gebied van nieuwsmediageletterdheid.

“De overheid moet een plaats zijn waar je de informatie kunt vertrouwen, waar je kunt zeggen dat deze juist is, omdat zij de verantwoordelijkheid hebben om dat te doen”, zei hij. “Door dit soort inhoud te delen en dit soort inhoud te creëren… ondermijnt het het vertrouwen – hoewel ik altijd een beetje sceptisch ben over de term vertrouwen – maar ook het vertrouwen dat we zouden moeten hebben in onze federale overheid om ons te voorzien van accurate, geverifieerde informatie. Het is een echt verlies, en het baart me echt grote zorgen.”

Spikes zei dat hij de ‘institutionele crises’ rondom het wantrouwen jegens nieuwsorganisaties en het hoger onderwijs al ziet en dat hij van mening is dat dit gedrag van de officiële kanalen deze problemen aanwakkert.

Ramesh Srinivasan, professor aan de UCLA en gastheer van de podcast van Utopia, zei dat veel mensen zich nu afvragen waar ze terecht kunnen voor ‘betrouwbare informatie’. “AI-systemen zullen deze problemen van gebrek aan vertrouwen, een gebrek aan zelfs maar begrip van wat als realiteit, waarheid of bewijs kan worden beschouwd, alleen maar verergeren, versterken en versnellen”, zei hij.

Srinivasan zei dat hij van mening is dat het Witte Huis en andere functionarissen die door AI gegenereerde inhoud delen, niet alleen gewone mensen uitnodigen om soortgelijke inhoud te blijven posten, maar ook toestemming geven aan anderen in vertrouwens- en machtsposities, zoals politici, om ongelabelde synthetische inhoud te delen. Hij voegde eraan toe dat, gezien het feit dat sociale-mediaplatforms de neiging hebben om op algoritmische wijze extreme en samenzweerderige inhoud te bevoorrechten – die tools voor het genereren van AI gemakkelijk kunnen creëren – “we voor een groot aantal uitdagingen staan.”

Een toevloed van door AI gegenereerde video’s over immigratie- en douanehandhavingsacties, protesten en interacties met burgers heeft zich al verspreid op sociale media. Na Renée goed werd neergeschoten door een ICE-officier terwijl ze in haar auto zat, begonnen verschillende door AI gegenereerde video’s te circuleren van vrouwen die wegreden van ICE-agenten die hen zeiden te stoppen. Er circuleren ook veel verzonnen video’s van immigratie-invallen en van mensen die ICE-agenten confronteren, vaak tegen hen schreeuwend of voedsel in hun gezicht gooien.

Jeremy Carrasco, een maker van inhoud dat gespecialiseerd is in mediageletterdheid en het ontmaskeren van virale AI-video’s, zei dat het grootste deel van deze video’s waarschijnlijk afkomstig is van accounts die zich bezighouden met ‘engagementfarming’, of die klikken willen genereren door inhoud te genereren met populaire trefwoorden en zoektermen zoals ICE. Maar hij zei ook dat de video’s veel aandacht krijgen van mensen die tegen ICE en DHS zijn en ze zouden kunnen zien als ‘fanfictie’ of als ‘wishful thinking’, in de hoop dat ze echte tegenstand tegen de organisaties en hun functionarissen zien.

Toch gelooft Carrasco ook dat de meeste kijkers niet kunnen zeggen of wat ze zien nep is, en vraagt ​​zich af of ze zouden weten “wat echt is of niet als het er echt toe doet, bijvoorbeeld als de inzet veel hoger is.”

Zelfs als er duidelijke tekenen zijn van AI-generatie, zoals straatnaamborden met wartaal erop of andere voor de hand liggende fouten, zou een kijker alleen in het ‘best-case scenario’ slim genoeg zijn of voldoende opletten om het gebruik van AI te detecteren.

Uiteraard beperkt deze kwestie zich niet tot nieuws rond immigratiehandhaving en protesten. Verzonnen en valse beelden na de gevangenneming van de afgezette Venezolaanse leider Nicolaas Maduro ontplofte eerder deze maand online. Deskundigen, waaronder Carrasco, zijn van mening dat de verspreiding van door AI gegenereerde politieke inhoud alleen maar gebruikelijker zal worden.

Carrasco is van mening dat de wijdverbreide implementatie van een watermerksysteem dat informatie over de oorsprong van een stukje media in de metadatalaag insluit, een stap in de richting van een oplossing zou kunnen zijn. De Coalition for Content Provenance and Authenticity heeft een dergelijk systeem ontwikkeld, maar Carrasco denkt niet dat het nog minstens een jaar breed zal worden toegepast.

‘Het zal nu voor altijd een probleem blijven’, zei hij. Ik denk niet dat mensen begrijpen hoe erg dit is.”

—Kaitlyn Huamani, AP-technologieschrijver

Associated Press-schrijvers Jonathan J. Cooper en Barbara Ortutay hebben bijgedragen aan dit rapport.



Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in