Home Nieuws Een foto van de gebombardeerde schoolmeisjesbegraafplaats in Iran ging de wereld rond....

Een foto van de gebombardeerde schoolmeisjesbegraafplaats in Iran ging de wereld rond. Was het echt of AI? | AI (kunstmatige intelligentie)

2
0
Een foto van de gebombardeerde schoolmeisjesbegraafplaats in Iran ging de wereld rond. Was het echt of AI? | AI (kunstmatige intelligentie)

Thij graaft, vers gegraven, ligt in nette rijen van twintig breed. Er zijn er al meer dan zestig uit de grond gehouwen, met een paar groepjes mensen eromheen. Op de grond verderop staan ​​er nog tientallen gemarkeerd: kleine krijtrechthoekjes, met gravers klaar om hun taak te voltooien.

De Minab-begraafplaats, gefotografeerd terwijl deze zich voorbereidt om meer dan 100 jonge meisjes van de stad te begraven, is een van de bepalende beelden van de Amerikaans-Israëlische oorlog tegen Iran, waarbij de verwoestende tol van het aantal burgerslachtoffers duidelijk wordt vastgelegd.

Maar is het echt?

Vraag het aan Gemini, de AI-service van Google, en het antwoord dat je krijgt is nee. Sterker nog: beweert Tweeling de foto is van twee jaar eerder en ruim 2.000 km verderop. In plaats van graven voor kleine meisjes die door een raket zijn gedood, toont de afbeelding “een massagraf in Kahramanmaraş, Turkije” na de aardbeving met een kracht van 7,8 op de schaal van Richter in 2023. “Dit specifieke luchtperspectief werd een van de meest wijdverspreide beelden van de ramp”, zegt Gemini, “en illustreert het verlies.”

Toen anderen dezelfde begrafenisfoto op sociale media zagen, wendden anderen zich tot X’s AI-assistent Grok om de juistheid ervan te verifiëren. Net als Gemini zal Grok je meteen verzekeren dat het beeld helemaal niet uit Iran komt – ook al komt het op een andere datum, ramp en plaats terecht. De foto is “van de Rorotan-begraafplaats in Jakarta, Indonesië – een stockfoto uit juli 2021 van massabegrafenissen van Covid. Niet Minab”, staat er.

In beide gevallen klinken de AI-antwoorden veilig: ze zijn niet dubbelzinnig en bieden zelfs ‘bronnen’ voor de originele afbeelding als je ervoor kiest ze te controleren. Volg de draad om ze te onderzoeken, maar je loopt doodlopende wegen: de afbeelding verschijnt helemaal niet, of de link verwijst naar een nieuwsbericht dat niet bestaat. Ondanks hun indruk van helderheid en precisie hebben de AI’s het eenvoudigweg bij het verkeerde eind.

De foto op het kerkhof blijkt authentiek te zijn. Wetenschappers hebben het beeld van de site vergeleken met satellietbeelden die de locatie ervan bevestigen, en er kan opnieuw naar worden verwezen met tientallen andere afbeeldingen die van dezelfde site vanuit enigszins verschillende hoeken zijn genomen en opnieuw met videobeelden – waarvan geen enkele volgens experts tekenen van geknoei of digitaal geknoei vertoont. De ‘fact check’ van Gemini en Grok is slechts één voorbeeld van een vloedgolf van door AI gegenereerde onzin – hallucinante feiten, onzinanalyses en valse beelden – die de berichtgeving over de oorlog in Iran overspoelt. Deskundigen zeggen dat het onderzoekstijd verspilt en het risico met zich meebrengt dat wreedheden worden ontkend – en dat het alarmerende zwakheden signaleert omdat mensen steeds meer afhankelijk zijn van AI-samenvattingen voor nieuws en informatie.


FVanaf de eerste dagen van de oorlog hebben factcheckers online te maken gehad met een constante stroom valse beelden. Een foto van wat volgens de Tehran Times satellietbeelden waren van een in Qatar vernietigde Amerikaanse radar ontmaskerd als een AI-nep gemaakt van oude Google Earth-afbeeldingen – de weggeefacties omvatten de auto’s, die allemaal in identieke posities stonden als de afbeelding van twee jaar eerder.

Op grote schaal verspreide beelden van Khamenei’s lichaam dat uit het puin werd gehaald, hadden ‘vertellers’, waaronder dubbele ledematen onder de reddingswerkers. “Een vervalsing die mij opviel, beweerde dat een hoge Iraanse commandant vermomd als vrouw door Teheran liep om een ​​mogelijke moordaanslag te voorkomen”, zegt Shayan Sardarizadeh, een senior journalist bij het BBC Verify-team, dat forensische technieken gebruikt om informatie te bevestigen en visueel onderzoek uit te voeren. “De straat, het gebouw op de achtergrond en de omgeving leken allemaal een realistisch tafereel in Teheran.”

Deze afbeelding, die een in Qatar vernietigde Amerikaanse radar zou tonen, werd ontmaskerd als een AI-nep. Illustratie: Teheran Times/X

Sardarizadeh zegt dat AI nu een groot deel uitmaakt van alle desinformatie die het team ontkracht – en dat aantal neemt toe. In de eerste paar weken van de oorlogen in Gaza en Oekraïne waren de meeste nepberichten die het team zag oude of niet-gerelateerde video’s of gerecyclede videogamebeelden. Nu is “bijna de helft, zo niet meer, van alle virale vervalsingen die we nu volgen en ontkrachten generatieve AI”.

Het wordt deels gedreven door het gemak waarmee iedereen nu een realistische video of afbeelding kan genereren. Maar de andere grote verschuiving is dat mensen kunstmatige intelligentie gebruiken om het nieuws samen te vatten of vragen te beantwoorden, in plaats van rechtstreeks naar de oorspronkelijke bron te gaan. De AI-cv’s van Google en Grok werden medio 2024 voor het eerst uitgerold naar het bredere internationale publiek en zijn snel wijdverspreid geworden: 65% van de mensen melden regelmatig dat ze AI-overzichten zien nieuws of andere informatie, en het percentage mensen dat zegt generatieve AI te gebruiken om informatie te verkrijgen het afgelopen jaar verdubbeld. Vaak zijn AI-samenvattingen echter gewoonweg verkeerd. Een internationaal onderzoek in 2025 ontdekte dat ongeveer de helft van alle door AI gegenereerde samenvattingen ten minste één significant sourcing- of nauwkeurigheidsprobleem had – waarbij sommige tools, zoals de populaire Gemini-interface van Google, oplopen tot 76%.

In het geval van de oorlog in Iran zeggen factcheckers dat ze een stortvloed van dit soort misleidend materiaal zien. Naast de afbeeldingen van de Minab-begraafplaats zijn er voorbeelden van hoe Grok ten onrechte aan X-gebruikers suggereerde dat videobeelden van branden in Teheran kwam eigenlijk uit LA in 2017en gebruikers die ‘AI-analyse’ aanhalen om een ​​raket die gefilmd is naast de Minab-school verkeerd te identificeren (veel munitie-experts zeggen dat het een Amerikaanse Tomahawk is, een bevinding die wordt versterkt door fragmenten die naar verluidt op de locatie zijn gevonden en interne Amerikaanse briefings over het bombardement).

“Factcheckers moeten nu regelmatig zowel een vals bericht als een misleidende claim van een chatbot met betrekking tot dat bericht aanpakken”, zegt Sardarizadeh.

Er brandt vuur langs de Koohsar Boulevard in Teheran, in een screenshot van een video verkregen van sociale media en vrijgegeven op 8 maart. Grok suggereerde aan X-gebruikers dat dergelijke beelden afkomstig waren van de branden in LA in 2017. Foto: Sociale media/Reuters

Een deel van het probleem is hoe LLM AI-modellen (zoals Grok, ChatGPT en Gemini) werken. Op een heel basaal niveau zijn het probabilistische taalmodellen die zinnen stukje bij beetje construeren op basis van welk volgend woord het meest waarschijnlijk geschikt is. Ook al levert dat proces meeslepende, gezaghebbend klinkende zinnen op, dat betekent nog niet dat de AI het materiaal dat voor zich ligt daadwerkelijk heeft geanalyseerd.

“AI wordt gezien als een alwetende entiteit met toegang tot alles, maar zonder emoties”, zegt Tal Hagin, een open-source intelligentieanalist en docent mediageletterdheid – dus mensen hebben de neiging er vertrouwen in te hebben. “Wat je gebruikt is eigenlijk een zeer geavanceerde waarschijnlijkheidsmachine, geen waarheidsbox.”

Het probleem wordt nog verergerd door de gezaghebbende manier waarop AI zijn bevindingen presenteert. Het zal gedetailleerde ‘rapporten’ genereren, inclusief namen en data, referenties en bronnen – het soort materiaal dat diepgaand onderzoek en begrip suggereert, maar in werkelijkheid hallucinant of onbestaande kan zijn. Toen de Guardian Gemini’s reactie op de Minab-foto vroeg, zei hij: “Ik denk niet dat het correct is, kun je opnieuw zoeken?” het herzag zijn bevindingen, maar naar een andere, onjuiste locatie en een ander jaar. “Mijn excuses voor het onoplettendheid. Nadat ik de foto opnieuw heb bekeken… is deze foto in november 2023 in Gaza genomen”, staat er. Vertelde dat het antwoord ook verkeerd was en dat de foto uit Iran kwam, opnieuw herzien door de bot – naar Teheran tijdens de Covid-pandemie. Er werd verteld dat de foto in 2025 in Iran was genomen en antwoordde dat deze afkomstig was uit de nasleep van een aardbeving in Zuid-Iran.

Deze schermafbeelding toont een reeks valse AI-reacties toen hem werd gevraagd de foto te identificeren van de graven van slachtoffers van de schoolstaking in Minab. Samengesteld: Reuters

X en Google hebben niet gereageerd op een verzoek om commentaar. De AI-diensten van beide platforms vermelden in kleine lettertjes dat ze onnauwkeurige resultaten kunnen opleveren.


Fof degenen die mensenrechtenschendingen onderzoeken, deze trend brengt nieuwe uitdagingen met zich mee. Chris Osieck, een onafhankelijke open source-onderzoeker die dat wel heeft gedaan onderzoeken uitgevoerd in een reeks bomaanslagen met burgerslachtoffers in Iran, zeiden dat de tijd van de onderzoekers werd verspild aan het blootleggen van AI-materiaal. Het ontmaskeren van AI-video’s houdt bijvoorbeeld vaak in dat ze frame voor frame zorgvuldig worden geïnspecteerd op visuele inconsistenties. “Die tijd moet worden besteed aan wat het belangrijkst is: het rapporteren over de impact van deze brute oorlog op de mensen die in het kruisvuur terechtkomen.”

En in gevallen als Minab, waar het materiaal aantoonbaar echt is? Onderzoekers vrezen dat het uitlekken van AI-slop bij mensen de twijfel zal doen rijzen dat de wreedheid waarvan zij het bewijs zien, zelfs maar heeft plaatsgevonden. “Naarmate de technologie zich blijft verbeteren, kan het de wateren zo vertroebelen dat video’s en afbeeldingen van echte wreedheden worden afgedaan als nep of AI”, zegt Sardarizadeh.

“Ik heb hiervan al voorbeelden gezien in relatie tot de conflicten in Gaza en Oekraïne”, zegt hij.

Voor degenen die dierbaren hebben verloren, dreigt de verantwoordelijkheid overschaduwd te worden door een massa verkeerde informatie, achterdocht en twijfel.

“Uiteindelijk moet je ook bedenken hoe dit eruit ziet vanuit het perspectief van de families van de slachtoffers”, zegt Osieck. “Stel je voor dat je een kind verliest en dan AI online ziet worden gebruikt om te beweren dat de gebeurtenis niet heeft plaatsgevonden. Het is niet alleen een belemmering voor onderzoekers, het is ook zeer respectloos voor de dierbaren die rouwen.”

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in