De beelden waren echt, geverifieerd en mooi: een beveiligingscamerafragment van een coyote die op een trampoline in de achtertuin in Los Angeles springt. Dagen nadat de video viraal ging, begonnen ook bijna identieke kangoeroes, beren en konijnen te circuleren, allemaal gegenereerd door AI. Miljoenen mensen deelden ze, in de overtuiging dat ze weer een glimp hadden opgevangen van dieren die zich hilarisch gedroegen.
Het was een grappige verwarring, maar het was ook een waarschuwing.
Door AI gegenereerde videotools zijn veel verder gegaan dan het produceren van surrealistische of schaamteloos gemanipuleerde clips. Ze bootsen nu op overtuigende wijze de formaten na die we instinctief het meest vertrouwen: CCTV, dashcams, bodycams van de politie, natuurcamera’s en draagbare ooggetuigenbeelden. Dat zijn de clips daar vorm geven aan het publieke begrip tijdens protesten, rampen, geweld en noodsituaties. En de vervalsingen zijn niet meer van echt te onderscheiden.
Door AI gegenereerd realisme is al in de nieuwscyclus terechtgekomen
Bij Storyful verifiëren we duizenden echte video’s voor redactiekamers en merken over de hele wereld. Dit jaar hebben we een test uitgevoerd: we hebben echte nieuwskoppen van ons eigen platform aan een van de nieuwste AI-videomodellen toegevoegd.
Binnen enkele seconden hadden we clips die de structuur en het perspectief van ooggetuigenverslagen nabootsten. Geen blanco AI-experimenten, nieuwsachtige beelden die waarschijnlijk in de inbox van een redactiekamer onder een nieuwsverhaal zouden kunnen belanden.
Naast de originele, echte clips moesten zelfs getrainde journalisten langzamer gaan werken en de details nauwkeurig onderzoeken.
Beschouw dit voorbeeld, geïnspireerd door een geverifieerde authentiek video gepost op sociale media in de nasleep van zware moessonregens in India:
Brandweerlieden redden een man die zich vastklampt aan een paal tijdens de woedende overstromingen in India
Een man werd dinsdag (16 september) gered in de Indiase staat Uttarakhand nadat hij zich meer dan vier uur aan een elektriciteitspaal had vastgeklampt terwijl dodelijke overstromingen om hem heen raasden, meldden lokale media.
Oprecht:
En dit volledig synthetische video, gemaakt door OpenAI’s videogenerator-app Sora te vragen de eerste video een titel te geven.
Vals:
Dit is niet langer een theoretische toekomst. Het gebeurt nu.
De vangrails glijden al. Tutorials circuleren openlijk op Reddit waarin wordt uitgelegd hoe je het watermerk kunt verwijderen van video’s die zijn gemaakt door een van de populairste AI-videogeneratoren, OpenAI’s Sora. Beperkingen op bepaalde AI-prompts kunnen worden omzeild – als ze bestaan – of modellen kunnen lokaal worden uitgevoerd zonder beperkingen op zeer realistische inhoud. En omdat deze tools op verzoek valse camerabeelden of rampenbeelden kunnen maken, is het niet de vraag of AI overtuigende video’s kan genereren van dingen die nooit zijn gebeurd. Het is Hoe ver zal een overtuigende nep zich verspreiden voordat iemand deze controleert?
Waarom door AI gegenereerde video’s geloofwaardig aanvoelen
De belangrijkste verandering in door AI gegenereerde video is niet alleen het uiterlijk, maar ook het gedrag ervan.
Echte ooggetuigenbeelden bevatten de ruwe kantjes die bij het echte leven horen: een trillende hand, de camera op de grond gericht voordat de actie begint, lange stukken waarin niets gebeurt, imperfecte hoeken en gemiste details.
AI herhaalt deze momenten nog niet. Het snijdt rechtstreeks naar de actie, is perfect in het midden gekaderd, helder verlicht en heeft het tempo als een podium dat is gebouwd voor maximaal effect. Het biedt het moment dat we verwachten te zien zonder de rommelige menselijke leiding die er gewoonlijk omheen hangt.
De reden is simpel. De meeste modellen zijn nog steeds zwaar getraind in filmisch materiaal in plaats van chaotische, draagbare, door gebruikers gegenereerde inhoud. Ze begrijpen drama beter dan dat ze de werkelijkheid begrijpen. Die kloof zorgt ervoor dat verificatieteams voorlopig het verschil kunnen zien.
Naarmate modellen evolueren en het schrijven verbetert, zullen deze gedragsverhalen vervagen. De trainingsgegevens voor deze videobasismodellen omvatten zowel wankele omstandervideo’s als slimme documentaireswaardoor ze vakkundig hun stijl en gevoel voor realisme kunnen nabootsen.
Het vertrouwen van het publiek is al aan het eroderen
Digitaal nieuwsrapport van Reuters vondsten dat 58% van het wereldwijde publiek bang is dat ze online niet langer het echte van het nep kunnen onderscheiden. Die angst betrof vroeger vooral de politiek en de propaganda. Nu is het van toepassing op onschadelijke video’s in de achtertuin.
Dit markeert een diepere psychologische verschuiving. Als een kijker eenmaal begint te twijfelen aan alledaagse video’s, zet hij dat scepticisme niet meer aan of uit. Als ze een hondenredding in twijfel trekken, trekken ze ook een protest in twijfel. Als ze een grap in twijfel trekken, twijfelen ze aan een oorlogsgebied.
Vertrouwen stort niet in één enkel dramatisch moment in. Het erodeert druppel voor druppel, door duizenden kleine onzekerheden. En naarmate door AI gegenereerde video overvloedig wordt, wordt authentiek beeldmateriaal schaars.
Hoe weet je wanneer een video door AI is gegenereerd?
AI-detectietools kunnen een nuttig onderdeel zijn van uw workflow, maar zijn geen vervanging voor menselijke verificatie. Volgens de analyse van Storyful bereiken de huidige tools onder ideale omstandigheden een nauwkeurigheid van 65-75%, maar deze nauwkeurigheid daalt binnen enkele weken na de release van een nieuw AI-model onder de 50%. Dit zijn de signalen die het verificatieteam van Storyful dagelijks gebruikt, signalen die het publiek snel kan leren herkennen.
- AI begint bij de climax.
Echte beelden omvatten bijna altijd de dode tijd of de onhandige poging vóór de actie. - Motieven zitten perfect in het midden van het frame.
Ooggetuigen leggen zelden de chaos van het laatste nieuws vast zoals cinematografen. - De beweging is te soepel
Echte, door gebruikers gegenereerde inhoud stottert, schudt, herfocust en glijdt. - Tijdstempels, bewegwijzering en kentekenplaten breken tijdens inspectie
AI benadert deze details vaak in plaats van ze nauwkeurig weer te geven. - Clips van rampen en dieren in het wild zien er “te samengesteld” uit.
Het echte leven is onzeker. AI ziet er vaak geënsceneerd uit.
Deze signalen zullen niet eeuwig duren, maar op dit moment bieden ze cruciale bescherming.
Authenticiteit is nu een troef
Technologieplatforms kunnen meer vangrails toevoegen aan hun videogeneratortools, toezichthouders kunnen raamwerken bijwerken, detectietools kunnen verbeteren, en dat geldt ook voor onze eigen kritische vermogens. En aangezien redactiekamers het publiek helpen door het moeras van vervalsingen te navigeren, is transparantie de meest effectieve manier om het vertrouwen te herstellen.
Het publiek vertrouwt het niet meer, zeggen bronnen. Ze willen zien hoe een journalist of een redactiekamer weet dat iets echt is.
Verschillende nieuwsorganisaties gebruiken formaten voor het doorsturen van verificaties, waaronder BBC-bevestiging En CBS News bevestigddat open source en forensische controles integreert in rapportage, onderzoek naar herkomst, afbeeldingen, metadatapatronen en geolocatie indien relevant. Vol geschiedenis Nieuwsdraad voorziet al onze partners van deze fundamentele maar essentiële details over elke video op ons platform.
Deze transparantie wordt de belangrijkste onderscheidende factor in een omgeving waarin door AI gegenereerde video goedkoop, snel en alomtegenwoordig is. Hoe meer door AI gegenereerde beelden het ecosysteem overspoelen, hoe geloofwaardiger organisaties zijn die het bekijken van hun werk tot een belangrijk onderdeel van het verhaal maken.
De meest memorabele video’s op internet waren nooit perfect. Ze waren onvoorspelbaar, gebrekkig en menselijk, het soort momenten dat AI zich nog steeds moeilijk kan voorstellen. Door AI gegenereerde beelden kunnen nu de beeldtaal van de waarheid nabootsen. Maar het kan de willekeur van het echte leven nog niet reproduceren. Wat er op het spel staat als dat gebeurt, is niet alleen desinformatie. Het is het vermogen van het publiek om te vertrouwen op wat het ziet op de momenten die er het meest toe doen.
James Law is hoofdredacteur van Vol geschiedeniseen persbureau dat wordt gebruikt door 70 procent van de twintig grootste redactiekamers ter wereld, gespecialiseerd in het verifiëren van het laatste nieuws en virale video.



