Technologiebedrijven en kinderbeschermingsorganisaties krijgen de macht om te testen of er kunstmatige intelligentie-instrumenten kunnen worden geproduceerd beelden van kindermisbruik onder een nieuwe Britse wet.
De aankondiging werd gedaan toen een veiligheidswaakhond onthulde dat de meldingen van door AI gegenereerd materiaal over seksueel misbruik van kinderen het afgelopen jaar meer dan verdubbeld zijn, van 199 in 2024 naar 426 in 2025.
Op grond van het amendement zal de regering aangewezen AI-bedrijven en kinderveiligheidsorganisaties toestaan AI-modellen te onderzoeken – de onderliggende technologie voor chatbots zoals ChatGPT en beeldgeneratoren zoals Google’s Veo 3 – en ervoor te zorgen dat ze over waarborgen beschikken om te voorkomen dat ze beelden maken van seksueel kindermisbruik.
Kanishka Narayan, de minister voor kunstmatige intelligentie en online veiligheid, zei dat deze stap “uiteindelijk gaat over het stoppen van misbruik voordat het gebeurt”, en voegde eraan toe: “Onder strikte voorwaarden kunnen experts nu het risico in AI-modellen vroegtijdig signaleren.”
De wijzigingen zijn ingevoerd omdat het illegaal is om CSAM te maken en te bezitten, wat betekent dat AI-ontwikkelaars en anderen dergelijke afbeeldingen niet kunnen maken als onderdeel van een testregime. Tot nu toe moesten de autoriteiten wachten tot door AI gegenereerde CSAM online werd geüpload voordat ze deze konden verwerken. Deze wet wil dit probleem verhelpen door het ontstaan van deze beelden bij de bron te helpen voorkomen.
De veranderingen worden door de regering geïntroduceerd als wijzigingen in de Crime and Policing Bill, wetgeving die ook een wet introduceert verbod op het bezitten, creëren of distribueren van AI-modellen ontworpen om materiaal over seksueel misbruik van kinderen te genereren.
Deze week bezocht Narayan de Londense basis van Childline, een hulplijn voor kinderen, en luisterde naar een mock-up van een oproep aan hulpverleners met een melding van op AI gebaseerd misbruik. De oproep portretteerde een tiener die hulp zocht hij was gechanteerd van een geseksualiseerde deepfake van zichzelf, geconstrueerd met behulp van AI.
“Als ik hoor dat kinderen online chantage ervaren, is dat een bron van extreme woede bij mij en terechte woede onder de ouders”, zei hij.
De Internet Watch Foundation, die CSAM online monitort, zegt dat de meldingen van door AI gegenereerd beledigend materiaal – zoals een webpagina die meerdere afbeeldingen kan bevatten – dit jaar tot nu toe meer dan verdubbeld zijn. Het aantal gevallen van categorie A-materiaal – de ernstigste vorm van misbruik – steeg van 2.621 afbeeldingen of video’s naar 3.086.
Het merendeel van de meisjes was het doelwit, goed voor 94% van de illegale AI-beelden in 2025, terwijl de beelden van pasgeborenen tot tweejarigen stegen van vijf in 2024 naar 92 in 2025.
Kerry Smith, CEO van de Internet Watch Foundation, zei dat de wetswijziging “een cruciale stap zou kunnen zijn om ervoor te zorgen dat AI-producten veilig zijn voordat ze worden vrijgegeven”.
“AI-tools hebben het zo gemaakt dat overlevenden met slechts een paar klikken opnieuw het slachtoffer kunnen worden, waardoor criminelen de mogelijkheid krijgen om potentieel onbeperkte hoeveelheden geavanceerd, fotorealistisch materiaal over seksueel kindermisbruik te creëren”, zei ze. “Materiaal dat het lijden van slachtoffers verder vermarkt en kinderen, vooral meisjes, minder veilig en offline maakt.”
Childline heeft ook details vrijgegeven van counselingsessies waarin AI werd genoemd. Schade door AI die in de gesprekken wordt genoemd, zijn onder meer: het gebruik van AI om gewicht, lichaam en uiterlijk te beoordelen; chatbots die voorkomen dat kinderen met veilige volwassenen over misbruik praten; online gepest worden met door AI gegenereerde inhoud; en online afpersing met behulp van AI-vervalste afbeeldingen.
Tussen april en september dit jaar verzorgde Childline 367 counselingsessies waarin AI, chatbots en aanverwante termen ter sprake kwamen, vier keer zoveel als in dezelfde periode vorig jaar. De helft van de vermelding van AI in de sessies van 2025 had betrekking op geestelijke gezondheid en welzijn, inclusief het gebruik van chatbots voor ondersteuning en AI-therapie-apps.



