EILANDn X, een vrouw plaatst een foto in een sari en binnen enkele minuten staan verschillende gebruikers onder de post die Grok taggen omdat hij haar meeneemt naar een bikini. Het is een schokkende inbreuk op de privacy, maar nu één bekende en gangbare praktijk. Tussen juni 2025 en januari 2026 heb ik 565 gevallen gedocumenteerd van gebruikers die Grok vroegen om zonder toestemming intieme afbeeldingen te maken. Hiervan werden er in één dag tijd 389 aangevraagd.
Afgelopen vrijdag kondigde X, na kritiek op het vermogen van het platform om zonder toestemming dergelijke seksuele afbeeldingen te maken, aan dat de functie voor het genereren van AI-afbeeldingen van Grok alleen beschikbaar zijn voor abonnees. Rapporten suggereren dat bot reageert niet meer voor oproepen om afbeeldingen van vrouwen in bikini te genereren (hoewel dit blijkbaar nog steeds zal gebeuren voor vragen over mannen).
Maar zoals technologiesecretaris Liz Kendall terecht zegt: deze actie “gaat lang niet ver genoeg”. Kendall heeft aangekondigd dat het zonder toestemming intieme beelden gaat maken een strafbaar feit worden deze week en dat ze het aanbod van nudificatie-apps wil criminaliseren. Dit is passend, gezien de zwakke reactie van X. Door de functie achter een betaalmuur te plaatsen, kan het platform directer profiteren van de online ontmenselijking en seksuele intimidatie van vrouwen en minderjarigen. En het stoppen van de ‘bikini’-reacties na publieke afkeuring en de dreiging van wetgeving is het minste dat X kan doen – de grotere vraag is waarom het überhaupt mogelijk was.
Deze maatregelen zijn een stap vooruit. De secretaris van schaduwtechnologie, Julia Lopez, suggereerde in haar antwoord dat de regering overdreven reageerde, dat dit slechts “een moderne versie van een oud probleem” was, niet anders dan ruwe tekeningen of Photoshop. Ze heeft het mis. De schaal is anders. Beschikbaarheid is anders. De snelheid is anders. Bij Photoshop is technische vaardigheid vereist, evenals directe publicatie door een gebruiker, die alle acties behalve platforming er rechtstreeks op plaatst. In dit geval geeft de gebruiker echter een antwoord in gewone tekst met een verzoek, en genereert en publiceert Grok crimineel misbruik voor een groot publiek.
De aanpak van Kendall criminaliseert gebruikers die deze afbeeldingen maken of wijzigen, en de bedrijven die speciale nudificatietools aanbieden. Dat is waar het het punt mist. Grok en de meest prominente tools voor het genereren van afbeeldingen zijn geen speciale nudificatietools. Het zijn AI voor algemene doeleinden met zwakke beveiligingsmaatregelen. Kendall vraagt platforms niet om proactieve detectie te implementeren. De wet wacht tot er schade ontstaat en straft dan.
De nadelen van deze aanpak liggen voor de hand. Ik merkte dat dit materiaal maandenlang werd gegenereerd voordat de mainstream-reactie begon. Dit zijn kwaadaardige afbeeldingen die zijn gegenereerd en die nog steeds bestaan en mogelijk zijn opgeslagen en gedeeld op andere platforms. Voor de slachtoffers van dit kunstmatige intelligentie-materiaal over seksueel misbruik zal regelgeving uiteindelijk niet helpen. Voor verwondingen die op deze manier structureel worden versterkt, moet de aanpak preventief zijn en niet reactionair.
Een ander, meer fundamenteel probleem is dat terwijl Groot-Brittannië de regulering van de veiligheid op het gebied van AI stimuleert, de VS zich in de tegenovergestelde richting beweegt. De Trump-regering wil “de Amerikaanse mondiale AI-dominantie versterken door middel van een minimaal belastend nationaal beleidskader voor AI”. Binnen dit raamwerk is er weinig prikkel voor Amerikaanse AI-bedrijven om het misbruik van hun producten te reguleren. Dit is van belang omdat AI-regulering onvolledig is zonder grensoverschrijdende samenwerking. Kendall kan gebruikers in Groot-Brittannië criminaliseren, ze kan dreigen X volledig te verbieden. Maar ze kan niet voorkomen dat Grok in San Francisco wordt geprogrammeerd. Ze kan OpenAI of Anthropic of welk ander Amerikaans bedrijf dan ook niet dwingen om veiligheid boven snelheid te stellen. Zonder Amerikaanse samenwerking proberen we een transnationale technologie te reguleren met nationale wetten.
Terwijl dit debat over regulering en beleidsupdates zich afspeelt, zullen veel slachtoffers en andere vrouwen online zich afvragen wat dit nieuwe tijdperk van door AI mogelijk gemaakte online seksuele intimidatie voor hen betekent en hun deelname aan mondiale sociale-mediaplatforms in twijfel trekken. Als mijn imago digitaal is gewijzigd, hoe krijg ik dan gerechtigheid als de dader zich aan de andere kant van de wereld bevindt? Transparantie in de praktijken van AI-bedrijven wel in verval – Hoe kunnen we er dan op vertrouwen dat dezelfde bedrijven verantwoordelijk zijn en systemen controleren die schade reproduceren?
De waarheid is dat deze bedrijven niet te vertrouwen zijn. Dit is de reden waarom de regelgeving wereldwijd moet verschuiven van ‘verwijder schade wanneer je die ontdekt’ naar ‘bewijzen dat jouw systeem schade voorkomt’. We moeten macht in het proces coderen door verplichte inputfiltering, onafhankelijke audits en licentievoorwaarden te eisen die preventie tot een juridisch-technische vereiste maken. Dit betekent dat het de schade kan opvangen voordat deze zich manifesteert, waardoor regelgeving schadelijk gedrag van deze AI-bedrijven kan minimaliseren voordat hun producten worden ingezet. Dit is het soort werk dat wij doen AI-verantwoordingslab in Centrum aanpassen aan het Trinity College Dublin die ons onderzoek voortzet.
Geleidelijk aan reguleren is beter dan niets. Het doet echter weinig voor de slachtoffers die al gewond zijn geraakt en omzeilt het flagrante gebrek aan wetshandhaving met betrekking tot deze platformverwondingen.



