Toen ik een klein meisje was, was er niets enger dan een vreemde.
Eind jaren tachtig en begin jaren negentig kregen kinderen van onze ouders, door tv-specials en door leraren te horen dat er vreemden waren die ons pijn wilden doen. ‘Vreemdelingsgevaar’ was overal. Het was een goedbedoelde les, maar het risico werd overdreven: De meeste kindermisbruik en -uitbuiting wordt gepleegd door mensen die de kinderen kennen. Het komt veel minder vaak voor dat kinderen door vreemden worden misbruikt of uitgebuit.
Zeldzamer, maar niet onmogelijk. Ik weet het omdat ik seksueel werd uitgebuit door vreemden.
Van mijn vijfde tot mijn dertiende was ik een kindacteur. En hoewel we de laatste tijd veel horrorverhalen hebben gehoord over de gewelddadige dingen die achter de schermen met kindacteurs zijn gebeurd, voelde ik me altijd veilig tijdens het filmen. Filmsets waren sterk gereguleerde ruimtes waar mensen werk gedaan wilden krijgen. Ik had ondersteunende ouders en werd omringd door regisseurs, acteurs en studiodocenten die kinderen begrepen en voor hen zorgden.
De enige manier is showbusiness deed Door mij in gevaar te brengen, kwam ik in de publieke belangstelling. Elke wreedheid en uitbuiting die ik als kindacteur kreeg, was in de handen van het publiek.
“Hollywood gooit je in het zwembad”, zeg ik altijd tegen mensen, “maar het is het publiek dat je hoofd onder water houdt.”
Voordat ik zelf op de middelbare school zat, werd mijn foto gebruikt in materiaal over seksueel misbruik van kinderen (CSAM). Ik was te zien geweest op fetisjwebsites en gefotografeerd voor pornografie. Volwassen mannen stuurden me griezelige brieven. Ik was geen mooi meisje – mijn lastige leeftijd varieerde van ongeveer 10 tot ongeveer 25 jaar – en ik verscheen bijna uitsluitend in gezinsvriendelijke films. Maar ik was een publiek figuur, dus ik was beschikbaar. Dat is waar kindermisbruikers naar op zoek zijn: toegang. En niets heeft mij toegankelijker gemaakt dan internet.
Het maakte niet uit dat deze foto’s “ik niet was” of dat de fetisjsites “technisch” legaal waren. Het was een pijnlijke, beledigende ervaring; een levende nachtmerrie waarvan ik hoopte dat geen enkel ander kind dit zou meemaken. Toen ik volwassen was, maakte ik me zorgen over de andere kinderen die mij waren gevolgd. Zijn er soortgelijke dingen gebeurd met de Disney-sterren, de cast van Strangers Things, de jongeren die TikTok-dansjes deden en lachten op de YouTube-kanalen van familievloggers? Ik wist niet zeker of ik het antwoord wilde weten.
Toen generatieve kunstmatige intelligentie een paar jaar geleden opkwam, vreesde ik het ergste. Ik had verhalen gehoord over ‘deepfakes’ en wist dat de technologie exponentieel realistischer werd.
Toen gebeurde het – of in ieder geval merkte de wereld dat het was gebeurd. Generatieve AI is al vele malen gebruikt om geseksualiseerde beelden van volwassen vrouwen te creëren zonder hun toestemming. Het overkwam mijn vrienden. Maar onlangs werd gemeld dat X’s AI-tool Grok op flagrante wijze was gebruikt. om ongeklede afbeeldingen van een kleine acteur te genereren. Weken eerder werd een meisje van school gestuurd omdat ze een klasgenoot had geslagen die naar verluidt deepfake-porno van haar had gemaakt. volgens de advocaten van haar familie. Ze was dertien, ongeveer even oud als ik toen mensen nep-geseksualiseerde foto’s van mij maakten.
In juli 2024, De Internet Watch Foundation vond meer dan 3.500 afbeeldingen van door AI gegenereerde CSAM op een dark web-forum. Hoeveel duizenden zijn er in de anderhalf jaar sindsdien gemaakt?
Generatieve AI heeft Stranger Danger opnieuw uitgevonden. En deze keer is de angst terecht. Het is nu oneindig veel gemakkelijker voor elk kind wiens gezicht op internet is geplaatst om seksueel te worden uitgebuit. Miljoenen kinderen zouden gedwongen kunnen worden om dezelfde nachtmerrie te beleven.
Om de dreiging van een deepfake-apocalyps te stoppen, moeten we kijken naar hoe AI wordt getraind.
Generatieve AI ‘leert’ door een iteratief proces van ‘zien, maken, vergelijken, bijwerken en herhalen’, zegt Patrick LaVictoire, een wiskundige en voormalig AI-beveiligingsonderzoeker. Het creëert modellen op basis van dingen die het uit zijn hoofd heeft geleerd, maar het kan niet alles onthouden, dus moet het naar patronen zoeken en zijn antwoorden daarop baseren. “Een verbinding die nuttig is, wordt versterkt”, zegt LaVictoire. “Iemand die minder is, of actief nutteloos is, wordt gesnoeid.”
Wat generatieve AI kan creëren, hangt af van de materialen waarop de AI is getraind. A studeren aan Stanford University uit 2023 bleek dat een van de populairste trainingsdatasets al meer dan 1.000 gevallen van CSAM bevatte. De links naar CSAM is inmiddels uit de dataset verwijderdmaar de onderzoekers hebben benadrukt dat een andere bedreiging de CSAM is die wordt gemaakt door afbeeldingen van kinderen te combineren met pornografische afbeeldingen, wat mogelijk is als beide in de trainingsgegevens voorkomen.
Googlen En Open AI beweert veiligheidsmaatregelen te hebben genomen om te beschermen tegen de creatie van CSAM: bijvoorbeeld door de gegevens te bewaken die ze gebruiken om hun AI-platforms te trainen. (Het is ook de moeite waard om op te merken dat veel volwassen filmacteurs en sekswerkers hun afbeeldingen hebben laten schrapen voor AI zonder hun toestemming.)
Generatieve AI zelf, zegt LaVictoire, kan op geen enkele manier onderscheid maken tussen onschuldige en dwaze commando’s zoals “maak een foto van een Jedi-samoerai” en schadelijke commando’s zoals “kleed deze beroemdheid uit”. Een andere bescherming omvat dus een ander soort AI die op dezelfde manier werkt als een spamfilter dat kan voorkomen dat deze vragen worden beantwoord. xAI met Grok lijkt onzorgvuldig te zijn geweest met dat filter.
En misschien moet het ergste nog komen: Meta En andere bedrijven heeft gesuggereerd dat toekomstige AI-modellen open source moeten zijn. “Open source” betekent dat iedereen toegang heeft tot de code erachter, deze kan downloaden en kan bewerken zoals hij of zij wil. Wat doorgaans geweldig is aan open source software – de vrijheid die het gebruikers geeft om nieuwe dingen te creëren, creativiteit en samenwerking voorrang te geven boven winst – zou een ramp kunnen zijn voor de veiligheid van kinderen.
Zodra iemand een open source AI-platform had gedownload en het zich eigen had gemaakt, zouden er geen waarborgen meer zijn, geen enkele AI-bot die zou zeggen dat het niet kon helpen met hun verzoek. Iedereen kan zijn eigen persoonlijke beeldgenerator ‘verfijnen’ met behulp van expliciete of illegale afbeeldingen en zijn eigen oneindige CSAM- en ‘wraakporno’-generator creëren.
Meta lijkt te hebben stapte terug van het open source maken van zijn nieuwere AI-platforms. Misschien herinnerde Mark Zuckerberg zich dat hij zal zijn als de Romeinse keizer Augustusen dat als hij op deze weg doorging, hij misschien meer herinnerd zou worden als de Oppenheimer van CSAM.
Sommige landen bestrijden dit al. China was de eerste die dit adopteerde een wet die vereist dat AI-inhoud als zodanig wordt geëtiketteerd. Denemarken werkt aan wetgeving die burgers het auteursrecht op hun prestaties en stemmen geeft, en boetes oplegt aan AI-platforms die dit niet respecteren. In andere delen van Europa is en in Groot-Brittanniëkunnen de foto’s van mensen worden beschermd door de Algemene Verordening Gegevensbescherming (AVG).
De vooruitzichten in de VS lijken erg somber. Copyrightclaims zullen niet helpen, omdat wanneer een gebruiker een afbeelding naar een platform uploadt, hij deze naar eigen goeddunken kan gebruiken; het staat in bijna alle Servicevoorwaardenovereenkomsten. Met uitvoeringsbesluiten tegen de regulering van generatieve AI en bedrijven als xAI contracten ondertekenen met het Amerikaanse legerde Amerikaanse regering heeft laten zien dat geld verdienen met kunstmatige intelligentie veel belangrijker is dan het beschermen van burgers.
Daar haar Er is recente wetgeving ‘die veel van deze digitale manipulatie criminaliseert’, zegt Akiva Cohen, een procesadvocaat uit New York City. ‘Maar ook veel van die statuten zijn waarschijnlijk veel te restrictief Wat precies wat ze bestrijken.”
Hoewel het creëren van een deepfake van iemand waardoor hij of zij naakt lijkt of betrokken is bij een seksuele daad strafrechtelijke vervolging kan rechtvaardigen, is het gebruik van kunstmatige intelligentie om een vrouw (en waarschijnlijk zelfs een minderjarig meisje) in een bikini te plaatsen, waarschijnlijk niet het geval.
“Veel hiervan blijft heel bewust aan de ‘vreselijke maar legale’ kant van de lijn”, zegt Cohen.
Het is misschien niet crimineel – dat wil zeggen een misdaad tegen de staat – maar Cohen stelt dat het wel een civielrechtelijke aansprakelijkheid kan zijn, een schending van de rechten van iemand anders, waarvoor een slachtoffer schadevergoeding eist. Hij suggereert dat dit valt onder een ‘vals lichtschending van de privacy’ onrechtmatige daad, een civiel misdrijf waarbij beledigende beschuldigingen worden geuit over een persoon die hem of haar in een vals licht afbeeldt, ‘iemand afbeeldt op een manier die laat zien dat hij iets doet wat hij niet heeft gedaan’.
“De manier waarop je dit soort gedrag echt kunt tegengaan, is door verantwoordelijkheid op te leggen bedrijven wat dit mogelijk maakt”, zegt Cohen.
Daar bestaat een juridisch precedent voor: De Verhogingswet in New York, en Senaatswetsvoorstel 53 in Californië zegt dat AI-bedrijven aansprakelijk kunnen worden gesteld voor schade die ze na een bepaald moment hebben aangericht. X, ondertussen, zal nu Grok blokkeren van het maken van geseksualiseerde afbeeldingen van echte mensen op het platform. Maar dat Het lijkt erop dat het beleid aan het veranderen is is niet van toepassing op de zelfstandige Grok-app.
Maar Josh Saviano, voormalig praktiserend advocaat in New York en voormalig kindacteur, is van mening dat er meer onmiddellijke actie moet worden ondernomen dan alleen de wetgeving.
“De lobbyinspanningen en onze rechtbanken zullen uiteindelijk bepalen hoe hiermee wordt omgegaan”, zegt Saviano. “Maar totdat dat gebeurt, zijn er twee opties: je helemaal onthouden, wat betekent dat je je hele digitale voetafdruk van het internet verwijdert… of je moet een technologische oplossing vinden.”
Het garanderen van de veiligheid van jongeren is van het allergrootste belang voor Saviano, die mensen heeft gekend die deepfakes van hen hadden. en weet – als voormalig kindacteur – wel iets van het verliezen van de controle van het eigen verhaal. Saviano en zijn team hebben gewerkt aan een tool die mensen kan detecteren en op de hoogte stellen wanneer hun foto’s of creatief werk wordt geschraapt. Het motto van het team, zegt hij, is: “Bescherm de baby’s.”
Hoe het ook mag gebeuren, ik ben van mening dat bescherming tegen deze dreiging veel publieke inspanning zal vergen.
Er zijn velen die affiniteit beginnen te krijgen met hun AI-chatbots, maar voor de meeste mensen zijn technologiebedrijven niets meer dan nutsbedrijven. We geven misschien om persoonlijke of politieke redenen de voorkeur aan de ene app boven de andere, maar slechts weinigen voelen een sterke loyaliteit aan technologiemerken. Technologiebedrijven, en vooral sociale-mediaplatforms zoals Meta en XWe zouden er goed aan doen om te bedenken dat ze een middel zijn om een doel te bereiken. En als iemand zoals ik – die de hele dag, elke dag, al meer dan tien jaar op Twitter zat – kan stoppen, kan iedereen dat.
Maar boycotten is niet genoeg. Wij moeten degenen zijn die eisen dat bedrijven die de creatie van CSAM toestaan, ter verantwoording worden geroepen. We moeten wetgeving en technologische waarborgen eisen. We moeten ook ons eigen handelen onder de loep nemen: niemand wil geloven dat als ze foto’s van hun kind delen, die foto’s in CSAM terecht kunnen komen. Maar het is een risico waar ouders hun jonge kinderen tegen moeten beschermen en waar ze hun oudere kinderen voor moeten waarschuwen.
Als onze obsessie met Stranger Danger iets heeft laten zien, is het dat de meesten van ons de intimidatie en intimidatie van kinderen willen voorkomen. Het is tijd om het te bewijzen.


