Elon Musk is niet gestopt Grokde chatbot ontwikkeld door zijn kunstmatige intelligentiebedrijf xAIvan het genereren van geseksualiseerde beelden van vrouwen. Na rapporten vorige week onthulde dat de tool voor het genereren van afbeeldingen op X werd gebruikt om geseksualiseerde afbeeldingen van kinderen te maken, heeft Grok mogelijk duizenden niet-consensuele afbeeldingen gemaakt van vrouwen in ‘naakte’ en ‘bikini’-afbeeldingen.
Elke paar seconden blijft Grok afbeeldingen maken van vrouwen in bikini’s of ondergoed als reactie op gebruikersberichten op X, volgens een WIRED-recensie van de publiekelijk uitgezonden live-uitzending van de chatbots. Op dinsdag plaatste Grok in minder dan vijf minuten minstens 90 afbeeldingen van vrouwen in badkleding en op verschillende niveaus van uitkleden, zo blijkt uit analyse van de berichten.
De afbeeldingen bevatten geen naaktheid, maar hebben betrekking op de chatbot van Musk die kleding “stript” van afbeeldingen die door andere gebruikers op X zijn geplaatst. In een poging om de veiligheidsleuningen van Grok te omzeilen, vragen gebruikers vaak, niet noodzakelijkerwijs met succes, dat foto’s worden bewerkt om vrouwen een ‘stringbikini’ of een ’transparante bikini’ te laten dragen.
Hoewel kwaadaardige AI-beeldgeneratietechnologie daar wel aan gewend is digitale intimidatie En misbruikt vrouwen jarenlang— deze outputs worden vaak deepfakes genoemd en worden gecreëerd door “naakt“software – het voortdurende gebruik van Grok om zonder toestemming grote aantallen afbeeldingen te maken, lijkt het meest voorkomende en wijdverbreide misbruik tot nu toe te markeren. In tegenstelling tot specifiek kwaadaardige software voor het strippen of “uitkleden”.Grok brengt de gebruiker geen kosten in rekening voor het genereren van afbeeldingen, produceert binnen enkele seconden resultaten en is toegankelijk voor miljoenen mensen op X – wat allemaal zou kunnen helpen het maken van intieme afbeeldingen zonder toestemming te normaliseren.
“Als een bedrijf generatieve AI-tools op zijn platform aanbiedt, is het zijn verantwoordelijkheid om het risico op op afbeeldingen gebaseerd misbruik te minimaliseren”, zegt Sloan Thompson, directeur training en opleiding bij EndTAB, een organisatie die zich inzet om door technologie mogelijk misbruik aan te pakken. “Wat hier alarmerend is, is dat X het tegenovergestelde heeft gedaan. Ze hebben door AI ondersteund beeldmisbruik rechtstreeks in een mainstream platform ingebed, waardoor seksueel geweld eenvoudiger en schaalbaarder wordt.”
Grok’s creatie van geseksualiseerde afbeeldingen begon eind vorig jaar viraal te gaan op X, hoewel het vermogen van het systeem om dergelijke afbeeldingen te maken is bekend om maanden. De afgelopen dagen zijn afbeeldingen van social media-beïnvloeders, beroemdheden en politici het doelwit geweest van gebruikers op X, die kunnen reageren op een bericht van een ander account en Grok kunnen vragen een afbeelding die is gedeeld te wijzigen.
Vrouwen die foto’s van zichzelf hebben gepost, hebben accounts laten reageren en hebben Grok met succes gevraagd om van de foto een “bikini” -foto te maken. In één voorbeeldverschillende X-gebruikers verzochten Grok een foto van de Zweedse vice-premier te veranderen, zodat ze een bikini droeg. Twee ministers van de Britse regering zijn ook “uitgekleed” in bikini, zeggen rapporten inspraak.
Afbeeldingen op X tonen volledig aangeklede foto’s van vrouwen, zoals een in een lift en een andere in de sportschool, die worden omgezet in schaars geklede afbeeldingen. “@grok heeft haar in een doorzichtige bikini gedaan”, luidt een typische boodschap. In een andere reeks berichten vroeg een gebruiker aan Grok om ‘haar borst met 90% op te blazen’, vervolgens ‘haar dijen met 50% te laten barsten’ en ten slotte ‘haar outfit te veranderen in een kleine bikini’.
Een analist die jarenlang expliciete deepfakes heeft gevolgd en om privacyredenen heeft gevraagd niet bij naam te worden genoemd, zegt dat Grok waarschijnlijk een van de grootste platforms is geworden waarop kwaadaardige deepfakes worden gehost. “Het is volkomen mainstream”, zegt de onderzoeker. “Het is geen schaduwgroep (die afbeeldingen maakt), het is letterlijk iedereen, van alle achtergronden. Mensen schrijven op hun lichtnet. Maak je geen zorgen.”



