Home Nieuws Grok schakelt de beeldgenerator uit voor de meeste gebruikers na verontwaardiging over...

Grok schakelt de beeldgenerator uit voor de meeste gebruikers na verontwaardiging over geseksualiseerde AI-afbeeldingen | Grok AI

9
0
Grok schakelt de beeldgenerator uit voor de meeste gebruikers na verontwaardiging over geseksualiseerde AI-afbeeldingen | Grok AI

Grok, de AI-tool van Elon Musk, heeft de functie voor het maken van afbeeldingen voor de overgrote meerderheid van de gebruikers uitgeschakeld na een wijdverbreide verontwaardiging over het gebruik ervan om seksueel expliciete en gewelddadige afbeeldingen te maken.

De stap komt nadat Musk werd bedreigd met boetes, regelgevend ingrijpen en berichten over een mogelijke verbod op X in Groot-Brittannië.

Het hulpmiddel was gebruikt om afbeeldingen van vrouwen te manipuleren om hun kleding uit te trekken en ze in geseksualiseerde posities te plaatsen. De functie om dit te doen is uitgeschakeld, behalve voor betalende abonnees.

Posten op XMusks socialemedianetwerk Grok zei: “Het genereren en bewerken van afbeeldingen is momenteel beperkt tot betalende abonnees.”

Dit betekent dat de overgrote meerderheid van de gebruikers van het platform geen afbeeldingen kan maken met Grok. Degenen die hun volledige gegevens en creditcardgegevens door X kunnen laten opslaan, kunnen vervolgens worden geïdentificeerd als de functie wordt misbruikt.

Onderzoek onthuld door The Guardian toonde aan dat het werd gebruikt om zonder hun toestemming pornografische video’s van vrouwen te maken, evenals beelden van vrouwen die werden doodgeschoten.

Musk wordt geconfronteerd met de dreiging van regelgevende maatregelen van over de hele wereld nadat Grok werd gebruikt om zonder toestemming seksuele beelden te maken.

De Britse premier Keir Starmer dreigde woensdag op sociale media krachtig op te treden tegen het bedrijf.

Hij eiste dat X ‘greep zou krijgen’ op de stortvloed aan AI-gegenereerde afbeeldingen van gedeeltelijk geklede vrouwen en kinderen op het platform, waarbij hij de inhoud omschreef als ‘beschamend’ en ‘walgelijk’.

Starmer zei dat communicatieregulator Ofcom “onze volledige steun heeft om hiernaar te handelen”, wat aangeeft dat een de facto verbod op X moet worden overwogen.

Volgens de Britse Online Safety Act, Ofcom heeft de macht in serieuze zaken om een ​​gerechtelijk bevel aan te vragen om een ​​website of app in het Verenigd Koninkrijk te blokkeren. Het kan ook boetes opleggen tot 10% van de wereldwijde omzet van een bedrijf.

Starmer voegde hieraan toe: “Het is illegaal. We tolereren het niet. Ik heb gevraagd om alle opties op tafel te leggen. Het is walgelijk. X moet de boel op orde krijgen en dit materiaal verwijderen. We gaan hier actie op ondernemen omdat het gewoon niet acceptabel is.”

Duizenden geseksualiseerde afbeeldingen van vrouwen zijn de afgelopen twee weken zonder hun toestemming gemaakt, nadat de Grok-functie voor het maken van afbeeldingen eind december was bijgewerkt. Musk heeft herhaaldelijke publieke oproepen gekregen om de functie te verwijderen of te beperken, maar tot nu toe had de sociale media-app geen actie ondernomen.

Jess Asato, een Labour-parlementslid dat campagne heeft gevoerd voor een betere regulering van pornografie, zei: “Hoewel het verwijderen van de universele toegang tot de walgelijke naaktheidskenmerken van Grok een stap voorwaarts is, betekent het nog steeds dat betalende gebruikers foto’s van vrouwen kunnen maken zonder hun toestemming om ze te seksualiseren en te brutaliseren. Betalen om sperma en kogelgaten in vrouwen te stoppen, en het is nog steeds een digitale aanval.”

Enkele van de meest aanstootgevende inhoud wordt gemaakt vanaf het X-platform, dat is geïntegreerd met Grok, via de Grok Imagine-tool.

Onderzoek door AI Forensics, een in Parijs gevestigde non-profitorganisatie, heeft ongeveer 800 afbeeldingen en video’s gevonden die door de Grok Imagine-app waren gemaakt en die pornografische en seksueel gewelddadige inhoud bevatten. Paul Bouchaud, onderzoeker bij AI Forensics, zei: “Dit zijn volledig pornografische video’s en ze zien er professioneel uit.”

Een door de NGO geziene fotorealistische AI-video toonde een vrouw getatoeëerd met de slogan “niet reanimeren” met een mes tussen haar benen. Andere afbeeldingen en video’s bevatten erotische afbeeldingen, afbeeldingen van vrouwen die zich uitkleden, suggestieve poses en video’s met volledige naaktheid en seksuele handelingen.

“Over het geheel genomen is de inhoud aanzienlijk explicieter dan de bikinitrend die eerder op X werd waargenomen”, aldus Bouchaud.

Er is contact opgenomen met X voor commentaar.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in