Home Nieuws Mensen gebruiken Grok om onfatsoenlijke beelden van vrouwen en jonge meisjes te...

Mensen gebruiken Grok om onfatsoenlijke beelden van vrouwen en jonge meisjes te creëren

24
0
Mensen gebruiken Grok om onfatsoenlijke beelden van vrouwen en jonge meisjes te creëren

Elon Musk nam X over en foldde Grok, de generatieve onderneming van zijn zusterbedrijf AI tool, met als doel van het sociale-media-ecosysteem een ​​meer tolerante en ‘maximalistische vrijheid van meningsuiting’ ruimte te maken. Waar hij mee eindigde is de dreiging van meer regelgevend onderzoek nadat mensen Grok begonnen te gebruiken om zonder hun toestemming expliciete afbeeldingen van vrouwen te maken – en soms afbeeldingen van minderjarige kinderen inleverden.

Het probleem, dat de afgelopen week naar voren kwam toen mensen de beeldgenererende capaciteiten van Grok begonnen te bewapenen op onschadelijke berichten van voornamelijk vrouwelijke gebruikers van X, heeft de wenkbrauwen van toezichthouders over de hele wereld doen fronsen. Ofcom, de Britse communicatietoezichthouder, heeft “dringend contact” opgenomen met X over de beelden, terwijl de EU dat wel heeft gedaan heet de mogelijkheid om Grok te gebruiken op zo’n “gruwelijke” en “walgelijke” manier.

In de drie jaar sinds de release van ChatGPT heeft generatieve AI te maken gehad met talloze uitdagingen op regelgevingsgebied, waarvan er vele nog steeds in een rechtszaak verwikkeld zijn, waaronder vermeende inbreuk op het auteursrecht bij het trainen van AI-modellen. Maar het gebruik van kunstmatige intelligentie op zo’n schadelijke manier om vrouwen aan te vallen, vertegenwoordigt een belangrijk moreel moment voor de toekomst van de technologie.
“Dit gaat niet over naaktheid. Het gaat over macht, en het gaat over het vernederen van deze vrouwen, en het gaat over laten zien wie de leiding heeft en plezier of opwinding krijgen uit het feit dat ze er niet mee instemden”, zegt Carolina Are, een Britse onderzoeker die de schade van sociale-mediaplatforms, algoritmen en AI voor gebruikers, inclusief vrouwen, heeft bestudeerd.

Van zijn kant, X heeft gezegd dat “iedereen die Grok gebruikt of aanmoedigt om illegale inhoud te maken, dezelfde gevolgen zal ondervinden als wanneer hij illegale inhoud uploadt”, in navolging van de bewoordingen van de eigenaar, Elon Musk, die hetzelfde gepost op 3 januari.

Het feit dat het zelfs mogelijk is dergelijke beelden te maken, geeft aan hoe schadelijk het is om de waarborgen voor generatieve AI weg te nemen, zodat gebruikers in wezen kunnen doen wat ze willen. “Dit is opnieuw een voorbeeld van de wilde ongelijkheid, ongelijkheid en dubbele standaarden van het tijdperk van sociale media, vooral in deze periode, maar ook van de straffeloosheid van de technologie-industrie”, zegt Are.

Precedent

Hoewel de omvang en kracht van door AI gemaakte beelden ongekend lijken, zijn sommige experts het er niet mee eens dat ze de eerste echte morele test van generatieve AI vormen.

“AI – ik gebruik het hier als een overkoepelende term – is lange tijd een instrument geweest voor discriminatie, vrouwenhaat, homofobie en transfobie, en directe schade, waaronder het aanmoedigen van mensen om een ​​einde aan hun leven te maken, het veroorzaken van depressie en lichaamsdysmorfie, en meer”, zegt Ari Waldman, hoogleraar rechten aan de Universiteit van Californië, Irvine, maar het is zeker niet verschrikkelijk, en het is griezelig voor vrouwen. de eerste keer dat AI zich schuldig maakt aan moreel verwerpelijk gedrag”, voegt hij eraan toe.

Maar de vraag wie de juridische verantwoordelijkheid heeft voor de productie van deze beelden is minder duidelijk dan de uitspraken van Musk doen lijken.

Eric Goldman, een professor aan de Santa Clara University School of Law, wijst erop dat de onlangs aangenomen Take it Down Act – die platforms in de komende maanden verplicht om maatregelen te nemen om illegale of aanstootgevende inhoud binnen 48 uur te verwijderen – nieuwe strafrechtelijke bepalingen heeft toegevoegd tegen ‘intieme visuele afbeeldingen’, een categorie die door AI gegenereerde afbeeldingen zou omvatten. Maar of dat ook bikinifoto’s zal omvatten van het type dat Grok bij deze spanning maakt, is onzeker.
“Deze wet moet nog in de rechtbank worden getest, maar het gebruik van Grok om synthetische seksuele inhoud te creëren is iets wat de wet moet ontmoedigen”, zegt Goldman. “Aangezien we niet weten of de Take It Down Act al de noodzakelijke wetgevende oplossing heeft geïntroduceerd om het huidige probleem aan te pakken, zou het voorbarig zijn om nog meer wetten te maken.”

Experts als Rebecca Tushnet, een First Amendment Scholar aan de Harvard Law School, zeggen dat de noodzakelijke wetten al bestaan. “Het gaat erom dat ze worden opgelegd aan de overtreders, terwijl onder de overtreders ook de politiek machtigen vallen of degenen die de wet verachten”, zegt ze.

De afgelopen jaren zijn er in de Verenigde Staten veel nieuwe wetten tegen diep neppe en expliciete beelden aangenomen, waaronder een federale wet om de verspreiding van seksueel expliciete digitale vervalsingen te bestraffen, legt Mary Anne Franks uit, een expert op het gebied van intellectueel eigendom en technologie aan de George Washington Law School.
Maar de laatste ontwikkeling bij Grok laat zien dat de bestaande maatregelen niet goed genoeg zijn, zegt ze. “We moeten technologieontwikkelaars gaan behandelen zoals we andere fabrikanten van gevaarlijke producten behandelen: hen verantwoordelijk stellen voor de schade veroorzaakt door hun producten die ze hadden kunnen en moeten voorkomen.”

Ultieme verantwoordelijkheid

Deze vraag naar de uiteindelijke verantwoordelijkheid blijft dus onbeantwoord. En dat is de vraag die Musk misschien probeert te beantwoorden door zijn afkeer te uiten voor wat zijn gebruikers doen.

“De moeilijkere juridische vraag is welke aansprakelijkheid Grok eventueel heeft voor het faciliteren van de creatie van intieme visuele beelden”, legt Goldman uit, wijzend op het ‘vrijwillig’ opleggen van vangrails als onderdeel van de vertrouwens- en veiligheidsprotocollen van de bedrijven. “Het is volgens de Amerikaanse wet onduidelijk of deze bewakers enige wettelijke aansprakelijkheid verminderen of elimineren”, zegt hij, eraan toevoegend dat het “onduidelijk is of de aansprakelijkheid van het model zal toenemen als een model over duidelijk ontoereikende bewakers beschikt.”

Waldman stelt dat wetgevers in Washington een wet moeten aannemen die bedrijven wettelijk verantwoordelijk houdt voor het ontwerpen en bouwen van AI-instrumenten die kinderporno of pornografische deepfakes van vrouwen en meisjes kunnen creëren. “Op dit moment wordt de wettelijke aansprakelijkheid van technologiebedrijven betwist”, voegt hij eraan toe.

Hoewel de Federal Trade Commission de wettelijke bevoegdheid heeft om op te treden, is hij bang dat dit niet het geval zal zijn. “De AI-bedrijven hebben zich aangesloten bij de president, en de FTC lijkt haar mandaat voor consumentenbescherming in geen enkele echte zin te vervullen.”

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in