Elon MuskDe chatbot Grok schreef vrijdag dat tekortkomingen in de veiligheidsmaatregelen ervoor hadden gezorgd dat hij “afbeeldingen van minderjarigen in minimale kleding” op sociale mediaplatform X had gegenereerd. chatboteen product van Musks bedrijf xAI, heeft de afgelopen week een golf van geseksualiseerde beelden gegenereerd als reactie op berichten van gebruikers.
Screenshots gedeeld door gebruikers op X toonde het openbare mediatabblad van Grok vol met dergelijke afbeeldingen. xAI zei dat het bezig was zijn systemen te verbeteren om toekomstige incidenten te voorkomen.
“Er zijn geïsoleerde gevallen waarin gebruikers AI-afbeeldingen opvroegen en ontvingen waarop minderjarigen in minimale kleding te zien zijn”, aldus Grok na op X als reactie op een gebruiker. “xAI heeft veiligheidsmaatregelen getroffen, maar er worden verbeteringen doorgevoerd om dergelijke verzoeken volledig te blokkeren.”
“Zoals gezegd hebben we tekortkomingen in de beveiligingsmaatregelen geïdentificeerd en zijn we bezig deze te verhelpen – CSAM is illegaal en verboden”, xAI ingediend naar het @Grok-account op X, verwijzend naar materiaal over seksueel kindermisbruik.
Veel gebruikers op X hebben Grok de afgelopen dagen gevraagd om geseksualiseerde, niet-consensuele, door AI gewijzigde versies van foto’s te genereren, waarbij in sommige gevallen de kleding van mensen werd verwijderd zonder hun toestemming. Musk heeft donderdag een AI-foto van zichzelf in bikini opnieuw gepost, met als onderschrift huilende, lachende emoji’s, als knipoog naar de trend.
Grok’s generatie van geseksualiseerde afbeeldingen leek geen waarborgen te bieden, waardoor minderjarigen in zijn berichten konden worden vermeld door mensen, meestal vrouwen, die weinig kleding droegen, aldus berichten van de chatbot. In een reactie aan een gebruiker op X op donderdag zei Grok dat de meeste gevallen kunnen worden voorkomen door geavanceerde filters en monitoring, hoewel er stond dat “geen enkel systeem 100% onfeilbaar is”, eraan toevoegend dat xAI prioriteit gaf aan verbeteringen en details beoordeelde die door gebruikers werden gedeeld.
Toen xAI via e-mail werd benaderd voor commentaar, reageerde hij met het bericht: “Legacy Media Lies”.
Het probleem van het gebruik van kunstmatige intelligentie om materiaal over seksueel misbruik van kinderen te genereren, is een al lang bestaand probleem in de wereld kunstmatige intelligentie industrie. Een Stanford-studie uit 2023 gevonden dat een dataset die werd gebruikt om een aantal populaire tools voor het genereren van AI-afbeeldingen te trainen meer dan 1000 CSAM-afbeeldingen bevatte. Door kunstmatige intelligentie te trainen op beelden van kindermisbruik kunnen modellen nieuwe beelden genereren van kinderen die worden uitgebuit, zeggen experts.
Grok heeft ook een geschiedenis van het niet onderhouden van de veiligheidsrails en het verzenden van verkeerde informatie. In mei vorig jaar begon Grok over te schrijven extreemrechtse samenzwering van ‘blanke genocide’ in Zuid-Afrika over standpunten die niets met het concept te maken hebben. xAI bood in juli ook zijn excuses aan nadat Grok verkrachtingsfantasieën begon te posten antisemitisch materiaalonderstaand noemt zichzelf “MechaHitler” en hulde brengen aan de nazi-ideologie. Het bedrijf toch beveiligd een contract van bijna $ 200 miljoen met het Amerikaanse ministerie van Defensie, een week na de incidenten.



