Home Nieuws De Amerikaanse regering zet vraagtekens bij het uitkleedprobleem van Grok

De Amerikaanse regering zet vraagtekens bij het uitkleedprobleem van Grok

3
0
De Amerikaanse regering zet vraagtekens bij het uitkleedprobleem van Grok

Het digitale uitkleedschandaal van Grok is gruwelijk. De afgelopen dagen hebben talloze vrouwen, inclusief de moeder van een van de kinderen van Elon Musk, hebben gevonden AI– zonder toestemming van zichzelf seksuele afbeeldingen gegenereerd die zich verspreiden op internet. Volgens een analyse genereerde Grok, althans begin januari, duizenden seksueel suggestieve of uitgeklede afbeeldingen van mensen in de klas. (Elon Musk zegt nu dat het genereren van afbeeldingen alleen beschikbaar zal zijn voor betaalde gebruikers.)
Onderzoekers uit verschillende landen zijn onderzoeken gestart naar de vraag of xAI de wet heeft overtreden, inclusief regels over pornografische deepfakes en materiaal over seksueel misbruik van kinderen. Natuurlijk is geen van deze regeringen op dit moment zo verwikkeld in xAI of Elon Musk als de Verenigde Staten.

Ministerie van Defensie bood het bedrijf een contract van $ 200 miljoen aan voor Grok vorig jaar. Nu vertelt een ambtenaar in het Pentagon Snel bedrijf dat het “beleid van het agentschap inzake het gebruik van kunstmatige intelligentie volledig in overeenstemming is met alle toepasselijke wet- en regelgeving”, eraan toevoegend dat “het personeel een mandaat heeft om deze normen te handhaven, en dat elke illegale activiteit onderworpen zal zijn aan passende disciplinaire maatregelen.”

De regering-Trump heeft ook een reeks overeenkomsten getekend met xAI om de Grok-chatbot aan te bieden aan federale werknemers voor gebruik op kantoor. Het Witte Huis reageerde niet op een verzoek om commentaar. Carahsoft, een contractant van de federale overheid die zich aanmeldde, ook niet de verkoop vergemakkelijken van xAI’s Grok for Government-productsuite.

De General Services Administration, een scheve maar kritische federale instantie die verschillende grote overheidsdeals voor AI-bedrijven, waaronder xAI, heeft georkestreerd, lijkt de kwestie in twijfel te trekken. Dat zegt het agentschap Snel bedrijf dat Grok nog steeds zijn eigen interne beveiligingstests onderging voorafgaand aan de integratie in USAi, een enorm AI-platform voor de Amerikaanse overheid dat al technologie van bedrijven als OpenAI, Google en Anthropic bevat.

Maar het is onduidelijk hoe betrokken of actief deze tests eigenlijk zijn. Het is maanden geleden dat deze evaluaties voor het eerst werden besproken, en het bureau heeft geen enkele update vrijgegeven over hoe het Grok is vergaan. Snel bedrijf heeft een verzoek uit de Freedom of Information Act ingediend voor alle openbaar beschikbare documenten met betrekking tot de resultaten van deze evaluaties, maar heeft geen reactie ontvangen.

“Grok for Government en xAI ondergaan momenteel de vereiste interne veiligheidsbeoordelingen van GSA voorafgaand aan een mogelijke integratie in USAi.gov”, zegt Marianne Copenhaver, woordvoerder van het agentschap. Snel bedrijf. Elke federale instantie die besluit Grok te kopen via de grotere xAI-overheidsovereenkomst die zij al voor het bedrijf heeft helpen onderhandelen, is “verantwoordelijk voor het evalueren van de modellen die zij kiezen te gebruiken”, voegt ze eraan toe.

Copenhaver zei niet of het bureau de nieuwe neiging van Grok voor het produceren van materiaal over seksueel misbruik van kinderen (CSAM) bestudeerde.

Verantwoordelijkheid

In de VS is het mogelijk dat xAI met juridische problemen te maken krijgt. Het gebruik van kunstmatige intelligentie om bijvoorbeeld minderjarigen uit te kleden, valt mogelijk al onder het bestaande strafrecht. Daarnaast is er de Take It Down Act, een tweeledig wetsvoorstel geschreven door Sens. Ted Cruz en Amy Klobuchar en ondertekend door Donald Trump vorig jaar vereist dat platforms binnen twee dagen na kennisgeving seksuele afbeeldingen zonder toestemming binnen AI verwijderen.

Het inzetten van Grok binnen de Amerikaanse federale overheid kan een grote verantwoordelijkheid zijn, zeggen verschillende experts Snel bedrijf.

Als instanties xAI gebruiken, zullen ambtenaren uiteindelijk extra waarborgen nodig hebben om Grok bruikbaar te maken voor de overheid, wat moeilijk zou zijn als xAI uiteindelijk bepaalde gegevens over overheidssystemen zou bewaren, zei een voormalig functionaris van het Witte Huis.
In de huidige vorm van Grok zouden federale werknemers in theorie CSAM kunnen creëren – een “alarmerende” mogelijkheid, zegt David Nesting, een voormalig AI-adviseur van de federale hoofdinformatiefunctionaris. “Als instanties het gebruik van generatieve AI op de werkplek niet monitoren en filteren, lijkt dat een maas in de wet.”

Mike Horton, de voormalige Chief AI Officer bij het Department of Transportation, zegt dat het CSAM-probleem van Grok het “onvermijdelijke resultaat is van een Wild West-cultuur in Silicon Valley en de federale overheid om ‘snel te handelen en dingen kapot te maken’.” Vangrails zijn nodig, zegt hij, om te voorkomen dat dit soort situaties zich überhaupt voordoen.

“Ongeremde AI-acceleratie zonder vangrail is als het besturen van een Maserati met een snelheid van 200 km/u zonder remmen. Zo snel kun je betrouwbaar en veilig rijden omdat van de remmen, niet ondanks die remmen”, zegt hij.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in