Home Nieuws Het ministerie van Justitie zegt dat Anthropic niet kan worden vertrouwd als...

Het ministerie van Justitie zegt dat Anthropic niet kan worden vertrouwd als het gaat om oorlogssystemen

3
0
Het ministerie van Justitie zegt dat Anthropic niet kan worden vertrouwd als het gaat om oorlogssystemen

De regering-Trump heeft dinsdag in een rechtszaak betoogd dat het de First Amendment-rechten van Anthropic niet heeft geschonden door de AI-ontwikkelaar aan te merken als een supply chain-risico en voorspelde dat de rechtszaak van het bedrijf tegen de regering zal mislukken.

“Het Eerste Amendement is geen vrijbrief om eenzijdig contractvoorwaarden aan de regering op te leggen, en Anthropic haalt niets aan dat zo’n radicale conclusie ondersteunt”, schreven advocaten van het Amerikaanse ministerie van Justitie.

Het antwoord werd ingediend bij de federale rechtbank in San Francisco, een van de twee locaties waar Anthropic gevestigd is het besluit van het Pentagon over sancties aanvechten het bedrijf met een merk dat bedrijven kan uitsluiten van defensiecontracten vanwege zorgen over mogelijke beveiligingsproblemen. Antropische beweringen dat de regering-Trump haar bevoegdheid heeft overschreden om het merk te gebruiken en te voorkomen dat de technologieën van het bedrijf op het departement worden gebruikt. Als de benoeming standhoudt, kan Anthropic tot miljarden dollars verliezen qua verwachte omzet dit jaar.

Anthropic wil de normale gang van zaken hervatten totdat de rechtszaak is opgelost. Rita Lin, de rechter die toezicht houdt op de zaak San Francisco, heeft aanstaande dinsdag een hoorzitting gepland om te beslissen of het verzoek van Anthropic wordt ingewilligd.

Advocaten van het ministerie van Justitie, die dinsdag voor het ministerie van Defensie en andere instanties schreven, beschreven de zorgen van Anthropic over mogelijk omzetverlies als “juridisch onvoldoende om onherstelbare schade te veroorzaken” en drongen er bij Lin op aan het bedrijf uitstel te ontzeggen.

De advocaten schreven ook dat de regering-Trump gemotiveerd was om op te treden vanwege ‘bezorgdheid over het potentiële toekomstige gedrag van Anthropic als zij toegang zou behouden’ tot technologiesystemen van de overheid. “Niemand heeft beweerd de expressieve activiteit van Anthropic te beperken”, schreven ze.

De regering beweert dat de drang van Anthropic om de manier waarop het Pentagon zijn AI-technologie kan gebruiken te beperken, ertoe heeft geleid dat minister van Defensie Pete Hegseth ‘redelijkerwijs’ heeft vastgesteld dat ‘personeel van Anthropic zou kunnen saboteren, kwaadwillig ongewenste functionaliteit zou kunnen introduceren of anderszins het ontwerp, de integriteit of de werking van een nationaal veiligheidssysteem zou kunnen ondermijnen.’

Het ministerie van Defensie en Anthropic hebben gevochten over mogelijke beperkingen op de Claude AI-modellen van het bedrijf. Anthropic is van mening dat hun modellen niet mogen worden gebruikt om breed toezicht op Amerikanen te vergemakkelijken en dat ze momenteel niet betrouwbaar genoeg zijn om volledig autonome wapens te gebruiken.

Verschillende juridische experts vertelden eerder aan WIRED dat Anthropic er sterk van overtuigd is dat de supply chain-maatregel neerkomt op onwettige vergelding. Maar rechtbanken geven vaak de voorkeur aan nationale veiligheidsargumenten van de regering, en functionarissen van het Pentagon hebben Anthropic beschreven als een malafide aannemer en dat zijn technologieën niet te vertrouwen zijn.

“In het bijzonder maakte DoW zich zorgen dat het toestaan ​​van Anthropic voortdurende toegang tot de technische en operationele oorlogsinfrastructuur van DoW onaanvaardbare risico’s zou introduceren in de toeleveringsketens van DoW”, aldus de aanvraag van dinsdag. “AI-systemen zijn acuut kwetsbaar voor manipulatie, en Anthropic kan proberen zijn technologie uit te schakelen of preventief het gedrag van zijn model te veranderen, vóór of tijdens aanhoudende vijandelijkheden, als Anthropic – naar eigen goeddunken – van mening is dat de ‘rode lijnen’ van het bedrijfsleven worden overschreden.”

Het ministerie van Defensie en andere federale instanties werken eraan om de AI-tools van Anthropic de komende maanden te vervangen door producten van concurrerende technologiebedrijven. Een van de populairste toepassingen van Claude door het leger is voorbij Palantir-software voor gegevensanalysemensen die bekend zijn met de zaak vertelden WIRED.

In de indiening van dinsdag voerden de advocaten aan dat het Pentagon “niet zomaar een schakelaar kan omzetten in een tijd waarin Anthropic momenteel het enige AI-model is dat is goedgekeurd voor gebruik” op de “geheime systemen van het ministerie en er intensieve gevechtsoperaties aan de gang zijn.” De afdeling werkt aan het implementeren van AI-systemen van Google, OpenAI en xAI als alternatieven.

Een aantal bedrijven en groepen, waaronder AI-onderzoekersMicrosoft, een federale werknemersvakbond en voormalige militaire leiders hebben rechtszaken aangespannen ter ondersteuning van Anthropic. Er zijn geen aanvragen ingediend ter ondersteuning van de regering.

Anthropic heeft tot vrijdag de tijd om te reageren op de argumenten van de regering.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in