Home Nieuws AI-bedrijf Anthropic klaagt het Amerikaanse ministerie van Defensie aan wegens plaatsing op...

AI-bedrijf Anthropic klaagt het Amerikaanse ministerie van Defensie aan wegens plaatsing op de zwarte lijst | Technologie

3
0
AI-bedrijf Anthropic klaagt het Amerikaanse ministerie van Defensie aan wegens plaatsing op de zwarte lijst | Technologie

Anthropic heeft maandag twee rechtszaken aangespannen tegen het ministerie van Defensie, waarin wordt beweerd dat het besluit van de regering om het kunstmatige-intelligentiebedrijf te bestempelen als een ‘toeleveringsketenrisico’ illegaal was en in strijd was met de rechten van het Eerste Amendement. De twee zijden zijn tot één samengevoegd maanden van verhitte vete over de pogingen van het bedrijf om waarborgen te implementeren tegen het mogelijke gebruik door het leger van zijn AI-modellen voor binnenlandse massabewaking of volledig autonome dodelijke wapens.

De zaken, die Anthropic heeft aangespannen bij de Northern District Court van Californië en het Amerikaanse Hof van Beroep voor het Washington DC Circuit, komen nadat het Pentagon afgelopen donderdag formeel de supply chain risk-aanduiding heeft afgegeven, de eerste keer dat de zwarte lijst-tool tegen een Amerikaans bedrijf is gebruikt. Het AI-bedrijf beloofde eerder de benaming aan te vechten en de eis dat elk bedrijf dat zaken doet met de overheid alle banden met Anthropic zou verbreken, een ernstige bedreiging voor zijn bedrijfsmodel.

De rechtszaak van Anthropic beweert dat de regering-Trump het bedrijf straft voor haar weigering om te voldoen aan de ideologische eisen van de regering, in strijd met haar beschermde meningsuiting en een poging om het bedrijf te straffen voor het niet naleven ervan.

“Deze acties zijn ongekend en illegaal. De grondwet staat de regering niet toe haar enorme macht uit te oefenen om een ​​bedrijf te straffen voor zijn beschermde uitingen”, zei Anthropic in zijn rechtszaak in Californië.

Het AI-model van Anthropic, genaamd Claude, is het afgelopen jaar diep geïntegreerd in het ministerie van Defensie. Tot voor kort was Claude ook het enige AI-model dat was goedgekeurd voor gebruik in geclassificeerde systemen. Het Ministerie van Defensie heeft het naar verluidt op grote schaal gebruikt bij zijn militaire operaties, onder meer bij het beslissen waar raketaanvallen moeten worden gericht in de oorlog tegen Iran.

Anthropic benadrukte in zijn rechtszaak dat het nog steeds verplicht is om AI te leveren voor nationale veiligheidsdoeleinden. Het bedrijf verklaarde ook in zijn rechtszaak in Californië dat het eerder met het DoD had samengewerkt om zijn systemen aan te passen voor unieke gebruiksscenario’s. Ook wil het bedrijf de onderhandelingen met de overheid voortzetten, zo blijkt uit een verklaring.

“Het zoeken naar rechterlijke toetsing verandert niets aan onze al lang bestaande inzet om AI in te zetten om onze nationale veiligheid te beschermen, maar dit is een noodzakelijke stap om ons bedrijf, onze klanten en onze partners te beschermen”, zei een woordvoerder van Anthropic in een verklaring aan de Guardian. “We zullen elke weg naar een oplossing blijven volgen, inclusief dialoog met de regering.”

Het AI-bedrijf beweerde in de rechtszaak dat de regering-Trump en de strafmaatregelen van het Pentagon ‘Anthropic onherstelbaar schade hebben berokkend’, een beschuldiging die enigszins wordt tegengesproken door Dario Amodei, de CEO van Anthropic. vertelde CBS News vorige week dat “de impact van deze benaming vrij klein is” en dat het “wel goed komt met het bedrijf”.

“Gedaagden proberen de economische waarde te vernietigen die wordt gecreëerd door een van ’s werelds snelst groeiende particuliere bedrijven, die een leider is in de verantwoorde ontwikkeling van een nieuwe technologie die van cruciaal belang is voor onze natie”, betoogde Anthropic in zijn rechtszaak.

Het Ministerie van Defensie reageerde niet onmiddellijk op een verzoek om commentaar.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in