Antropisch kan niet manipuleren zijn generatieve AI-model Claude wanneer het Amerikaanse leger het laat draaien, schreef een leidinggevende vrijdag in een rechtszaak. De verklaring werd afgelegd als reactie op aantijgingen van de regering-Trump over het bedrijf mogelijk zijn AI-instrumenten manipuleert tijdens oorlog.
“Anthropic heeft nooit de mogelijkheid gehad om Claude te laten stoppen met werken, de functionaliteit ervan te veranderen, de toegang af te sluiten of anderszins militaire operaties te beïnvloeden of in gevaar te brengen”, zegt Thiyagu Ramasamy, hoofd van de publieke sector van Anthropic. schreef. “Anthropic heeft niet de noodzakelijke toegang om de technologie uit te schakelen of het gedrag van het model te veranderen voor of tijdens lopende operaties.”
Het Pentagon overlegt al maanden met het toonaangevende AI-lab over hoe zijn technologie kan worden gebruikt voor de nationale veiligheid – en wat de grenzen van dat gebruik zouden moeten zijn. Deze maand noemde minister van Defensie Pete Hegseth Antropisch één risico voor de toeleveringsketeneen aanduiding die het ministerie van Defensie de komende maanden zal beletten de software van het bedrijf te gebruiken, ook via aannemers. Andere federale agentschappen verlaten Claude ook.
Antropisch heeft twee rechtszaken aangespannen het aanvechten van de grondwettigheid van het verbod en het verzoeken om een noodbevel om het ongedaan te maken. De klanten zijn echter al begonnen opzegging van overeenkomsten. Een hoorzitting in een van de zaken is gepland op 24 maart bij de federale rechtbank in San Francisco. De rechter zou kort daarna kunnen beslissen over een tijdelijke terugneming.
In een dossier eerder deze week schreven overheidsjuristen dat het ministerie van Defensie “niet verplicht is het risico te tolereren dat kritieke militaire systemen op kritieke momenten voor de nationale defensie en actieve militaire operaties in gevaar komen.”
Het Pentagon heeft Claude gebruikt om gegevens te analyseren, memo’s te schrijven en gevechtsplannen te helpen genereren, WIRED gemeld. Het argument van de regering is dat Anthropic actieve militaire operaties kan verstoren door de toegang tot Claude uit te schakelen of schadelijke updates te pushen als het bedrijf bepaald gebruik afwijst.
Ramasamy verwierp die optie. “Anthropic heeft geen achterdeur of ‘kill switch’ op afstand”, schreef hij. “Antropisch personeel kan bijvoorbeeld niet inloggen op een DoW-systeem om de modellen tijdens een operatie aan te passen of uit te schakelen; zo werkt de technologie simpelweg niet.”
Hij vervolgde dat Anthropic alleen updates zou kunnen leveren met goedkeuring van de overheid en haar cloudprovider, in dit geval Amazon Web Services, hoewel hij dat niet bij naam specificeerde. Ramasamy voegde eraan toe dat Anthropic geen toegang heeft tot de aanwijzingen of andere gegevens die militaire gebruikers in Claude invoeren.
Antropische leidinggevenden betogen in rechtszaken dat het bedrijf geen vetorecht wil over militaire tactische beslissingen. Sarah Heck, hoofd beleid, schreef in een rechtszaak vrijdag dat Anthropic bereid was zoveel te garanderen in een contract dat op 4 maart werd voorgesteld. “Voor alle duidelijkheid: (Anthropic) begrijpt dat deze licentie geen enkel recht verleent of verleent op controle of vetorecht over de operationele besluitvorming van het Department of War,” aldus het voorstel, volgens de indiening, waarin werd verwezen naar een alternatieve naam voor het Pentagon.
Het bedrijf was ook bereid taal te accepteren die tegemoet zou komen aan de zorgen dat Claude werd gebruikt om dodelijke aanvallen uit te voeren zonder menselijk toezicht, betoogde Heck. Maar uiteindelijk mislukten de onderhandelingen.
Voorlopig het Ministerie van Defensie hebben gezegd in rechtszaken dat het “aanvullende maatregelen neemt om het risico van de toeleveringsketen te beperken” stelt het bedrijf door “samen te werken met externe cloudserviceproviders om ervoor te zorgen dat het Anthropic-management geen eenzijdige wijzigingen kan aanbrengen” in de momenteel bestaande Claude-systemen.



