Antropisch gezegd Donderdag kan het “niet met een goed geweten” voldoen aan de eis van het Pentagon om de beveiliging van zijn kunstmatige-intelligentiemodel te verwijderen en het Amerikaanse leger onbelemmerde toegang te geven tot zijn AI-capaciteiten.
Het ministerie van Defensie had gedreigd een contract ter waarde van 200 miljoen dollar op te zeggen. en beschouwde Anthropic als een ‘toeleveringsketenrisico’, een aanduiding met ernstige financiële gevolgen als het bedrijf vrijdag niet aan het verzoek zou voldoen.
Algemeen directeur Dario Amodei zei in een verklaring dat de bedreigingen van de minister van Defensie, Piet Hegsethzou het standpunt van het bedrijf niet veranderen en hij hoopte dat Hegseth zou “heroverwegen”.
‘Onze sterke voorkeur gaat uit naar het blijven dienen van het ministerie en onze strijders – met onze twee gewenste waarborgen’, zei hij. “Wij blijven bereid ons werk voort te zetten ter ondersteuning van de Amerikaanse nationale veiligheid.”
De kern van de impasse bij het ministerie van Defensie en Antropologie is een meningsverschil over de manier waarop het AI-bedrijf zal toestaan dat zijn product, Claude, wordt gebruikt. Het Pentagon heeft dat Anthropic geëist schakel de beveiliging uit en elk legaal gebruik van Claude toestaan, terwijl Anthropic zich heeft verzet tegen het gebruik van Claude voor massatoezicht thuis of in autonome wapensystemen die mensen kunnen doden zonder menselijke inbreng.
Na maanden van strijd en druk van de regering besloot Hegseth naar verluidt gaf Amodei tot vrijdagavond om de eisen van het Pentagon te aanvaarden, anders worden strafmaatregelen opgelegd.
Of Anthropic zou toegeven, werd gezien als een spraakmakende test van zijn claim het meest veiligheidsbewuste van de grote AI-bedrijven te zijn, en ook of enig onderdeel van de AI-industrie zich zou verzetten tegen de wens van de regering om de technologie te gebruiken voor controversiële, potentieel dodelijke doeleinden.
In zijn verklaring zei Amodei dat het gebruik van kunstmatige intelligentie voor autonome wapens en massale surveillance in huis “simpelweg de grenzen overschrijdt van wat de huidige technologie veilig en betrouwbaar kan doen”.
Het ministerie van Defensie heeft de afgelopen jaren een aantal lucratieve deals gesloten met technologiebedrijven, zodat deze bedrijven AI-technologie kunnen bouwen of integreren in Amerikaanse militaire systemen. Afgelopen juli was Anthropic een van de vele grote technologiebedrijven, waaronder Google en OpenAI contracten tot 200 miljoen dollar ontvangen met DoD. Wat Anthropic onderscheidde en het conflict met het Pentagon heeft aangewakkerd, is dat dit tot deze week het enige AI-model was dat was goedgekeurd voor gebruik in de geheime systemen van het leger. (XAI van Elon Musk een akkoord bereikt eerder deze week ook te gebruiken in geheime systemen.)
De technologie van Anthropic heeft dat naar verluidt al gedaan voor militaire doeleinden gebruiktwaaronder de Amerikaanse gevangenneming van de Venezolaanse leider Nicolás Maduro vorige maand, wat het groeiende gebruik van kunstmatige intelligentie in conflicten benadrukt. De groei van autonome wapentechnologie, zoals drones die operaties kunnen uitvoeren zelfs nadat hun verbinding met een menselijke operator is verbroken, heeft ook de al lang bestaande bezorgdheid vergroot over de manier waarop AI zal worden gebruikt in situaties van leven en dood.
Anthropic en Amodei zijn lange tijd enkele van de meest prominente pleitbezorgers van de industrie geweest voor regulering en waarborgen bij de ontwikkeling van kunstmatige intelligentie, hoewel ze overeenkomsten hebben gesloten met het leger en deze week de een kernbeleid geen nieuwe AI-modellen vrijgeven zonder eerst de veiligheid ervan te garanderen. Amodei’s oproep tot regulering, en geschiedenis van politieke oppositie aan Donald Trump, is in strijd gegaan met de beloften van Hegseth om de “waakzaamheid” van de strijdkrachten weg te nemen en een agressief militair beleid te voeren.
Als Hegseth gevolg geeft aan zijn dreigement om Anthropic te categoriseren als een supply chain-risico, zou dat een enorme klap zijn voor het AI-bedrijf. De benaming, die vaker bedoeld is voor buitenlandse tegenstanders, zou andere leveranciers verbieden waarmee ze handel drijven Amerikaans leger van het gebruik van Anthropic-producten.



