Home Nieuws Het verzet van Anthropic tegen het Amerikaanse ministerie van Defensie, de inzending...

Het verzet van Anthropic tegen het Amerikaanse ministerie van Defensie, de inzending van OpenAI: uitgelegd

10
0
Het verzet van Anthropic tegen het Amerikaanse ministerie van Defensie, de inzending van OpenAI: uitgelegd

De afbeelding wordt uitsluitend voor representatieve doeleinden gebruikt. | Fotocredit: Reuters

Het verhaal tot nu toe: Het Amerikaanse ministerie van Defensie (ingericht als Ministerie van Oorlog tijdens de tweede regering-Trump) is een publieke ruzie aangegaan met het AI-bedrijf Anthropic, dat het Claude AI-product maakt. DoD heeft dreigde antropisch te noemen een ‘toeleveringsketenrisico’ dat een groot aantal bedrijven die met de Amerikaanse overheid samenwerken, ontmoedigt betuttelt de producten van Anthropic. ChatGPT-maker OpenAI kwam vervolgens in beeld en sloot een deal die volgens hem niet radicaal anders was dan wat Anthropic wilde.

Wat is Claude?

Claude is een AI-chatbot waarmee organisaties en individuele gebruikers code kunnen maken en wijzigen. Het Claude Code-product is uitzonderlijk goed ontvangen vanwege zijn mogelijkheden. Claude Code is een van de weinige AI-producten dat werkt met extreem krachtige grote taalmodellen (LLM’s), terwijl het het maken en bewerken van tools op het apparaat ondersteunt zodra het toegang heeft tot een aantal softwarebibliotheken om mee te werken.

Het product is zeer aantrekkelijk voor defensie omdat het kan voortbouwen op hightech wapens en verdedigingssystemen. Het werven van programmeurs voor deze systemen verloopt doorgaans traag, omdat elk cruciaal wapensysteem wordt beschermd door meerdere lagen van geheimhouding, waardoor veiligheidsmachtigingen nodig zijn die tijdrovend kunnen zijn.

Claude Code is een overtuigend voorstel geweest voor het Ministerie van Defensie, omdat het hen waarschijnlijk in staat stelt programma’s te herhalen die de technologie snel aandrijven. Hoewel Claude Code de programmeertaken niet altijd perfect uitvoert, werkt het zo goed dat veel ontwikkelingstijdlijnen zijn ingekort in organisaties die het op grote schaal hebben geïmplementeerd, vooral onder personeel dat al ervaren softwareontwikkelaars is.

Waarom botste Anthropic met het DoD?

Anthropic werd afgelopen juni door het Ministerie van Defensie aan boord gehaald als onderdeel van een contract ter waarde van 200 miljoen dollar, waardoor de Amerikaanse overheid de diensten van Claude kon gebruiken vanuit een speciale infrastructuur die werd gehost door Amazon Web Services.

De problemen tussen het bedrijf en het Ministerie van Defensie begonnen op 9 januari, toen minister van Defensie Pete Hegseth een memorandum uitbracht met de titel ‘Accelerating America’s Military AI Dominance’, waarin hij opriep tot de opheffing van ‘blokkades op het delen van gegevens, autorisatie om te opereren (ATO’s), testen en evaluatie en certificering, contractering en ander beleid voor werving en talentbeheer dat snelle aanwerving en talentmanagement in het veld verhindert.’

Anthropic heeft een veelbesproken ‘grondwet’ voor Claude die het model ervan weerhoudt wijdverbreide surveillance te ondersteunen en volledig autonome wapens mogelijk te maken. Dario Amodei, de medeoprichter van het bedrijf, drong aan op krachtig taalgebruik in de overeenkomst tussen het DoD en Anthropic om bescherming in te bouwen tegen binnenlands toezicht op Amerikaanse burgers en om volledig autonome wapens mogelijk te maken.

Het bedrijf had tot vrijdag de tijd om toe te geven en het Ministerie van Defensie volledig onbeperkte toegang te geven tot zijn modellen. Het weigerde en zei in een blogpost dat het de DoD-overgang naar een nieuwe provider zou helpen.

Het Ministerie van Defensie classificeerde Anthropic vervolgens als een risico voor de toeleveringsketen, een aanduiding die gewoonlijk wordt toegepast op bedrijven die zulke risicovolle praktijken hanteren dat hun producten buitenlandse tegenstanders een achterdeur naar kritieke systemen zouden kunnen bieden. Hoewel deze aanduiding leveranciers en partners van het Ministerie van Defensie alleen toestaat Claude niet te gebruiken op speciale systemen van het DoD, bestaan ​​er zorgen dat managers het zekere voor het onzekere nemen en de banden met Claude helemaal verbreken.

Wat is de deal van OpenAI? Hoe is het anders?

OpenAI heeft een deal gesloten met het Ministerie van Defensie, waarvan eerstgenoemde beweert dat het dezelfde bescherming biedt tegen surveillance en volledig autonome wapens als Anthropic zocht. Het is niet helemaal duidelijk waarom OpenAI deze deal kon binnenhalen terwijl Anthropic eruit werd gezet. “Het Ministerie van Oorlog mag het AI-systeem gebruiken voor elk wettig doel, in overeenstemming met de toepasselijke wetgeving, operationele vereisten en gevestigde beveiligings- en toezichtprotocollen”, zegt een deel van de door OpenAI gepubliceerde overeenkomst.

“Het AI-systeem zal niet worden gebruikt om autonome wapens onafhankelijk aan te sturen, in ieder geval waarin wet-, regelgeving of departementaal beleid menselijke controle vereist, noch zal het worden gebruikt om andere beslissingen met hoge inspanning te nemen die de goedkeuring vereisen van een menselijke beslisser onder dezelfde autoriteiten.” Anthropic zou meer duidelijkheid hebben gezocht in de juridische taal van de overeenkomst, waardoor de hierboven beschreven gebruiksscenario’s zouden worden verboden, zelfs als ze gelegaliseerd zouden zijn.

“Wij geloven dat onze rode lijnen hier beter afdwingbaar zijn, omdat de implementatie beperkt is tot alleen de cloud (niet aan de rand), onze beveiligingsstack blijft werken zoals wij denken dat het beste is, en het erkende OpenAI-personeel op de hoogte houdt”, zei OpenAI in een verklaring. “We weten niet waarom Anthropic deze overeenkomst niet kon bereiken, en we hopen dat zij en meer laboratoria dit zullen overwegen.”

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in