Home Nieuws Antropisch | Veiligheidsdilemma – De Hindoe

Antropisch | Veiligheidsdilemma – De Hindoe

2
0
Antropisch | Veiligheidsdilemma – De Hindoe

In 2025 omarmde Anthropic publiekelijk een grotere defensievoetafdruk door een deal aan te kondigen met het Amerikaanse ministerie van Defensie ter waarde van $ 200 miljoen. Afbeelding gebruikt voor representatiedoeleinden. | Fotocredit: Reuters

Anthropic heeft het afgelopen jaar geprobeerd in een lastige positie te komen: dicht genoeg bij het Amerikaanse nationale veiligheidsapparaat om als grensleverancier te worden behandeld, maar ver genoeg om niet verbrand te worden. Bij een demonstratie van deze yogareputatie werd onthuld dat de Amerikaanse operatie dat ook is ontvoering van de Venezolaanse president Nicolas Maduro op 3 januari gebruikte het AI-model Claude van Anthropic.

Onlangs kwam Anthropic in botsing met het Pentagon over veiligheidsmaatregelen om volledig autonome wapenaanvallen en Amerikaans binnenlands toezicht te voorkomen. Terwijl Anthropic betoogde dat dit niet-onderhandelbare grenzen zijn, heeft het Pentagon geoordeeld dat commerciële kunstmatige intelligentie beschikbaar moet zijn voor “alle wettige doeleinden”. Nog recenter overwoog het Pentagon om Anthropic aan te merken als een ‘toeleveringsketenrisico’ – een label dat aannemers onder druk zou kunnen zetten om te verklaren dat ze Claude niet gebruiken.

Waarom is Anthropic in deze situatie beland?

In 2025 omarmde het bedrijf publiekelijk een grotere defensievoetafdruk door een overeenkomst met het Amerikaanse ministerie van Defensie ter waarde van 200 miljoen dollar. Het was een teken dat Anthropic het laboratorium wilde zijn dat ‘ja’ wilde zeggen tegen de nationale veiligheid, terwijl het nog steeds binnen de grenzen opereerde, en daarbij een publieke reputatie wilde behouden als een bedrijf dat deel uitmaakt van de militaire machine. Anthropic heeft ook geprobeerd zichzelf te presenteren als een bedrijf voor bedrijfsproductiviteit in plaats van alleen maar een laboratorium met een chatbot. Het partnerschap met Infosys zal zijn modellen bijvoorbeeld koppelen aan een bedrijf dat al compliance- en governancediensten verkoopt aan zwaar gereguleerde industrieën.

Twee ambities

De reden voor dit verband is dat een bedrijf dat kan beweren veilig te opereren in een overheidscontext met strikte veiligheidsverwachtingen, zichzelf ook plausibel kan verkopen aan banken, fabrikanten en telecommunicatiebedrijven. Dat wil zeggen, volgens regeringen, zegt Anthropic: “We zullen democratische staten helpen een technologisch voordeel te behouden, maar we zullen geen implementaties accepteren zoals autonome targeting of uitgebreide binnenlandse surveillance”. Als gevolg hiervan wordt het tegen de bedrijven gezegd: “We kunnen grensverleggende AI operationeel maken binnen omgevingen met strikte compliance-eisen”.

Helaas, deze twee ambities zijn inmiddels met elkaar in botsing gekomen. Anthropic lijkt te geloven dat het toegeven aan autonome targeting en binnenlandse surveillance de lijn zou vernietigen die het heeft geprobeerd te trekken ten opzichte van andere grenslaboratoria en nieuwkomers die ook defensieklanten berechten.

Het Pentagon lijkt echter aan te geven dat de morele complicaties van zijn leveranciers er niet toe doen, vooral als de leveranciers zich binnen de defensietoeleveringsketen bevinden.

De bedrijfsautomatiseringslaag – dwz. de coderings- en agentsystemen waarmee Claude rechtstreeks in workflows kan worden geïntegreerd in plaats van het als een chatbot te houden die bedrijven op een ad hoc manier gebruiken – blijft een van de belangrijkste aandachtsgebieden van Anthropic. En het bedrijf heeft ook geprobeerd de veiligheidskenmerken van zijn modellen als een voordeel te presenteren, omdat de logica ervan lijkt te zijn dat toezichthouders en bedrijven de voorkeur zullen geven aan die modellen, zelfs als concurrenten krachtigere alternatieven ontwikkelen. Maar dit betekent ook dat als Anthropic toegeeft aan de eisen van het Pentagon, het zijn kenmerkende differentiatie zou kunnen verliezen, terwijl als het weigert, het Pentagon er een voorbeeld van zou kunnen maken.

Het is een feit dat Anthropic weliswaar kan proberen te controleren hoe Claude wordt gebruikt, maar dat zijn controle zal verzwakken zodra Claude het gebouw verlaat. Anthropic kan in de servicevoorwaarden zeggen “je mag Claude niet gebruiken voor x” of het model trainen om bepaalde verzoeken af ​​te wijzen, maar zelfs dan gebruiken grote klanten zelden een AI-model als een zelfstandige chatbot. In plaats daarvan hebben ze er toegang toe via cloudplatforms, integreren ze het in softwaretools zoals data-analyse en automatisering, en passen ze het aan specifieke missies aan. Met andere woorden: klanten kunnen de servicevoorwaarden omzeilen, en de kwestie van de medeplichtigheid van Anthropic blijft hangen.

In die zin zijn de recente beslissingen van Anthropic waarschijnlijk coherent. Het wedt dat een markt nerveus is over kunstmatige intelligentie – b.v. regeringen die zich zorgen maken over tegenstanders of bedrijven die zich zorgen maken over aansprakelijkheid – zullen een premie betalen voor een ontwikkelaar die zowel kan implementeren als beperken. En de impasse met het Pentagon is de eerste grote demonstratie van wat het Anthropic gaat kosten om beide tegelijk te doen.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in