De afgelopen dagen heeft het Amerikaanse ministerie van Defensie dat gedaan zonder pardon het AI-bedrijf Anthropi eruit gooienc, dat de codeerassistent van Claude ontwikkelt, en het bedrijf bestempelt als een ’toeleveringsketenrisico’, het soort veebranding dat is voorbehouden aan bedrijven die zijn gecompromitteerd door vijandige buitenlandse staten. De reden was simpel: Antropic weigerde toe te geven over het toestaan dat haar instrumenten worden gebruikt voor wijdverbreid binnenlands toezicht en voor volledig autonome wapens. De heftige impasse met de Amerikaanse regering – die Anthropic ervan beschuldigde een ‘burgerwacht’ en ‘radicale’ agenda na te streven – is een schokkende escalatie ondanks eerdere concessies die het Amerikaanse leger in staat zouden stellen Claude te gebruiken, wat helpt bij het snel creëren en bijwerken van codebases. Het conflict zendt ook een huiveringwekkende boodschap uit: een grote macht kan alles doen, met of zonder veiligheidsmaatregelen, om de strategische overhand te krijgen. Dit is een gevaarlijke boodschap in een multipolaire wereld waar gemeenschappelijke normen op het gebied van veiligheid steeds moeilijker te realiseren zijn.
Dit is niet langer de wereld van de Bletchley Park AI-veiligheidstop. Het was een bijeenkomst waarin de snelgroeiende kracht van AI-systemen werd erkend en de gedeelde mondiale noodzaak om ervoor te zorgen dat risico’s met een hoge inzet worden beperkt. Welke weerklank vindt deze waardige boodschap wanneer het land dat zich op de grens van de AI-ontwikkeling bevindt zo publiekelijk elke vorm van bescherming tegen oorlog afwijst, in een tijd waarin een roekeloze aanval op Iran – met naar verluidt enige hulp van Claude – voortduurt? Bedrijven moeten enige ruggengraat tonen als ze te maken krijgen met schandalige eisen die angstaanjagende gevolgen kunnen hebben in hun thuisland en over de hele wereld. Als de VS de politieke ruimte voor binnenlands toezicht op zo’n volle nek claimen, waar blijven dan landen waar het infiltreren van de politieke oppositie met spyware op hun telefoons al de norm is? Anthropic toonde deze ruggengraat en verdiende de solidariteit van zijn collega’s. Helaas is dat niet wat er gebeurde toen ChatGPT-maker OpenAI het Amerikaanse ministerie van Defensie de flexibiliteit leek te geven waar het naar op zoek was uur nadat Anthropic persona non grata werd. Ondanks de verzekering van OpenAI dat de overeenkomst belangrijke waarborgen biedt, is de AI-beveiliging beschadigd terwijl de andere supermacht en een groot aantal middenmachten over de hele wereld nauwlettend toekijken. Bedrijven zijn misschien niet de ideale figuren om een standpunt in te nemen – gezien hun winstmotieven – maar omdat sterke instituties over de hele wereld versleten zijn, zijn er maar weinig plekken waar je leiderschap op het gebied van veiligheid kunt zoeken. Als een bedrijf waar miljarden dollars op het spel staan ’nee’ zegt, is dat geen veelbelovend teken van wat komen gaat als iemand anders tussenbeide komt en ‘misschien wel’ zegt.
Uitgegeven – 5 maart 2026 om 12.20 uur IST



