Af en toe onthult een ’technisch’ geschil iets veel groters. De recente uitbarsting tussen het Amerikaanse ministerie van Defensie en Anthropic is zo’n moment: niet omdat het om een contract van $200 miljoen gaat, maar omdat het een nieuw soort bedrijfsrisico blootlegt, een risico dat de meeste CEO’s, CTO’s en CIO’s nog steeds als een inkoopdetail beschouwen.
In een recent stuk “Het Pentagon wil de regels voor kunstmatige intelligentie herschrijven“Ik concentreerde me op de politieke betekenis van een regering die probeert er een te forceren AI bedrijf om zijn eigen vangrails los te maken. Voor bedrijfsleiders is de belangrijkste conclusie praktischer: als uw AI-capaciteiten afhankelijk zijn van de voorwaarden, het beleid en de handhavingsmechanismen van één enkele provider, bevindt uw strategie zich nu stroomafwaarts van het conflict van iemand anders.
Volgens berichtgeving is Het Pentagon wilde de mogelijkheid hebben om de modellen van Anthropic te gebruiken ‘voor elk wettig doel’. terwijl Anthropic aandrong op expliciete uitzonderingen, vooral op het gebied van massasurveillance en volledig autonome wapens. Wanneer Anthropic zou niet toegevenescaleerde het geschil in dreigementen zwarte lijst en de aanduiding “toeleveringsketenrisico”.met publieke druk op het hoogste politieke niveau. De Associated Press beschrijft de vraag naar bredere toegang en de mogelijke gevolgen in detail, waaronder: De bereidheid van het Pentagon om naleving te behandelen als niet-onderhandelbaar voor deelname aan zijn interne AI-netwerk, GenAI.mil.
Toen kwam het tweede bedrijf: OpenAI kwam tussenbeide met zijn eigen Pentagon-dealpresenteert het als in overeenstemming met sterke beveiligingsprincipes naarmate het debat voortduurde wat de contracttaal feitelijk verhindert, vooral als het gaat om het gebruik van openbaar beschikbare gegevens op grote schaal.
Je mag niet verkopen aan het Pentagon of aan regeringen die de democratie geleidelijk aan op een luchtkasteel laten lijken. Maar u bouwt vrijwel zeker voort op leveranciers wier modellen worden gevormd door beleid, politiek, contracten en reputatierisico’s. En als je deze modellen implementeert ‘zoals ze zijn’ of agentsystemen bouwt die nauw zijn gekoppeld aan de tools en aannames van een provider, doe je een strategische inspanning die je waarschijnlijk niet hebt ingeprijsd.
Dit is wat de strijd tussen het Pentagon en de Antropologie elk bedrijf zou moeten leren.
Uw AI-leverancier is niet zomaar een leverancier. Het is een regeringsregime.
De afgelopen twee jaar hebben veel bedrijven de inkoop van grote taalmodellen (LLM) behandeld als cloudinkoop: een provider selecteren, over de prijs onderhandelen, voorwaarden ondertekenen, application programming interfaces (API’s) integreren en pilots sturen.
Maar LLM-aanbieders verkopen geen neutrale infrastructuur. Ze verkopen modellen met ingebouwde beperkingen, beleid dat kan worden gewijzigd en handhavingsmechanismen die van de ene op de andere dag kunnen worden aangescherpt. Zelfs als de modellen toegankelijk zijn via API’s, is de praktische realiteit dat uw “capaciteiten” gedeeltelijk elders worden beheerd – via gebruiksbeleid, afwijzingsgedrag, snelheidslimieten, logboekregistratie, opslagkeuzes, beveiligingslagen en contractuele bewoordingen.
Daarom is dit geschil belangrijk. Het standpunt van Anthropic was niet simpelweg een ‘ethische positionering’. Het was productmanagement. Het standpunt van het Pentagon was niet alleen maar ‘kopersdruk’. Het vereiste controle over het bestuur.
Bedrijfsleiders moeten de parallel onmiddellijk onderkennen: het AI-gedrag van uw bedrijf wordt gedeeltelijk bepaald door de definitie van acceptabel gebruik van een leverancier, en die definitie kan botsen met uw eigen bedrijfsvereisten, uw regelgeving, uw geografie of uw risicobereidheid.
Je besteedt in zekere zin een deel van je beslissingsarchitectuur uit.
En wanneer bestuur het slagveld wordt, is het niet langer een technisch probleem. Het is strategisch.
“Out of the box” AI is ingehuurde intelligentie. Strategie vergt eigen vermogen.
Ik heb eerder geschreven dat de meeste huidige AI-implementaties in wezen gehuurde intelligentie zijn: krachtig, praktisch, maar uiteindelijk generiek. Dat was de kern van mijn betoog in ‘Dit is het volgende grote ding in zakelijke AI“en binnen”Waarom wereldmodellen een platformcapaciteit worden, en niet een supermacht van het bedrijfsleven.” Wanneer iedereen vergelijkbare mogelijkheden kan huren van OpenAI, Anthropic, Google, xAI of anderen, wordt de differentiator wat u bovenop het model bouwt: uw workflows, uw feedbackloops, uw integratie met de operationele realiteit.
Het Pentagon-geschil benadrukt een harde waarheid: als je vertrouwt op AI-gedrag ‘zoals het wordt geleverd’, hangt je operationele continuïteit af van de rode lijnen van iemand anders, en die lijnen kunnen worden aangevochten door klanten, overheden, rechtbanken of de interne politiek.
Als u een CIO of CTO bent, is dit het moment om te stoppen met het beschouwen van LLM-selectie als de ‘AI-strategie’ en deze te gaan behandelen als een uitwisselbaar onderdeel van een groter systeem.
Omdat de echte strategische vraag niet is: “Welk model kiezen we?” Dat wil zeggen: hebben we het technische en organisatorische vermogen om modellen snel te veranderen zonder onze bedrijfslogica te herschrijven, ons personeel om te scholen of onze agentsystemen opnieuw op te bouwen?
Agentsystemen vergroten de lock-in… en vergroten de explosieradius.
Geloofde u echt dat u door te zeggen “we zijn een agentsysteem aan het ontwikkelen” op de een of andere manier “verfijnder” was? Eenvoudige gebruiksscenario’s zoals samenvatting, uitwerking en zoekvergroting zijn relatief draagbaar. Agentsystemen zijn dat niet.
Op het moment dat je agents bouwt die tools aanroepen, workflows activeren, toegang krijgen tot interne systemen en geketende beslissingen nemen, begin je bedrijfslogica te coderen op plaatsen die verrassend moeilijk te migreren zijn: prompts, functieaanroepschema’s, toolselectiepatronen, modelspecifiek beveiligingsgedrag, leverancierspecifieke orkestratieframeworks en zelfs ‘hardheden’ in de manier waarop een bepaald model omgaat met dubbelzinnigheden.
Dat is de reden waarom de strijd tussen het Pentagon en Antropic moet aanvoelen als een scenario voor bedrijfsrisico’s, en niet als een Washington-drama. Een plotselinge beleidswijziging, een contractconflict of een reputatieschok kunnen u ertoe dwingen snel van provider te wisselen, en als uw agenten nauw aan één stack zijn gekoppeld, ‘schakelt’ uw bedrijf niet over. Het loopt vast.
Ik maakte een gerelateerd punt, zij het vanuit een andere hoek, in “Waarom uw bedrijf (en elk bedrijf) een ‘AI-first’-aanpak nodig heeft.” AI-eerst mag niet betekenen dat er ‘meer AI moet worden ingezet’. Het zou moeten betekenen dat we systemen moeten bouwen waarin AI structureel is ingebed, maar ook gecontroleerd, testbaar, waarneembaar en veerkrachtig tegen verandering.
Veerkracht is het ontbrekende woord in de meeste AI-plannen voor ondernemingen.
De les is niet ‘ethiek eerst’. Het is ‘architectuur eerst’.
Je hoeft geen publiek moreel standpunt in te nemen zoals Anthropic (of misschien wel, maar dat is niet het onderwerp van dit artikel). U moet ontwerpen alsof uw leveranciersrelatie onstabiel zal zijn. . . omdat het zo zal zijn.
Volatiliteit kan uit vele richtingen komen:
- Een aanbieder verandert zijn beveiligingshouding.
- Een toezichthouder introduceert nieuwe beperkingen.
- Een klant heeft contractuele bezuinigingen nodig.
- Een overheid zet leveranciers onder druk.
- Een leverancier wijzigt prijs, retentie of beschikbaarheid.
- Een model is ingetrokken, beperkt of van niveau gewijzigd.
- Een geopolitieke gebeurtenis verandert wat ‘aanvaardbaar gebruik’ betekent.
De organisaties die dit tijdperk het beste kunnen doorstaan, zijn organisaties die LLM’s als uitwisselbare motoren beschouwen en capaciteiten bouwen die modelonafhankelijk zijn.
Dat betekent investeren in een laag boven het model dat bij jou hoort: evaluatie, routing, beleid, waarneembaarheid en integratie met jouw operationele waarheid.
Als je een gemoedstoestand nodig hebt, denk er dan over na wat NIST doet met het AI Risk Management Framework: een gestructureerde manier om AI-risico’s in verschillende contexten en gebruiksscenario’s in kaart te brengen, te meten en te beheren, in plaats van aan te nemen dat de technologie inherent veilig is omdat een leverancier dat zegt.
Het Pentagon zelf heeft (ironisch gezien deze controverse) een formele taal eromheen verantwoorde AI-principes en implementatiemet de nadruk op governance, testen en levenscyclusdiscipline.
Bedrijven moeten deze documenten niet lezen als ‘overheidsethiek’, maar als een herinnering dat het controlevlak net zo belangrijk is als het model.
Bouw AI-mogelijkheden die uw bedrijf weerspiegelen, en niet uw provider.
Het eindspel is niet ‘modelonafhankelijkheid’ als abstract principe. Het eindspel is strategieafhankelijkheid: AI-systemen die diepgaand worden gevormd door uw toeleveringsketen, uw bedrijfsmodel, uw risicohouding, uw klantverplichtingen en uw concurrentiecontext – hoe complex ook.
Dit is het deel dat de meeste bedrijven nog steeds vermijden omdat het moeilijker is dan het kopen van een model.
Het vereist het opbouwen van institutionele competentie: het vermogen om modellen te evalueren, ze te verhandelen, om gedrag aan te passen via je eigen controlelagen, om de output te instrumenteren, om de toegang tot tools te beheren, en om agenten te behandelen als productiesystemen in plaats van als demo’s.
in “Wat zijn de twee categorieën van AI-gebruik en waarom zijn ze van belang?‘Ik probeerde de kloof te beschrijven tussen organisaties die AI gebruiken en organisaties die met AI bouwen. Het Pentagon-antropische conflict is een perfecte illustratie van waarom die kloof existentieel wordt. Als je alleen maar ‘gebruikt’, erf je de beperkingen van anderen. Als je ‘bouwt’, kun je je aanpassen.
De bedrijven die AI blijven behandelen als een kostenbesparende plug-in zullen vrijwel zeker te weinig investeren in de architectuur die verandering mogelijk maakt. Werkzaamheidsverhalen voelen veilig, maar ze sluiten je vaak op in de laagste versie van de technologie.
Het Pentagon wilde niet dat de ethiek ‘in de weg zou staan’. Anthropic wilde de controle niet uit handen geven. OpenAI onderhandelde over een andere reeks voorwaarden. Die driehoek is geen eenmalig verhaal. Het is een voorproefje van hoe controversieel, gepolitiseerd en strategisch consequent het AI-aanbod zal zijn.
Het is niet de taak van uw bedrijf om de ‘juiste’ aanbieder te kiezen.
Het is uw taak ervoor te zorgen dat wanneer het onvermijdelijke conflict zich voordoet, uw bedrijf niet betrokken raakt bij de ruzie van iemand anders.



