Welkom bij AI Gedecodeerd, Snel bedrijf’s wekelijkse nieuwsbrief met het belangrijkste nieuws in de wereld van AI. Je kunt tekenen om deze nieuwsbrief wekelijks per e-mail te ontvangen hier.
Bekende spanningen rond Sam Altman
OpenAI-CEO Sam Altman sprak zijn steun uit voor Anthropic in zijn geschil met het Pentagon over het gebruik van zijn AI om autonome wapens aan te vallen en in binnenlandse massasurveillance. Dat deed hij op een bedrijfsbijeenkomst en tijdens een CNBC Squawbox optreden op vrijdag, de dag dat Anthropic effectief op de zwarte lijst werd gezet door de regering-Trump.
Maar twee dagen eerder, op woensdag, had Altman dat naar verluidt wel gedaan begon al te praten aan het Pentagon voor een contract waarmee OpenAI Anthropic effectief zou kunnen vervangen als de enige leverancier van AI-modellen voor geheime informatie. De dag erna miste Anthropic zijn “deadline” om de voorwaarden van het Pentagon te aanvaarden, Altman aangekondigd op X dat zijn bedrijf een overeenkomst had gesloten met het Pentagon om AI te leveren voor hetzelfde geheime werk. Hij voegde eraan toe dat het contract benadrukte dat het Pentagon zijn AI niet zou gebruiken voor autonome wapens of binnenlandse massabewaking.
Altman legde aan X uit dat het contract garanties bevatte dat OpenAI-modellen niet zouden worden gebruikt voor autonome wapens of massasurveillance. Het leek vreemd dat de advocaten van OpenAI dit binnen zo’n krap tijdsbestek zouden kunnen doen, terwijl de advocaten van Anthropic daartoe niet in staat waren gedurende de weken dat het bedrijf met het Pentagon onderhandelde. Altman leek dat in een tweet van 1 maart te proberen uit te leggen: “Ik denk dat Anthropic misschien meer operationele controle had gewild dan wij”, schreef hij. (Anthropic CEO Dario Amodi zei op zijn beurt tijdens een bedrijfsbijeenkomst dat de onderhandelingen van OpenAI met het Pentagon neerkwamen op ‘veiligheidstheater’. volgens De informatie.)
In een interne memo zegt Altman getweet deze week erkende hij dat het een slechte zaak was om te haasten om een deal te sluiten met het Pentagon op dezelfde dag dat Anthropic zijn deal verloor. “De problemen zijn supercomplex en vereisen duidelijke communicatie”, schreef hij. “We hebben echt geprobeerd de zaken te de-escaleren en een veel slechtere uitkomst te voorkomen, maar ik denk dat het er gewoon opportunistisch en slordig uitzag.”
Dit alles wijst er sterk op dat OpenAI eenvoudigweg dezelfde of soortgelijke alternatieve contracttaal accepteerde die het Pentagon Anthropic op het elfde uur aanbood – taal die op geheel vrijblijvende wijze beloofde AI niet te gebruiken voor autonome wapens of massasurveillance.
Maandagavond, Altman zei op X dat het Pentagon ermee had ingestemd explicieter taal toe te voegen, verankerd in bestaande Amerikaanse wetten, waarin stond dat de modellen van OpenAI niet zouden worden gebruikt voor binnenlands toezicht. Maar maakte Anthropic geen bezwaar tegen de wens van het Pentagon om AI-modellen te gebruiken voor binnenlandse surveillanceprogramma’s die al waren toegestaan onder de bestaande wetten?
Mensen die met Altman hebben gewerkt, zeggen dat de CEO vaak het ene zegt en het andere doet. Houd er rekening mee dat het bestuur van OpenAI Altman heeft ontslagen omdat hij niet helemaal eerlijk was geweest over de strategische beslissingen die hij voor het bedrijf had genomen.
In zijn nieuwste Platformer-nieuwsbrief herinnert Casey Newton zich dit citaat uit het boek van Wall Street Journal-verslaggever Keach Hagey over Altman, The Optimist. “Het had (Ilya) Sutskever jaren gekost voordat hij de vinger kon leggen op het gedragspatroon van Altman – hoe de CEO van OpenAI hem het ene zei, dan het andere zei en deed alsof het verschil een ongeluk was. ‘O, ik heb me waarschijnlijk verkeerd uitgesproken’, zou Altman zeggen. Sutskever was van mening dat Altman oneerlijk was en chaos veroorzaakte, wat een potentieel probleem zou zijn voor elke CEO die verantwoordelijk is voor de beschaving. ‘
In zijn laatste Platformer nieuwsbriefCasey Newton citeert berichtgeving uit het boek van verslaggever Keach Hagey De optimistwaarin wordt verteld hoe mede-oprichter van OpenAI en toenmalig hoofdwetenschapper Ilya Sutskever zich uiteindelijk ongemakkelijk begon te voelen bij het leiderschap van Altman. Zoals Hagey schrijft, kostte het Sutskever jaren om de vinger te leggen op wat hem dwars zat: gesprekken met Altman leken later te verschuiven of zichzelf tegen te spreken, om vervolgens te worden weggewuifd met verklaringen als: “Oh, ik heb me waarschijnlijk verkeerd uitgesproken.” Sutskever ging het gedrag uiteindelijk als oneerlijk en destabiliserend beschouwen – wat volgens het boek ‘een probleem zou zijn voor elke CEO, maar vooral voor iemand die de leiding heeft over zo’n potentieel beschavingsveranderende technologie.’
Het AI-contractgevecht dat binnen het Pentagon had moeten plaatsvinden
Antropisch conflict met het Pentagon had nooit openbaar mogen worden. Omdat de zaak defensie- en geheime informatie betreft, had deze persoonlijk en privé in het Pentagon moeten worden behandeld. Maar om de een of andere reden besloten minister van Defensie Pete Hegseth en president Donald Trump er een kwestie van cultuuroorlog van te maken. Hun beslissing om Anthropic uiteindelijk tot een ‘toeleveringsketenrisico’ te bestempelen, was willekeurig en grillig en heeft nog steeds weinig zin. Toch waren de kernkwesties die centraal stonden in het geschil legitieme meningsverschillen, en de manier waarop deze worden opgelost zou blijvende gevolgen kunnen hebben voor de manier waarop AI wordt gebruikt in de overheid, inclusief defensie.
In juli 2025 ondertekende Anthropic een Contract ter waarde van 200 miljoen dollar met het Pentagon om AI te ontwikkelen voor de nationale veiligheid, waardoor het het eerste AI-bedrijf is dat modellen op geheime netwerken inzet (via een partnerschap met Palantir). Er stond een soort gifpil in dat contract. Het heeft nu de relatie van Anthropic met het Pentagon vergiftigd, en beide partijen delen waarschijnlijk een deel van de schuld.
Het dispuut begon begin dit jaar toen het Pentagon Anthropic liet weten dat het “zijn contracten aan het herzien was”. DoD-functionarissen zeiden dat Anthropic, om de overeenkomst na de oorspronkelijke looptijd te verlengen, alle wegversperringen zou moeten wegnemen die verhinderen dat zijn AI-modellen worden gebruikt bij operaties die niet door de wet verboden zijn. Het oorspronkelijke contract, dat het Pentagon in 2025 ondertekende, verbood niet uitdrukkelijk het gebruik van de modellen van Anthropic om autonome wapens aan te vallen of massasurveillance uit te voeren – de twee belangrijkste ‘rode lijn’-gebruiksscenario’s van Anthropic. Maar de Servicevoorwaarden van Anthropic deden dat wel, en in het contract stond dat defensiebureaus de AI-modellen konden gebruiken voor alles wat niet verboden was door de Servicevoorwaarden.
Hebben de DoD-advocaten deze voorwaarden niet zorgvuldig gelezen voordat ze het contract ondertekenden? En waarom heeft Anthropic, gezien de gevoelige aard van het werk dat zijn modellen in het Pentagon zouden doen, de taal over massasurveillance en autonome wapens niet rechtstreeks in het contract zelf opgenomen? Nu, zeven maanden later, zegt het Pentagon dat het de deal zal beëindigen. Er had veel tijd, geld en moeite kunnen worden bespaard als de twee partijen afgelopen juli hun meningsverschillen onder ogen hadden gezien.
Velen in de defensie-industrie zien het kernconflict als de vraag wie beleid moet bepalen voor de manier waarop de strijdkrachten AI gebruiken. Dergelijk beleid is al door het Congres gedicteerd, zo luidt het argument, en als er nieuwe regels nodig zijn, zal het Congres actie ondernemen. Defensieagentschappen mogen in deze optiek niet gebonden zijn aan vangrails van particuliere AI-bedrijven.
Voorafgaand aan de resolutiedeadline van 27 februari stuurden de voorzitters van de Armed Services Committee van de Senaat, Roger Wicker (R-Miss.) en Jack Reed (D.I.) een brief naar Hegseth en Amodei, waarin ze betoogden dat contractgeschillen niet de geschikte plaats zijn om het nationale AI-beleid vast te stellen en er bij de twee partijen op aandringen om door te gaan met onderhandelen.
Anthropic van zijn kant beweert dat sommige van de mogelijkheden van AI al in strijd zijn met de wet. AI-modellen kunnen bijvoorbeeld surveillancegegevens op een ongekende schaal analyseren, waardoor de privacy en het recht op vergadering mogelijk worden bedreigd op manieren waarop de bestaande statuten niet volledig anticiperen, aldus Amodei. Door een regel tegen dergelijk gebruik in de Servicevoorwaarden op te nemen, zegt Anthropic dat het zijn eigen bescherming biedt.
Het bezwaar van Anthropic tegen het gebruik van zijn modellen als brein voor autonome wapens, zoals de drones nu actief in het conflict in Oekraïne en in de Gazastrook – is eerder technisch dan juridisch of moreel. Het bedrijf is van mening dat AI nog niet betrouwbaar genoeg is om die rol te vervullen zonder menselijk toezicht, waardoor het risico groter wordt dat de verkeerde mensen worden aangevallen en mogelijk worden gedood.
In meer civiele tijden zou het Anthropic-DoD-geschil waarschijnlijk achter de schermen zijn opgelost. Ook een technische oplossing lijkt gemakkelijk denkbaar. Hoewel Anthropic het eerste AI-bedrijf was dat modellen op geheime netwerken implementeerde, zou het nooit het enige zijn. Het Pentagon was altijd van plan OpenAI, xAI en Google goed te keuren voor geheim werk. Je zou je een systeem kunnen voorstellen dat voor verschillende taken een beroep doet op verschillende modellen, afhankelijk van hun sterke punten en hun ‘rode lijnen’.
In plaats daarvan werd Anthropic – waarvan wordt gezegd dat de AI door velen in defensie- en inlichtingenkringen hoog aangeschreven staat – plotseling bestempeld als een ‘burgerwacht’-bedrijf gerund door ‘linkse fanatici’, zoals de president het op Truth Social stelde, en werd het niet alleen door het Pentagon, maar ook door de leveranciers van het agentschap niet meer gebruikt.
Meer AI-dekking van Snel bedrijf:
- AI-vibe-gecodeerde oorlogsdashboards overspoelen sociale media
- De startup die het boekenverbod in Texas tot een big business heeft gemaakt
- Hier leest u hoe u de circulaire deal kunt begrijpen die de AI-boom aanwakkert
- Wat deze voorverkiezingen van de GOP in Texas onthulden over de politiek van AI-datacenters
Wilt u exclusieve rapportage en trendanalyse over technologie, bedrijfsinnovatie, de toekomst van werk en design? Schrijf je in voor Snel bedrijf Premie.



