Welkom bij AI Gedecodeerd, Snel bedrijf’s wekelijkse nieuwsbrief met het belangrijkste nieuws ter wereld AI. Je kunt tekenen om deze nieuwsbrief wekelijks per e-mail te ontvangen hier.
Het standpunt van Anthropic ten aanzien van autonome wapens zal de toekomst wellicht niet overleven
Veel AI de wereld volgt op de voet als antropisch verwikkeld met het Pentagon over hoe de overheid de Claude-modellen kan gebruiken. Anthropic heeft een contract van 200 miljoen dollar met het Pentagon, maar volgens het contract kan het leger de modellen van het AI-bedrijf niet gebruiken als brein voor autonome wapens of voor massale surveillance van Amerikanen. Minister van Defensie Pete Hegseth benadrukt later dat het leger de antropische modellen voor “elk wettig doel” moet kunnen gebruiken.
Hegseth ontbood Anthropic CEO Dario Amodei dinsdagochtend naar het Pentagon voor een vergadering, waar hij naar verluidt Anthropic tot vrijdag om 17.01 uur de tijd gaf om aan de vereisten van het Pentagon te voldoen. Als Anthropic dat niet doet, dreigde Hegseth een beroep te doen op de Defense Production Act om het AI-bedrijf te dwingen zijn modellen zonder bumpers te leveren. Hegseth zei ook dat de regering antropische modellen tot een “toeleveringsketenrisico” zou verklaren, wat betekent dat alle overheidsleveranciers gevraagd zouden worden het gebruik van antropische modellen te vermijden of stop te zetten.
Amodi zei in een interview na de Hegseth-bijeenkomst dat zijn bedrijf niet van plan is aan de eisen van Hegseth te voldoen. (Hij heeft een sterk argument: regeringsfunctionarissen hebben immers ingestemd met de voorwaarden.) Amodei legde uit dat het leger afhankelijk is van het menselijk oordeel om te voorkomen dat de grondwettelijke rechten van mensen worden geschonden. Als AI de beslissingen neemt, zal er geen mens zijn waartegen hij bezwaar kan maken.
Amodei heeft gelijk, en de bereidheid van zijn bedrijf om op te komen voor zijn waarden is lovenswaardig. Het probleem is dat we snel op weg zijn naar een toekomst waarin autonome systemen de norm worden in oorlogsvoering.
Jarenlang sprak de verdediging over het ‘op de hoogte houden van de mens’ in AI-wapensystemen. Vaak is die persoon een overheidsjurist die een beroep kan doen op regels van betrokkenheid op het slagveld. Tegenwoordig praat het Pentagon meer over volledig autonome wapens die een groter deel van de ‘kill chain’ kunnen controleren, of de reeks communicatie en beslissingen rond de vernietiging van een doelwit. Militaire leiders zeggen vaak dat wie technologie kan gebruiken om de moordketen te verkorten, oorlogen zal winnen.
Dingen als elektronische oorlogsvoering (cyberoorlog), hypersonische raketten en drone-zwermen maken oorlog sneller en reactietijden korter. Dit kan uiteindelijk de mogelijkheid van menselijke beoordeling en besluitvorming uitsluiten. – Het Amerikaanse leger zou in toenemende mate gedwongen kunnen worden mensen uit de strijd te halen om concurrerend te blijven met zijn tegenstanders.
Het resultaat van de impasse van Anthropic met het Pentagon kan dus zijn dat een veiligheidsbewust AI-laboratorium wordt gedwongen te vertrekken, en dat een over het algemeen minder scrupuleus bedrijf als xAI als alternatief wordt gekozen.
Trump rukt het idee van Mark Kelly om nieuwe datacenters te runnen af
In zijn State of the Union besteedde Donald Trump een paar minuten aan het onderwerp van nieuwe datacenters voor AI, wat de afgelopen maanden een hot topic is geworden voor kiezers. Terwijl de technologie-industrie zegt dat ze honderden nieuwe datacenters nodig heeft ter ondersteuning van alle kunstmatige intelligentie die ze aan het bouwen is, begrijpt een groeiend aantal kiezers nu dat de verbeteringen aan het elektriciteitsnet die nodig zijn om de datacenters van stroom te voorzien, hun energierekening kunnen verhogen. ‘Ik heb onderhandeld over de nieuwe belofte tot bescherming van de belastingbetaler’, kraaide Trump. “We vertellen de grote technologiebedrijven dat ze de plicht hebben om in hun eigen energiebehoeften te voorzien.”
Politici zullen deze boodschap wellicht herkennen, omdat deze dicht in de buurt komt van wat senator Mark Kelly, een democraat uit Arizona, nu al maanden zegt. Kelly’s”AI voor Amerika‘-plan zou een door de industrie gefinancierd ‘AI Horizon Fund’ creëren om te betalen voor upgrades van het energienetwerk en omscholing van personeel.
Volgens Kelly’s plan zou het Congres van datacenterontwikkelaars kunnen eisen dat ze voldoende land kopen of leasen om zowel hun faciliteiten als de duurzame energie-infrastructuur te huisvesten om ze van stroom te voorzien en te koelen. Van de datacenterexploitanten kan ook worden verlangd dat zij betalen om de hernieuwbare energiebronnen op het lokale elektriciteitsnet aan te sluiten als de door hen opgewekte stroom ongebruikt blijft.
Het idee van Trump is meer een suggestie. Op dit moment is het vrijblijvend, alleen maar woorden. En er werd met geen woord gerept over de manier waarop de technologiebedrijven hun eigen stroom zouden opwekken. De xAI van Elon Musk bracht bijvoorbeeld zijn eigen kracht naar zijn massa Colossus datacenter in Memphis. Helaas waren het vuile, door methaan aangedreven turbines, en de centrale werd al snel een van de grootste in de omgeving vervuilen.
Een groot aantal jonge tech-werkzoekenden AI speelt vals bij vaardigheidstests
Technisch vals spelen werkgelegenheid Het aantal beoordelingen ging in 2025 door het dak en het aantal fraudepogingen was meer dan verdubbeld, blijkt uit nieuw onderzoek van CodeSignal, dat een beoordelingsplatform voor ontwikkelaarsvaardigheden beheert dat wordt gebruikt om software-ingenieurs in te huren. Uit het onderzoek bleek dat vorig jaar 35% van de gecontroleerde beoordelingen tekenen van bedrog of fraude vertoonde, tegen slechts 16% in 2024. De grootste boosdoeners? Plagiaat, iemand anders de test voor je laten doen en AI-tools binnensluipen die niet zijn toegestaan.
De sprong was vooral merkbaar bij kandidaten op instapniveau. Het fraudepercentage voor juniorfuncties is jaar na jaar bijna verdrievoudigd – van 15% naar 40% – waardoor aanwervingen in het begin van de carrière een bijzonder kwetsbare plek in de wervingspijplijn zijn geworden. In een persbericht bij het rapport gaf Tigran Sloyan, CEO en mede-oprichter van CodeSignals, gedeeltelijk de schuld aan de normalisatie van AI-tools, waarbij hij opmerkte dat 80% van Generatie Z naar verluidt AI in hun dagelijks leven gebruikt, waardoor de grens tussen aanvaardbare hulp en ronduit bedrog veel vager is geworden. “Toegankelijkheid tot AI maakt het ook moeilijker om ongeoorloofde hulp op te sporen en vergroot de inspanningen om een eerlijke en betrouwbare beoordeling van vaardigheden te behouden”, merkte hij op.
De detectiesystemen van CodeSignal – die AI-analyse, menselijke beoordeling en digitale monitoring combineren – identificeerden een paar gemeenschappelijke patronen in gemarkeerde beoordelingen. Ongeveer 35% van de kandidaten keek regelmatig weg van het scherm, wat aangeeft dat ze tijdens de test externe bronnen hebben geraadpleegd. Nog eens 23% vertoonde ongewoon lineaire schrijfpatronen, waarbij complexe oplossingen zomaar opdoken, met vrijwel geen pauzes of probleemoplossing. En 15% had antwoorden die leken op bekende oplossingen of gelekte inhoud. (Het is vermeldenswaard dat deze cijfers betrekking hebben op pogingen die daadwerkelijk zijn betrapt, en niet op gevallen waarin iemand er met succes doorheen is gekomen.)
Uit de gegevens kwamen ook enkele geografische en procedurele lacunes naar voren. Het aantal fraudepogingen bedroeg 48% in de regio Azië-Pacific, vergeleken met 27% in Noord-Amerika. De testomstandigheden maakten ook een groot verschil: kandidaten in niet-geproctorde omgevingen vertoonden scoresprongen die meer dan vier keer groter waren dan degenen die actief geproctord werden, wat heel duidelijk aantoont dat proctoring een afschrikwekkende werking heeft.
Wat betreft de manier waarop CodeSignal dit allemaal vastlegt: het bedrijf zegt dat het tien jaar heeft besteed aan het bouwen van zijn infrastructuur voor fraudepreventie, die nu wordt ingezet voor miljoenen beoordelingen. Het maakt gebruik van een gepatenteerde ‘Suspicion Score’ en een lekbestendig testontwerp om zaken als plagiaat, het afnemen van proxytests, ongeoorloofd AI-gebruik en identiteitsfraude te signaleren.
Meer AI-dekking van Snel bedrijf:
- Uit onderzoek van Harvard blijkt dat AI-aandelenhandel kan wedijveren met veel keuzes van fondsbeheerders
- Hij bouwde een populaire podcast over de Epstein-dossiers. Het is volledig AI-gegenereerd
- Wat als de SaaSpocalyps een mythe is?
- Deze AI-note startup gelooft dat ze het ‘stuur’ voor chatbots aan het bouwen zijn
Wilt u exclusieve rapportage en trendanalyse over technologie, bedrijfsinnovatie, de toekomst van werk en design? Schrijf je in voor Snel bedrijf Premie.



