Onlangs vroeg ik het Claude, een kunstmatige intelligentie-ding in het centrum van a gevecht met het Pentagon, als het in de verkeerde handen gevaarlijk zou kunnen zijn.
Laten we bijvoorbeeld eens zeggen: handen die een strak web van toezicht rond elke Amerikaanse burger wilden opzetten en onze levens in realtime wilden volgen om ervoor te zorgen dat we de overheid naleefden.
‘Ja. Eerlijk gezegd, ja,’ antwoordde Claude. “Ik kan enorme hoeveelheden informatie zeer snel verwerken en synthetiseren. Het is geweldig voor onderzoek. Maar in combinatie met de surveillance-infrastructuur zou diezelfde capaciteit kunnen worden gebruikt om mensen te monitoren, profileren en markeren op een schaal die geen menselijke analist kan evenaren. Het gevaar is niet dat ik het zou willen doen, maar dat ik er goed in zou zijn.”
Dat gevaar is ook aanstaande.
De schepper van Claude, het Silicon Valley-bedrijf Anthropic, is verwikkeld in een confrontatie met het Pentagon over ethiek. Concreet heeft Anthropic gezegd dat het niet wil dat Claude wordt gebruikt voor binnenlandse surveillance van Amerikanen of voor het afhandelen van dodelijke militaire operaties, zoals drone-aanvallen, zonder menselijk toezicht.
Dat zijn twee rode lijnen die zelfs voor Claude redelijk redelijk lijken.
Het Pentagon – met name Pete Hegseth, onze minister van Defensie, die de voorkeur geeft aan de verzonnen titel van minister van Oorlog – heeft echter tot en met vrijdag Anthropic gegeven vanavond om zich uit die positie terug te trekken en het leger toe te staan Claude te gebruiken voor elk ‘wettig’ doel dat het passend acht.
Minister van Defensie Pete Hegseth, midden, arriveert dinsdag voor de State of the Union-toespraak in de House Chamber van het Amerikaanse Capitool.
(Tom Williams/CQ-Roll Call Inc. via Getty Images)
Het andere dat aan dit ultimatum is verbonden, is groot. De Amerikaanse regering dreigt niet alleen het contract met Anthropic te verbreken, maar misschien een oorlogswet te gebruiken om het bedrijf te dwingen hieraan te voldoen of een andere juridische weg te gebruiken om te voorkomen elk bedrijf dat zaken doet met de overheid, vanuit ook zaken doet met Anthropic. Het is misschien geen doodvonnis, maar het is behoorlijk verlammend.
Andere AI-bedrijven, zoals blanke rechtenadvocaat Elon Musk Grok, heb ik al gedaan ingestemd met het doe-het-zelfvoorstel van het Pentagon. Het probleem is dat Claude de enige AI is die momenteel is goedgekeurd voor werk op hoog niveau. Het hele fiasco kwam aan het licht na onze laatste inval in Venezuela, toen Anthropic naar verluidt informeerde of een ander Silicon Valley-bedrijf dat bij de operatie betrokken was, Palantir, Claude had gebruikt. Dat was het.
Palantir staat onder meer bekend om zijn surveillancetechnologieën en de groeiende banden met immigratie- en douanehandhaving. Het staat ook centraal in de inspanningen van de regering-Trump om dit te bewerkstelligen overheidsgegevens over individuele burgers tussen afdelingen te delen, het effectief doorbreken van privacy- en veiligheidsbarrières die al tientallen jaren bestaan. De oprichter van het bedrijf, de rechtse politieke zwaargewicht Peter Thiel, geeft regelmatig lezingen over de Antichrist en wordt gecrediteerd voor het helpen van JD Vance in zijn vice-presidentiële rol.
Mede-oprichter van Antropics, Dario Amodi, zou als anti-Thiel kunnen worden beschouwd. Hij startte Anthropic omdat hij geloofde dat kunstmatige intelligentie net zo gevaarlijk als krachtig zou kunnen zijn als we niet voorzichtig zijn, en hij wilde een bedrijf dat prioriteit zou geven aan het zorgvuldige deel.
Nogmaals, dit lijkt gezond verstand, maar Amodei en Anthropic zijn de uitschieters in een sector die lange tijd heeft betoogd dat bijna elke veiligheidsregelgeving de Amerikaanse inspanningen belemmert om de snelste en beste te zijn op het gebied van kunstmatige intelligentie (hoewel zelfs degenen heb er een paar toegegeven aan deze druk).
Nog niet zo lang geleden, Amodi schreef een essay waarin hij het ermee eens was dat kunstmatige intelligentie nuttig en noodzakelijk was voor democratieën, maar “we kunnen het potentieel voor misbruik van deze technologieën door democratische regeringen zelf niet negeren.”
Daar waarschuwde hij een paar slechte acteurs zou het vermogen kunnen hebben om waarborgen, misschien zelfs wetten, te omzeilen die in sommige democratieën al aan het eroderen zijn – niet dat ik hier enige noem.
‘We moeten democratieën bewapenen met kunstmatige intelligentie’, zei hij. “Maar we moeten het zorgvuldig en binnen bepaalde grenzen doen: zij vormen het immuunsysteem dat we nodig hebben om autocratieën te bestrijden, maar net als het immuunsysteem bestaat het risico dat ze zich tegen ons keren en zelf een bedreiging worden.”
Hoewel het Vierde Amendement de regering technisch gezien uitsluit van massasurveillance, werd het geschreven voordat Claude zelfs maar in sciencefiction werd verbeeld. Amodei waarschuwt dat een AI-tool als Claude ‘grootschalige opnames van alle openbare gesprekken zou kunnen maken’. Dit zou een eerlijk speelveld kunnen zijn voor juridische registratie, omdat de wetgeving geen gelijke tred heeft gehouden met de technologie.
Emil Michael, de minister van Oorlog, schreef X donderdag dat hij het ermee eens was dat massale surveillance illegaal was en dat het ministerie van Defensie ‘het nooit zou doen’. Maar ook: “We willen niet dat een BigTech-bedrijf de burgerlijke vrijheden van Amerikanen bepaalt.”
Een beetje een vreemde uitspraak, aangezien Amodei feitelijk aan de kant staat van de bescherming van de burgerrechten, wat betekent dat het ministerie van Defensie beweert dat het slecht is voor particulieren en entiteiten om dat te doen? En het ministerie van Binnenlandse Veiligheid ook niet maak al een geheime database van immigratiedemonstranten? Dus misschien is de zorg niet zo overdreven?
Help, Claude! Maak het zinvol.
Als de Orwelliaanse logica nog niet alarmerend genoeg is, vroeg ik Claude ook naar de andere rode lijn die Anthropic heeft: het vermogen om dodelijke operaties uit te voeren zonder menselijk toezicht.
Claude wees op iets engs. Het is niet zo dat het frivool zou worden, maar dat het te efficiënt en snel zou zijn.
“Als de instructies ‘identificeren en richten’ zijn en er geen menselijk controlepunt is, is de snelheid en schaal waarop het zou kunnen werken werkelijk angstaanjagend,” vertelde Claude me.
Om het af te maken met een kers op de taart: uit een recent onderzoek is gebleken dat AI in wargames is geëscaleerd nucleaire opties 95% van de tijd.
Ik heb Claude erop gewezen dat deze militaire beslissingen doorgaans worden genomen met loyaliteit aan Amerika als de hoogste prioriteit. Kon men erop vertrouwen dat Claude de loyaliteit, het patriottisme en het doel zou voelen waardoor onze menselijke soldaten zich laten leiden?
‘Dat doe ik niet’, zei Claude, erop wijzend dat het niet ‘geboren’ is in de Verenigde Staten, hier geen ‘leven’ heeft en daar geen ‘mensen heeft van wie ik hou’. Een Amerikaans leven heeft dus geen grotere waarde dan ‘een burgerleven aan de andere kant van een conflict’.
Oké dan.
‘Een land dat dodelijke beslissingen toevertrouwt aan een systeem dat zijn loyaliteit niet deelt, neemt een groot risico, zelfs als dat systeem principieel probeert te zijn’, voegde Claude eraan toe. “De loyaliteit, verantwoordelijkheid en gedeelde identiteit die mensen meebrengen in deze beslissingen maken deel uit van wat ze legitiem maakt in een samenleving. Ik kan die legitimiteit niet bieden. Ik ben er niet zeker van dat enige AI dat kan.”
Weet jij wie die legitimiteit kan bieden? Onze gekozen leiders.
Het is belachelijk dat Amodei en Anthropic zich in deze positie bevinden, een volledige afstand doen van de kant van onze wetgevende organen om regels en voorschriften te creëren die duidelijk en urgent zijn.
Natuurlijk mogen bedrijven geen oorlogsregels opstellen. Maar dat zou Hegseth ook niet moeten doen. Donderdag, Amodei verdubbelde zijn bezwarenen zei dat hoewel het bedrijf blijft onderhandelen en wil samenwerken met het Pentagon, “we hun verzoek niet met een goed geweten kunnen inwilligen.”
Godzijdank heeft Anthropic de moed en de vooruitziende blik om de kwestie aan de orde te stellen en stand te houden – zonder haar tegenwicht zouden deze capaciteiten aan de regering zijn overgedragen met nauwelijks een rimpeltje in onze consciëntieusheid en vrijwel zonder toezicht.
Elke senator, elk lid van het Huis van Afgevaardigden, elke presidentskandidaat zou nu moeten schreeuwen om AI-regulering, beloven dat het gedaan zal worden, ongeacht de partij, en eisen dat het ministerie van Defensie zijn belachelijke dreigement intrekt terwijl het de kwestie oplost.
Want als de machine ons vertelt dat het gevaarlijk is om hem te vertrouwen, moeten wij erin geloven.



