Home Nieuws Het Amerikaanse leger gebruikte het AI-model Claude van Anthropic bij een inval...

Het Amerikaanse leger gebruikte het AI-model Claude van Anthropic bij een inval in Venezuela, zegt het rapport | AI (kunstmatige intelligentie)

2
0
Het Amerikaanse leger gebruikte het AI-model Claude van Anthropic bij een inval in Venezuela, zegt het rapport | AI (kunstmatige intelligentie)

Claude, het AI-model ontwikkeld door Antropischwerd door het Amerikaanse leger gebruikt tijdens zijn operatie om Nicolás Maduro uit Venezuela te ontvoeren, aldus Wall Street Journal onthuld zaterdag een spraakmakend voorbeeld van hoe het Amerikaanse ministerie van Defensie kunstmatige intelligentie gebruikt bij zijn operaties.

Amerikaanse aanval op Venezuela Volgens het Venezolaanse Ministerie van Defensie waren daarbij bombardementen op de hoofdstad Caracas betrokken, waarbij 83 mensen om het leven kwamen. De gebruiksvoorwaarden van Anthropic verbieden het gebruik van Claude voor gewelddadige doeleinden, om wapens te ontwikkelen of om toezicht uit te oefenen.

Anthropic was de eerste AI-ontwikkelaar waarvan bekend was dat hij werd gebruikt in een geheime operatie van het Amerikaanse ministerie van Defensie. Het was onduidelijk hoe de tool, die functies heeft variërend van het verwerken van PDF-bestanden tot het besturen van autonome drones, werd geïmplementeerd.

Een woordvoerder van Anthropic weigerde commentaar te geven op de vraag of Claude bij de operatie werd gebruikt, maar zei dat elk gebruik van de AI-tool vereist was om te voldoen aan het gebruiksbeleid ervan. Het Amerikaanse ministerie van Defensie heeft geen commentaar gegeven op de beschuldigingen.

De WSJ citeerde anonieme bronnen die zeiden dat Claude werd gebruikt via de samenwerking van Anthropic met Palantir Technologies, een contractant bij het Amerikaanse ministerie van Defensie en federale wetshandhavingsinstanties. Palantir weigerde commentaar te geven op de beschuldigingen.

De VS en andere legers zetten steeds vaker kunstmatige intelligentie in als onderdeel van hun arsenaal. Het Israëlische leger heeft drones met autonome capaciteiten in Gaza gebruikt en op grote schaal kunstmatige intelligentie gebruikt om zijn doelbank in Gaza te vullen. De Amerikaans leger heeft de afgelopen jaren AI-targeting gebruikt voor aanvallen in Irak en Syrië.

Critici hebben gewaarschuwd voor het gebruik van kunstmatige intelligentie in wapentechnologieën en de inzet van autonome wapensystemen, waarbij ze wezen op het richten op fouten gemaakt door computers die bepalen wie wel en niet gedood mag worden.

AI-bedrijven hebben geworsteld met de manier waarop hun technologieën moeten omgaan met de defensiesector, en de CEO van Anthropic, Dario Amodi, heeft opgeroepen tot regulering om schade als gevolg van de inzet van AI te voorkomen. Amodei heeft ook zijn voorzichtigheid geuit over het gebruik van kunstmatige intelligentie bij autonome dodelijke operaties en surveillance in de Verenigde Staten.

Deze voorzichtigere houding heeft blijkbaar het Amerikaanse ministerie van Defensie in de war gebracht, waarbij minister van Oorlog Pete Hegseth in januari zei dat het ministerie “geen AI-modellen zou gebruiken waarmee je geen oorlogen kunt voeren”.

Het Pentagon maakte in januari bekend te gaan samenwerken met xAI, eigendom van Elon Musk. Het ministerie van Defensie maakt ook gebruik van een aangepaste versie van Google’s Gemini- en OpenAI-systemen om onderzoek te ondersteunen.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in