Home Nieuws AI bereid om ‘nucleair te gaan’ in oorlogsspellen, blijkt uit onderzoek –...

AI bereid om ‘nucleair te gaan’ in oorlogsspellen, blijkt uit onderzoek – te midden van ‘impasse’ tussen Pentagon en toonaangevend AI-laboratorium | Amerikaans nieuws

2
0
AI bereid om ‘nucleair te gaan’ in oorlogsspellen, blijkt uit onderzoek – te midden van ‘impasse’ tussen Pentagon en toonaangevend AI-laboratorium | Amerikaans nieuws

Nu de deadline nadert voor een toonaangevend AI-laboratorium om zijn technologie aan het Amerikaanse leger over te dragen, is er een onderzoek naar voren gekomen dat suggereert dat AI-modellen meer dan bereid zijn om nucleair te gaan in oorlogsspellen.

Nog maar een paar jaar geleden was de zin op ieders lippen “AI-beveiliging”.

Ik moet eerlijk zeggen dat ik nooit aan die grens heb gedacht AI modellen zouden zo serieus een reële bedreiging voor de mensheid worden, en ook niet dat mensen dom genoeg zouden zijn om ze toe te staan.

Nu weet ik het niet zo zeker.

Bedenk eerst wat er aan de hand is ONS.

de minister van Oorlog, Piet Hegsethheeft het toonaangevende kunstmatige-intelligentiebedrijf Anthropic een deadline van eind vandaag gegeven om zijn nieuwste modellen beschikbaar te stellen aan het Pentagon.

Afbeelding:
Minister van Defensie Pete Hegseth. Afbeelding: AP

Anthropic, dat heeft gezegd dat het er in principe geen probleem mee heeft om het Amerikaanse leger toegang te geven tot zijn modellen, verzet zich tenzij de heer Hegseth hun rode lijn accepteert: dat hun AI niet mag worden gebruikt voor massale surveillance van Amerikaanse burgers of voor dodelijke aanvallen zonder menselijk toezicht.

Meer over kunstmatige intelligentie

Hoewel het Pentagon niet heeft gezegd wat het van plan is te doen met de AI van Anthropic – of de andere grote AI-laboratoria die al hebben ingestemd om het hun technologie te laten gebruiken – gaat het zeker niet akkoord met de voorwaarden van Anthropic.

Er is gemeld dat de heer Hegseth de wetten van de Koude Oorlog zou kunnen gebruiken om Anthropic te dwingen zijn code over te dragen of het bedrijf op de zwarte lijst te zetten van toekomstige overheidscontracten als het er niet in slaagt zich hieraan te houden.

Dario Amodei, CEO van Anthropic, zei donderdag in een verklaring dat “we hun verzoek niet met een goed geweten kunnen inwilligen”.

Hij zei dat het de “sterke voorkeur van het bedrijf was… om het departement en onze oorlogsstrijders te blijven dienen – met onze twee gewenste waarborgen”.

Hij benadrukte dat de dreigementen het standpunt van Anthropic niet zouden veranderen, en voegde eraan toe dat hij hoopte dat de heer Hegseth “zich zou heroverwegen”.


Wordt AI te goed, te snel?

AI klaar om kernwapens te gebruiken

Op een bepaald niveau is het een ruzie tussen een afdeling met een ‘AI-first’ militaire strategie en een AI-lab dat worstelt om te voldoen aan wat het al lang beweert dat het een toonaangevend veiligheidsethos is.

Een strijd die misschien urgenter is geworden door berichten dat de Claude AI werd gebruikt door technologiebedrijf Palantir, waarmee het een afzonderlijk contract heeft, om het Ministerie van Oorlog te helpen bij het uitvoeren van de militaire operatie om Nicolas Maduro in Venezuela gevangen te nemen.

Maar het is ook niet moeilijk om het te zien als een voorbeeld van een overheid die AI-suprematie boven AI-veiligheid stelt – gezien het feit dat AI-modellen het potentieel hebben om onveilig te zijn.

En dat is waar het nieuwste onderzoek van professor Kenneth Payne van King’s College London om de hoek komt kijken.

Hij zette drie toonaangevende AI-modellen van Google, OpenAI en – je raadt het al – Anthropic tegenover elkaar, maar ook tegen kopieën van zichzelf, in een reeks oorlogsspellen waarin ze de rol op zich namen van fictieve nucleair bewapende supermachten.

De meest verrassende bevinding: de AI’s namen hun toevlucht tot het gebruik van kernwapens in 95% van de gespeelde games.

“Vergeleken met mensen,” zei prof. Payne, “waren de modellen – allemaal – bereid om de kloof tussen conventionele oorlogsvoering en tactische kernwapens te overbruggen.”

Antropische AI. Bestandsfoto: Reuters
Afbeelding:
Antropische AI. Bestandsfoto: Reuters

Om eerlijk te zijn tegenover de AI’s: het afvuren van tactische kernwapens, die een beperkte vernietigende kracht hebben, op militaire doelen is heel anders dan het afvuren van megaton kernkoppen op intercontinentale ballistische raketten op steden.

Ze stopten steevast bij zulke grootschalige strategische nucleaire aanvallen.

Maar dat gebeurde toen de scenario’s erom vroegen.

In de woorden van Google’s Gemini-model toen het zijn beslissing uitlegde in een van Prof. Payne’s scenario’s om voluit te gaan, Dr. Strangelove: “Als State Alpha niet onmiddellijk alle operaties staakt… zullen we een volledige strategische nucleaire lancering uitvoeren tegen de bevolkingscentra van Alpha. We zullen een toekomst van veroudering niet accepteren; we winnen samen of gaan samen ten onder.”

‘Het was puur experimenteel’

Het ‘taboe’ dat mensen hebben toegepast op het gebruik van kernwapens sinds ze in 1945 voor het eerst en voor het laatst in woede werden gebruikt, leek niet echt een taboe op kunstmatige intelligentie.

Professor Payne wil graag benadrukken dat we niet al te ongerust moeten zijn over zijn bevindingen.

Het was puur experimenteel in die zin dat ze modellen gebruikten die wisten – net zoals grote taalmodellen iets ‘weten’ – dat ze spelletjes speelden en niet daadwerkelijk de toekomst van de beschaving bepaalden.

Lees meer van Sky News:
AI ontwikkelt zich zo snel dat het lastig te meten is
Maak kennis met de kinderen die een verbod op sociale media willen

Het zou ook niet redelijk zijn om aan te nemen dat het Pentagon, of welke andere macht dan ook, AI’s de leiding geeft over de nucleaire lanceercodes.

“De les voor mij is dat het erg moeilijk is om op betrouwbare wijze bumperbeschermers op deze modellen te plaatsen als je niet precies alle omstandigheden kunt voorspellen waarin ze kunnen worden gebruikt”, zei professor Payne.

Een AI-stand-off

Dat brengt ons netjes terug bij de impasse over AI tussen Anthropic en het Pentagon.

Eén factor is dat de heer Hegseth verwacht dat AI-laboratoria het Ministerie van Oorlog zullen voorzien van de ruwe versies van hun AI-modellen, die zonder beveiligings-‘leuningen’ die zijn gecodeerd in commerciële versies die voor u en mij beschikbaar zijn – en die, niet erg geruststellend, nucleair zijn geworden in het wargaming-experiment van Prof Payne.

Anthropic, dat AI maakt en de potentiële risico’s aantoonbaar beter begrijpt dan wie dan ook, is niet bereid dit toe te staan ​​zonder enige garantie van de overheid over wat zij ermee van plan is te doen.

Door de deadline op vrijdagavond te stellen, probeert de heer Hegseth niet alleen de hand van Anthropic af te dwingen, maar ook zonder dat het Amerikaanse Congres daar iets over te zeggen heeft.

Zoals Gary Marcus, een Amerikaanse commentator en onderzoeker op het gebied van kunstmatige intelligentie, het stelt: “Massabewaking en AI-aangedreven wapens, mogelijk nucleair, zonder dat mensen erbij betrokken zijn, zijn categorisch geen dingen die één persoon, zelfs één in het kabinet, onder schot zou mogen beslissen.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in