Home Nieuws Wat betekent de vete van het Amerikaanse leger met Anthropic voor kunstmatige...

Wat betekent de vete van het Amerikaanse leger met Anthropic voor kunstmatige intelligentie die in oorlogen wordt gebruikt? | AI (kunstmatige intelligentie)

5
0
Wat betekent de vete van het Amerikaanse leger met Anthropic voor kunstmatige intelligentie die in oorlogen wordt gebruikt? | AI (kunstmatige intelligentie)

EENnthropic’s voortdurende strijd met het ministerie van Defensie over wat veiligheidsbeperkingen het kan doorgaan kunstmatige intelligentie modellen hebben de technologie-industrie geboeid en dienen als een test voor hoe kunstmatige intelligentie kan worden gebruikt in oorlogen en voor de macht van de overheid om bedrijven te dwingen aan hun eisen te voldoen.

De onderhandelingen concentreerden zich op de weigering van Anthropic om de federale regering dit toe te staan gebruik zijn Claude AI voor binnenlandse massasurveillance of autonome wapensystemen, maar het dispuut weerspiegelt ook de rommelige aard van wat er gebeurt als technologiebedrijven hun producten in conflicten laten integreren. Het Pentagon heeft Anthropic deze week tot een risico voor de toeleveringsketen verklaard vanwege zijn weigering om de voorwaarden van de regering te aanvaarden, terwijl Anthropic heeft beloofd de aanwijzing voor de rechtbank aan te vechten.

The Guardian sprak met Sarah Kreps, een professor en directeur van het Tech Policy Institute aan de Cornell University, die eerder bij de Amerikaanse luchtmacht diende, over hoe de vete zich heeft afgespeeld.

Je hebt gewerkt een tijdje op kwesties rond “technologie voor tweeërlei gebruik”.Wat gebeurt er als er sprake is van een consumententechnologie die ook voor geheime of militaire doeleinden wordt gebruikt?

Ik heb hier veel over nagedacht omdat ik in het leger zat, en ik stond aan de kant van het leger dat nieuwe technologieën ontwikkelde en verwierf. We kregen altijd kritiek omdat het zo lang duurde, en als ik nu zie wat er gebeurt, begrijp ik waarom het zo lang duurt.

Wat je zou ontwikkelen voor geheime en militaire contexten is heel anders dan waarvoor Antropic heeft ontwikkeld als ik Claude gebruik. De uitdaging voor het leger is dat deze technologieën zo nuttig zijn dat ze niet kunnen wachten tot er een versie van militaire kwaliteit beschikbaar is. Ze moeten snel handelen vanwege de waarde van deze tools, maar het is niet verrassend dat ze culturele verschillen tegenkwamen tussen niet alleen een AI-platform en het leger, maar een AI-platform dat heeft geprobeerd de reputatie op te bouwen dat het meer veiligheidsbewust is.

Een Een element van deze vete is dat Anthropic zichzelf heeft gebrandmerkt als een op veiligheid gericht bedrijf, maar logde vervolgens in een overeenkomst met het leger.

Ja, er is een manier waarop het verrassend is dat Anthropic verrast zou zijn door waar dit terechtkwam. Een deel van de uitdaging is dat Anthropic de beslissing een jaar of twee geleden lijkt te hebben genomen ChatGPT was bedoeld voor individuele gebruikers, en Anthropic zou proberen een hoekje van de zakelijke markt te veroveren. Dit betekent dat ze zaken proberen te doen met organisaties in plaats van individuele plannen te verkopen.

De puzzel voor mij is dat ze destijds zaken deden met het Pentagon en Palantir, wat gaat over het gebruik van AI voor wat sommige mensen twijfelachtige doeleinden zouden noemen. Dus die beslissing was voor mij verrassend, omdat het zeer in strijd was met het merk dat Anthropic probeerde te cureren.

Het lijkt erop dat antropisch was Oké met een vrij breed gebruik van de technologie, maar het was er een rode lijn die ze bereikten met binnenlandse massale surveillance en dodelijke autonome wapens.

Er zijn een paar opties. Een daarvan is dat een deel hiervan te maken had met de relatie tussen de mensen in Anthropic en die Trumps regeringwat leidde tot een neerwaartse spiraal van wantrouwen.

In de tweede plaats was er de situatie in Venezuela en vervolgens het beleid rondom ICE-activiteiten. Er rijst de vraag wat het eigenlijk betekent om deze technologieën legaal te gebruiken? De definitie van juridisch voor de een kan er heel anders uitzien dan die voor de ander.

Het argument van het Pentagon was gedeeltelijk: dat als er een nationaal defensieprobleem is, we niet moeten bellen Dario Amodi goedkeuring te krijgen. Er lijkt hier sprake te zijn van een reële vraag over de rol van particuliere technologiebedrijven in de besluitvorming op het gebied van de nationale veiligheid.

Als je je de kwestie herinnert van iPhone van de San Bernardino-moordenaarDe autoriteiten waren bezorgd dat dit een tikkende tijdbom was en dat ze Apple nodig hadden om aan de telefoon te komen. (In 2016, FBI eiste Apple creëert een achterdeur om hen toegang te geven tot de telefoon van een massaschutter. Appel geweigerd om privacyredenen, wat ertoe leidde dat de FBI een onafhankelijke derde partij zocht om het apparaat te hacken).

Het verschil met de AI van Anthropic is dat als je dit eenmaal aan het leger hebt overgedragen, je niet langer de goedkeuring van Anthropic nodig hebt om het naar eigen goeddunken te gebruiken. Dat is het verschil tussen hardware en software. Je kunt deze software hergebruiken en gebruiken op manieren die misschien niet in de expliciete overeenkomst stonden, maar nu kun je het rechtvaardigen op basis van de nationale veiligheid. Dan heeft Anthropic al zijn invloed verloren omdat het in handen is van deze nationale veiligheidsmensen.

En Anthropic zou toch niet kunnen zeggen waarvoor het wordt gebruikt, toch?

Ja, volkomen gelijk. Het gaat niet alleen om een ​​zwarte doos, maar om Black Ops en geheime systemen die worden afgesloten.

Ik vond het deze week interessant dat het erop lijkt dat veel al lang bestaande vragen over het gebruik van kunstmatige intelligentie in het leger naar voren komen. Je volgt deze problemen al een hele tijd. Wat vind je van het kijken naar deze huidige wedstrijd?

Toen ik de directeur van Anthropic hoorde spreken, sprak hij over deze existentiële risico’s en de verduistering van kunstmatige intelligentie voor bioterrorisme. Ik dacht altijd dat ze óf te ver, óf te buiten bereik waren. Ik dacht dat dit soort meer alledaagse gevallen een groter risico inhield.

Er zijn ook al langere tijd mensen die deze vragen over autonome wapens aankondigen. De uitdaging is: hoe weet je ooit of er daadwerkelijk een mens in de kring zit? Dit was een zorg van Anthropic: hoe weten we of deze systemen op een volledig autonome manier worden gebruikt? De VS zeggen dat we AI niet volledig autonoom zullen gebruiken, maar het is niet duidelijk hoe dat proces eruit ziet om ervoor te zorgen dat dat niet gebeurt. Het heeft even geduurd, maar ik denk dat het onvermijdelijk was dat we die kant op zouden gaan, juist omdat de technologie steeds geavanceerder is geworden. Het feit dat iemand nu bij een conflict betrokken is, versnelt deze tijdlijnen alleen maar.

We praten veel over de bedreigingen van AI en de rode lijnen waar mensen voor terugdeinzen, maar hoe wordt AI nu al gebruikt in oorlogsvoering?

Je kunt zien hoe het uiterst nuttig is in een militaire omgeving. Ik heb wat werk aan de informatiekant gedaan en een van de uitdagingen is niet het gebrek aan inhoud, maar de signaal-ruisverhouding. Je beschikt over een enorme hoeveelheid informatie, maar het kan heel moeilijk zijn om de punten met elkaar te verbinden, en dat is iets waar AI zo goed in is. Je voedt hem met grote hoeveelheden informatie en hij genereert output die helpt identificeren wat het signaal is.

Als je op zoek bent naar patroonherkenning, is AI echt goed in patroonherkenning. Je kunt identificeren wat voor soort correlaties of kenmerken je zoekt, en dan kan het eropuit gaan en dingen identificeren, zegt een Iraans marineschip, op basis van wat je hebt geprogrammeerd om het te identificeren. Het is in sommige opzichten niet supercontroversieel geweest, omdat die doelen behoorlijk specifiek zijn.

Waar mensen zich ongemakkelijker voelen, is in een omgeving waarin de VS bijvoorbeeld aan terrorismebestrijding zouden doen. Je hebt een persoon ter plaatse die niet veel identificeerbare kenmerken heeft, dus het is een veel precairdere situatie voor AI waarin je er echt zeker van wilt zijn dat je drie keer controleert. Hij kan een strijder zijn, hij kan een burger zijn. Het is geen marineschip of grond-luchtraket waar het moeilijker is om het mis te hebben.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in