Home Nieuws AI wordt gebruikt in oorlogen, maar kan het menselijk oordeel niet vervangen....

AI wordt gebruikt in oorlogen, maar kan het menselijk oordeel niet vervangen. Dit is waarom

4
0
AI wordt gebruikt in oorlogen, maar kan het menselijk oordeel niet vervangen. Dit is waarom

Het Amerikaanse leger was in staat om “1.000 doelen te raken in de eerste 24 uur van zijn aanval op Iran” mede dankzij het gebruik van kunstmatige intelligentievolgens Washingtonpost. Het leger heeft Claude gebruikt, de AI tools van Anthropic, gecombineerd met Palantir’s Maven-systeem, voor real-time targeting en doelprioritering ter ondersteuning van gevechtsoperaties in Iran en Venezuela.

Hoewel Claude nog maar een paar jaar oud is, is het vermogen van het Amerikaanse leger om deze of enige andere kunstmatige intelligentie te gebruiken niet van de ene op de andere dag ontstaan. Het effectieve gebruik van geautomatiseerde systemen is afhankelijk van een uitgebreide infrastructuur en gekwalificeerd personeel. Het is alleen dankzij tientallen jaren van investeringen en ervaring dat de VS kunstmatige intelligentie vandaag de dag in oorlogen kunnen gebruiken.

In mijn ervaring als onderzoeker internationale betrekkingen studeerde strategische technologie aan Georgia Tech en diende voorheen als inlichtingenofficier bij de Amerikaanse marine, ik vind naar digitale systemen zijn slechts zo goed als de organisaties die ze gebruiken. Sommige organisaties verspillen het potentieel van geavanceerde technologieën, terwijl andere organisaties technologische zwakheden kunnen compenseren.

Mythe en realiteit in militaire AI

Sciencefictionverhalen over militaire AI zijn vaak misleidend. Populaire ideeën over moordende robots en dronezwermen hebben de neiging de autonomie van AI-systemen te overdrijven en de rol van mensen te onderschatten. Succes of mislukking in een oorlog hangt meestal niet af van machines, maar van mensen die ze gebruiken.

In de echte wereld verwijst militaire AI naar een enorme verzameling verschillende systemen en taken. De twee hoofdcategorieën zijn geautomatiseerde wapens en beslissingsondersteunende systemen. Geautomatiseerde wapensystemen hebben enige mogelijkheid om zichzelf te selecteren of aan te vallen. Deze wapens zijn vaker het onderwerp van science fiction en de focus van flink debat.

Beslissingsondersteunende systemen vormen daarentegen nu de kern van de meeste moderne legers. Dit zijn softwareapplicaties die intelligentie- en planningsinformatie leveren aan het personeel. Veel militaire toepassingen van kunstmatige intelligentie, ook in de huidige en recente oorlogen in het Midden-Oostenis voor beslissingsondersteunende systemen in plaats van voor wapens. Moderne gevechtsorganisaties vertrouwen op talloze digitale toepassingen voor inlichtingenanalyse, campagneplanning, gevechtsbeheer, communicatie, logistiek, administratie en cyberbeveiliging.

Claude is een voorbeeld van een beslissingsondersteunend systeem, geen wapen. Claude is ingebed Maven slim systeemop grote schaal gebruikt door militaire, inlichtingen- en wetshandhavingsorganisaties. Maven gebruikt AI-algoritmen om potentiële doelen te identificeren uit satelliet- en andere inlichtingengegevens, en Claude helpt militaire planners de informatie te doorzoeken en te beslissen over doelen en prioriteiten.

De Israëlische Lavendel en evangelie systemen die in de Gaza-oorlog en elders worden gebruikt, zijn ook beslissingsondersteunende systemen. Deze AI-toepassingen bieden analytische en planningsondersteuning, maar mensen nemen uiteindelijk de beslissingen.

Onderzoeker Craig Jones legt uit hoe het Amerikaanse leger kunstmatige intelligentie gebruikt bij zijn aanval op Iran, en enkele van de problemen die voortvloeien uit het gebruik ervan.

De lange geschiedenis van militaire AI

In oorlogen zijn wapens met een zekere mate van autonomie gebruikt ruim een ​​eeuw. Negentiende-eeuwse zeemijnen ontploften bij contact. Duitse buzz-bommen in de Tweede Wereldoorlog werden gyroscopisch geleid. Richtende torpedo’s en hittezoekende raketten veranderen hun traject om manoeuvrerende doelen te onderscheppen. Veel luchtverdedigingssystemen, zoals het Israëlische Iron Dome en het Amerikaanse Patriot-systeem, bieden al lang volledig automatische modi.

Robotachtige drones werd wijdverspreid in de oorlogen van de 21e eeuw. Onbemande systemen voeren nu een verscheidenheid aan “saai, vies en gevaarlijk“taken te land, ter zee, in de lucht en in een baan om de aarde. Op afstand bestuurde voertuigen zoals de Amerikaanse MQ-9 Reaper of de Israëlische Hermes 900, die urenlang autonoom kunnen rondhangen, vormen een platform voor verkenning en aanval. Oorlog tussen Rusland en Oekraïne heeft een pioniersrol vervuld in het gebruik van first-person-view drones als kamikazemunitie. Sommige drones vertrouwen op kunstmatige intelligentie om doelen te verwerven, omdat elektronische jamming afstandsbediening door menselijke operators uitsluit.

Maar systemen die verkenningen en aanvallen automatiseren zijn slechts de meest zichtbare onderdelen van de automatiseringsrevolutie. Het vermogen om verder te kijken en sneller toe te slaan vergroot de informatieverwerkingslast voor militaire organisaties dramatisch. Dit is waar beslissingsondersteunende systemen een rol spelen. Als geautomatiseerde wapens de ogen en armen van een leger verbeteren, vergroten beslissingsondersteunende systemen de hersenen.

Het tijdperk van de Koude Oorlog commando en controle systemen verwachten moderne beslissingsondersteunende systemen zoals Israëls AI-gestuurde Tzayad voor gevechtsmanagement. Onderzoeksprojecten op het gebied van automatisering net zoals de Semi-Automatic Ground Environment, of SAGE, van de Verenigde Staten in de jaren vijftig belangrijke innovaties op het gebied van computergeheugen en interfaces opleverde. In de Amerikaanse oorlog in Vietnam, Iglo wit verzamelde inlichtingengegevens in een gecentraliseerde computer om Amerikaanse luchtaanvallen op Noord-Vietnamese aanvoerlijnen te coördineren. Het Amerikaanse Defense Advanced Research Projects Agency strategische gegevensverwerking programma in de jaren tachtig stimuleerde de vooruitgang op het gebied van halfgeleiders en expertsystemen. Defensiefinanciering heeft feitelijk de opkomst van kunstmatige intelligentie mogelijk gemaakt.

Organisaties maken geautomatiseerde oorlogsvoering mogelijk

Geautomatiseerde wapens en beslissingsondersteunende systemen zijn afhankelijk van complementaire organisatorische innovatie. Van Elektronisch slagveld van Vietnam aan Luchtlandgevecht de doctrine van de late koude oorlog en latere concepten van netwerkgerichte oorlogsvoeringhet Amerikaanse leger heeft ontwikkelde nieuwe ideeën en organisatieconcepten.

Bijzonder opmerkelijk is het uiterlijk van een nieuwe stijl van speciale operaties tijdens de Amerikaanse mondiale oorlog tegen het terrorisme. Op AI gebaseerde beslissingsondersteunende systemen werden van onschatbare waarde bij het opsporen van terroristen, het plannen van invallen om hen te doden of gevangen te nemen, en het analyseren van de daarbij verzamelde informatie. Systemen als Maven werden essentieel voor deze stijl van terrorismebestrijding.

De indrukwekkende Amerikaanse manier van oorlog voeren tentoongesteld in Venezuela en Iran is de vrucht van tientallen jaren van vallen en opstaan. Het Amerikaanse leger heeft complexe processen aangescherpt om inlichtingen uit meerdere bronnen te verzamelen, doelsystemen te analyseren, aanvalsopties te evalueren, gezamenlijke operaties te coördineren en bomschade te beoordelen. De enige reden waarom AI gedurende de hele doelcyclus kan worden gebruikt, is dat talloze menselijke werknemers overal ter wereld eraan werken om het draaiende te houden.

AI roept belangrijke zorgen op automatiseringsvooroordeelof de neiging van mensen om buitensporig veel gewicht te hechten aan geautomatiseerde beslissingen met betrekking tot militaire doelstellingen. Maar dit zijn geen nieuwe zorgen. Iglo Wit was vaak misleid van Vietnamese lokvogels. Een ultramoderne Amerikaanse Aegis-kruiser per ongeluk neergeschoten een Iraans vliegtuig in 1988. Fouten in de inlichtingendienst leidden ertoe dat Amerikaanse stealth-bommenwerpers per ongeluk aanvielen Chinese ambassade in Belgrado, Servië, in 1999.

Veel Iraakse en Afghaanse burgers zijn hierdoor omgekomen analytische fouten En culturele vooroordelen binnen het Amerikaanse leger. Recentelijk zijn er aanwijzingen dat er sprake is van een Tomahawk-kruisraket een meisjesschool verslaan naast een Iraanse marinebasis, waarbij ongeveer 175 mensen omkwamen, voornamelijk studenten. Deze doelgerichtheid zou het gevolg kunnen zijn van een falen van de Amerikaanse inlichtingendiensten.

Geautomatiseerde voorspelling vereist menselijk oordeel

De successen en mislukkingen van beslissingsondersteunende systemen in oorlog zijn meer te wijten aan organisatorische factoren dan aan technologie. AI kan organisaties helpen hun efficiëntie te verbeteren, maar AI kan ook vooroordelen binnen de organisatie versterken. Hoewel het verleidelijk kan zijn om lavendel de schuld te geven van veel te veel burgerdoden in de Gazastrook, lakse Israëlische regels van betrokkenheid waarschijnlijk belangrijker dan automatiseringsvooroordelen.

Zoals de naam al doet vermoeden ondersteunen beslissingsondersteunende systemen de menselijke besluitvorming; AI vervangt de mens niet. Menselijk personeel speelt nog steeds een belangrijke rol bij het ontwerpen, beheren, interpreteren, valideren, evalueren, repareren en beschermen van hun systemen en datastromen. De commandanten voeren nog steeds het bevel.

In economische termen, AI verbetert de voorspellingwat betekent dat er nieuwe data gegenereerd moet worden op basis van bestaande data. Maar voorspellen is slechts een deel van de besluitvorming. Mensen maken uiteindelijk de oordelen die er toe doen over wat ze moeten voorspellen en hoe ze voorspellingen moeten gebruiken. Mensen hebben voorkeuren, waarden en verplichtingen met betrekking tot resultaten in de echte wereld, maar AI-systemen inherent niet.

Dit betekent naar mijn mening dat er inderdaad sprake is van een toenemend militair gebruik van kunstmatige intelligentie Mensen die belangrijker zijn in oorlogniet minder.


Jon R. Lindsay is docent cybersecurity en privacy en internationale zaken bij Georgisch Instituut voor Technologie.

Dit artikel is opnieuw gepubliceerd van Het gesprek onder een Creative Commons-licentie. Lezen origineel artikel.


Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in