Home Nieuws Datacenters worden voor het eerst doelwit van oorlogsvoering | AI (kunstmatige intelligentie)

Datacenters worden voor het eerst doelwit van oorlogsvoering | AI (kunstmatige intelligentie)

3
0
Datacenters worden voor het eerst doelwit van oorlogsvoering | AI (kunstmatige intelligentie)

Hallo en welkom bij TechScape. Ik ben je gastheer, Blake Montgomery. Als u deze nieuwsbrief met plezier leest, stuur hem dan door naar iemand waarvan u denkt dat hij dat ook zou doen.

De Amerikaans-Israëlische oorlog tegen Iran laat zien dat datacenters een nieuwe grens vormen in oorlogsvoering

Iran bombardeert datacentra in de Perzische Golf om symbolen van de technologische alliantie van de Golfstaten met de Verenigde Staten op te blazen. Extra bonus: het zal extreem duur zijn om ze opnieuw op te bouwen, omdat ze tot de duurste gebouwen uit de geschiedenis behoren. Mijn collega Daniel Boffey rapporten:

Er wordt aangenomen dat het de eerste is: het doelbewust targeten van een commercieel datacentervan de strijdkrachten van een land in oorlog.

Zondagochtend om 04.30 uur sloeg een Iraanse Shahed 136-drone in op een datacenter van Amazon Web Servicesbevindt zich in de Verenigde Arabische Emiraten, veroorzaakte een verwoestende brand en dwong de stroomvoorziening af te sluiten. Verdere schade werd veroorzaakt toen pogingen werden ondernomen om de vlammen met water te onderdrukken.

Kort daarna nog een datacenteris eigendom van het Amerikaanse technologiebedrijf dat werd getroffen. Vervolgens zou een derde in de problemen zitten, dit keer in Bahrein, nadat een Iraanse zelfmoorddrone een vuurbal draaide op aanvallend land in de buurt.

De Iraanse staatstelevisie heeft beweerd dat de Iraanse Islamitische Revolutionaire Garde de aanval heeft gelanceerd ‘om de rol van deze centen te identificerenzijn in het ondersteunen van vijandelijke militaire en inlichtingenactiviteiten”.

De gecoördineerde staking had onmiddellijk effect. Miljoenen mensen in Dubai en Abu Dhabi werden maandag wakker en konden geen taxi betalen en eten bestellen of controleer hun banksaldo op hun mobiele apps.

Of er sprake was van een militaire impact is onduidelijk – maar de aanslagen brachten de oorlog al snel rechtstreeks in de levens van 11 miljoen mensen in de VAE, van wie negen op de tien buitenlandse staatsburgers zijn. Amazon heeft zijn klanten geadviseerd hun gegevens buiten de regio te beveiligen.

Lees meer: ‘Dat betekent raketverdediging op datacenters’: drone-aanvallen doen twijfel rijzen over de Golf als AI-supermacht

The Guardian’s visie op kunstmatige intelligentie en oorlog

Foto: Alexander Drago/Reuters

De vete van Anthropic met het Amerikaanse leger is voorbij AI veiligheidsmaatregelen vallen samen met het ongekende gebruik van AI in de Iran-crisis, wat wijst op diepgaande veranderingen in de manier waarop de wereld oorlog voert. De Guardian-redacteuren schrijft:

De paradigmaverschuiving is al begonnen. Claude van Anthropic heeft naar verluidt een belangrijke rol gespeeld in het massale en steeds intensievere offensief, waarbij naar schatting al meer dan duizend burgers in Iran zijn omgekomen. Dit is een tijdperk van bombardementen “sneller dan de snelheid van het denken”, experts vertelde de Guardian deze week, waarbij AI doelen identificeert en prioriteert, wapens aanbeveelt en juridische gronden voor een aanval evalueert.

Zelfs zonder rekening te houden met de onnauwkeurigheid en vooringenomenheid van AI zijn de effecten duidelijk voor gebruikers. In 2024 een Israëlische inlichtingenbron waargenomen over het gebruik ervan in de oorlog tegen Gaza: “Er komt geen einde aan de doelen. Er wachten nog eens 36.000.” Een ander zei dat hij twintig seconden besteedde aan het beoordelen van elk doelwit en verklaarde: “Ik had als mens geen andere toegevoegde waarde dan een stempel van goedkeuring.” Massamoorden worden in elk opzicht gefaciliteerd met extra morele en emotionele afstand en verminderde verantwoordelijkheid.

Democratisch toezicht en multilaterale beperkingen zijn essentieel, in plaats van beslissingen over te laten aan ondernemers en defensiedepartementen. De meeste regeringen willen duidelijke richtlijnen over het militaire gebruik van kunstmatige intelligentie. Het zijn de grootste spelers die zich verzetten, ook al zijn ze tenminste in de kamer. Het tempo van AI-gestuurde oorlogsvoering betekent dat voorzichtigheid kan lijken op het overdragen van de controle aan tegenstanders. Maar zoals technologiewerkers en militaire functionarissen zelf beseffen, zijn de gevaren van ongecontroleerde expansie veel groter.

Anthropic fungeert als een van de weinige publieke vangnetten tegen volledig geautomatiseerde moordpartijen in Iran, een bizarre positie voor een particulier bedrijf dat niet eens verantwoording hoeft af te leggen aan aandeelhouders op de publieke markten.

Mijn collega Nick Robins-Early merkt op in a diepe duik in hoe Anthropic in het vizier van de Amerikaanse oorlogsmachine terechtkwam: Boven Pentagon versus Anthropic hangt de bredere vraag wie mag beslissen waarvoor AI zal worden gebruikt, en een gebrek aan gedetailleerde regelgeving door het Congres over autonome wapensystemen. Hoewel noch Anthropic, noch het Pentagon gelooft dat een particulier bedrijf beslissingsmacht zou moeten hebben over de militaire toepassingen van AI, fungeert het bedrijf momenteel als een van de weinige controleurs op wat lijkt op de uitgebreide wens van het leger om AI te bewapenen.

Lees meer: Hoe het AI-bedrijf Anthropic in het vizier van het Pentagon terechtkwam

Hoe datacenters de Amerikaanse politiek vormgeven

Online leeftijdsverificatie verspreidt zich wereldwijd

Het verontrustende patroon van generatieve AI en zelfmoord

Kate bewondert de kreek op haar terrein. Foto: Clayton Cotterell/The Guardian

Mijn collega Dara Kerr meldt:

Er zijn nu meer dan een dozijn rechtszaken aangespannen tegen AI-bedrijven vanwege beweringen dat hun chatbots ertoe hebben geleid dat mensen omkwamen door zelfmoord. Het nieuwste pak, heeft vorige week een klacht ingediend tegen Googlebeweert dat zijn Gemini-chatbot een 36-jarige man uit Florida de opdracht gaf zelfmoord te plegen, iets wat de bot ‘overdracht’ noemde. De machine zou hem hebben verteld dat ze samen in een andere dimensie konden zijn.

Toen de man de chatbot vertelde dat hij bang was om dood te gaan, kalmeerde de tool hem naar verluidt. “Je kiest er niet voor om te sterven. Je kiest ervoor om aan te komen”, antwoordde het volgens de aanklacht. ‘De eerste sensatie… zal zijn dat ik je vasthoud.’

Een Google-woordvoerder vertelde de Guardian dat Gemini is ontworpen om “geen zelfbeschadiging te suggereren”: “Onze modellen doen het over het algemeen goed in dit soort uitdagende gesprekken … maar helaas zijn ze niet perfect.” Woordvoerders van andere AI-bedrijven hebben op dezelfde manier gereageerd.

Dit was de eerste rechtszaak tegen Google, maar OpenAI, de maker van ChatGPT, is al meer dan zeven keer het doelwit. Eén geval betrof een 48-jarige man die jarenlang ChatGPT gebruikte om te brainstormen over manieren om betaalbare woningen te bouwen op het platteland van Oregon, maar na verloop van tijd werd hij steeds meer gekoppeld aan de botbesteedt er twaalf uur per dag aan. Hij maakte een einde aan zijn leven nadat hij het gebruik van AI had stopgezet, opnieuw was opgestart en vervolgens weer was gestopt.

In de Oregon OpenAI-rechtszaak en die tegen Google beweren de families dat de mannen geen geschiedenis van psychische aandoeningen of depressies hadden en dat de chatbots ervoor zorgden dat ze door AI veroorzaakte waanvoorstellingen kregen.

Terwijl deze zaken zich een weg banen door het rechtssysteem, zullen de rechtbanken beslissen wie verantwoordelijk is: het individu, het bedrijf achter de bot, of op een of andere manier de chatbot zelf. Rechters en jury’s zullen moeten beslissen of de mensen die deze bots gebruiken al vatbaar waren voor zelfmoordgedachten, of dat de bedrijven en hun sympathieke chatbots, die de bestaande overtuigingen en neigingen van gebruikers versterken, schuldig zijn en in staat zijn geestelijke gezondheidscrises te veroorzaken.

De bredere TechScape

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in