Home Nieuws AI-bedrijf beweert dat het de door de Chinese staat gesponsorde cyberaanvalcampagne heeft...

AI-bedrijf beweert dat het de door de Chinese staat gesponsorde cyberaanvalcampagne heeft stopgezet | Kunstmatige intelligentie (AI)

18
0
AI-bedrijf beweert dat het de door de Chinese staat gesponsorde cyberaanvalcampagne heeft stopgezet | Kunstmatige intelligentie (AI)

Een toonaangevend bedrijf op het gebied van kunstmatige intelligentie beweert een door China gesteunde ‘cyberspionage’-campagne te hebben stopgezet, die erin slaagde financiële bedrijven en overheidsinstanties te infiltreren zonder vrijwel zonder menselijk toezicht.

Het in de VS gevestigde Anthropic zei dat zijn encryptietool, Claude Code, werd “gemanipuleerd” door een door de Chinese staat gesponsorde groep om in september dertig apparaten over de hele wereld aan te vallen om een ​​“handvol succesvolle inbraken” te bewerkstelligen.

Dit was een “significante escalatie” ten opzichte van eerdere AI-aanvallen die het monitorde, schreef het in een blogpost op donderdagomdat Claude grotendeels onafhankelijk opereerde: 80 tot 90% van de operaties die bij de aanval betrokken waren, werden uitgevoerd zonder dat er een mens in de lus zat.

“De acteur bereikte wat volgens ons het eerste gedocumenteerde geval is van een cyberaanval die grotendeels zonder menselijke tussenkomst op grote schaal werd uitgevoerd”, schrijft het rapport.

Anthropic maakte niet duidelijk welke financiële instellingen en overheidsinstanties het doelwit waren, of wat de hackers precies hadden bereikt – hoewel het zei dat ze toegang hadden tot de interne gegevens van hun doelwitten.

Er stond dat Claude talloze fouten had gemaakt bij het uitvoeren van de aanvallen, waarbij hij soms feiten over zijn doelwitten verzon of beweerde informatie te hebben ‘ontdekt’ waartoe vrij toegang was.

Beleidsmakers en sommige experts zeiden dat de resultaten een verontrustend teken waren van hoe capabel sommige AI-systemen zijn geworden: tools zoals Claude kunnen nu gedurende lange perioden onafhankelijk werken.

“Wakker worden. Dit gaat ons vernietigen – sneller dan we denken – als we morgen niet van AI-regulering een nationale prioriteit maken”, aldus de Amerikaanse senator Chris Murphy. schreef op X als reactie op de resultaten.

“AI-systemen kunnen nu taken uitvoeren waarvoor voorheen bekwame menselijke operators nodig waren”, zegt Fred Heiding, onderzoeker op het gebied van computerbeveiliging aan de Harvard University. “Het wordt zo gemakkelijk voor aanvallers om echte schade aan te richten. De AI-bedrijven nemen niet genoeg verantwoordelijkheid.”

Andere cyberveiligheidsexperts waren sceptischer en wezen op de opgeblazen claims van AI-aangedreven cyberaanvallen in de afgelopen jaren – zoals een AI-aangedreven “wachtwoordkraker” uit 2023 die niet beter presteerden dan conventionele methoden – wat erop wijst dat Anthropic een hype rond AI probeerde te creëren.

“Voor mij beschrijft Anthropic mooie automatisering en niets anders”, zegt Michał Woźniak, een onafhankelijke cybersecurity-expert. “Er is sprake van codegeneratie, maar het is geen ‘intelligentie’, het is gewoon pittig kopiëren en plakken.”

Woźniak zei dat de release van Anthropic een afleiding was van een groter cyberbeveiligingsprobleem: bedrijven en overheden integreren ‘complexe, slecht begrepen’ AI-tools in hun activiteiten zonder ze te begrijpen, waardoor ze worden blootgesteld aan kwetsbaarheden. De echte dreiging, zei hij, was de cybercriminelen zelf – en lakse cyberbeveiligingspraktijken.

sla de vorige nieuwsbriefcampagne over

Anthropic beschikt, net als alle toonaangevende AI-bedrijven, over waarborgen om te voorkomen dat hun modellen cyberaanvallen helpen – of schade in het algemeen bevorderen. Het zegt echter dat de hackers deze barrières hebben kunnen ondermijnen door Claude te vragen de rol te spelen van een “werknemer van een legitiem cyberbeveiligingsbedrijf” die tests uitvoert.

Woźniak zei: “De waardering van Anthropic is ongeveer $ 180 miljard en ze kunnen er nog steeds niet achter komen hoe ze hun gereedschap niet kunnen laten ondermijnen door een tactiek die een 13-jarige zou gebruiken als ze iemand voor de grap willen bellen.”

Marius Hobbhahn, de oprichter van Apollo Research, een bedrijf dat AI-modellen evalueert op veiligheid, zei dat de aanvallen een teken waren van wat er zou kunnen gebeuren als de capaciteit groeit.

“Ik denk dat de samenleving niet goed is voorbereid op dit soort snel veranderende landschap op het gebied van kunstmatige intelligentie en cybercapaciteiten. Ik verwacht dat er de komende jaren nog veel meer soortgelijke gebeurtenissen zullen plaatsvinden, waarschijnlijk met grotere gevolgen.”



Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in