Home Nieuws Een gevaarlijk omslagpunt? Claims over AI-hacking verdelen cybersecurity-experts | Zakelijk en financieel...

Een gevaarlijk omslagpunt? Claims over AI-hacking verdelen cybersecurity-experts | Zakelijk en financieel nieuws

17
0
Een gevaarlijk omslagpunt? Claims over AI-hacking verdelen cybersecurity-experts | Zakelijk en financieel nieuws

Een alarmerend keerpunt voor kunstmatige intelligentie of een overhypede dreiging?

AI-startup Anthropic’s nieuwste aankondiging dat het ’s werelds eerste op kunstmatige intelligentie gebaseerde hackcampagne heeft ontdekt, heeft geleid tot een stortvloed aan reacties van cyberbeveiligingsexperts.

Uitgelichte verhalen

lijst van 4 artikelenhet einde van de lijst

Terwijl sommige waarnemers alarm hebben geslagen over de lang gevreesde komst van een gevaarlijk keerpunt, hebben anderen de beweringen met scepsis begroet, met het argument dat het startup-account cruciale details weglaat en meer vragen dan antwoorden oproept.

In een rapport van vrijdag zei Anthropic dat zijn assistent Claude Code werd gemanipuleerd om 80 tot 90 procent van een ‘grootschalige’ en ‘zeer geavanceerde’ cyberaanval uit te voeren, waarbij menselijke tussenkomst ‘slechts sporadisch’ nodig was.

Anthropic, de maker van de populaire chatbot Claude, zei dat de aanval bedoeld was om overheidsinstanties, financiële instellingen, technologiebedrijven en chemische productiebedrijven te infiltreren, hoewel de operatie slechts in een klein aantal gevallen succesvol was.

Het in San Francisco gevestigde bedrijf, dat de aanval toeschreef aan door de Chinese staat gesponsorde hackers, specificeerde niet hoe het de operatie had blootgelegd, en identificeerde ook niet de ‘ruwweg’ 30 apparaten die volgens hen het doelwit waren.

Roman V Yampolskiy, een AI- en cyberbeveiligingsexpert aan de Universiteit van Louisville, zei dat er geen twijfel over bestond dat AI-ondersteund hacken een ernstige bedreiging vormde, hoewel het moeilijk was om de precieze details van het verhaal van Anthropic te verifiëren.

“Moderne modellen kunnen exploitcode schrijven en aanpassen, grote hoeveelheden gestolen gegevens doorzoeken en tools sneller en goedkoper orkestreren dan menselijke teams”, vertelde Yampolskiy aan Al Jazeera.

“Ze verlagen de vaardigheidsbarrière voor toegang en vergroten de reikwijdte waarmee goed uitgeruste actoren kunnen opereren. We plaatsen effectief een junior cyberoperatieteam in de cloud dat op uurbasis kan worden ingehuurd.”

Yampolskiy zei dat hij verwachtte dat AI zowel de frequentie als de ernst van aanvallen zou vergroten.

Jaime Sevilla, directeur van Epoch AI, zei dat hij niet veel nieuws zag in het rapport van Anthropic, maar ervaringen uit het verleden dicteerden dat AI-ondersteunde aanvallen mogelijk waren en waarschijnlijk steeds gebruikelijker zouden worden.

“Dit zal waarschijnlijk middelgrote bedrijven en overheidsinstanties het hardst treffen”, zei Sevilla tegen Al Jazeera.

“Historisch gezien waren het niet waardevolle doelen voor specifieke campagnes en werd er vaak te weinig geïnvesteerd in cyberbeveiliging, maar AI maakt ze tot winstgevende doelen. Ik verwacht dat veel van deze organisaties zich zullen aanpassen door cyberbeveiligingsspecialisten in te huren, kwetsbaarheidsprogramma’s te lanceren en AI te gebruiken om interne zwakke punten op te sporen en te repareren.”

Hoewel veel analisten hun wens hebben geuit voor meer informatie van Anthropic, hebben sommigen de beweringen ervan afgewezen.

Nadat de Amerikaanse senator Chris Murphy had gewaarschuwd dat door AI geleide aanvallen ons zouden ‘vernietigen’ als regelgeving geen prioriteit zou krijgen, noemde Meta AI-hoofdwetenschapper Yann LeCun de wetgevende macht ‘bespeeld’ door een bedrijf dat op zoek is naar toezicht.

“Ze maken iedereen bang met dubieuze onderzoeken, zodat open source-modellen uit het bestaan ​​worden gereguleerd”, zei LeCun in een bericht op X.

Anthropic heeft niet gereageerd op een verzoek om commentaar.

Een woordvoerder van de Chinese ambassade in Washington DC zei dat China zich “consequent en resoluut” verzette tegen alle vormen van cyberaanvallen.

“We hopen dat relevante partijen een professionele en verantwoordelijke houding zullen aannemen, en hun karakterisering van cyberincidenten zullen baseren op voldoende bewijsmateriaal, in plaats van op ongefundeerde speculaties en beschuldigingen”, zei Liu Pengyu tegen Al Jazeera.

Toby Murray, een computerbeveiligingsexpert aan de Universiteit van Melbourne, zei dat Anthropic zakelijke prikkels had om zowel de gevaren van dergelijke aanvallen te benadrukken als zijn vermogen om deze tegen te gaan.

“Sommige mensen hebben de beweringen van Anthropic in twijfel getrokken, die suggereren dat de aanvallers de Claude AI zeer complexe taken konden laten uitvoeren met minder menselijk toezicht dan normaal gesproken vereist is”, vertelde Murray aan Al Jazeera.

“Helaas geven ze ons geen hard bewijs om precies te zeggen welke taken er precies zijn uitgevoerd of welk toezicht er is geboden. Het is dus moeilijk om op de een of andere manier een oordeel te vellen over deze beschuldigingen.”

Toch zei Murray dat hij het rapport niet bijzonder verrassend vond, gezien de effectiviteit van sommige AI-assistenten bij taken als coderen.

“Ik zie niet dat AI-aangedreven hacking het soort hacks zal veranderen”, zei hij.

“Het zou echter een schaalverandering kunnen inluiden. We mogen verwachten dat we in de toekomst meer AI-aangedreven hacks zullen zien, en dat die hacks succesvoller zullen zijn.”

Hoewel kunstmatige intelligentie een groeiend risico voor de cyberveiligheid zal vormen, zal het ook van cruciaal belang zijn voor het versterken van de verdediging, zeggen analisten.

Fred Heiding, een onderzoeker aan de Harvard Universiteit die gespecialiseerd is in computerbeveiliging en AI-beveiliging, zei dat hij gelooft dat AI op de lange termijn een “significant voordeel” zal bieden aan cybersecurity-specialisten.

“Tegenwoordig worden veel cyberoperaties belemmerd door een gebrek aan menselijke cyberprofessionals. AI zal ons helpen dit knelpunt te overwinnen door ons in staat te stellen al onze systemen op grote schaal te testen”, vertelde Heiding aan Al Jazeera.

Heiding, die het verhaal van Anthropic als grotendeels geloofwaardig maar ‘overdreven’ omschreef, zei dat het grote gevaar is dat hackers een kans krijgen om amok te maken terwijl beveiligingsexperts moeite hebben om de steeds geavanceerdere AI te exploiteren.

“Helaas zal de defensiegemeenschap waarschijnlijk te traag zijn om de nieuwe technologie te implementeren in geautomatiseerde beveiligingstests en patchoplossingen”, zei hij.

“Als dat het geval is, zullen aanvallers met een druk op de knop grote schade aanrichten aan onze systemen voordat onze verdediging de tijd heeft gehad om de achterstand in te halen.”

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in