Een team van onderzoekers heeft onthuld wat volgens hen het eerste gerapporteerde gebruik is van kunstmatige intelligentie er één te regisseren hack-campagne grotendeels geautomatiseerd.
AI-bedrijf Anthropic zei deze week dat het een cyberoperatie verstoorde waaraan zijn onderzoekers verbonden waren Chinese regering. De operatie omvatte het gebruik van een kunstmatig intelligentiesysteem om de hackcampagnes te sturen, wat de onderzoekers een verontrustende ontwikkeling noemden die het bereik van met AI uitgeruste hackers aanzienlijk zou kunnen vergroten.
Hoewel zorgen over het gebruik van AI bij het uitvoeren van cyberoperaties niet nieuw zijn, is het verontrustende aan de nieuwe operatie de mate waarin AI een deel van het werk kon automatiseren, aldus de onderzoekers.
“Hoewel we voorspelden dat deze mogelijkheden zich zouden blijven ontwikkelen, viel ons op hoe snel ze dit op grote schaal hebben gedaan”, schreven ze in hun rapport.
De operatie was gericht op technologiebedrijven, financiële instellingen, chemische bedrijven en overheidsinstanties. De onderzoekers schreven dat de hackers “ongeveer dertig mondiale doelen aanvielen en in een klein aantal gevallen succesvol waren.” Anthropic ontdekte de operatie in september en ondernam stappen om de operatie stop te zetten en de betrokken partijen op de hoogte te stellen.
Anthropic merkte op dat hoewel AI-systemen steeds vaker worden gebruikt in een verscheidenheid aan werk- en vrijetijdsomgevingen, ze ook kunnen worden bewapend door hackergroepen die voor buitenlandse tegenstanders werken. Anthropic, maker van de generatieve AI-chatbot Claude, is een van de vele technologiebedrijven die AI-agenten pitchen die verder gaan dan het vermogen van een chatbot om toegang te krijgen tot computertools en namens iemand actie te ondernemen.
Ontvang het laatste nationale nieuws
Voor nieuws over Canada en de rest van de wereld kunt u zich aanmelden voor de laatste nieuwswaarschuwingen die u rechtstreeks worden bezorgd zodra ze zich voordoen.
“Agenten zijn waardevol voor het dagelijkse werk en de productiviteit – maar in de verkeerde handen kunnen ze de levensvatbaarheid van grootschalige cyberaanvallen aanzienlijk vergroten”, concluderen de onderzoekers. “Deze aanvallen zullen waarschijnlijk alleen maar in effectiviteit toenemen.”
Een woordvoerder van de Chinese ambassade in Washington heeft niet onmiddellijk een bericht teruggestuurd met het verzoek om commentaar op het rapport.

Microsoft waarschuwde eerder dit jaar dat buitenlandse tegenstanders steeds meer AI omarmen om hun cybercampagnes effectiever en minder arbeidsintensief te maken. De leider van OpenAI’s beveiligingspaneel, dat de bevoegdheid heeft om te stoppen ChatGPT De AI-ontwikkeling van de fabrikant vertelde onlangs aan The Associated Press dat hij op zoek is naar nieuwe AI-systemen die kwaadwillende hackers “veel hogere mogelijkheden” geven.
De Amerikaanse tegenstanders, maar ook criminele bendes en hackbedrijven, hebben het potentieel van AI uitgebuit door het te gebruiken om cyberaanvallen te automatiseren en te verbeteren, om opruiende desinformatie te verspreiden en om gevoelige systemen binnen te dringen. AI kan bijvoorbeeld slecht geformuleerde phishing-e-mails in vloeiend Engels vertalen, maar ook digitale klonen van hoge functionarissen genereren.
Anthropic zei dat de hackers Claude konden manipuleren met behulp van ‘jailbreaking’-technieken, waarbij een AI-systeem werd misleid om de beveiliging tegen kwaadaardig gedrag te omzeilen, in dit geval door te beweren werknemers te zijn van een legitiem bedrijf. cyberbeveiliging stevig.
“Dit wijst op een grote uitdaging met AI-modellen, en deze beperkt zich niet tot Claude, namelijk dat de modellen onderscheid moeten kunnen maken tussen wat er feitelijk aan de hand is met de ethiek van een situatie en de soorten rollenspelscenario’s die hackers en anderen samen willen creëren”, zegt John Scott-Railton, senior onderzoeker bij Citizen Lab.

Het gebruik van kunstmatige intelligentie om cyberaanvallen te automatiseren of te sturen zal ook kleinere hackgroepen en lone wolf-hackers aanspreken, die kunstmatige intelligentie zouden kunnen gebruiken om de reikwijdte van hun aanvallen uit te breiden, aldus Adam Arellano, veld-CTO bij Harness, een technologiebedrijf dat kunstmatige intelligentie gebruikt om klanten te helpen de softwareontwikkeling te automatiseren.
“De snelheid en automatisering die AI biedt, zijn een beetje eng”, zegt Arellano. “In plaats van dat een mens met goed opgeleide vaardigheden verharde systemen probeert te hacken, versnelt AI die processen en overwint hij obstakels consistenter.”
AI-programma’s zullen ook een steeds belangrijkere rol spelen bij de verdediging tegen dit soort aanvallen, zei Arellano, waarmee wordt aangetoond hoe AI en de automatisering die het mogelijk maakt beide partijen ten goede zullen komen.
De reacties op de onthulling van Anthropic waren gemengd: sommigen zagen het als een marketingtruc voor de aanpak van Anthropic om cyberveiligheid te verdedigen, terwijl anderen de wake-up call verwelkomden.
“Dit zal ons vernietigen – sneller dan we denken – als we morgen niet van AI-regulering een nationale prioriteit maken”, schreef de Amerikaanse senator Chris Murphy, een democraat uit Connecticut, op sociale media.
Dit leidde tot kritiek van Meta’s hoofd AI-onderzoeker Yann LeCun, een voorstander van de open-source AI-systemen van het Facebook-moederbedrijf die, in tegenstelling tot die van Anthropic, hun belangrijkste componenten openbaar beschikbaar maken op een manier die sommige voorstanders van AI-beveiliging riskant vinden.
“Je wordt gespeeld door mensen die toezicht willen houden”, schreef LeCun in een reactie aan Murphy. “Ze maken iedereen bang met dubieuze onderzoeken, zodat open source-modellen uit het bestaan worden gereguleerd.”
© 2025 De Canadese pers



