Home Nieuws Anthropic zal zijn grootste en slechtste AI-model gebruiken om zich te beschermen...

Anthropic zal zijn grootste en slechtste AI-model gebruiken om zich te beschermen tegen cyberaanvallen

2
0
Anthropic zal zijn grootste en slechtste AI-model gebruiken om zich te beschermen tegen cyberaanvallen

Anthropic zei dinsdag dat het een voorproefje deelt van de aanstaande AI model in een nieuw cybersecurity-initiatief met een coalitie van technologiebedrijven om kwetsbaarheden in kritieke software-infrastructuur te vinden en op te lossen.

Het Project Glasswing-initiatief omvat technologische grootheden zoals Amazon, Apple, Broadcom, Cisco, CrowdStrike, de Linux Foundation, Microsoft en Palo Alto Networks. Anthropic zei dat de partners het model zullen gebruiken voor defensief veiligheidswerk en hun bevindingen binnen de sector als geheel zullen verspreiden. Het bedrijf breidt ook de toegang uit tot ongeveer 40 extra organisaties die kritieke software-infrastructuur bouwen of onderhouden.

De angst is gegroeid dat slechte actoren krachtige AI-modellen zouden kunnen gebruiken ontwikkelen van meer geavanceerde cyberaanvallen. “Het werk om de cyberinfrastructuur van de wereld te verdedigen kan jaren duren; grensoverschrijdende AI-capaciteiten zullen zich de komende maanden waarschijnlijk aanzienlijk ontwikkelen”, zei Anthropic in een blogpost. “Om cyberverdedigers voorop te laten lopen, moeten we nu actie ondernemen.”

Anthropic stelt tot $100 miljoen aan kredieten voor modelgebruik beschikbaar voor beveiligingsonderzoek en $4 miljoen aan directe donaties aan open source-beveiligingsorganisaties.

Athropic zegt dat het sterke beveiligingstoepassingen heeft ontdekt in de “Claude Mythos Preview” terwijl het model werd getraind op codeer- en redeneervaardigheden. Het bedrijf zegt dat gebruikers uiteindelijk toegang zullen hebben tot andere leden van de Mythos-modelklasse.

Het Mythos-model heeft de afgelopen weken al duizenden zero-day-kwetsbaarheden geïdentificeerd, zei Anthropic in de blogpost, waarvan er vele kritiek zijn. Het model vond een 27 jaar oude fout in OpenBSD, een besturingssysteem dat bekend staat om zijn veiligheid. Het ontdekte ook een 16 jaar oude kwetsbaarheid in veelgebruikte videosoftware die geautomatiseerde testtools niet hadden gevonden.

Het bedrijf zei dat het voortdurend in gesprek is met Amerikaanse overheidsfunctionarissen over de offensieve en defensieve cybercapaciteiten van het model. Anthropic heeft het initiatief als urgent bestempeld, met het argument dat vergelijkbare AI-mogelijkheden binnenkort beschikbaar zullen zijn voor slechte actoren.

Anthropic was bij één ervan betrokken spuugde met het Pentagon vorige maand vanwege haar verzet tegen de voorwaarden van defensiecontracten die de regering in staat zouden hebben gesteld haar technologie te gebruiken voor binnenlands toezicht en voor autonome wapens. Die vete leidde tot het nog steeds voortdurende uiteenvallen van hun werkrelatie.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in