Voor een bedrijf met een van de belangrijkste taken op het gebied van informatiebeveiliging is het inschatten van de risico’s en kansen van AI voelt misschien minder als een analytische oefening en meer als het slaan van een 20-zijdige dobbelsteen.
Dat komt omdat een wachtwoordbeheerder, die al de meest waardevolle inloggegevens van een klant moet verdedigen tegen zowel aanvallers van buitenaf als de onzorgvuldigheid van de klant zelf, nu op meerdere fronten te maken krijgt met AI.
AI kan een wachtwoordbeheerbedrijf helpen code te ontwikkelen en kwetsbaarheden sneller te vinden, maar het kan klanten ook in staat stellen slordige, vibe-gecodeerde apps die wachtwoorden onthullen. En hoewel AI-agenten beloven complexe taken met één enkele focus uit te voeren, kunnen hallucinaties of snelle injectie-aanvallen ervoor zorgen dat ze falen zoals elke vermoeide, afgeleide mens, maar dan sneller en op grotere schaal.
“Je moet beginnen door je klanten te helpen hun ontploffingsradius te begrijpen en ook hoe wijdverbreid deze uitdaging is in hun ecosysteem”, zegt Nancy Wang, Chief Technology Officer bij 1 Wachtwoord.
Klanten behoeden voor zelf veroorzaakte problemen
De AI-strategie van het in Toronto gevestigde bedrijf begint in de eerste plaats met het proberen zakelijke klanten uit de problemen te houden. Het maakt gebruik van een agent op het apparaat om het gebruik van AI-modellen te controleren en risico’s te signaleren waarvan het management van een klant op de hoogte wil zijn.
“Hallo mevrouw CISO, wist u dat uw ontwikkelaars het DeepSeek-model gebruiken op deze tak van uw codebase?” Wang zegt over Chinees ontwikkelde LLM het is leverde kritiek op boven de zijne veiligheidsrisico’s. “Het is echt gebeurd.”
Ze voegt eraan toe dat er “enkele beveiligingsgesprekken over best practices” volgden met de ontwikkelaars in kwestie.
Geautomatiseerd scannen door de agent, die ook controleert op geïnstalleerde software-updates en andere tekenen van apparaatgezondheid, helpt 1Password bij het vinden slordig wachtwoordbeheer.
“Als we onbeveiligde, niet-gecodeerde inloggegevens op schijf detecteren, kunnen we, omdat we onze eigen apparaatagent hebben, die inloggegevens naar onze veilige, gecodeerde box verplaatsen”, legt Wang uit.
1Wachtwoord, welke andere wachtwoordbeheerdersversleutelt opgeslagen inloggegevens end-to-end, waardoor de onderneming de opgeslagen wachtwoorden niet kan bekijken. Wang voegt eraan toe dat de software zo is ontworpen dat een AI-agent de platte tekst van een wachtwoord niet kan zien, zelfs als dit automatisch wordt ingevuld op een website.
Bedrijven kunnen werknemers ook opdracht geven om 1Password’s te installeren Device Trust-agent op persoonlijke apparatendie een frequente en vaak succesvolle aanvalsvector aanpakt. De naleving kan echter onregelmatig zijn, net als familie-1Password-accounts gebundeld met businessplannen die vaak ongebruikt op de computers van werknemers staat.
Voorkom dat agenten fouten maken
AI-agenten kunnen routinematige bedrijfstaken automatiseren, maar vereisen vanwege hun niet-deterministische aard systematische monitoring om ervoor te zorgen dat ze gefocust blijven. Wang noemt het een ‘greenfield-kans’ voor 1Password om op grote schaal te leren door het gedrag van agenten te analyseren.
“Wat was de prompt? Wat deed de agent met de prompt? Was de uitvoer van de prompt?” zegt ze. De resulterende logboeken “zullen dan terugkoppelen als een leermechanisme voor de agent en het model.”
In februari 1Password aangekondigd een benchmark voor het gedrag van AI-agenten, de Security Comprehension and Awareness Measure (of SCAM) index, en publiceerde zijn code onder een open source-licentie. “We leren een agent te herkennen wat een phishing-link is, wat onveilige verwerking van inloggegevens is”, zegt Wang. Ze is van mening dat agenten, als ‘staatloze wezens’, niet kunnen worden gecontroleerd alsof het menselijke wezens zijn.
“We hebben nieuwe identiteitsstandaarden nodig die specifiek zijn voor contextbewuste agenten”, voegt Wang toe. “Wat die agent is gemaakt om te doen wat hij doet, en ook de kloof tussen wat hij nu doet en de oorspronkelijke bedoeling.”
Nu dit: Daarnaast bestudeert 1Password hoe AI-ontwikkelaars en gebruikers 1Password integreren en veilige verbindingen met AI-apps ontwikkelen. Anthropic en OpenAI maken het tegenwoordig mogelijk dat agenttools uit 1Password-boxen lezen en er uiteindelijk weer in schrijven.
De opdrachtregelinterface in 1Password waarvan de meeste niet-technische gebruikers waarschijnlijk niet weten dat het bestaat, is verrassend populair gebleken bij mensen die voor hun eigen rekeningen betalen.
“Het gebruik van ons CLI-product, ons langstlopende aanbod voor ontwikkelaars, is 2,5 keer zo groot geworden”, zegt Wang, waarbij de hoogste groei komt van individuen met individuele abonnementen en gezinsabonnementen.
Haar proefschrift: “een rugwind van vibe-codering die deze gebruiksgolf aandrijft.”
Zet AI aan het werk in 1Password zelf
Dit bedrijf maakt, net als zoveel anderen, gebruik van AI om de softwareontwikkeling te versnellen, maar vibe-codering maakt geen deel uit van dat plaatje.
1Password heeft al AI-coderingsmodellen als Cursor, GitHub Copilot en Claude Code uitgerold, eerst waarbij mensen hun werk controleren. “Je vraagt het, het genereert code”, zegt ze. “Maar de mens is nog steeds bezig met het valideren en creëren van testharnassen.”
Wang haalt een vroeg succes aan: een refactoringproject om services eruit te halen die via een enkele MySQL-database waren uitgevoerd.
“Kunnen we daadwerkelijk een agent gebruiken om ons te helpen het refactoringproces te versnellen?” herinnert ze zich. “En het antwoord kwam terug: een volmondig ja” – waarbij het werk in vier weken was gedaan in plaats van de vier tot vijf maanden die menselijke ingenieurs volgens haar nodig zouden hebben gehad.
Maar 1Password gaat nu richting het geautomatiseerd testen van deze geautomatiseerde codegeneratie. “We hebben volledige agentloops op de achtergrond”, zegt Wang. “We maken een testharnas voor elke coderingsagent, dus zodra deze de evaluatie van de testharnas doorstaat, worden verzoeken daadwerkelijk samengevoegd in de coderingsrepository zelf.”
AI-scannen van code op kwetsbaarheden is bijzonder veelbelovend, zoals blijkt uit inspanningen zoals Anthropic’s Project Glasswing en dat Mythos-model is van daaruit geëvolueerd.
“Het vinden van kwetsbaarheden zal enorm worden versneld met mensen als Glasswing”, zegt ze. Maar dat zal alleen maar meer werk opleveren voor ontwikkelaars, AI of mensen: “Hoe verharden we deze kwetsbaarheden, hoe verdedigen we ons tegen deze kwetsbaarheden?”
Dat laat Wang met een onzekere conclusie achter: “AI was een allegaartje, alleen maar omdat dat werk zo pittig en technisch was.”



