De belofte van agent AI i beveiliging operations center (SOC) ligt voor de hand.
Snellere onderzoeken, systemen die zelfstandig kunnen handelen en de mogelijkheid om bedreigingen bij te houden die niet langer netjes verpakt aankomen.
Het artikel gaat hieronder verder
Field CTO en strategisch adviseur bij Splunk.
Het idee van AI-hulpmiddelen Het nemen van beslissingen klinkt misschien abstract, maar de verschuiving die het vertegenwoordigt is dat niet. De overstap van automatisering naar agent-AI verandert de manier waarop werk wordt gedaan, hoe de verantwoordelijkheid wordt gedeeld en hoeveel controle managers bereid zijn uit handen te geven.
De beveiligingsindustrie is hier al eerder geweest. Nog maar een paar jaar geleden waren veel SOC-teams nog op hun hoede automatiseringssoftware. Bezorgdheid over de zichtbaarheid en verantwoording vertraagde de adoptie, zelfs als de voordelen duidelijk waren.
Grote taalmodellen veranderden deze dynamiek door te laten zien hoe aanpasbaar AI zou kunnen zijn, maar ze introduceerden ook een nieuw soort onzekerheid. In tegenstelling tot gescripte workflows interpreteren deze systemen de context en maken ze gaandeweg een oordeel.
Agentic AI gaat nog een stap verder, werkt gedurende langere perioden en geeft vorm aan onderzoeken terwijl ze zich ontvouwen. Die verschuiving creëert echte kansen, maar dwingt veiligheidsleiders ook om opnieuw na te denken over hoe vertrouwen eruit ziet als beslissingen niet langer uitsluitend door mensen worden genomen.
Wanneer automatisering plaats maakt voor oordeel
In traditionele SOC-omgevingen volgden beslissingen een bepaald pad. Automatisering verdiende zijn plaats in het SOC door binnen duidelijke grenzen te blijven bij het uitvoeren van specifieke taken en zich te gedragen op een manier waarop teams konden anticiperen.
Als er iets misging, was de reden meestal duidelijk: er ging een regel mis, er moest een configuratie aangepast worden, of a gegevens de bron ontbrak.
Agentic AI verandert deze beslissingsstructuur. Deze systemen werken met onvolledige informatie en veranderende context. Ze kunnen enquêtes over een langere periode uitvoeren, signalen verzamelen en beslissen wat vervolgens aandacht verdient. Die flexibiliteit maakt ze nuttig, maar het verandert ook de manier waarop mensen zich verhouden tot de technologie.
Voor beveiligingsmanagers is dit meer dan een technische upgrade. Het verandert de aard van de beslissing die hen wordt gevraagd te nemen.
Ordonnateur AI betekent het delegeren van oordeel, wat een ander soort vertrouwen vereist in de manier waarop beslissingen worden genomen. Dit onderscheid is subtiel in de manier waarop systemen worden beheerd en in de mate waarin managers zich op hun gemak voelen om erop te vertrouwen.
Wie antwoordt als AI belt
In managementdiscussies over agent AI verandert de toon vaak. Bij beveiligingsoperaties kunnen bij incidenten meerdere teams en processen betrokken zijn, maar de verantwoordelijkheid ligt uiteindelijk bij de genoemde managers. Dat verandert niet als AI-systemen worden geïntroduceerd.
Wanneer systemen onafhankelijk handelen, verdwijnt de verantwoordelijkheid niet samen met de menselijke betrokkenheid. Een AI legt zijn beweegredenen niet uit aan een bestuur en biedt geen geruststelling aan een toezichthouder. Deze gesprekken vinden nog steeds plaats met de organisatie en in de meeste gevallen met de CISO.
Deze realiteit is wat leiderschapsgesprekken over agent AI opnieuw vormgeeft. De eerste opwinding maakt plaats voor een voorzichtiger ondervragingsronde. De focus verschuift van wat de technologie kan doen naar wat er gebeurt als er iets misgaat.
Dit maakt het moeilijker om autonomie als een puur technische beslissing te beschouwen. Managers moeten duidelijk zijn over wie de eigenaar is van deze systemen, hoeveel autoriteit ze krijgen en waar het menselijk oordeel naar verwachting zal ingrijpen. Deze grenzen zijn het meest effectief als ze bewust worden gesteld.
Duidelijkheid hier verandert hoe autonomie voelt. Wanneer de verantwoordelijkheid wordt begrepen, kunnen managers er beter op vertrouwen dat systemen namens hen handelen.
Wat leiders helpt te vertrouwen op wat ze niet kunnen zien
Wanneer systemen buiten direct menselijk toezicht opereren, wordt zichtbaarheid van cruciaal belang. Beslissingen die buiten hun context lijken te liggen, kunnen teams onrustig maken, zelfs als de uitkomst redelijk lijkt.
Beveiligingsprofessionals zijn gewend om met complexe systemen te werken, maar complexiteit alleen is niet het probleem. Waar het om gaat is dat je kunt zien hoe conclusies tot stand komen.
Dit is waar waarneembaarheid een praktische rol begint te spelen. Om analisten en managers houvast te geven, hebben we systemen nodig die vooruitgang kunnen laten zien, voorlopige bevindingen naar boven kunnen halen en onderzoekssporen kunnen achterlaten.
Wanneer het werk zich over uren of dagen uitstrekt, vermindert zichtbaarheid het gevoel van risico. Acties voelen minder ondoorzichtig als ze kunnen worden gevolgd terwijl ze plaatsvinden.
De mogelijkheid om een systeem halverwege een taak te onderbreken of om te leiden, verandert ook de manier waarop autonomie wordt ervaren. Wetende dat een mens tussenbeide kan komen, zorgt ervoor dat supervisie eerder opzettelijk dan reactief aanvoelt. Interfaces beginnen deze verschuiving te weerspiegelen, waarbij AI tijdens onderzoeken met de redenering kan komen in plaats van aan het eind een enkel antwoord te geven.
Waar het menselijk oordeel nog steeds het belangrijkst is
In elk SOC heeft menselijke expertise de grootste invloed op het punt waarop beslissingen worden genomen. Naarmate agent AI meer repetitief en operationeel werk op zich neemt in het SOC, begint de tijd die wordt besteed aan het verzamelen van de basiscontext of het doornemen van waarschuwingswachtrijen weg te vallen.
Wat ervoor in de plaats komt, is werk dat meer op oordeelsvermogen leunt, zoals het beoordelen van beslissingen en ontwerpen werkstromen.
Deze verandering kan ongemakkelijk aanvoelen, vooral voor teams die door middel van iteratie ervaring en kennis hebben opgebouwd. Tegelijkertijd creëert het nieuwe kansen. Junior-analisten worden eerder blootgesteld aan denken op een hoger niveau, terwijl senior-analisten minder tijd besteden aan brandbestrijding en meer tijd aan het verbeteren van de besluitvormingskwaliteit binnen het SOC.
Het resultaat is eerder een herverdeling van het oordeel dan een vermindering van de menselijke betrokkenheid. Wat verandert is niet de behoefte aan mensen, maar hun type werklast en waar deze de meeste impact hebben. Context, richting en overzicht worden centraal naarmate de systemen meer uitvoering krijgen.
Zo ziet vertrouwen eruit in een AI-compatibel SOC
Agentic AI heeft nu al invloed op de manier waarop beveiligingsoperaties werken. Voor managers is de uitdaging verschoven van bekwaamheid naar vertrouwen. De vraag is nu of deze systemen kunnen functioneren in overeenstemming met de manier waarop de organisatie verwacht dat er met risico’s wordt omgegaan.
Vertrouwen groeit door bekendheid. Zien hoe systemen zich in de loop van de tijd gedragen, begrijpen hoe beslissingen worden genomen en weten waar de verantwoordelijkheid ligt, spelen allemaal een rol. Het vertrouwen neemt toe als managers kunnen volgen wat er gebeurt en experts kunnen ingrijpen wanneer dat nodig is.
Het is onwaarschijnlijk dat het SOC volledig autonoom zal worden. Mensen en systemen zullen nauw blijven samenwerken, waarbij mensen de verantwoordelijkheid en het toezicht behouden. De taak van veiligheidsmanagers is om de omstandigheden te creëren waarin dat kan samenwerking werkt soepel en voorspelbaar.
Hoe goed ze deze samenwerkingscultuur creëren, zal bepalen hoe comfortabel AI door agenten wordt toegepast en hoeveel waarde het uiteindelijk oplevert.
We hebben de beste AI-websitebouwer gepresenteerd.
Dit artikel is geproduceerd als onderdeel van TechRadarPro’s Expert Insights-kanaal, waar we de beste en slimste koppen in de huidige technologie-industrie in beeld brengen. De hier geuite standpunten zijn die van de auteur en zijn niet noodzakelijkerwijs die van TechRadarPro of Future plc. Als u geïnteresseerd bent om een bijdrage te leveren, kunt u hier meer lezen: https://www.techradar.com/news/submit-your-story-to-techradar-pro



