Een Meta-baas wilde hulp bij het opruimen van haar inbox en bedacht het nieuwe Open Klauw geautomatiseerde AI-agent zou precies de truc zijn. Voor het geval dat, zorgde ze ervoor dat ze zei dat ze ‘verifiëren voordat actie werd ondernomen’ en dat ze de boel moesten opruimen. Het taalkundige kinderslot is mislukt.
In plaats daarvan het agentenvat vooraanberichten snel verwijderen, negeert de expliciete vereiste om eerst te controleren. Ze beschreef hoe het haar inbox “snel liet lopen” en probeerde het vanaf een ander apparaat af te sluiten voordat er nog meer schade werd aangericht. Honderden e-mails verdwenen. De agent bood later zijn excuses aan.
Niets maakt je zo nederig als je tegen je OpenClaw zegt dat hij moet “verifiëren voordat je handelt” en ziet hoe hij snel je inbox verwijdert. Ik kon het niet stoppen vanaf mijn telefoon. Ik moest naar mijn Mac mini rennen alsof ik een bom onschadelijk maakte. pic.twitter.com/XAxyRwPJ5R23 februari 2026
Ondertussen ging bij JetBrains een brandalarm af en begonnen medewerkers zich voor te bereiden om te vertrekken, waarbij ze het nieuws deelden op een Slack-kanaal. Een AI-assistent die in Slack was geïntegreerd, stemde echter geruststellend in. Er stond dat de waarschuwing een geplande test was. Er was geen reden om te evacueren.
In beide gevallen had de machine het mis. In één geval neerslag was professionele problemen en digitale opruiming. In de tweede was de inspanning veel serieuzer.
We betreden een tijdperk waarin AI-systemen worden uitgenodigd om in actie te komen. Ze kunnen bestanden verplaatsen, e-mails verwijderen, vergaderingen boeken, berichten verzenden en steeds vaker begeleiding bieden die mensen als gezaghebbend beschouwen. De verleidelijke toonhoogte is gemakkelijk te begrijpen. De problemen beginnen wanneer we beginnen te denken dat ‘acteren’ slechts een snellere versie is van ‘suggereren’.
De verleiding van automatisering
JetBrains had een echt brandalarm op kantoor. AI-assistent: “Je hoeft niet weg te gaan 🙂” We hebben autocomplete echt de leiding gegeven over overlevingsbeslissingen. pic.twitter.com/Cl6OO18Gnt22 februari 2026
Autonome agenten zijn de nieuwste ontwikkeling op het gebied van consumenten-AI. De taal rondom deze systemen klinkt vaak alsof deze is ontleend aan executive coaching. In werkelijkheid zijn de patroonmotoren gekoppeld aan stroomvoerende systemen.
OpenClaw en soortgelijke tools werken door instructies in natuurlijke taal te interpreteren en deze in kaart te brengen aan acties in echte digitale omgevingen. Dit betekent dat ze woorden vertalen naar operaties, vaak over meerdere applicaties heen. Het voelt naadloos aan als het werkt. Je schrijft een zin en de agent gaat aan de slag.
Het probleem is dat interpretatie niet hetzelfde is als begrijpen. Wanneer een menselijke assistent ‘verifieer vóór actie’ hoort, geeft die zin betekenis. Het noopt tot voorzichtigheid. Het omvat een pauze en een check-in. Een AI-agent ervaart geen voorzichtigheid. Het analyseert de zin, bouwt een probabilistisch model op van wat u waarschijnlijk wilt, en gaat verder op basis van patronen die het eerder heeft gezien.
Wanneer deze patronen falen, is er geen instinct om te aarzelen. Er bestaat geen intuïtief gevoel dat dit riskant lijkt. Er is alleen maar voorwaartse beweging.
Het inbox-incident was een mismatch tussen verwachting en capaciteit. De gebruiker verwachtte een vangrail. Het systeem behandelde de vangrail als één van de vele signalen. In een puur adviserende context zorgt dit soort mismatch voor een lastig antwoord. In een agentcontext produceert het verwijdering.
Voorzichtigheid over het geloof
Niets van dit alles betekent dat er geen plaats is voor autonome AI-agenten. Als ze zorgvuldig worden gebruikt, kunnen ze nuttig zijn. Ze kunnen informatie sorteren, externe taken uitvoeren en de digitale rommel verminderen. Het sleutelwoord is zorgvuldig.
Er is een verschil tussen het laten opstellen van een antwoord door een AI die u kunt beoordelen, en het laten verwijderen van honderden e-mails zonder een tweede blik. Er is een verschil tussen het vragen aan een AI om de evacuatieprocedures samen te vatten en het laten bepalen of een alarm reëel is.
Het huidige traject van AI-ontwikkeling vervaagt deze lijnen vaak. Functies zijn gebundeld en machtigingen zijn breed verleend. Gebruikers worden aangemoedigd om accounts te koppelen en toegang te verlenen voor een soepelere ervaring. Elke stap voelt kleiner. Het cumulatieve effect is echter aanzienlijk.
We hebben dit patroon eerder gezien bij automatisering in andere domeinen. Automatische pilootsystemen in de luchtvaart verbeteren de veiligheid, maar piloten zijn getraind om ze nauwlettend in de gaten te houden, omdat overmoed de waakzaamheid kan aantasten. In de financiële wereld kan algoritmische handel kleine fouten uitvergroten tot grote schommelingen als ze niet worden opgemerkt.
Autonome AI-agenten zijn op enge manieren krachtig en op andere manieren kwetsbaar. Ze zijn onvermoeibaar maar niet oplettend. Ze zijn snel, maar niet slim. De inbox die zichzelf leegmaakte en het brandalarm dat afging, zijn geen anomalieën om van je af te schudden. Het zijn signalen van waar de grens van de capaciteit momenteel ligt.
Het vertrouwen in technologie moet in verhouding staan tot de bewezen betrouwbaarheid ervan en de belangen die ermee gemoeid zijn. Voor taken met een laag risico is experimenteren zinvol. Bij beslissingen waarbij veel op het spel staat, is nederigheid gerechtvaardigd.
Volg TechRadar op Google Nieuws En voeg ons toe als voorkeursbron om ons deskundig nieuws, recensies en meningen in uw feeds te krijgen. Klik dan zeker op de knop Volgen!
En jij kunt dat natuurlijk ook Volg TechRadar op TikTok voor nieuws, recensies, video-unboxings en ontvang regelmatig updates van ons WhatsAppen Ook.
De beste zakelijke laptops voor elk budget

