Home Nieuws Zelfs Google en Replit hebben moeite om AI-agenten betrouwbaar in te zetten...

Zelfs Google en Replit hebben moeite om AI-agenten betrouwbaar in te zetten – en dit is de reden

16
0
Zelfs Google en Replit hebben moeite om AI-agenten betrouwbaar in te zetten – en dit is de reden

2025 had toch het jaar van de AI-agent moeten zijn?

Niet helemaal, erken Google Cloud en Replit – twee grote spelers in de AI-agentruimte en partners in “Vibe-codering“beweging – tijdens een recent VB Impact Series-evenement.

Hoewel ze zelf agenttools bouwen, zeggen leidinggevenden van de twee bedrijven dat de mogelijkheden er nog niet helemaal zijn.

Deze beperkte realiteit komt neer op de strijd met verouderde workflows, gefragmenteerde gegevens en onvolwassen bestuursmodellen. Bedrijven begrijpen ook fundamenteel verkeerd dat agenten niet zijn zoals andere technologieën: ze vereisen een fundamentele heroverweging en herwerking van workflows en processen.

Wanneer bedrijven agenten bouwen om het werk te automatiseren, “zijn de meeste speelgoedvoorbeelden”, zei Amjad Masad, CEO en oprichter van Replit, tijdens het evenement. “Ze raken opgewonden, maar als ze het gaan uitrollen, werkt het niet zo goed.”

Agenten bouwen op basis van Replit’s eigen bugs

Betrouwbaarheid en integratie, en niet de intelligentie zelf, zijn twee belangrijke obstakels voor het succes van AI-agenten, merkte Masad op. Agents falen vaak als ze lange tijd actief zijn, fouten accumuleren of geen toegang hebben tot schone, goed gestructureerde gegevens.

Het probleem met bedrijfsgegevens is dat deze rommelig zijn (gestructureerd, ongestructureerd en overal opgeslagen) en dat het een uitdaging is om deze te doorzoeken. Bovendien zijn er veel ongeschreven dingen die mensen doen die moeilijk in agenten te coderen zijn, zei Masad.

“Het idee dat bedrijven alleen maar agenten en agenten gaan inschakelen, werknemers gaan vervangen of de workflow automatisch automatiseren, dat is vandaag de dag gewoon niet het geval”, zei hij. “Het instrument is er niet.”

Naast agents zijn er computertools die de werkruimte van een gebruiker kunnen overnemen voor basistaken zoals surfen op het web. Maar deze staan ​​nog in de kinderschoenen en kunnen ondanks de versnelde hype buggy, onbetrouwbaar en zelfs gevaarlijk zijn.

“Het probleem is dat computergebruiksmodellen momenteel erg slecht zijn”, zegt Masad. “Ze zijn duur, ze zijn traag, ze boeken vooruitgang, maar ze zijn pas ongeveer een jaar oud.”

Replit leert van zijn eigen blunder eerder dit jaar toen zijn AI-codes werden verwijderd de volledige codebase van een bedrijf in een proefrit. Masad gaf toe: “De gereedschappen waren nog niet volwassen genoeg”, en merkte op dat het bedrijf sindsdien de ontwikkeling van de productie heeft geïsoleerd.

Technieken zoals test-in-the-loop, verifieerbare uitvoering en ontwikkelingsisolatie zijn essentieel, merkte hij op, hoewel ze zeer veel middelen kunnen vergen. Replit heeft in-the-loop-mogelijkheden opgenomen in versie 3 van zijn agent, en Masad zei dat zijn agent van de volgende generatie 200 minuten autonoom kan werken; sommigen hebben er 20 uur mee gelopen.

Toch erkende hij dat gebruikers frustratie hebben geuit over vertragingstijden. Wanneer ze een “sterke prompt” invoegen, moeten ze mogelijk 20 minuten of langer wachten. Idealiter hebben ze aangegeven dat ze betrokken willen zijn bij een meer creatieve loop, waarbij ze meerdere prompts kunnen invoeren, aan meerdere taken tegelijk kunnen werken en het ontwerp kunnen aanpassen terwijl de agent werkt.

“De manier om dit op te lossen is parallellisme, door meerdere agentlussen te creëren en ze aan deze onafhankelijke functies te laten werken, terwijl je tegelijkertijd het creatieve werk kunt doen”, zei hij.

Agenten vereisen een cultuurverandering

Naast het technische perspectief is er nog een cultureel obstakel: agenten opereren probabilistisch, maar traditionele bedrijven zijn gestructureerd rond deterministische processen, zegt Mike Clark, directeur productontwikkeling bij Google Cloud. Dit creëert een culturele en operationele mismatch terwijl LLM’s binnenstromen met gloednieuwe tools, orkestratiekaders en processen.

‘We weten niet hoe we over agenten moeten denken’, zei Clark. “We weten niet hoe we moeten oplossen wat agenten kunnen doen.”

De bedrijven die het goed doen, worden gedreven door bottom-up-processen, merkte hij op: het maken van software en tools zonder code en met weinig code in de loopgraven die doorstromen naar grotere agenten. Tot nu toe zijn de succesvolle implementaties beperkt, strak afgebakend en zwaar gecontroleerd.

“Als ik naar 2025 kijk en naar deze belofte kijk dat dit het jaar van de agent is, dan was dat het jaar waarin veel mensen bezig waren met het bouwen van prototypes”, zei Clark. “Nu zitten we midden in deze enorme schaalfase.”

Hoe zorg je voor een wereld zonder gras?

Een andere strijd is de beveiliging van AI-agenten, waarvoor ook traditionele processen opnieuw moeten worden bekeken, merkte Clark op.

Er zijn overal veiligheidsgrenzen getrokken, maar dat werkt niet als agenten toegang tot veel verschillende bronnen nodig hebben om de beste beslissingen te nemen, zei Clark.

“Het verandert echt onze beveiligingsmodellen, verandert ons basisniveau”, zei hij. “Wat betekent de minste privileges in een grasloze, weerloze wereld?”

Uiteindelijk moet er een heroverweging komen van het management door de hele sector, en moeten bedrijven zich aanpassen aan een dreigingsmodel rond agenten.

Clark legde het verschil uit: ‘Als je naar sommige van je managementprocessen kijkt, zul je zeer verbaasd zijn dat de oorsprong van die processen was dat iemand op een elektrische typemachine van IBM in drievoud schreef en deze aan drie mensen gaf. Dat is niet de wereld waarin we vandaag de dag leven.’

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in