De consensus binnen de sector is dat 2026 het jaar zal zijn van ‘agentische AI’. We zijn snel voorbij chatbots die eenvoudigweg tekst samenvatten. We betreden het tijdperk van autonome agenten die taken uitvoeren. We verwachten van hen dat ze vluchten boeken, systeemstoringen diagnosticeren, de cloudinfrastructuur beheren en mediastreams in realtime personaliseren.
Als CTO die toezicht houdt op platforms die 30 miljoen gelijktijdige gebruikers bedienen tijdens grote mondiale evenementen zoals de Olympische Spelen en de Super Bowl, heb ik de onsexy realiteit achter de hype gezien: agenten zijn ongelooflijk kwetsbaar.
Leidinggevenden en VC’s zijn geobsedeerd door modelbenchmarks. Ze bespreken Llama 3 versus GPT-4. Ze richten zich op het maximaliseren van de contextvenstergroottes. Toch negeren ze het feitelijke punt van mislukking. De belangrijkste reden waarom autonome agenten falen in de productie, is vaak te wijten aan problemen met de gegevenshygiëne.
In het vorige tijdperk van ‘human-in-the-loop’-analyse was de datakwaliteit een beheersbare hindernis. Als een ETL-pijplijn een probleem ondervindt, kan een dashboard een onjuist omzetnummer weergeven. Een menselijke analist zou de anomalie ontdekken, markeren en repareren. De straal van de explosie was beperkt.
In de nieuwe wereld van autonome agentendat vangnet is verdwenen.
Als er vandaag de dag een gegevenspijplijn actief is, rapporteert een agent niet alleen het verkeerde nummer. Er is het verkeerde voor nodig actie. Het biedt het verkeerde servertype. Het beveelt een horrorfilm aan aan een gebruiker die tekenfilms kijkt. Het hallucineert een reactie van de klantenservice op basis van corrupte vectorinbedding.
Om AI op de schaal van de NFL of de Olympische Spelen te kunnen uitvoeren, realiseerde ik me dat het standaard opschonen van gegevens onvoldoende is. We kunnen gegevens niet zomaar ‘monitoren’. We moeten het in wetgeving omzetten.
Een oplossing voor dit specifieke probleem zou kunnen liggen in de vorm van een ‘data quality – creed’ raamwerk. Het fungeert als een ‘dataconstitutie’. Het dwingt duizenden geautomatiseerde regels af voordat een enkele byte aan gegevens in aanraking mag komen met een AI-model. Hoewel ik dit specifiek heb toegepast op de streamingarchitectuur bij NBCUniversal, is de methode universeel voor elk bedrijf dat AI-agents wil operationeel maken.
Hier is de reden voor “defensieve data-engineering” en Credo filosofie zijn de enige manieren om het Agentic Era te overleven.
De vectordatabaseval
Het kernprobleem met AI-agents is dat ze afhankelijk zijn van de context die je ze impliciet geeft. Als u RAG gebruikt, is uw vectordatabase het langetermijngeheugen van de agent.
Standaardproblemen met de gegevenskwaliteit zijn catastrofaal vectordatabases. In traditionele SQL-databases is een nulwaarde slechts een nulwaarde. In een vectordatabase kan een nulwaarde of een schema-mismatch de semantische betekenis van de gehele inbedding vertekenen.
Overweeg een scenario waarin metagegevens worden aangedreven. Stel dat uw pipeline video-metagegevens verbruikt, maar een race condition zorgt ervoor dat de tag ‘genre’ wegvalt. Je metadata kunnen een video taggen als ‘live sport’, maar de insluiting is gegenereerd op basis van een ‘nieuwsfragment’. Wanneer een agent de database doorzoekt naar “touchdown-hoogtepunten”, haalt hij het nieuwsfragment op omdat het zoeken naar vectorgelijkenis werkt op een beschadigd signaal. De agent levert die clip vervolgens aan miljoenen gebruikers.
Op grote schaal kunt u niet vertrouwen op downstream-monitoring om dit op te vangen. Tegen de tijd dat het alarm afgaat, heeft de agent al duizenden slechte beslissingen genomen. Kwaliteitscontrole moet naar de absolute ‘linkerkant’ van de pijplijn worden verplaatst.
Het ‘Creed’-raamwerk: 3 overlevingsprincipes
De Geloofsovertuiging Er wordt verwacht dat het raamwerk als poortwachter zal fungeren. Het is een kwaliteitsarchitectuur met meerdere tenants die zich tussen opnamebronnen en AI-modellen bevindt.
Voor technologieleiders die hun eigen ‘grondwet’ willen opbouwen, zijn hier de drie principes waarover ik niet kan onderhandelen.
1. Het “quarantainepatroon” is verplicht: In veel moderne dataorganisaties geven ingenieurs de voorkeur aan de ‘ELT’-aanpak. Ze dumpen ruwe gegevens in een meer en ruimen deze later op. Voor AI-agenten is dit onaanvaardbaar. Je kunt een agent niet laten drinken uit een vervuild meer.
De Geloofsovertuiging methode dwingt een strikte “dead letter wachtrij” af. Als een datapakket een contract schendt, wordt het onmiddellijk in quarantaine geplaatst. Het bereikt nooit de vectordatabase. Het is veel beter voor een agent om ‘ik weet het niet’ te zeggen vanwege ontbrekende gegevens, dan vol vertrouwen te liegen vanwege slechte gegevens. Dit ‘stroomonderbreker’-patroon is essentieel om spraakmakende hallucinaties te voorkomen.
2. Schema is wet: Jarenlang heeft de sector zich ontwikkeld tot ‘schemaloze’ flexibiliteit om snel te kunnen handelen. We moeten die trend keren voor kern-AI-pijplijnen. We moeten strikte type- en referentie-integriteit afdwingen.
Mijn ervaring is dat een robuust systeem schaalgrootte vereist. De implementatie die ik begeleid, wordt momenteel gehandhaafd meer dan 1.000 actieve regels loopt over realtime streams. Deze controleren niet alleen op nullen. Ze controleren op consistentie van de bedrijfslogica.
-
Voorbeeld: Komt ‘user_segment’ in de gebeurtenisstroom overeen met de actieve taxonomie in de feature store? Zo niet, blokkeer het dan.
-
Voorbeeld: Ligt de tijdstempel binnen het acceptabele latentievenster voor realtime beëindiging? Zo niet, laat het vallen.
3. Controle van de vectorconsistentie Dit is nieuwe limiet voor SRE’s. We moeten geautomatiseerde controles implementeren om ervoor te zorgen dat de stukjes tekst die in een vectordatabase zijn opgeslagen, daadwerkelijk overeenkomen met de inbeddingsvectoren die eraan zijn gekoppeld. Door ‘stille’ fouten in een geneste model-API blijven er vaak vectoren over die naar niets verwijzen. Hierdoor pikken agenten puur geluid op.
De cultuuroorlog: ingenieurs versus bestuur
Implementatie van een raamwerk dat Geloofsovertuiging is niet alleen een technische uitdaging. Het is een culturele.
Ingenieurs hebben over het algemeen een hekel aan vangrails. Zij beschouwen strikte schema’s en datacontracten als bureaucratische obstakels die de snelheid van implementatie vertragen. Bij het implementeren van een dataconstitutie krijgen managers vaak te maken met tegenslag. Teams hebben het gevoel dat ze terugkeren naar het ‘waterval’-tijdperk van rigide databasebeheer.
Om te slagen, moet u de stimuleringsstructuur omkeren. Dat hebben wij aangetoond Geloofsovertuiging was eigenlijk een versneller. Door de zuiverheid van de invoergegevens te garanderen, hebben we de weken geëlimineerd die datawetenschappers besteedden aan het debuggen van modelhallucinaties. We hebben databeheer getransformeerd van een compliancetaak naar een ‘servicekwaliteitsgarantie’.
De les voor databeslissers
Als u een AI-strategie voor 2026 aan het ontwikkelen bent, stop dan met het kopen van nog meer GPU’s. Maak je geen zorgen meer over welk funderingsmodel deze week iets hoger op de ranglijst staat.
Begin met het beoordelen van uw datacontracten.
Een AI-agent is slechts zo autonoom als zijn gegevens betrouwbaar zijn. Zonder een strikte, geautomatiseerde dataconstitutie zoals Geloofsovertuiging kader, zullen je agenten uiteindelijk schurkenstaten worden. In de wereld van een SRE is een malafide agent veel erger dan een kapot dashboard. Het is een stille moordenaar van vertrouwen, omzet en klantervaring.
Manoj Yerrasani is een senior technologiemanager.
Welkom bij de VentureBeat-community!
In ons gastpostprogramma delen technische experts inzichten en bieden ze neutrale, onbevooroordeelde diepgaande inzichten in AI, data-infrastructuur, cyberbeveiliging en andere geavanceerde technologieën die de toekomst van het bedrijfsleven vormgeven.
Lees meer uit ons gastpostprogramma – en bekijk ons richtlijnen als u geïnteresseerd bent om uw eigen artikel bij te dragen!


