IN kunstmatige intelligentie2025 markeerde een beslissende verandering. Systemen die ooit beperkt waren tot onderzoekslaboratoria en prototypes begonnen op te duiken als alledaagse hulpmiddelen. Centraal in deze transitie stond de opkomst van AI-agenten – AI systemen die andere softwaretools kunnen gebruiken en zelfstandig kunnen handelen.
Hoewel onderzoekers AI al meer dan zestig jaar bestuderen en de term ‘agent’ al lang deel uitmaakt van het vocabulaire van het veld, was 2025 het jaar waarin het concept concreet werd voor zowel ontwikkelaars als consumenten.
AI-agenten zijn overgestapt van theorie naar infrastructuur, waardoor de manier waarop mensen omgaan met grote taalmodellen, de systemen die chatbots als ChatGPT aandrijven, opnieuw vorm krijgt.
In 2025 veranderde de definitie van AI-agent van academische omlijsting van systemen die waarnemen, redeneren en handelen volgens de beschrijving van AI-bedrijf Anthropic van grote taalmodellen die softwaretools kunnen gebruiken en autonoom actie kunnen ondernemen. Hoewel grote taalmodellen lange tijd uitblinken in op tekst gebaseerde antwoorden, is de nieuwste verandering hun uitgebreide vermogen om te handelen, tools te gebruiken, API’s aan te roepen, te coördineren met andere systemen en taken autonoom uit te voeren.
Deze verschuiving gebeurde niet van de ene op de andere dag. Een belangrijk keerpunt kwam eind 2024 toen Anthropic uitkwam Modelcontextprotocol. Dankzij het protocol konden ontwikkelaars grote taalmodellen op een gestandaardiseerde manier verbinden met externe tools, waardoor de modellen effectief verder konden gaan dan het genereren van tekst. De toon was dus gezet dat 2025 het jaar van AI-agenten zou worden.
AI-agenten zijn een heel nieuw spel vergeleken met generatieve AI.
Mijlpalen die 2025 bepaalden
Het momentum versnelde snel. In januari verschijnt het Chinese model DeepSeek-R1 als één geopend gewicht Dit model verstoorde de veronderstellingen over wie hoogwaardige grote taalmodellen kon bouwen, bracht de markten kortstondig in rep en roer en verhevigde de mondiale concurrentie. Een open-weight-model is een AI-model waarvan de training, weerspiegeld in waarden die gewichten worden genoemd, openbaar beschikbaar is. Tot 2025 zullen grote Amerikaanse laboratoria zoals Open AI, Antropisch, GooglenEn xAI brachten grotere, krachtige modellen uit, terwijl Chinese technologiebedrijven, b.v Alibaba, TencentEn Diepzoekenbreidde het open model-ecosysteem uit tot het punt waar de Chinese modellen waren meer gedownload dan Amerikaanse modellen.
Een ander keerpunt kwam in april, toen Google het introduceerde Agent2Agent-protocol. Terwijl het Model Context Protocol van Anthropic zich richtte op de manier waarop agenten tools gebruiken, richtte Agent2Agent zich op de manier waarop agenten met elkaar communiceren. Cruciaal is dat de twee protocollen zijn ontworpen om samen te werken. Beide later in het jaar Antropisch En Googlen schonken hun protocollen aan de Linux Foundation, een non-profitorganisatie voor open source-software, en maakten ze tot open standaarden in plaats van propriëtaire experimenten.
Deze ontwikkelingen vonden snel hun weg naar consumentenproducten. Medio 2025 begonnen “agentische browsers” te verschijnen. Hulpmiddelen zoals De komeet van verwarring, Het browserbedrijf Dia, OpenAI’s GPT-atlas, Copiloot in Microsoft’s Edge, Fellow van ASI X Inc, Rekick van MainFunc.ai, Opera-Neon van Operaen anderen herformuleerden de browser als een actieve deelnemer in plaats van als een passieve interface. In plaats van dat het u helpt bij het zoeken naar vakantiedetails, speelt het bijvoorbeeld een rol bij het boeken van de vakantie.
Tegelijkertijd vinden workflowbouwers het leuk n8n En De anti-zwaartekracht van Google heeft de technische barrière verlaagd om aangepaste agentsystemen te creëren die verder gaan dan wat al is gebeurd met codeeragenten zoals Markering En GitHub-copiloot.
Nieuwe macht, nieuwe risico’s
Naarmate agenten vaardiger werden, werden hun risico’s moeilijker te negeren. In november onthulde Anthropic hoe zijn Claude Code-agent was misbruikt om delen van een cyberaanval te automatiseren. Het incident illustreerde een bredere zorg: door repetitief technisch werk te automatiseren, kunnen AI-agenten ook de barrière voor kwaadwillige activiteiten verlagen.
Deze spanning bepaalde een groot deel van 2025. AI-agenten breidden uit wat individuen en organisaties konden doen, maar zij bestaande kwetsbaarheden versterkt. Systemen die ooit geïsoleerde tekstgeneratoren waren, raakten met elkaar verbonden, waarbij gereedschapsgebruikende actoren met weinig menselijk toezicht opereerden.
Het bedrijfsleven maakt zich op voor multi-agentsystemen.
Waar u op moet letten in 2026
Vooruitkijkend zullen waarschijnlijk verschillende open vragen de volgende fase van AI-agenten vormgeven.
Eén daarvan zijn benchmarks. Traditionele benchmarks, die lijken op een gestructureerd examen met een reeks vragen en gestandaardiseerde scores, werken goed voor individuele modellen, maar middelen zijn complexe systemen bestaat uit modellen, tools, geheugen en beslissingslogica. Onderzoekers willen steeds vaker evalueren niet alleen resultaten, maar ook processen. Dit zou hetzelfde zijn als van leerlingen vragen om hun werk te laten zien, en niet alleen maar een antwoord te geven.
Vooruitgang op dit gebied zal van cruciaal belang zijn om de betrouwbaarheid en het vertrouwen te verbeteren en ervoor te zorgen dat een AI-agent de taak zal uitvoeren. Eén methode is om er duidelijke definities rond vast te stellen AI-agenten en AI-workflows. Organisaties zullen in kaart moeten brengen waar AI precies naartoe gaat geïntegreerd worden in workflows of nieuwe introduceren.
Een andere ontwikkeling om in de gaten te houden is governance. Eind 2025 kondigde de Linux Foundation de oprichting aan van de Stichting Agentic AIDit duidt op een poging om gemeenschappelijke normen en beste praktijken vast te stellen. Als het succesvol is, kan het een rol spelen als World Wide Web-consortium bij het vormgeven van een open, interoperabel agent-ecosysteem.
Er is ook een groeiend debat over de modelgrootte. Terwijl grote, algemene modellen de krantenkoppen domineren, doen kleinere en meer gespecialiseerde modellen dat vaak wel beter geschikt voor specifieke taken. Naarmate agenten configureerbare tools voor consumenten en ondernemingen worden, via browsers of software voor workflowbeheer, verschuift de macht om het juiste model te kiezen steeds meer naar gebruikers in plaats van naar laboratoria of ondernemingen.
De uitdagingen die voor ons liggen
Ondanks het optimisme zijn er nog steeds aanzienlijke sociaal-technische uitdagingen. Uitbreiding van de datacenterinfrastructuur belast het energienet en beïnvloedt lokale gemeenschappen. Op de werkplek uiten agenten hun zorgen over automatisering, verplaatsing van banenen monitoring.
Vanuit een beveiligingsperspectief verbinden modellen zich met tools en stapelen agenten op elkaar vermenigvuldigt de risico’s die al onopgelost zijn in onafhankelijke grote taalmodellen. Concreet richten AI-beoefenaars zich op de gevaren van indirecte snelle injectieswaar aanwijzingen verborgen zijn in open webgebieden die kunnen worden gelezen door AI-agenten en kunnen resulteren in schadelijke of onbedoelde acties.
Regelgeving is een ander onopgelost probleem. Vergeleken met Europa En Chinade VS hebben relatief beperkt toezicht op algoritmische systemen. Nu AI-agenten in het digitale leven worden geïntegreerd, blijven vragen over toegang, verantwoordelijkheid en grenzen grotendeels onbeantwoord.
Om deze uitdagingen het hoofd te bieden is meer nodig dan alleen technische doorbraken. Het vereist strenge technische praktijkenzorgvuldig ontwerp en duidelijke documentatie van hoe systemen werken en falen. Alleen door AI-agenten te behandelen als sociaal-technische systemen en niet alleen als softwarecomponenten, geloof ik dat we een AI-ecosysteem kunnen bouwen dat zowel innovatief als veilig is.
Thomas Sherban von Davier is een aangesloten faculteitslid bij het Carnegie Mellon Institute for Strategy and Technology in Carnegie Mellon-universiteit.
Dit artikel is opnieuw gepubliceerd van Het gesprek onder een Creative Commons-licentie. Lezen origineel artikel.



