Home Nieuws Anthropic zegt dat het het al lang bestaande probleem met AI-agenten heeft...

Anthropic zegt dat het het al lang bestaande probleem met AI-agenten heeft opgelost met een nieuwe Claude SDK voor meerdere sessies

19
0
Anthropic zegt dat het het al lang bestaande probleem met AI-agenten heeft opgelost met een nieuwe Claude SDK voor meerdere sessies

Het geheugen van agenten blijft een probleem dat bedrijven willen oplossen, omdat agenten sommige instructies of gesprekken vergeten naarmate ze langer rijden.

Antropisch geloof dat het dit probleem heeft opgelost Claude Agent-SDKontwikkelt een tweedelige oplossing waarmee een agent in verschillende contextvensters kan werken.

“De kernuitdaging van langlopende agenten is dat ze in afzonderlijke sessies moeten werken, en elke nieuwe sessie begint zonder herinnering aan wat eraan voorafging”, schreef Anthropic in een blogpost. “Omdat contextvensters beperkt zijn en omdat de meeste complexe projecten niet binnen één enkel venster kunnen worden voltooid, hebben agenten een manier nodig om codeersessies te overbruggen.”

Anthropic-ingenieurs stelden een tweeledige aanpak voor voor de Agent SDK: een initialisatieagent om de omgeving op te zetten en een coderingsagent om in elke sessie stapsgewijs vooruitgang te boeken en artefacten voor de volgende achter te laten.

Het geheugenprobleem van de agent

Omdat agenten zijn gebouwd op fundamentele modellen, blijven ze beperkt door de beperkte, maar steeds groter wordende contextvensters. Voor langwerkende agenten kan dit een groter probleem veroorzaken, waardoor de agent instructies vergeet en zich abnormaal gedraagt ​​tijdens het uitvoeren van een taak. Het geheugen van agenten verbeteren essentieel wordt voor consistente, bedrijfsveilige prestaties.

Het afgelopen jaar zijn er verschillende methoden op de markt gekomen, die allemaal probeerden de kloof tussen contextvensters en agentgeheugen te overbruggen. Lange ketting’s LangMem SDK, Memobasis En Open AI’s Swarm zijn voorbeelden van bedrijven die geheugenoplossingen aanbieden. Onderzoek naar het geheugen van agenten is de laatste tijd ook geëxplodeerd frame als Memp en dat Genest leerparadigma van Googlen biedt nieuwe alternatieven om het geheugen te verbeteren.

Veel van de huidige in-memory-frameworks zijn open source en kunnen idealiter worden aangepast aan verschillende grote taalmodellen (LLM’s) die agenten aansturen. De aanpak van Anthropic verbetert hun Claude Agent SDK.

Hoe het werkt

Anthropic stelde vast dat hoewel de Claude Agent SDK over contextbeheermogelijkheden beschikte en “voor een agent mogelijk zou moeten zijn om gedurende een willekeurige tijd nuttig werk te blijven doen”, dit niet voldoende was. Het bedrijf zegt in zijn blogpost dat het een model is zoals Opus 4.5 Het uitvoeren van de Claude Agent SDK kan “er niet in slagen een web-app van productiekwaliteit te bouwen als deze alleen een prompt op hoog niveau krijgt, zoals ‘bouw een kloon van claude.ai'”.

De mislukkingen manifesteerden zich in twee patronen, zei Anthropic. In eerste instantie probeerde de agent te veel te doen, waardoor het model in het midden uit zijn context raakte. De agent moet dan raden wat er is gebeurd en kan geen duidelijke instructies doorgeven aan de volgende agent. De tweede fout treedt later op, nadat sommige functies al zijn gebouwd. De agent kan zien dat er vooruitgang is geboekt en geeft alleen aan dat het werk is gedaan.

Antropische onderzoekers hebben de oplossing uitgewerkt: het opzetten van een initiële omgeving om de basis te leggen voor functies en elke agent aan te moedigen stapsgewijs vooruitgang te boeken in de richting van een doel, terwijl hij aan het einde nog steeds een schone lei achterlaat.

Dit is waar de tweeledige oplossing van de agent van Anthropic in het spel komt. De initialisatieagent richt de omgeving in en registreert wat agenten hebben gedaan en welke bestanden zijn toegevoegd. De codeeragent zal de modellen vervolgens vragen om stapsgewijze vooruitgang te boeken, waarbij gestructureerde updates achterblijven.

“Inspiratie voor deze praktijk kwam voort uit de wetenschap wat effectieve software-ingenieurs elke dag doen”, aldus Anthropic.

De onderzoekers zeiden dat ze testtools aan de codeeragent hadden toegevoegd, waardoor het vermogen om bugs te identificeren en op te lossen die niet duidelijk uit de code alleen waren, werd verbeterd.

Toekomstig onderzoek

Anthropic merkte op dat zijn aanpak “een mogelijke reeks oplossingen is in een langlopend agentenharnas.” Dit is echter nog maar het begin van wat voor velen in de AI-ruimte een breder onderzoeksgebied zou kunnen worden.

Het bedrijf zegt dat zijn experimenten om het langetermijngeheugen van agenten te vergroten niet hebben aangetoond of een enkele encoder voor algemeen gebruik het beste werkt in verschillende contexten of in een structuur met meerdere agenten.

De demo was ook gericht op de ontwikkeling van full-stack webapps, dus andere experimenten zouden zich moeten concentreren op het generaliseren van de resultaten over verschillende taken.

“Het is waarschijnlijk dat sommige of al deze lessen kunnen worden toegepast op de soorten langlopende agenttaken die nodig zijn in bijvoorbeeld wetenschappelijk onderzoek of financiële modellering”, aldus Anthropic.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in