Home Nieuws De CEO van LangChain beweert dat betere modellen alleen uw AI-agent niet...

De CEO van LangChain beweert dat betere modellen alleen uw AI-agent niet in productie zullen krijgen

8
0
De CEO van LangChain beweert dat betere modellen alleen uw AI-agent niet in productie zullen krijgen

Naarmate de modellen slimmer en bekwamer worden, moeten de ‘harnassen’ om hen heen ook evolueren. Deze “harnas-engineering” is bijvoorbeeld een uitbreiding van context-engineering Lange ketting medeoprichter en CEO Harrison Chase in a nieuwe VentureBeat Beyond the Pilot-podcast aflevering. Terwijl traditionele AI-harnassen de neiging hebben om modellen ervan te weerhouden om in loops te draaien en tools op te roepen, zorgen harnassen die speciaal voor AI-agenten zijn gebouwd ervoor dat ze onafhankelijker kunnen communiceren en langdurige taken efficiënter kunnen uitvoeren.

Chase ook woog op de overname van OpenClaw door OpenAIen voerde aan dat het virale succes ervan te danken was aan de bereidheid om het te laten scheuren op een manier die geen enkel groot laboratorium zou doen – en betwijfel of de overname OpenAI daadwerkelijk dichter bij een veilige bedrijfsversie van het product brengt. “De trend bij het benutten ervan geeft het grote taalmodel (LLM) zelf meer controle over contexttechnologie en laat het beslissen wat het ziet en wat het niet ziet”, zegt Chase. “Nu is dit idee van een langdurige, meer autonome assistent levensvatbaar.”

Houd de voortgang bij en zorg voor consistentie

Hoewel het concept om LLM’s in een lus te laten draaien en tools aan te roepen relatief eenvoudig lijkt, is het moeilijk betrouwbaar uit te voeren, merkte Chase op. Een tijdlang bevonden de modellen zich “onder de drempel van bruikbaarheid” en konden ze eenvoudigweg niet in een lus draaien, dus gebruikten ontwikkelaars grafieken en schreven ze ketens om er omheen te komen. Chase wees op AutoGPT – ooit het snelst groeiende GitHub-project ooit – als een waarschuwend voorbeeld: dezelfde architectuur als de topagenten van vandaag, maar de modellen waren nog niet goed genoeg om betrouwbaar in een lus te draaien, dus het vervaagde snel. Maar naarmate LLM’s zich blijven verbeteren, kunnen teams omgevingen bouwen waarin modellen in loops kunnen draaien en over langere horizonten kunnen plannen, en kunnen ze deze harnassen voortdurend verbeteren. Voorheen “kon je het harnas niet echt verbeteren, omdat je het model niet echt in een harnas kon besturen”, zei Chase. Het antwoord van LangChain hierop is Deep Agents, een aanpasbaar programma harnas voor algemeen gebruik. Het is gebouwd op LangChain en LangGraph en beschikt over planningsmogelijkheden, een virtueel bestandssysteem, context- en tokenbeheer, code-uitvoering, en vaardigheden en geheugenmogelijkheden. Verder kan het taken delegeren aan subagenten; deze zijn gespecialiseerd in verschillende tools en configuraties en kunnen parallel werken. De context wordt ook geïsoleerd, wat betekent dat het werk van subagenten de context van de hoofdagent niet verstoort, en dat grote subtaakcontexten worden gecomprimeerd tot één resultaat voor tokenefficiëntie. Al deze agenten hebben toegang tot bestandssystemen, legde Chase uit, en kunnen in essentie takenlijsten maken die ze kunnen uitvoeren en in de loop van de tijd kunnen volgen. “Als het naar de volgende stap gaat, en het gaat naar stap twee, stap drie of stap vier van een proces van 200 stappen, heeft het een manier om de voortgang te volgen en die consistentie te behouden,” zei Chase. “Het gaat er in essentie om dat de LLM zijn gedachten opschrijft terwijl hij bezig is.” Hij benadrukte dat accolades zo moeten worden ontworpen dat de modellen de samenhang bij langere taken kunnen behouden en “gevoelig” kunnen zijn voor modellen die beslissen wanneer ze de context moeten comprimeren op punten waarvan zij bepalen dat dit “voordelig” is. Door agenten toegang te geven tot tolken en BASH-tools wordt ook de flexibiliteit vergroot. En door agenten vaardigheden te geven, in plaats van alleen maar front-loaded tools, kunnen ze informatie laden wanneer ze die nodig hebben. “Dus in plaats van alles in één grote systeemprompt te coderen,” legde Chase uit, “kun je een kleinere systeemprompt hebben: ‘Dit is de kernbasis, maar als ik X ga doen, laat me dan de vaardigheid voor X lezen. Als ik Y ga doen, laat me dan de vaardigheid voor Y lezen.'” Kortom, contexttechnologie is een “heel mooie” manier om LLM te zeggen? Omdat het anders is dan wat ontwikkelaars zien, merkte hij op. Wanneer menselijke ontwikkelaars de sporen van agenten kunnen analyseren, kunnen ze dan in de ‘mindset’ van de AI doordringen en vragen beantwoorden als: “Is het statisch of is het bevolkt? Als het een tool call doet, hoe wordt dat dan gepresenteerd? Als agenten niet de juiste context hebben; als ze slagen, slagen ze omdat ze de juiste context hebben”, aldus Chase. “Ik beschouw context-engineering als het op het juiste moment naar de LLM brengen van de juiste informatie in het juiste formaat.” Luister naar de podcast om meer te horen over:

  • Dit is hoe LangChain zijn stapel heeft opgebouwd: LangGraph als de kernpijler, LangChain in het midden, Deep Agents bovenaan.

  • Waarom code-sandboxen het volgende grote ding zullen zijn

  • Hoe een ander type UX zal evolueren wanneer agenten met langere tussenpozen (of continu) werken.

  • Waarom sporen en waarneembaarheid de kern vormen van het bouwen van een middel dat echt werkt.

Je kunt ook luisteren en abonneren Verder dan de piloot op Spotify, Appel of waar u uw podcasts ook vandaan haalt.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in