Home Nieuws Claude Code is zojuist bijgewerkt met een van de meest gevraagde gebruikersfuncties

Claude Code is zojuist bijgewerkt met een van de meest gevraagde gebruikersfuncties

9
0
Claude Code is zojuist bijgewerkt met een van de meest gevraagde gebruikersfuncties

De open source-standaard van Anthropic, Model Context Protocol (MCP), uitgebracht eind 2024stelt gebruikers in staat om AI-modellen en de agenten er bovenop te verbinden met externe tools in een gestructureerd, betrouwbaar formaat. Het is de motor achter de hit van Anthropic Programmeerharnas voor AI-agenten, Claude Codewaardoor het direct toegang heeft tot verschillende functies, zoals surfen op het web en het maken van bestanden wanneer daarom wordt gevraagd.

Maar er was een probleem: Claude Code moest doorgaans de instructiehandleiding voor elk beschikbaar hulpmiddel ‘lezen’, ongeacht of het nodig was voor de onmiddellijke taak, met behulp van de beschikbare context, die anders kon worden ingevuld met meer informatie uit de prompts van de gebruiker of de antwoorden van de agent.

In ieder geval tot gisteravond. Het Claude Code-team heeft een update uitgebracht wat deze vergelijking fundamenteel verandert. De functie genaamd MCP Tool Search introduceert ‘lui laden’ voor AI-tools, waardoor agenten dynamisch tooldefinities kunnen ophalen wanneer dat nodig is.

Het is een verschuiving die AI-agenten verplaatst van een brute-force-architectuur naar iets dat lijkt op moderne software-engineering – en, volgens vroege gegevens, effectief het ‘bloat’-probleem oplost dat het ecosysteem dreigde te verstikken.

De ‘opstartvergoeding’ voor makelaars

Om het belang van Tool Search te begrijpen, moet je de frictie van het vorige systeem begrijpen. Het Model Context Protocol (MCP), in 2024 door Anthropic uitgebracht als open source-standaard, is ontworpen als een universele standaard voor het verbinden van AI-modellen met gegevensbronnen en tools – van GitHub-opslagplaatsen tot lokale bestandssystemen.

Maar naarmate het ecosysteem groeide, groeide ook de ‘opstartbelasting’.

Thariq Shihipar, lid van de technische staf bij Anthropic, benadrukte de omvang van het probleem aankondiging.

“We hebben ontdekt dat MCP-servers tot wel 50+ tools kunnen bevatten”, schreef Shihipar. “Gebruikers documenteerden setups met meer dan 7 servers met behulp van meer dan 67.000 tokens.”

In praktische termen betekende dit dat een ontwikkelaar die een robuuste set tools gebruikte, 33% of meer van de beschikbare contextvensterlimiet van 200.000 tokens kon opofferen voordat hij zelfs maar een enkel teken in een prompt typte. AI-nieuwsbriefauteur Aakash Gupta wees erop in een bericht op X.

Het model “las” honderden pagina’s met technische documentatie voor tools die het tijdens die sessie misschien nooit zou gebruiken.

Gemeenschapsanalyse leverde nog scherpere voorbeelden op.

Gupta merkte verder op dat een enkele Docker MCP-server 125.000 tokens zou kunnen verbruiken, alleen al om de 135 tools te definiëren.

‘De oude beperking dwong een brutale afweging af’, schreef hij. “Beperk je MCP-servers tot twee tot drie kerntools, of accepteer dat de helft van je contextbudget verdwijnt voordat je aan de slag gaat.”

Hoe het zoeken naar tools werkt

De oplossing die Anthropic uitrolde – die Shihipar ‘een van onze meest gevraagde functies noemde GitHub” — is elegant in zijn terughoudendheid. In plaats van elke definitie vooraf te laden, controleert Claude Code nu het contextgebruik.

Volgens de release notes detecteert het systeem automatisch wanneer tooltips meer dan 10% van de beschikbare context in beslag nemen.

Wanneer deze drempel wordt overschreden, verandert het systeem van strategie. In plaats van onbewerkte documentatie in de prompt te dumpen, wordt een lichtgewicht zoekindex geladen.

Wanneer de gebruiker om een ​​specifieke actie vraagt ​​– b.v. “deploy this container” – Claude Code scant geen enorme, vooraf geladen lijst van 200 opdrachten. In plaats daarvan doorzoekt het de index, vindt de juiste gereedschapsdefinitie en haalt alleen het specifieke gereedschap in de context.

“Tool Search verandert de architectuur”, analyseert Gupta. “De tokenbesparingen zijn dramatisch: van ~134.000 naar ~5.000 in de interne tests van Anthropic. Dat is een reductie van 85% terwijl de volledige toegang tot de tools behouden blijft.”

Voor ontwikkelaars die MCP-servers onderhouden, verandert dit de optimalisatiestrategie.

Shihipar merkte op dat het veld ‘serverinstructies’ in de MCP-definitie – voorheen een ‘nice to have’ – nu van cruciaal belang is. Het fungeert als metadata die Claude helpen “te weten wanneer hij naar uw tools moet zoeken, die overeenkomen met vaardigheden.”

‘Lazy Loading’ en verhoogde nauwkeurigheid

Hoewel de symbolische besparingen de boventoon voeren – geld en geheugen besparen is altijd populair – is het secundaire effect van deze update wellicht belangrijker: focus.

LLM’s zijn notoir gevoelig voor “afleiding”. Wanneer het contextvenster van een model gevuld is met duizenden regels irrelevante gereedschapsdefinities, neemt het vermogen om te redeneren af. Dit creëert een “naald in een hooiberg”-probleem waarbij het model moeite heeft om onderscheid te maken tussen vergelijkbare commando’s, zoals ‘melding-verzend-gebruiker’ versus ‘melding-verzend-kanaal’.

Boris Cherny, hoofd van Claude Code, benadrukte dit in zijn reactie op de lancering op X: “Elke Claude Code-gebruiker kreeg zojuist veel meer context, een beter instructiegevoel en de mogelijkheid om nog meer tools in te pluggen.”

De gegevens ondersteunen dit. Interne benchmarks die door de gemeenschap worden gedeeld, geven aan dat het inschakelen van Tool Search de nauwkeurigheid van het Opus 4-model op MCP-evaluaties heeft verbeterd van 49% naar 74%.

Voor de nieuwere Opus 4.5 steeg de nauwkeurigheid van 79,5% naar 88,1%.

Door de ruis van honderden ongebruikte tools te verwijderen, kan het model zijn “aandachts”-mechanismen wijden aan de feitelijke vraag van de gebruiker en de relevante actieve tools.

Rijpen van de stapel

Deze update signaleert een volwassenheid in de manier waarop we omgaan met AI-infrastructuur. In de begindagen van elk softwareparadigma was brute kracht gebruikelijk. Maar naarmate systemen groter worden, wordt efficiëntie de belangrijkste technische uitdaging.

Aakash Gupta trok een parallel met de ontwikkeling van geïntegreerde ontwikkelomgevingen (IDE’s) zoals VSCode of JetBrains. “Het knelpunt was niet ’te veel tools’.

Het laadde tooldefinities als statische import uit 2020 in plaats van lui laden uit 2024″, schreef hij. “VSCode laadt niet alle extensies bij het opstarten. JetBrains injecteert niet alle plug-indocumenten in het geheugen.”

Door gebruik te maken van ‘lui laden’ – een standaard best practice bij web- en softwareontwikkeling – erkent Anthropic dat AI-agenten niet langer alleen maar nieuws zijn; het zijn complexe softwareplatforms die architecturale discipline vereisen.

Implicaties voor het ecosysteem

Voor de eindgebruiker is deze update naadloos: Claude Code voelt simpelweg ‘slimmer’ aan en behoudt meer herinnering aan het gesprek. Maar voor het ontwikkelaarsecosysteem zet het de sluizen open.

Voorheen bestond er een ‘zacht plafond’ voor hoe bekwaam een ​​agent kon zijn. Ontwikkelaars moesten hun toolsets zorgvuldig samenstellen om te voorkomen dat het model met overmatige context werd lobotomiseerd. Met Tool Search wordt dat plafond effectief opgeheven. In theorie heeft een agent toegang tot duizenden tools – databaseverbindingen, scripts voor cloudimplementatie, API-wrappers, lokale bestandsmanipulatoren – zonder een boete te betalen voordat die tools daadwerkelijk worden aangeraakt.

Het verandert de ‘contexteconomie’ van een schaarstemodel in een toegangsmodel. Zoals Gupta samenvatte: “Ze optimaliseren niet alleen het contextgebruik. Ze veranderen wat ’toolrijke agenten’ kunnen betekenen.”

De update wordt onmiddellijk uitgerold naar Claude Code-gebruikers. Voor ontwikkelaars die MCP-clients bouwen, raadt Anthropic aan om `ToolSearchTool` te implementeren om dit dynamische laden te ondersteunen, en ervoor te zorgen dat wanneer de agentische toekomst aanbreekt, deze niet zonder geheugen komt te zitten voordat je zelfs maar hallo hebt gezegd.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in