Home Nieuws AI-agenten kunnen met elkaar praten, ze kunnen alleen nog niet samen nadenken

AI-agenten kunnen met elkaar praten, ze kunnen alleen nog niet samen nadenken

6
0
AI-agenten kunnen met elkaar praten, ze kunnen alleen nog niet samen nadenken

AI-agenten kunnen nu met elkaar praten – ze kunnen alleen niet begrijpen wat de ander probeert te doen. Dat is het probleem dat Cisco’s Outshift probeert op te lossen met een nieuwe architecturale benadering die het Internet of Cognition noemt.

De afstand is praktisch: protocollen zoals MCP en A2A laat agenten berichten uitwisselen en hulpmiddelen identificeren, maar ze delen geen intentie of context. Zonder dit systeem verbranden multi-agentsystemen de coördinatiecycli en kunnen ze niet synthetiseren wat ze leren.

“Het komt erop neer dat we berichten kunnen sturen, maar agenten begrijpen elkaar niet, dus er is geen sprake van gronding, onderhandeling, coördinatie of gedeelde intentie”, vertelde Vijoy Pandey, algemeen directeur en senior vice-president van Outshift, aan VentureBeat.

Het praktische effect:

Denk aan een patiënt die een afspraak met een specialist plant. Met alleen MCP geeft een symptoombeoordelingsagent een diagnosecode door aan een planningsagent die beschikbare afspraken vindt. Een verzekeringsagent controleert de dekking. Een apotheekagent controleert de beschikbaarheid van medicijnen.

Elke agent voert zijn taak uit, maar geen van hen redeneert samen over de behoeften van de patiënt. De apotheekagent kan een medicijn aanbevelen dat in strijd is met de geschiedenis van de patiënt – informatie die de symptoomagent wel heeft maar niet heeft doorgegeven omdat ‘potentiële geneesmiddelinteracties’ niet binnen de reikwijdte ervan vielen. De planningsagent boekt de dichtstbijzijnde beschikbare afspraak zonder te weten dat de verzekeringsagent bij een andere faciliteit een betere dekking heeft gevonden.

Ze zijn met elkaar verbonden, maar sluiten niet aan bij het doel: het vinden van de juiste behandeling voor de specifieke situatie van deze patiënt.

De huidige protocollen behandelen de mechanismen van agentcommunicatie – MCP, A2A en Vervanging AGNTCYdie het aan de Linux Foundation heeft gedoneerd, laat agenten tools ontdekken en berichten uitwisselen. Maar deze werken op wat Pandey ‘de verbindings- en identificatielaag’ noemt. Ze behandelen de syntaxis, niet de semantiek.

Het ontbrekende stukje is de gedeelde context en intentie. Een agent die een taak uitvoert, weet wat hij doet en waarom, maar die grondgedachte wordt niet overgedragen wanneer deze wordt overgedragen aan een andere agent. Elke agent interpreteert doelen onafhankelijk, wat betekent dat coördinatie constante verduidelijking vereist en geleerde inzichten in silo’s blijven.

Als agenten van communicatie naar samenwerking willen overstappen, moeten ze volgens Outshift drie dingen delen: patroonherkenning tussen datasets, causale relaties tussen acties en expliciete doeltoestanden.

“Zonder gedeelde intentie en gedeelde context blijven AI-agenten semantisch geïsoleerd. Ze zijn individueel bekwaam, maar doelen worden anders geïnterpreteerd; coördinatie verbrandt cycli en niets verbindt. Eén agent leert iets waardevols, maar de rest van de multi-agent-menselijke organisatie begint nog steeds vanaf nul.” Vervanging stond in een krant. Outshift zei dat de industrie behoefte heeft aan “open, interoperabele, enterprise-grade agentsystemen die semantisch samenwerken” en stelt een nieuwe architectuur voor die zij het “Internet of Cognition” noemt, waarbij multi-agentomgevingen in een gedeeld systeem werken.

De voorgestelde architectuur introduceert drie lagen:

Cognitiestatusprotocollen: Een semantische laag die bovenop protocollen voor het doorgeven van berichten zit. Agenten delen niet alleen gegevens, maar ook de intentie: wat ze proberen te bereiken en waarom. Hierdoor kunnen agenten zich afstemmen op doelen voordat ze actie ondernemen, in plaats van achteraf duidelijkheid te verschaffen.

Cognitieve substantie: Infrastructuur voor het opbouwen en onderhouden van gedeelde context. Zie het als gedistribueerd werkgeheugen: contextgrafieken die bij alle agentinteracties blijven bestaan, met beleidscontroles voor wat er wordt gedeeld en wie er toegang toe heeft. Systeemontwerpers kunnen definiëren hoe ‘gezond verstand’ eruit ziet voor hun gebruiksscenario.

Cognitiemotoren: Twee soorten capaciteit. Met Accelerators kunnen agenten inzichten bundelen en leren combineren: de ontdekking van de ene agent wordt beschikbaar voor anderen die gerelateerde problemen oplossen. Autovern handhaaft nalevingslimieten, zodat algemene redeneringen de wettelijke of politieke beperkingen niet schenden.

Outshift positioneerde het raamwerk als een oproep tot actie in plaats van als een eindproduct. Het bedrijf werkt aan de implementatie, maar benadrukte dat de samenwerking tussen semantische agenten sectorbrede coördinatie vereist, zoals bij vroege internetprotocollen die buy-in vereisten om standaarden te worden. Outshift is bezig met het schrijven van de code, het publiceren van de specificaties en het publiceren van onderzoek rond het Internet of Cognition. Het hoopt binnenkort een demo van de protocollen te krijgen. Noah Goodman, mede-oprichter van grensverleggend AI-bedrijf Humans& en hoogleraar computerwetenschappen aan Stanford, zei op VentureBeat’s AI Impact-evenement in San Francisco dat innovatie plaatsvindt wanneer “andere mensen erachter komen op welke mensen ze moeten letten.” Dezelfde dynamiek is van toepassing op agentsystemen: wanneer individuele agenten leren, wordt de waarde vermenigvuldigd wanneer andere agenten deze kennis kunnen identificeren en exploiteren. De praktische vraag voor teams die nu multi-agentsystemen inzetten: zijn uw agenten alleen maar met elkaar verbonden, of werken ze eigenlijk aan hetzelfde doel?

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in