De volgende golf van AI zal worden gedefinieerd door agentsystemen die acties kunnen uitvoeren: databases doorzoeken, door portalen navigeren, records ophalen en in toenemende mate op grote schaal communiceren met de openbare digitale infrastructuur.
Deze verschuiving is nu al zichtbaar als het verkeer dat op openbare websites en diensten terechtkomt, verandert in machineverkeer. Een deel ervan is goedaardig (zoeken en ontdekken). Een deel ervan is dubbelzinnig (scraping en geautomatiseerd browsen). En een deel ervan kan actief schadelijk worden als agenten schaarse diensten kunnen reserveren, frauduleuze verzoeken kunnen indienen of volumes kunnen genereren die overheidssystemen overweldigen.
Het probleem is dat de huidige overheidsinterfaces niet zijn ontworpen voor interacties tussen agenten en overheden, en dat de standaardmodus van de wereld improvisatie is geworden: agenten komen er ‘achter’ door pagina’s te schrappen en te raden op basis van eerder geleerde kennis.
Dit is waar het werk van Boston leerzaam wordt. In plaats van agenten te behandelen als iets dat de groothandelsverkoop blokkeert of iets dat zonder vangrails moet worden omarmd, experimenteert Boston met een middenweg: bouw een beheerde, veilige en vertrouwde laag die bemiddelt in de manier waarop AI-agentsystemen omgaan met overheidsbronnen.
In een recent interview zei de CIO van Boston: Sint-Garcesbeschreef waarom de stad investeert in het Model Context Protocol (MCP) als die laag; waarom ze beginnen met open data als proeftuin met een laag risico; hoe ze de betrouwbaarheid verbeteren door berekeningen naar het dataportaal zelf te pushen; en wat er nodig is om MCP-achtige infrastructuur een repliceerbare digitale publieke infrastructuur te laten worden die andere steden kunnen implementeren.
Kunt u de MCP uitleggen en waarom stadsbesturen zich erom zouden moeten bekommeren?
MCP staat voor Model Context Protocol en is relatief nieuw. Anthropic, het bedrijf achter Claude, lanceerde ongeveer een jaar geleden MCP-servers. Waarom dit belangrijk is, is dat het grote taalmodellen in staat stelt om te communiceren met het soort middelen dat we bij de overheid hebben. Concreet is het een manier om LLM’s te verbinden met API’s en andere programmatische systemen, waardoor een AI-assistent bijvoorbeeld OV-updates kan ophalen of een serviceverzoek kan indienen via officiële stadssystemen. Wij geloven dat het een nieuwe laag zal zijn die als intermediair zal fungeren tussen de digitale infrastructuur van de overheid en deze modellen.

Dit is spannend voor Boston omdat de wereld snel verandert en we nu al zien dat sites en services door agenten worden ingeschakeld of gebruikt. MCP-servers kunnen dienen als een laag waarmee de overheid bestuur en controle kan toevoegen.
Mechanisch gezien creëert een MCP-server een reeks tools. Je beschrijft in duidelijke taal wanneer een tool gebruikt moet worden. Vervolgens definieert u welke invoer u uit een verzoek in natuurlijke taal moet halen en hoe dat zich vertaalt in deterministische programmatische toegang tot een bron. LLM’s kunnen informeel zijn; MCP maakt deel uit van de manier om bepaalde interacties betrouwbaarder en veiliger te maken.
De droom is dat steden in deze infrastructuur investeren en wijzen op verschillende modellen voor interactie met de MCP-laag van een stad, zodat deze betrouwbaar en veilig is en een betere ervaring biedt voor mensen die agentsystemen gebruiken om met de overheid te communiceren. Er moet veel waar zijn voor die toekomst, maar we zijn er erg enthousiast over.

Wat gaat er meestal kapot als mensen vertrouwen op “gewoon een chatbot” en vragen, welk probleem lost MCP op?
Neem onze eerste MCP-server: open data. Als je Claude, ChatGPT of Gemini iets vraagt in de trant van “Hoeveel restaurants zijn er in Boston”, zullen deze modellen antwoorden met behulp van (1) hun trainingsgegevens, die waarschijnlijk verouderd zijn, of (2) ze verzinnen iets. Het risico op onnauwkeurigheid of hallucinaties is groot.
Het zou misschien beter werken als het op internet kon surfen, maar dan ben je ervan afhankelijk om de juiste bron te vinden, en we weten dat veel informatie online verouderd of onnauwkeurig is. Het kan uit een oud rapport komen, of uit een artikel van vijf jaar geleden.
Wat we hebben kunnen doen met Open Context, ons eerste MCP-exemplaar dat is gekoppeld aan het open dataportaal van Boston, is een directe link creëren tussen het portaal en deze AI-tools. MCP-servers zijn interoperabel, dus het maakt niet uit welke AI-tool u gebruikt.
Als je een AI-tool die op deze MCP-server is aangesloten, vraagt: “Hoeveel restaurants zijn er in Boston gezien het open dataportaal”, doorzoekt het automatisch het Boston-portaal, vindt de juiste dataset en genereert een SQL-query op basis van die dataset. Het vraagt betrouwbare gegevens op en retourneert een antwoord op basis van de feitelijke data-infrastructuur van de stad.
We besteden veel geld en tijd aan het bouwen van een data-infrastructuur die veel mensen niet gebruiken omdat het lastig is. De meeste mensen kennen SQL niet en zelfs weten welke dataset de juiste is, is moeilijk. Deze tools overbruggen die kloof en brengen u tot het juiste antwoord, terwijl ze veel van de valkuilen van hedendaagse AI-tools vermijden.

Hoe heb je dit geloofwaardiger gemaakt en hoe verliep het ontwikkelingsproces?
We zijn in het najaar van 2025 begonnen met studenten van het AI for Impact-programma van Northeastern in het Burnes Center. We hebben een tool voor medewerkers van de stad Boston geïntroduceerd, genaamd AI Launchpad, die toegang biedt tot LLM’s, maar we wilden dat deze nuttiger zou zijn.
We hebben gekeken naar hoe werknemers AI-tools gebruiken, op basis van onze ervaring en enquêtegegevens. Data-analyse is een veelvoorkomend gebruiksscenario. Maar om te analyseren moeten mensen gegevens downloaden, in een context plaatsen en een heleboel stappen doorlopen. Onze initiële motivatie was dus: hoe maken we deze workflows eenvoudiger, handiger en betrouwbaarder?
Rond die tijd was ik op een AI-retraite in Boston en sprak Romesh Raskar bij MIT over hoe het agentische web eruit zal zien en de noodzaak om er een open versie van te bouwen. Dat weekend veranderde al snel in actie. Zaterdag tijdens de retraite en daarna op zondag een toespraak bij MIT, waarbij mensen werden uitgedaagd betere agentervaringen voor Boston op te bouwen. Dus maandag zeiden we: laten we proberen een MCP-server te bouwen en deze te verbinden met het AI Launchpad.
Omdat we getalenteerde studenten hadden, hadden we in oktober een prototype dat gekoppeld was aan het open data portaal. Sinds november en december hebben we dit herhaald om het betrouwbaarder te maken. Het deed zijn werk goed bij het vinden van datasets, maar was niet zo sterk in het analyseren van grote datasets – goed voor kleine steekproeven, minder goed voor de schaal.
Eén innovatie was om meer rekenkracht naar het opendataportaal zelf te pushen. De meeste dataportals kunnen query’s uitvoeren. Daarom gebruiken we de portal om meer analytisch werk te doen, wat de betrouwbaarheid verbetert en de algehele interactie ook efficiënter en kosteneffectiever maakt.

U hebt hier ook over gesproken als een repliceerbare laag van digitale publieke infrastructuur. Wat hebben steden nog meer nodig om dit te kunnen realiseren?
Daarom zijn wij enthousiast. Met nieuwe technologie is het mogelijk dat we over zes maanden een ander acroniem zullen gebruiken, maar op dit moment lijkt MCP een echte manier om dit op te lossen.
Wij zijn van mening dat MCP een onderdeel is van de digitale publieke infrastructuur en gekoppeld moet worden aan de digitale publieke infrastructuur (DPI). Het agentenweb is alleen nuttig als het betrouwbare, veilige bemiddeling creëert die echte mensen dient. AI kan helpen als iemand haast heeft, geen Engels spreekt of een beperking heeft. Er zijn veel redenen waarom dit de toegang kan beïnvloeden. Maar zonder de juiste infrastructuur wordt de ervaring minder betrouwbaar.
Het MCP-patroon is aantrekkelijk omdat je bestaande DPI-componenten – identiteit, API-exposures, betalings-API’s – kunt benutten door een middenlaag te creëren tussen wat een AI-systeem ‘ziet’ en de onderliggende infrastructuur die de overheid al heeft, op een manier die betrouwbaarder kan worden gemaakt.
We beginnen met open data omdat deze weinig risico’s met zich meebrengen en al openbaar zijn. Maar het kan zich ontwikkelen tot bemiddeling rond serviceverzoeken en andere interacties. Wij zijn van mening dat de overheid de capaciteit moet hebben om dit op te bouwen en te beheren. Maar we kunnen ons ook voorstellen dat leveranciers dit soort interfaces integreren in de producten die ze aan overheden verkopen.
Laten we het over veiligheid hebben. Welke bedreigingen voelen het meest realistisch aan bij agentsystemen en hoe helpt MCP?
Eén punt van zorg is dat onze API’s niet altijd goed beveiligd zijn. Er zijn agentische browsers en tools die het eenvoudig maken om interacties te automatiseren. En we zien steeds meer verkeer naar boston.gov dat niet van mensen komt, maar van AI-systemen die ‘deep search’ gebruiken.
Het is niet moeilijk om je voor te stellen dat AI-tools ook om diensten vragen. Een groot risico ontstaat wanneer een AI-tool verzoeken doet die niet verband houden met een echte menselijke behoefte. U kunt frauduleuze verzoeken hebben of actoren die schaarste creëren door beperkte publieke middelen te verbruiken en mogelijk toegang door te verkopen, vergelijkbaar met het scalperen van kaartjes bij concerten.
Een ander risico is dat het zonder een gecontroleerde laag moeilijker is om het verkeer tussen AI-systemen en publieke systemen te beveiligen en te monitoren.
Wat ons zo enthousiast maakt over MCP-servers is dat deze middleware het gemakkelijker kan maken om ongeautoriseerde inkomende agentverzoeken te blokkeren met cyberbeveiligingstools, terwijl legitiem gebruik nog steeds mogelijk is. Het idee is: mensen die diensten nodig hebben, gebruiken een geautoriseerd kanaal dat door de overheid wordt gecontroleerd, kunnen verbinding maken met hun identiteit en kunnen end-to-end monitoren en beveiligen.
Zonder deze middleware staat de overheid voor een ongemakkelijke keuze: de interactie tussen agenten volledig blokkeren of deze open laten. MCP biedt een middenweg: het beheren van agentinteracties.

Zijn er dingen waaraan u MCP momenteel opzettelijk niet blootstelt?
We beginnen met open data. Ons AI-beleid in Boston, dat een paar maanden geleden werd gelanceerd, zegt dat we AI niet gebruiken om informatie te verwerken die de levens, eigendommen of burgerlijke vrijheden van mensen zou kunnen beïnvloeden vanwege betrouwbaarheidsproblemen en inherente, complexe vooroordelen.
Voorlopig zijn dit dus categorieën die we vermijden. Het is niet alleen maar ‘een mens die op de hoogte is’. We weten dat AI-bemiddeling negatieve effecten kan veroorzaken die moeilijk te detecteren en te verhelpen zijn.
Tegelijkertijd werken we nauw samen met de gemeenschap met een handicap en met mensen die problemen hebben met de taaltoegang. De overheid is moeilijk toegankelijk voor mensen die haar het meest nodig hebben. En dit zijn vaak dezelfde mensen die de minste kans hebben op privétoegang tot LLM’s, betaalde abonnementen, betrouwbaar internet en persoonlijke apparaten.
Als je een toverstaf zou hebben, wat is dan de grootste blokkade die je zou verwijderen?
Er zijn technische hiaten omdat MCP nieuw is. In het begin ondersteunden MCP-servers sommige authenticatieonderdelen niet standaard; we moesten frames toevoegen om ze vast te zetten. Het ecosysteem verandert snel.
Maar het belangrijkste is ontdekking en gebruiksgemak. We moeten een punt bereiken waarop het gebruik van de MCP-infrastructuur net zo eenvoudig is als het verwijzen van een LLM naar een URL. Bij websites typt u de naam of gebruikt u de zoekfunctie. Dat is wat we nodig hebben voor MCP: triviale ontdekking, triviale toegang, feitelijk geen toegangsbarrière. We hebben het eenvoudiger gemaakt, maar er is nog steeds te veel technisch voorwerk.

Wat is de actie die een andere stad die deze kant op wil gaan nu moet ondernemen?
Goed metadatabeheer is essentieel. LLM’s verbruiken gegevens, maar begrijpen niet wat het is zonder goede beschrijvingen en context. Het begint dus met goed databeheer.
Wij zijn van plan dit werk te delen. We zijn er trots op en dankzij de samenwerking met GovLab en het Burnes Center hebben we snel kunnen schakelen. We zijn van plan om van Open Context een open source-project te maken, zodat anderen het kunnen kopiëren.
De MCP-server zelf kost niet veel om te draaien. Ons doel is om het zo eenvoudig te maken als het implementeren van een pakket in de publieke cloud die een stad gebruikt. De rest van puzzelHoe dit aansluit bij bredere diensten is iets dat elke stad zal moeten aanpakken, en we zullen het ook in Boston aanpakken.
Maar het allerbelangrijkste is dat gegevens pas nuttig worden als mensen ze gebruiken. De datakwaliteit verbeterde toen we open data gingen publiceren. Wij geloven dat het bestuur en de kwaliteit verder zullen verbeteren als meer mensen open data gebruiken. En we hopen dat GenAI het voor mensen gemakkelijker maakt om open data te gebruiken, zodat we samen problemen kunnen oplossen.
—
Een versie van dit interview werd oorspronkelijk gepubliceerd op Herstart de democratie.



