Home Nieuws Het idee dat het internet voor mensen is gebouwd, brokkelt af. Dit...

Het idee dat het internet voor mensen is gebouwd, brokkelt af. Dit heeft grote gevolgen voor uw onderneming

3
0
Het idee dat het internet voor mensen is gebouwd, brokkelt af. Dit heeft grote gevolgen voor uw onderneming

Bedrijven zijn er al jaren van uitgegaan dat het internet voor mensen is gebouwd.

Websites zijn ontworpen om menselijke aandacht te trekken, uit te leggen, te overtuigen, gerust te stellen en uiteindelijk te converteren. Zoekmachineoptimalisatie, gebruikerservaring, digitale merchandising en doosontwerp berustten allemaal op hetzelfde uitgangspunt: de gebruiker was een persoon die voor een scherm zat.

Dat uitgangspunt begint te barsten.

Niet omdat mensen verdwijnen, maar omdat ze gaan delegeren. Steeds vaker zal het eerste systeem dat uw website leest, uw aanbod vergelijkt, uw beleid interpreteert of zelfs een aankoop initieert, geen mens zijn. Het zal een softwareagent zijn die namens iemand handelt. Dat is de richting die Anthropic voorstelt Modelcontextprotocoldoor Google Agent2Agent protocol, zijn gids voor agentprotocollen en zijn Universeel Handelsprotocolvan OpenAI’s Exploitant En Agent-SDKen door het groeiende werk van bedrijven zoals Visa, MasterCardEn Wolkenvlam om agenthandel geloofwaardig en op grote schaal operationeel te maken.

Dit is niet alleen een verhaal over betere chatbots of mooiere interfaces. Het is een verhaal over het web dat een andere interface krijgt: een voor mensen en een voor machines.

Van pagina’s tot acties

Het oude web draaide om pagina’s. Je publiceerde informatie, mensen vonden het en klikten vervolgens door een reeks die jij beheerde. Het nieuwe web draait steeds meer om acties. Agenten geven niets om uw website, uw visuele hiërarchie of de emotionele boog van uw trechter. Ze vinden het belangrijk of ze uw catalogus kunnen begrijpen, uw beleid kunnen verifiëren, toegang kunnen krijgen tot betrouwbare gegevens en een taak kunnen voltooien zonder onnodige wrijving.

Dit is de reden waarom de meest consequente ontwikkeling in AI zijn steeds meer niet alleen modellen, maar ook protocollen. Anthropic omschrijft MCP als “een universele, open standaard voor het verbinden van AI-systemen met databronnen”, bedoeld om gefragmenteerde integraties te vervangen door één enkel protocol. Google’s A2A beschrijft een wereld waarin agenten kansen adverteren via een “agentkaart”, elkaar ontdekken en samenwerken aan taken. Google’s eigen commerciële werk gaat nog een stap verder: UCP is expliciet ontworpen om betalingslogica rechtstreeks te integreren met Google AI Mode en Gemini, waarbij ‘native checkout’ wordt beschouwd als het standaardpad om het ‘volledige potentieel van agenten’ te ontsluiten. Met andere woorden: de stapel gaat van inhoud naar uitvoering.

De volgende SEO is geen SEO

Twintig jaar lang hebben bedrijven geleerd dat zichtbaarheid afhankelijk was van de leesbaarheid voor zoekmachines. Wat nu opduikt, is veeleisender. Het is niet langer voldoende om indexeerbaar te zijn. Je moet nuttig worden.

Daarom zijn ideeën als llms.txt belangrijk. Zoals ik betoogde in een recent stukwaren websites gebouwd voor mensen, terwijl taalmodellen beter gediend zijn met een beknopte, “vetvrije” vermelding die dubbelzinnigheid vermindert en de ruis van menu’s, scripts, repetitieve elementen en lay-out wegneemt. De suggestie van llms.txt is eenvoudig: plaats een markdown-bestand op /llms.txt dat fungeert als een samengestelde kaart van taalmodellen en onthult wat belangrijk is, wat canoniek is en waar de nuttige bronnen zich bevinden. Het officiële voorstel omschrijft het als een manier om “informatie verstrekken om LLM’s te helpen een website te gebruiken op het moment van voltooiing”, juist omdat contextvensters beperkt zijn en het vaak moeilijk en onnauwkeurig is om complexe HTML om te zetten in bruikbare platte tekst.

Dat maakt llms.txt nog niet tot een magische ranking-hack. Dat is het niet. Het komt dichter bij de digitale huishouding voor een wereld waarin steeds meer ontdekkingen, samenvattingen en aanbevelingen worden gemedieerd door AI-systemen. Het gaat er niet om een ​​ranking-algoritme te spelen. Het punt is om machineverwarring te verminderen. Dat onderscheid is van belang.

Dezelfde logica is van toepassing op nieuwere, meer experimentele ideeën zoals identiteit.txt. De site beschrijft het als “een draagbaar identiteitsbestand dat AI-tools vertelt wie je bent, hoe je denkt en onder welke voorwaarden”, en voegt eraan toe dat “llms.txt AI over websites vertelt. Identity.txt vertelt AI over mensen.” Of Identity.txt zelf algemeen wordt toegepast, is bijna secundair. Waar het om gaat is de richting van de reis: het internet begint doelbewust machinaal leesbare zelfbeschrijvingen te produceren, in plaats van modellen en agenten alles te laten afleiden uit luidruchtige HTML, metagegevensfragmenten en giswerk.

En dit houdt nauwelijks op bij deze twee voorbeelden. In de Agent Protocol Guide van Google wordt uitgelegd dat elke A2A-agent een agentkaart kan publiceren die zijn naam, mogelijkheden en eindpunt beschrijft. Het punt is duidelijk: systemen beginnen zichzelf op gestandaardiseerde manieren aan andere systemen bekend te maken. Zodra deze logica ingang vindt, is het gemakkelijk om een ​​breder ecosysteem van machinaal leesbare bestanden voor te stellen voor beleid, machtigingen, herkomst, afhandeling, prijslogica, retourzendingen en geauthenticeerde identiteit.

Merken zullen er nog steeds toe doen. Maar merken zullen niet langer voldoende zijn

Veel bedrijven beschouwen AI nog steeds als iets dat bovenop het internet staat: een chatbot voor de klantenservice, waarvan sommige een gegenereerde kopie hebben marketingeen assistent in de app. Dat beeld is te laag.

Wat feitelijk gebeurt, is dat een naar de machine gerichte laag wordt toegevoegd onder het zichtbare pad en in sommige contexten ervoor. Wanneer een gebruiker een agent vraagt ​​om de beste zwarte blazer te vinden voor een specifieke prijs, met snelle levering, goede retourvoorwaarden en een pasvorm die vergelijkbaar is met eerdere aankopen, begint de interactie niet met een bezoek aan de website. Het begint met machineinterpretatie.

Het verandert de basis van de concurrentie. Sterke merken zullen er nog steeds toe doen, omdat vertrouwen er nog steeds toe doet. Maar vertrouwen zal steeds vaker tot uiting moeten komen in vormen die machines kunnen verwerken: gestructureerde kenmerken, actuele inventaris, transparant retourbeleid, leveringsbeloften, geverifieerde identiteit van de verkoper en betalingssystemen die een legitieme agent van een kwaadwillende bot kunnen onderscheiden. Visa zegt dat het doel is om “ervoor te zorgen dat alleen goedgekeurde AI-agenten transacties uitvoeren”, terwijl Mastercard beweert dat protocollen van cruciaal belang zijn voor het opschalen van de handel tussen agenten, omdat ze een duidelijke gebruikersintentie, veilige inloggegevens en een verifieerbare agent-identiteit ondersteunen. Cloudflare, dat samenwerkt met het betalingsecosysteem, heeft hetzelfde punt directer naar voren gebracht: verkopers hebben manieren nodig om toegang te verlenen aan legitieme AI-agenten en tegelijkertijd frauduleus verkeer aan de voordeur te stoppen.

Wat het betekent voor bedrijven: het geval van Inditex

Een wereldleider als Inditex maakt deze verschuiving begrijpelijker omdat deze zich precies op het kruispunt van merk, logistiek, e-commerce en schaal bevindt.

Inditex begon relatief laat met e-commerce vergeleken met digital natives, maar bouwde uiteindelijk een van de meest efficiënte geïntegreerde retailsystemen op de markt. In zijn Resultaten boekjaar 2025Het bedrijf rapporteerde een omzet van 39,9 miljard euro en een online omzet van 10,7 miljard euro, en benadrukte uitdrukkelijk dat de integratie van winkel- en onlineactiviteiten een “naadloze wereldwijde omnichannel-ervaring” mogelijk maakt.

Dit geeft Inditex een groot voordeel in een agent-gemedieerde omgeving. Zara en de rest van de groep beschikken al over veel van de zaken die agenten waarschijnlijk zullen waarderen: sterke merkherkenning, snelle voorraadomloop, geïntegreerde logistiek, brede geografische dekking en operationele coördinatie tussen fysieke en digitale kanalen.

Maar er is ook een risico. Mode is van oudsher afhankelijk van presentatie, aspiratie, curatie en frictie, wat vaak commercieel nuttig was. Agenten comprimeren dat allemaal. Ze reduceren merchandising tot een beslissingslaag waar prijs, beschikbaarheid, maatbeveiliging, leverdatum, retourzending en vertrouwde identiteit beter zichtbaar kunnen worden dan de sfeer van de site zelf. In die wereld is de vraag niet langer: ‘Is uw site aantrekkelijk?’ Het wordt: “Kan een agent u effectief gebruiken?” Voor Inditex is de strategische reactie niet cosmetisch. Het is structureel.

Wat moet Inditex dan doen?

  • Eerst, het zou zijn sites niet alleen moeten gaan behandelen als bestemmingen voor mensen, maar als gestructureerde oppervlakken voor agenten. Dit betekent rijkere, machinaal leesbare catalogi, explicietere maat- en fitsignalen, duidelijkere metagegevens voor inventaris en levering, schonere beleidsblootstelling en robuustere authenticatielagen.
  • Ten tweede moet het serieus zijn experimenteer met machinegeoriënteerde beschrijvende bestanden. Een goed ontworpen llms.txt op groep- en merkniveau zou zinvol zijn, vooral om te verduidelijken wat canoniek is, hoe de inhoud is georganiseerd, hoe snel productinformatie verandert en welke bronnen officieel zijn. Het zou geen SEO-truc zijn. Dat zou een laag voor agent-bruikbaarheid zijn.
  • Ten derde zou het moeten bereid u voor op protocolgestuurde handel in plaats van aan te nemen dat alle transacties in zijn eigen interface zullen blijven beginnen. Als Google UCP bouwt om de handel in AI-native omgevingen te ondersteunen, en als betalingsnetwerken en infrastructuurbedrijven vertrouwen opbouwen voor de handel door agenten, dan moeten grote retailers ervan uitgaan dat door agenten omgezette betalingen, verificatie en ontdekking van strategisch belang zullen worden.

Inditex zou voor die transitie uitzonderlijk goed gepositioneerd kunnen zijn. Maar de bedrijven die in de volgende commerciële fase winnen, zullen niet noodzakelijkerwijs degenen zijn met de mooiste interfaces. Deze zullen het voor agenten het gemakkelijkst maken om ze te begrijpen, te vertrouwen en te gebruiken.

Het web begint zijn machinelaag bloot te leggen

Er bestaat een begrijpelijke verleiding om zaken als llms.txt, Identity.txt, agentmaps of machinaal leesbare beleidslagen af ​​te doen als marginale technische curiosa. Dat zou een vergissing zijn.

Het zijn vroege wegwijzers.

Nee, llms.txt is nog geen universeel aanvaarde standaard. En nee, het toevoegen ervan zal een bedrijf niet van de ene op de andere dag op magische wijze transformeren. Maar dat mist het punt. Kleine bestanden en lichtgewicht conventies zijn van belang omdat ze onthullen waar de infrastructuur naartoe gaat. Het internet heeft tientallen jaren besteed aan het perfectioneren van interfaces voor het menselijk oog. Nu begint het, onhandig maar onmiskenbaar, interfaces voor softwareagenten te onthullen.

Dat is de diepere verschuiving.

De originele webgekoppelde documenten. Het platform voor met internet verbonden gebruikers en diensten. De volgende zal steeds meer agenten, tools, verkopers, betalingssystemen en geauthenticeerde identiteiten met elkaar verbinden. En wanneer dat gebeurt, verandert de strategische vraag.

Het is niet langer alleen maar: “Hoe zorg ik ervoor dat mensen mijn website bezoeken?”

Het wordt: “Hoe maak ik mijn bedrijf begrijpelijk, geloofwaardig en bruikbaar voor de systemen die steeds meer tussen mij en mijn klanten staan?”

Het is geen ontwerpaanpassing. Het is een nieuwe laag van digitale strategie.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in