In de afgelopen drie jaar wel AI’s ontsnappingsmoment is bijna volledig via tekst gebeurd. We schrijven een prompt, krijgen een antwoord en gaan verder met de volgende taak. Hoewel deze intuïtieve stijl van interactie chatbots van de ene op de andere dag tot een huishoudelijk hulpmiddel heeft gemaakt, is dit nog maar nauwelijks het oppervlak van wat de meest geavanceerde technologie van vandaag daadwerkelijk kan doen.
Deze verstoring heeft een aanzienlijke kloof gecreëerd in de manier waarop consumenten AI gebruiken. Hoewel de onderliggende modellen snel multimodaal worden – in staat om spraak, afbeeldingen en video in realtime te verwerken – gebruiken de meeste consumenten ze nog steeds als zoekmachine. Als ik naar 2026 kijk, denk ik dat de volgende adoptiegolf niet alleen over nut zal gaan, maar over de ontwikkeling van statische tekst naar dynamische, meeslepende interacties. Dit is AI 2.0: niet alleen sneller informatie ophalen, maar intelligentie ervaren door middel van geluid, beeld, beweging en realtime context.
De adoptie van AI heeft een omslagpunt bereikt. In 2025 het wekelijkse gebruikersbestand van ChatGPT verdubbeld van ongeveer 400 miljoen in februari tot 800 miljoen tegen het einde van het jaar. Concurrenten zoals Gemini en Anthropic zagen een vergelijkbare groei, maar de meeste gebruikers communiceren nog steeds voornamelijk met LLM’s via tekstchatbots. Eigenlijk Het Connected Consumer Survey van Deloitte laat zien dat ondanks dat meer dan de helft (53%) van de consumenten experimenteert met generatieve AI, de meeste mensen AI nog steeds overlaten aan administratieve taken zoals schrijven, samenvatten en onderzoeken.
Maar kijkend naar het digitale gedrag van consumenten buiten AI om, is het duidelijk dat consumenten verlangen naar meeslepende ervaringen. Volgens Activeer de Tech & Media Outlook 2026 van Consulting, 43% van Generatie Z geeft de voorkeur aan door gebruikers gegenereerde platforms zoals TikTok en YouTube via traditionele tv of betaalde streaming, en ze besteden 54% meer tijd op sociale videoplatforms dan de gemiddelde consument, waarbij ze traditionele media verruilen voor interactieve sociale platforms.
Dit zorgt voor een fundamentele mismatch: consumenten leven in een multisensorische wereld, maar hun AI-tools blijven steken in het leveren van platte tekst. Nu de industrie deze kloof onderkent en investeert om deze te dichten, voorspel ik dat we een fundamentele verschuiving zullen zien in de manier waarop mensen AI gebruiken en creëren. In AI 2.0 zullen gebruikers niet langer eenvoudigweg door AI gegenereerde inhoud consumeren, maar in plaats daarvan multimodale AI gebruiken om stem, afbeeldingen en tekst samen te brengen om hun ervaringen in realtime vorm te geven en te controleren.
MULTIMODAL AI ONTGRENDELT MEESLEPEND VERHAAL
Als AI 1.0 over efficiëntie ging, gaat AI 2.0 over betrokkenheid. Hoewel op tekst gebaseerde AI beperkt is in hoe diep het het publiek kan betrekken, stelt multimodale AI de gebruiker in staat een actieve deelnemer te worden. In plaats van een verhaal te lezen, kun je communiceren met een hoofdpersoon en de plot in een nieuwe richting sturen, of je eigen wereld bouwen waarin verhalen en personages met je mee evolueren.
We kunnen de game-industrie ter waarde van 250 miljard dollar beschouwen als de blauwdruk voor het potentieel van multimodale AI. Videogames combineren beeld, geluid, verhaal en real-time agency om een meeslepende ervaring te creëren die traditioneel entertainment niet kan repliceren. Platforms zoals Roblox en Minecraft laten spelers inhoud bewonen. Roblox alleen bereikt meer dan 100 miljoen dagelijkse gebruikersdie gezamenlijk tienduizenden uren per jaar doorbrengen ondergedompeld in deze werelden; betrokkenheid die tekst alleen nooit zou kunnen creëren.
Met de komst van multimodale AI zullen gebruikers overal ter wereld dit soort ervaringen kunnen creëren die ze graag via games beleven. Door technische barrières weg te nemen, zorgt multimodal ervoor dat iedereen ervaringen kan opbouwen die niet alleen authentiek aanvoelen in de echte wereld, maar er ook actief aan deelnemen. Ook oudere media spelen in op deze trend. Onlangs Disney aangekondigd een investering van $1 miljard in OpenAI en een licentieovereenkomst waarmee gebruikers korte clips kunnen maken met personages uit Marvel, Pixar en Star Wars via het Sora-platform.
WAAROM MULTIMODAL AI KAN VEILIGER ZIJN VOOR JONGERE GEBRUIKERS
Nu kunstmatige intelligentie onderdeel wordt van het dagelijks leven, is beveiliging – vooral voor jongere gebruikers – een van de meest kritieke problemen geworden waarmee de sector wordt geconfronteerd.
Door van open chat naar gestructureerde, multimodale werelden te gaan, kunnen we vangrails in gameplay ontwerpen. In plaats van te vertrouwen op voortdurende ongestructureerde aanwijzingen, zijn deze omgevingen opgebouwd rond personages, beelden, stemmen en gedefinieerde verhaalwerelden. Interactie wordt bepaald door de ervaring zelf. Die structuur verandert hoe en waar beveiliging in het systeem wordt ontworpen.
Educatieve AI demonstreert deze aanpak. Platforms zoals Khan Academy Kids en Duolingo combineren beeld, audio en gestructureerde aanwijzingen om het leerproces te begeleiden. De AI probeert niet alles te zijn; het concentreert zich goed op één taak. Naarmate multimodale AI evolueert, kan een van de meest betekenisvolle mogelijkheden ervan het vermogen zijn om creatieve vrijheid in evenwicht te brengen met doordachte beperkingen. AI 2.0 presenteert een ontwerpverandering die bouwers, docenten en gezinnen nieuwe manieren zou kunnen bieden om veiligere, bewustere digitale ruimtes voor de volgende generatie vorm te geven.
WAAROM MULTIMODALE AI DE VOLGENDE GRENS IS
Ik voorspel dat consumenten in 2026 niet meer om AI zullen roepen; het wordt een meer meeslepende interactieve ervaring. Dit boeit mij omdat gebruikers niet alleen maar passief output ontvangen; ze zullen ervaringen actief vormgeven en beïnvloeden hoe AI in realtime evolueert. We zouden kunnen zien hoe gebruikers de laatste aflevering van hun favoriete tv-programma remixen, of hoe studenten geschiedenis leren, niet door een leerboek te lezen, maar door actief te debatteren over een historisch nauwkeurige AI-simulatie.
Voor oprichters en makers is de volgende stap om te stoppen met het bouwen van tools alleen voor efficiëntie en te beginnen met het bouwen van omgevingen voor onderdompeling en verkenning. De winnaars van de volgende cyclus zullen niet degenen zijn met de slimste modellen, maar degenen die AI minder als een nutsvoorziening laten voelen en meer als een bestemming voor rijke, interactieve ervaringen.
Karandep Anand is de CEO van Character.AI
De verlengde deadline voor Fast Company’s Wereldveranderende ideeënprijzen is vrijdag 19 december om 23:59 uur PT. Solliciteer vandaag nog.



