Decennia lang was het datalandschap relatief statisch. Relationele databases (hallo, Oracle!) waren de standaard en werden gedomineerd, waarbij informatie in bekende kolommen en rijen werd georganiseerd.
Deze stabiliteit werd uitgehold toen opeenvolgende golven NoSQL-documentopslagplaatsen, grafische databases en, meest recentelijk, vectorgebaseerde systemen introduceerden. In het tijdperk van agent AI verandert de data-infrastructuur opnieuw en evolueert sneller dan ooit tevoren.
Nu 2026 aanbreekt, is één les onontkoombaar geworden: data zijn belangrijker dan ooit.
RAG is dood. Lang leve RAG
Misschien wel de meest consistente trend uit 2025, waarover tot in 2026 (en misschien ook daarna) zal worden gedebatteerd, is de rol van RAG.
Het probleem is dat de oorspronkelijke RAG-pijplijnarchitectuur op een eenvoudige zoekopdracht lijkt. Met de ophaalactie wordt het resultaat van een specifieke zoekopdracht op een specifiek tijdstip gevonden. Het is ook vaak beperkt tot één enkele gegevensbron, althans zo werden RAG-pijpleidingen in het verleden gebouwd (het verleden was vóór juni 2025).
Deze beperkingen hebben ertoe geleid dat een groeiend aantal leveranciers allemaal beweert dat RAG op sterven ligt, op weg is naar de uitgang, of al dood.
Wat echter naar voren komt, zijn alternatieve benaderingen (zoals contextueel geheugen), evenals genuanceerde en verbeterde benaderingen van RAG. Snowflake heeft dit bijvoorbeeld onlangs aangekondigd analyse van agentdocumenten technologie die de traditionele RAG-datapijplijn uitbreidt om analyse uit duizenden bronnen mogelijk te maken zonder eerst over gestructureerde gegevens te hoeven beschikken. Er zijn ook tal van andere RAG-achtige benaderingen in opkomst, waaronder GrafiekRAG die waarschijnlijk pas in 2026 in gebruik en capaciteit zal groeien.
RAG is dus nog niet (helemaal) dood, althans nog niet. Organisaties zullen in 2026 nog steeds gebruiksscenario’s tegenkomen waarbij het ophalen van gegevens noodzakelijk is, en een verbeterde versie van RAG zal waarschijnlijk nog steeds aan de eisen voldoen. Bedrijven moeten in 2026 use cases individueel evalueren. Traditionele RAG werkt voor het ophalen van statische kennis, terwijl verbeterde benaderingen zoals GraphRAG geschikt zijn voor complexe zoekopdrachten met meerdere bronnen.
Contextueel geheugen is het bordspel voor agent AI
Hoewel RAG in 2026 niet geheel zal verdwijnen, is contextueel geheugen, ook bekend als agent- of lange-contextgeheugen, een benadering die het waarschijnlijk zal overtreffen in termen van gebruik voor agent-AI. Met deze technologie kunnen LLM’s relevante informatie gedurende langere tijd opslaan en openen.
Er zijn in 2025 verschillende van dergelijke systemen ontstaan, inclusief achteraf gezien: A-MEM-framework, Algemeen agentisch geheugen (GAM), LangMem en Memobasis. RAG blijft nuttig voor statische gegevens, maar het geheugen van agenten is essentieel voor adaptieve assistenten en agentische AI-workflows die moeten leren van feedback, de status moeten behouden en zich in de loop van de tijd moeten aanpassen.
In 2026 zal contextueel geheugen niet langer een nieuwe techniek zijn; het zal het tafelblad worden voor veel AI-implementaties van operationele agenten.
Speciaal gebouwde vectordatabases zullen veranderen
Aan het begin van het moderne generatieve AI-tijdperk waren op maat gemaakte vectordatabases (zoals onder andere Pinecone en Milvus) een rage.
Om ervoor te zorgen dat een LLM (meestal maar niet uitsluitend via RAG) toegang krijgt tot nieuwe informatie, moet hij toegang hebben tot gegevens. De beste manier om dit te doen is door de gegevens in vectoren te coderen, dat wil zeggen een numerieke weergave van wat de gegevens vertegenwoordigen.
Tegen 2025 werd het pijnlijk duidelijk dat vectoren niet langer een specifiek databasetype waren, maar eerder een specifiek gegevenstype dat kon worden geïntegreerd in een bestaande database met meerdere modellen. Dus in plaats van dat een organisatie een op maat gemaakt systeem moet gebruiken, zou het gewoon een bestaande database kunnen gebruiken die vectoren ondersteunt. Oracle ondersteunt bijvoorbeeld vectoren, net als alle databases die door Google worden aangeboden.
O, en het wordt beter. Amazon S3, nu al lang de feitelijke leider op het gebied van cloudgebaseerde objectopslag stelt gebruikers in staat vectoren op te slaanwat de behoefte aan een speciale, unieke vectordatabase verder teniet doet. Dat betekent niet dat objectopslag vectorzoekmachines vervangt (prestaties, indexering en filtering zijn nog steeds van belang), maar het beperkt wel het aantal gebruiksscenario’s waarin gespecialiseerde systemen vereist zijn.
Nee, dit betekent niet dat op maat gemaakte vectordatabases dood zijn. Net als bij RAG zullen er in 2026 gebruiksscenario’s blijven bestaan voor op maat gemaakte vectordatabases. Wat zal veranderen is dat de gebruiksscenario’s waarschijnlijk enigszins zullen worden beperkt voor organisaties die het hoogste prestatieniveau of een specifieke optimalisatie nodig hebben die een algemene oplossing niet ondersteunt.
PostgreSQL ascendant
Als 2026 begint, is het oude weer nieuw. De open-source PostgreSQL-database zal in 2026 veertig jaar oud zijn, maar zal relevanter zijn dan ooit tevoren.
In 2025 zal de suprematie van PostgreSQL als dé database voor het bouwen van elke vorm van GenAI-oplossing werd duidelijk. Snowflake heeft 250 miljoen dollar uitgegeven om Crunchy Data, een leverancier van PostgreSQL-databases, over te nemen; Databricks 1 miljard uitgegeven op neon; en Supabase haalde een Series E van $ 100 miljoen op, wat een waardering van $ 5 miljard opleverde.
Al dat geld dient als een duidelijk signaal dat bedrijven in gebreke blijven met PostgreSQL. De redenen zijn talrijk, waaronder de open source-basis, flexibiliteit en prestaties. Voor vibe-codering (een kerngebruiksscenario voor Supabase en Neon in het bijzonder) is PostgreSQL de standaard.
Verwacht in 2026 meer groei en acceptatie van PostgreSQL naarmate meer organisaties tot dezelfde conclusies komen als Snowflake en Databricks.
Datawetenschappers zullen nieuwe manieren blijven vinden om reeds opgeloste problemen op te lossen
Het is waarschijnlijk dat er meer innovatie zal plaatsvinden om problemen op te lossen waarvan veel organisaties waarschijnlijk al aannemen: problemen opgelost.
In 2025 zagen we verschillende innovaties, zoals het idee dat een AI gegevens uit een ongestructureerde gegevensbron zoals een pdf kan parseren. Het is een vaardigheid die al jaren bestaat, maar… bleek moeilijker op grote schaal te operationaliseren dan velen dachten. Databricks heeft nu een geavanceerde parser en andere leveranciers, waaronder Mistral, zijn met hun eigen verbeteringen op de markt gekomen.
Hetzelfde is het geval met natuurlijke taal voor SQL-vertaling. Hoewel sommigen misschien dachten dat het een opgelost probleem was, is het dat wel bleef innovatie zien in 2025 en zullen er in 2026 nog meer zien.
Het is cruciaal dat bedrijven in 2026 waakzaam zijn. Ga er niet vanuit dat basisfuncties zoals parseren of natuurlijke taal voor SQL volledig zijn opgelost. Ga door met het evalueren van nieuwe benaderingen die de bestaande tools aanzienlijk kunnen overtreffen.
Acquisities, investeringen en consolidatie zullen doorgaan
2025 was een belangrijk jaar voor het grote geld voor dataleveranciers.
Meta investeerde DKK 14,3 miljard in de datalabelleverancier Scale AI; IBM zei dat het van plan is om te kopen datastreamingleverancier Confluent voor $11 miljard; en Salesforce Informatica gedownload voor 8 miljard dollar.
Organisaties mogen verwachten dat het tempo van acquisities van elke omvang in 2026 zal aanhouden, omdat grote leveranciers het fundamentele belang van data voor het succes van agent AI beseffen.
De impact van overnames en consolidaties op bedrijven in 2026 is lastig te voorspellen. Het kan leiden tot een ‘vendor lock-in’ en mogelijk ook tot uitgebreide platformmogelijkheden.
In 2026 zal de vraag niet zijn of bedrijven AI gebruiken, maar of hun datasystemen dit kunnen ondersteunen. Naarmate agent AI volwassener wordt, zal een duurzame data-infrastructuur – en niet slimme prompts of kortstondige architecturen – bepalen welke implementaties opschalen en welke stilletjes vastlopen.



