Home Nieuws Waar we dankbaar voor moeten zijn in AI in 2025

Waar we dankbaar voor moeten zijn in AI in 2025

23
0
Waar we dankbaar voor moeten zijn in AI in 2025

Hallo lieve lezers. Fijne late Thanksgiving en Black Friday!

Dit jaar voelde alsof ik in een permanente DevDay leefde. Elke week brengt een laboratorium een ​​nieuw model uit, een nieuw agentframework of een nieuwe demo “dit verandert alles”. Het is overweldigend. Maar dit is ook het eerste jaar dat ik het gevoel heb dat AI eindelijk diversifieert – niet slechts een of twee grensmodellen in de cloud, maar een heel ecosysteem: open en gesloten, groot en klein, Westers en Chinees, cloud en lokaal.

Dus voor deze Thanksgiving-editie is dit waar ik oprecht dankbaar voor ben in AI in 2025: de releases die het gevoel hebben dat ze er over 12 tot 24 maanden toe zullen doen, en niet alleen tijdens de hype-cyclus van deze week.

1. OpenAI bleef sterk verzenden: GPT-5, GPT-5.1, Atlas, Sora 2 en open gewichten

Als het bedrijf dat eind 2022 onmiskenbaar het ‘generatieve AI’-tijdperk inluidde met zijn virale hitproduct ChatGPT, had OpenAI in 2025 misschien wel een van de moeilijkste taken voor elk AI-bedrijf: zijn groeitraject voortzetten, zelfs als goed gefinancierde concurrenten als Google met zijn Gemini-modellen en andere startups zoals Anthropic aanbod.

Gelukkig ging OpenAI de uitdaging aan en nog wat. De belangrijkste actie was de GPT-5, die in augustus werd onthuld als het volgende grensverleggende redeneermodel November van GPT-5.1 met nieuwe Instant- en Thinking-varianten die dynamisch aanpassen hoeveel “denktijd” ze per taak gebruiken.

In de praktijk verliep de lancering van GPT-5 hobbelig: VentureBeat documenteerde vroege wiskunde- en codeerfouten en een koeler dan verwachte reactie van de gemeenschap in “De GPT-5-uitrol van OpenAI verloopt niet soepel”, maar het werd snel opgelost op basis van feedback van gebruikers, en als dagelijkse gebruiker van dit model ben ik er persoonlijk blij mee en onder de indruk van.

Tegelijkertijd rapporteren bedrijven die de modellen daadwerkelijk gebruiken solide winsten. ZenDesk Globalbijv. zegt dat GPT-5-agenten nu meer dan de helft van de klanttickets oplossenwaarbij sommige klanten een resolutie van 80-90% zien. Dat is het rustige verhaal: deze modellen maken misschien niet altijd indruk op de babbelende klassen bij X, maar ze beginnen echte KPI’s te bereiken.

Wat de tools betreft, gaf OpenAI ontwikkelaars eindelijk een serieuze AI-ingenieur met GPT-5.1-Codex-Max, een nieuw codeermodel dat lange, agentische workflows kan uitvoeren en al standaard is in de Codex-omgeving van OpenAI. VentureBeat heeft het gedetailleerd besproken in “OpenAI introduceert het GPT-5.1-Codex-Max-coderingsmodel en heeft intern al een taak van 24 uur voltooid.”

Dan is er ChatGPT Atlas, een volledige browser met ChatGPT ingebakken in Chrome zelf – zijbalkoverzichten, analyses op de pagina en zoeken, nauw geïntegreerd in normaal browsen. Het is het duidelijkste teken tot nu toe dat “assistent” en “browser” op ramkoers liggen.

Aan de mediakant heeft Sora 2 de originele Sora-videodemo getransformeerd in een volledig video- en audiomodel met betere fysica, gesynchroniseerde audio en dialoog, en meer controle over stijl en opnamestructuur, plus een speciale Sora-app met een volwaardige sociale netwerkcomponent, waardoor elke gebruiker dat kan creëer hun eigen tv-netwerk in uw zak.

Tenslotte – en misschien wel het meest symbolisch – OpenAI heeft gpt-oss-120B en gpt-oss-20B uitgebrachtopen MoE-redeneermodellen onder een Apache 2.0-achtige licentie. Wat je ook van de kwaliteit ervan vindt (en early adopters van open source hebben zich uitgesproken over hun klachten), dit is de eerste keer sinds GPT-2 dat OpenAI serieus de nadruk legt op het publieke domein.

2. De Chinese open source-golf wordt mainstream

Als 2023-2024 over Lama en Mistral ging, behoort 2025 tot het open ecosysteem van China.

Dat blijkt uit een onderzoek van MIT en Hugging Face China ligt nu iets voor op de VS wat betreft wereldwijde downloads met open modellengrotendeels dankzij DeepSeek en Alibaba’s Qwen-familie.

Hoogtepunten:

  • DeepSeek-R1 viel in januari als een open source redeneermodel dat concurreert met OpenAI’s o1, met door MIT gelicentieerde gewichten en een familie van gedistilleerde kleinere modellen. VentureBeat heeft het verhaal gevolgd vanaf de publicatie tot aan de release impact op de cyberveiligheid naar op prestaties afgestemde R1-varianten.

  • Denkt Kimi K2 van Moonshot, een ‘denkend’ open source-model dat stap voor stap redeneert met tools, grotendeels in de o1/R1-vorm, en is gepositioneerd als het beste open redeneermodel ter wereld tot nu toe.

  • Z.ai afgeleverd GLM-4.5 en GLM-4.5-Lucht als “agentische” modellen, open-sourcingbasis en hybride redeneringsvarianten op GitHub.

  • van Baidu ERNIE 4.5 familie arriveerde als een volledig open source, multimodale MoE-suite onder Apache 2.0, inclusief een 0,3 miljard compact model en visueel “Denkenvarianten gericht op diagrammen, STEM en toolgebruik.

  • Alibaba’s Koningin3 line – inclusief de Qwen3-Coder, grote redeneermodellen en de Qwen3-VL-serie die in de zomer- en herfstmaanden van 2025 werd uitgebracht – blijft de lat hoog leggen voor open gewichten in coderen, vertalen en multimodaal redeneren, wat mij ertoe heeft gebracht de afgelopen zomer te verklaren als ‘

    Qwens zomer.

VentureBeat heeft deze verschuivingen gevolgd, inclusief Chinese wiskunde en redeneermodellen zoals Licht-R1-32B en Weibo is klein VibeThinker-1.5Bdie de basislijnen van DeepSeek versloegen met krappe trainingsbudgetten.

Als je geïnteresseerd bent in open ecosystemen of mogelijkheden ter plaatse: dit is het jaar waarin de Chinese scène met open gewichten niet langer een curiosum was, maar een serieus alternatief werd.

3. Kleine en lokale modellen worden volwassen

Nog iets waar ik dankbaar voor ben: we krijgen het eindelijk Goed kleine modellen, niet alleen speelgoed.

Liquid AI heeft in 2025 zijn Liquid Foundation Models (LFM2) gepromoot en LFM2-VL vision-taalvariantenvanaf dag één ontworpen voor apparaatbewuste implementaties met lage latentie: edge-boxen, bots en beperkte servers, niet alleen gigantische clusters. De nieuwere LFM2-VL-3B richt zich op ingebedde robotica en industriële autonomie, met demo’s gepland op ROSCon.

Aan de grote technische kant, Google’s Gemma 3-lijn maakte een sterk argument dat “klein” nog steeds capabel kan zijn. Gemma 3 varieert van 270M parameters tot 27B, allemaal met open schalen en multimodale ondersteuning in de grotere varianten.

Het hoogtepunt is de Gemma 3 270M, een compact model dat speciaal is gebouwd voor het verfijnen en gestructureerde teksttaken – denk aan aangepaste formatters, routers en watchdogs – die zowel worden behandeld in Google’s ontwikkelaarsblog als in communitydiscussies in lokale LLM-kringen.

Deze modellen zijn misschien nooit populair op X, maar ze zijn precies wat je nodig hebt voor privacygevoelige werklasten, offline workflows, thin client-apparaten en ‘agentzwermen’ waarbij je niet wilt dat elke tool-oproep een gigantische LLM-limiet bereikt.

4. Meta + Midjourney: esthetiek als service

Een van de vreemdere wendingen dit jaar: de meta werkte samen met Midjourney in plaats van alleen maar te proberen het te verslaan.

In augustus kondigde Meta een deal aan om de ‘esthetische technologie’ van Midjourney – de beeld- en videogeneratiestack – in licentie te geven en deze te integreren in Meta’s toekomstige modellen en producten, van Facebook- en Instagram-feeds tot Meta AI-mogelijkheden.

VentureBeat deed verslag van de samenwerking in “Meta werkt samen met Midjourney en zal zijn technologie in licentie geven voor toekomstige modellen en producten“, wat de voor de hand liggende vraag oproept: vertraagt ​​of hervormt dit de eigen API-roadmap van Midjourney? Ik wacht nog steeds op een antwoord, maar helaas moeten de aangekondigde plannen voor een API-release nog werkelijkheid worden, wat erop wijst dat dit het geval is.

Voor makers en merken is de onmiddellijke implicatie echter eenvoudig: visuele beelden van halverwege de reis verschijnen in reguliere sociale tools in plaats van te worden opgesloten in een Discord-bot. Het zou AI-kunst van hogere kwaliteit kunnen normaliseren voor een veel breder publiek – en rivalen als OpenAI, Google en Schwarzwald Labs kunnen dwingen de lat steeds hoger te leggen.

5. Google’s Gemini 3 en Nano Banana Pro

Google probeerde de GPT-5 te beantwoorden met Gemini 3, aangekondigd als het meest capabele model tot nu toe, met beter redeneren, coderen en multimodaal begrip, plus een nieuwe Deep Think-modus voor langzame, moeilijke problemen.

De dekking van VentureBeat: “Google onthult Gemini 3 en claimt leiderschap op het gebied van wiskunde, wetenschap, multimodale en agent-AI”, omlijstte het als een direct schot op grenswaarden en agentische werkingen.

Maar de verrassende hit is Nano Banana Pro (Gemini 3 Pro Image), de nieuwe vlaggenschip-beeldgenerator van Google. Het is gespecialiseerd in infographics, grafieken, scènes met meerdere onderwerpen en meertalige tekst die daadwerkelijk leesbaar worden weergegeven in 2K- en 4K-resoluties.

In de wereld van enterprise AI – waar diagrammen, productschema’s en ‘dit systeem visueel uitleggen’ afbeeldingen belangrijker zijn dan fantasiedraken – is dit een groot probleem.

6. Ik houd wildcards in de gaten

Nog een paar releases waar ik dankbaar voor ben, ook al passen ze niet netjes in een emmer:

Laatste gedachten (voor nu)

Als 2024 het jaar was van ‘één groot model in de cloud’, is 2025 het jaar waarin de kaart explodeerde: meerdere grenzen aan de top, China voorop in open modellen, kleine en efficiënte systemen die snel volwassen worden, en creatieve ecosystemen zoals Midjourney die in grote technologiestapels worden opgenomen.

Ik ben niet alleen dankbaar voor één enkel model, maar ook voor het feit dat we dat nu hebben mogelijkheden – gesloten en open, lokaal en gastheer, eerst redeneren en eerst de media. Voor journalisten, bouwers en bedrijven is deze diversiteit het echte verhaal van 2025.

Fijne feestdagen en het beste voor jou en je dierbaren!

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in