OpenAI heeft het rustig gedaan heeft een grote verandering ongedaan gemaakt in de manier waarop honderden miljoenen mensen geld uitgeven ChatGPT.
Op een laag profiel blog die productwijzigingen bijhoudthet bedrijf zei dat het de modelrouter van ChatGPT terugdraait – een geautomatiseerd systeem dat ingewikkelde gebruikersvragen naar meer geavanceerde “redeneer” -modellen stuurt – voor gebruikers op de gratis Go-niveaus en de Go-niveaus van $ 5 per maand. In plaats daarvan zullen deze gebruikers nu standaard GPT-5.2 Instant gebruiken, de snelste en goedkoopste versie van OpenAI’s nieuwe modelserie. Free- en Go-gebruikers hebben nog steeds toegang tot redeneermodellen, maar moeten deze handmatig selecteren.
De modelrouter werd slechts vier maanden geleden gelanceerd als onderdeel van de inspanningen van OpenAI om de gebruikerservaring te verenigen debuut van GPT-5. De functie analyseert gebruikersvragen voordat wordt gekozen of ChatGPT deze beantwoordt met een snel reagerend, goedkoop te bedienen AI-model of een langzamer, duurder redenerend AI-model. Idealiter zou de router gebruikers naar de slimste AI-modellen van OpenAI moeten leiden, precies wanneer ze die nodig hebben. Voorheen hadden gebruikers toegang tot geavanceerde systemen via een verwarrend “modelselectie”-menu; een functie die CEO Sam Altman zei dat het bedrijf ‘net zoveel haat als jij.“
In de praktijk bleek de router veel meer gratis gebruikers naar de geavanceerde redeneermodellen van OpenAI te sturen, die voor OpenAI duurder zijn om te gebruiken. Kort na de lancering zei Altman dat de router het gebruik van redeneermodellen onder gratis gebruikers verhoogde van minder dan 1 procent naar 7 procent. Het was een dure gok gericht op het verbeteren van de respons van ChatGPT, maar de modelrouter werd niet zo breed omarmd als OpenAI had verwacht.
Een bron die bekend is met de zaak vertelt WIRED dat de router een negatieve invloed had op de dagelijkse actieve gebruikersstatistieken van het bedrijf. Hoewel redeneermodellen algemeen worden gezien als de limiet van AI-prestaties, kan het minuten duren om complexe vragen te beantwoorden, tegen aanzienlijk hogere rekenkosten. De meeste consumenten willen niet wachten, ook al betekent dit dat ze een beter antwoord moeten krijgen.
Snel reagerende AI-modellen blijven domineren in algemene consumentenchatbots, aldus Chris Clark, chief operating officer van OpenRouter, leverancier van AI-inferentie. Op deze platforms, zegt hij, zijn de snelheid en de toon van de reacties vaak van het grootste belang.
“Als iemand iets schrijft en je moet twintig seconden lang denkpunten laten zien, is dat gewoon niet erg boeiend”, zegt Clark. “Voor algemene AI-chatbots concurreer je met Google (Search). Google heeft zich altijd gericht op het zo snel mogelijk maken van zoekopdrachten; ze zeiden nooit: ‘Goh, we zouden een beter antwoord moeten krijgen, maar het langzamer maken.’



