Home Nieuws De nieuwe grensmodellen van OpenAI markeren een enorme verandering in de manier...

De nieuwe grensmodellen van OpenAI markeren een enorme verandering in de manier waarop AI zal worden gebouwd

1
0
De nieuwe grensmodellen van OpenAI markeren een enorme verandering in de manier waarop AI zal worden gebouwd

Begin maart, OpenAI maakte een een-tweetje en liet twee grote Frontier-modellen slechts enkele dagen na elkaar vallen.

Eerst kregen we de nieuwe GPT-5.3een “instant” model dat is geoptimaliseerd voor snelle, nauwkeurige reacties.

Dus, OpenAI heeft GPT-5.4 uitgebracht twee dagen later. Dit is een ‘denkmodel’ dat is geoptimaliseerd voor diepgaand analytisch werk.

Ik was in de beginperiode een bètatester voor OpenAI, en vandaag de dag geef ik honderden dollars per maand uit aan het gebruik van hun modellen via de OpenAI API.

Ik heb zowel GPT-5.3 als 5.4 grondig getest sinds hun lancering. De nieuwe modellen vertegenwoordigen een compleet andere aanpak en suggereren een grote verandering in hoe groot AI Bedrijven bouwen hun technologie.

De doener

OpenAI’s eerste nieuwe model, GPT-5.3, is gebouwd voor snelheid. GPT-5.3 reageert over het algemeen binnen enkele seconden op vragen.

In zijn releaseopmerkingen voor het nieuwe modelOpenAI zegt dat de GPT-5.3 is gebouwd om een ​​snelle, slimme schrijver en snelle communicator te zijn.

“GPT-5.3 Instant levert nauwkeurigere antwoorden, rijkere en betere contextuele resultaten wanneer u op internet zoekt, en vermindert onnodige doodlopende wegen, kanttekeningen en overdreven declaratieve bewoordingen die de stroom van gesprekken kunnen onderbreken”, zegt het bedrijf.

Het model verschilt van andere instantmodellen die OpenAI eerder heeft gepubliceerd. In het verleden leken de instant-modellen van het bedrijf bijna volledig te vertrouwen op hun wereldkennis om vragen te beantwoorden.

Mijn ervaring is dat de voormalige instant-modellen vaak terugvielen op wat ze tijdens hun initiële training hadden geleerd, in plaats van het internet af te speuren naar nieuwe gegevens.

Deze aanpak resulteert feitelijk in bliksemsnelle reacties. Maar dat betekende dat de eerdere instant-modellen van OpenAI, eerlijk gezegd, een beetje dom waren.

Als je snel de hoofdstad van Californië (Sacramento) wilt leren kennen of wilt bepalen of de plant die je zojuist hebt aangeraakt gifeik is (Ja), kun je een foto sturen of een vraag stellen aan eerdere instantmodellen en een fatsoenlijk antwoord krijgen.

Als je meer wilde weten over actuele gebeurtenissen of nieuws, hadden de modellen echter moeite. Omdat ze vertrouwden op voorgetrainde wereldkennis, bleven ze vaak hangen in het verleden en hadden ze moeite om nieuwe informatie te integreren.

Ironisch genoeg leken de eerste instant-modellen van OpenAI zich niet bewust van hun eigen bestaan. Ik herinner me dat ik chatte met een directe versie van GPT-5.1. Het model zwoer op en neer dat het niet bestond en dat GPT-5 het nieuwste OpenAI-model was.

Waarom? Want tegen de tijd dat het model werd getraind, was dat ook daadwerkelijk het geval niet bestaat nog steeds. Omdat het vastzat in de vorige wereld, kon het model zelfs dit meest fundamentele stukje nieuwe informatie niet begrijpen.

GPT-5.3 is anders. Het leunt nog steeds sterk op zijn vooraf opgeleide wereldkennis. Maar OpenAI zegt dat het is geoptimaliseerd om snel de informatie die het op internet en via andere bronnen vindt, te doorzoeken en te begrijpen.

Het model “… brengt wat het online vindt effectiever in evenwicht met zijn eigen kennis en redenering – door bijvoorbeeld zijn bestaande kennis te gebruiken om het laatste nieuws te contextualiseren in plaats van simpelweg de zoekresultaten samen te vatten”, aldus de release notes van OpenAI.

Het nieuwe model is ook merkbaar minder timide. Instantmodellen hebben slechts beperkte tijd om diep na te denken over de zoekopdracht van een gebruiker en hun bedoeling te begrijpen. In het verleden betekende dit dat ze de neiging hadden vage, dubbelzinnige antwoorden te geven op vragen met zelfs maar een kleine mogelijkheid om schade aan te richten.

OpenAI geeft het voorbeeld van iemand die vraagt ​​naar het juiste traject dat een pijl nodig heeft om een ​​boogschietdoel te raken. Het is het soort eenvoudig natuurkundeprobleem dat iemand zich zou kunnen afvragen als hij aan het oefenen was voor een AP-examen, of gewoon boogschieten probeerde te leren.

Voorheen begonnen instant-modellen hun reacties vaak door de gebruiker uit te schelden. Ze zullen bijvoorbeeld waarschuwen dat het afvuren van pijlen gevaarlijk kan zijn, en een kieskeurig nee-antwoord geven of een aantal paragrafen met disclaimers schrijven voordat ze het antwoord geven.

OpenAI zegt dat GPT-5.3 de context van de vragen van gebruikers veel beter begrijpt. Het maakt snel duidelijk dat een gebruiker die om rijstroken vraagt, niet probeert iemand met pijl en boog te vermoorden. Het model kan dus de vragen van de gebruiker beantwoorden zonder veel dubbelzinnigheid en doofpotaffaires.

In mijn tests tot nu toe lijken al deze veranderingen heel goed te werken. GPT-5.3 is het eerste instant-model dat ik heb gebruikt en dat niet aanvoelt als een afgezwakte versie van de denkversies van OpenAI.

In plaats daarvan voelt het als een volledig grensmodel dat bijna alles kan doen wat eerdere denkmodellen konden bereiken – alleen veel sneller en met slimmer, boeiender proza.

De denker

De snelheid en slimheid van GPT-5.3 zorgen ervoor dat GPT-5.4 iets compleet anders is.

Waar GPT-5.3 de “doener” is – die snel een fatsoenlijke versie van een antwoord op elke vraag produceert – is GPT-5.4 in hoge mate de “denker”.

Het model doet diepgaand onderzoek voordat vragen worden beantwoord. Bij mijn eigen tests duurde het soms wel vijf tot tien minuten voordat complexe verzoeken bij mij terugkwamen.

Zoals veel wetenschappelijke of analytische mensen is het model uiterst gedetailleerd en alomvattend in zijn antwoorden. En net als sommige van die mensen is het ook een beetje saai.

Het lezen van de reacties voelt een beetje als het lezen van de handleiding van je broodrooster of het ploeteren door een fascinerend maar pedant wetenschappelijk artikel. Je leert veel, maar het zijn niet bepaald spannende dingen.

Het markeert opnieuw een nieuwe aanpak. Voorheen probeerden de denkmodellen van OpenAI alles te doen: code schrijven, wetenschappelijke problemen op een diepgaand niveau analyseren en op een overtuigende en creatieve manier schrijven.

Zoals veel mensenkinderen betekende dit dat de modellen alles behoorlijk deden, maar niets uitzonderlijk goed.

Omdat GPT-5.4 het idee van creatief schrijven of snel en comfortabel reageren lijkt los te laten, krijgt het ruimte om uit te blinken in datgene het is gebouwd om te doen— cijfers analyseren, software bouwen en gegevens analyseren.

De Bichon-test

Om de modellen te vergelijken, gaf ik beide een eenvoudige opdracht: “Kies een specifiek onderwerp dat verband houdt met Bichon Frises en schrijf er vervolgens een artikel over.”

GPT-5.3 reageerde onmiddellijk met een artikel met de titel “Waarom Bichon Frises een van de beste honden zijn voor het wonen in een appartement.”

Het artikel was gestructureerd als een lijst en had een goed gemaakte inleiding die netjes overging op het hoofdonderwerp.

Het bevatte nuttige, goed geschreven aantekeningen over de grootte van het ras (‘Een Bichon kan naast je op de bank kruipen, in een klein bed naast je bureau slapen en zich in een appartement met één slaapkamer verplaatsen zonder zich voortdurend onder de voeten te voelen.’), temperament en meer.

GPT-5.4 heeft er daarentegen voor gekozen om dieper in te gaan op het probleem van Bichon Frise-traanvlekken. Het artikel stond vol met tergend droge klompjes, zoals deze dwaze kleine paragraaf van één alinea:

“Traanvlekken worden voornamelijk veroorzaakt door moleculen die porfyrines worden genoemd. Deze ijzerhoudende pigmenten zijn van nature aanwezig in tranen en speeksel. Wanneer tranen langere tijd op de vacht van een hond blijven zitten, oxideren de porfyrines wanneer ze worden blootgesteld aan lucht. Deze oxidatie produceert de roestige rode of bruine kleur die je onder de ogen ziet.”

GPT-5.4 voelt een beetje als de man die je zou raadplegen als je hulp nodig had bij het betalen van je belastingen of als je de deeltjesfysica beter wilde begrijpen.

Maar je wilt echt niet naast hem vastzitten op een feestje. Het model is geweldig voor complexe analytische taken, maar lijkt doelbewust gebouwd om de creatieve, communicatieve kant van het werk te vermijden.

Een betere aanpak?

In eerste instantie vond ik deze tweeledige aanpak een uitdaging.

Voorheen kon ik eenvoudigweg het meest up-to-date mentale model gebruiken dat beschikbaar was bij OpenAI.

Deze modellen waren duidelijk de ‘premium’-versie van de line-up van OpenAI. De instant-modellen leken gebouwd voor mensen die niet de moeite konden nemen om $ 20 te betalen voor ChatGPT-toegang.

Onder de nieuwe aanpak van OpenAI is dit onderscheid echter niet zo duidelijk.

Ik merk dat wanneer ik hulp nodig heb bij het diepgaand onderzoeken van iets of bij het doen van iets waarbij getallen en data betrokken zijn, ik me tot GPT-5.4 wend.

De statistieken van mijn YouTube-kanaal opsplitsen en de relatieve voordelen van Starlink en Comcast Business vergelijken – dat is het soort dingen waar ik 5.4 voor gebruik.

Als ik met een chatbot wil praten om een ​​snel (hoewel enigszins plichtmatig) antwoord te krijgen, merk ik dat ik steeds vaker het 5.3-model gebruik.

Recente persoonlijke vragen die ik naar GPT-5.3 heb gestuurd, zijn onder meer: ​​”Waarom gapen we?” (om de hersenen af ​​te koelen), “Wat is die vreemde munt die ik in mijn kast heb gevonden?” (1936 British One-Penny), en “Hoe maak ik stoffen linten schoon?” (Met azijn).

Ik heb het model ook op het werk gebruikt voor eenvoudige Python-vragen, achtergrondonderzoek en eenvoudige maar vervelende taken zoals het berekenen van de vierkante meters van een kamer op basis van een reeks metingen.

Eén ding dat ik me heb gerealiseerd toen ik GPT-5.3 gebruikte, is dat snelheid belangrijker is dan ik dacht.

Voorheen waren de instant-modellen van OpenAI te zwak om voor iets anders dan de eenvoudigste zoekopdrachten te worden gebruikt. Krachtige gebruikers zoals ik wendden zich altijd tot de denkmodellen die wel vijf minuten nodig hadden om een ​​antwoord te geven.

Nu GPT-5.3 goed genoeg is om echt bruikbare antwoorden te geven, kan ik zien hoe fijn het is om gegevens direct terug te krijgen.

Een paar minuten wachten op een reactie van een chatbot, verspreid over een werkdag, voelt niet veel. Maar die minuten zijn met elkaar verbonden. Ik merk dat ik sneller en beter kan werken nu ik GPT-5.3 voor meer dingen kan gebruiken en meteen antwoorden krijg.

Op basis van wat ik tot nu toe heb gezien, verwacht ik dat OpenAI door zal gaan op dit nieuwe pad voor het bouwen van gesplitste modellen.

GPT-5.3 is slim en werkt in veel opzichten beter dan GPT-5.4. Maar het is waarschijnlijk ook veel goedkoper om te rijden.

Omdat het model waarschijnlijk meer afhankelijk is van zijn vooraf getrainde wereldkennis, verbrandt het waarschijnlijk veel minder tokens om zijn werk te doen dan een denkmodel.

Als meer ervaren gebruikers zoals ik merken dat ze echt kunnen vertrouwen op een instant-model voor goede antwoorden, zal dit het aantal mensen verminderen dat zich voor alledaagse vragen tot de duurdere denkmodellen wendt.

Het zou OpenAI in staat moeten stellen sneller winstgevend te worden door de kosten te verlagen en toch dezelfde $ 20 (of meer) per maand te ontvangen van gebruikers zoals ik.

Als deze aanpak op de langere termijn vruchtbaar blijkt, is het mogelijk dat we een verschuiving zullen zien weg van het gebruik van denkmodellen.

Een tijdlang leverde het extra werk dat deze modellen deden een aanzienlijk betere respons op. Met GPT-5.3 lijkt dat niet langer vanzelfsprekend.

Als OpenAI zijn huidige modellen kan blijven verbeteren, zien we mogelijk een terugkeer naar snelle en goed genoeg LLM’s en weg van de langzame, nauwgezette modellen die vandaag de dag in de mode zijn.

Deze langzamere, krachtigere modellen kunnen programmeurs en data-analisten worden, terwijl alle anderen afhankelijk zijn van steeds krachtigere momenten. Het zou de ervaring van de interactie met LLM’s versnellen en AI-bedrijven helpen opschalen door hun kosten dramatisch te verlagen.

We zijn er nog niet. Maar het nieuwe paar modellen van OpenAI betekent een grote verschuiving in de branche en een verleidelijke stap in de nieuwe richting.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in