Home Nieuws DeepSeek heeft zojuist twee waanzinnig krachtige AI-modellen uitgebracht die concurreren met GPT-5,...

DeepSeek heeft zojuist twee waanzinnig krachtige AI-modellen uitgebracht die concurreren met GPT-5, en ze zijn volledig gratis

8
0
DeepSeek heeft zojuist twee waanzinnig krachtige AI-modellen uitgebracht die concurreren met GPT-5, en ze zijn volledig gratis

Chinese kunstmatige intelligentie-startup Diepzoeken heeft zondag twee krachtige nieuwe AI-modellen uitgebracht waarvan het bedrijf beweert dat ze de mogelijkheden van OpenAI evenaren of zelfs overtreffen GPT-5 en die van Google Gemini-3.0-Pro – een ontwikkeling die het concurrentielandschap tussen Amerikaanse technologiegiganten en hun Chinese uitdagers zou kunnen hervormen.

Het in Hangzhou gevestigde bedrijf werd gelanceerd DeepSeek-V3.2ontworpen als dagelijkse redeneerassistent samen met DeepSeek-V3.2-Speciale, een krachtige variant die gouden medaille-prestaties behaalde in vier internationale elitecompetities: 2025 Internationale Wiskundeolympiade, Internationale Olympiade in Informatica, ICPC Wereldfinales en China Wiskundige Olympiade.

De release heeft diepgaande gevolgen voor het Amerikaanse technologieleiderschap. DeepSeek heeft opnieuw aangetoond dat het ondanks Amerikaanse exportcontroles grensoverschrijdende AI-systemen kan produceren beperken de toegang van China tot geavanceerde Nvidia-chips – en dat heeft het bedrijf gedaan door zijn modellen vrij beschikbaar te stellen onder een open source MIT-licentie.

“Mensen dachten dat DeepSeek een eenmalige doorbraak maakte, maar we kwamen veel groter terug”, schreef Chen Fangdie zichzelf identificeerde als een bijdrager aan het project, op X (voorheen Twitter). De release lokte online snelle reacties uit, waarbij één gebruiker verklaarde: “Rust zacht, ChatGPT.”

Hoe de schaarse aandachtsdoorbraak van DeepSeek de computerkosten verlaagt

De kern van de nieuwe release ligt Diep Zoek spaarzame aandachtof DSA – een nieuwe architecturale innovatie die de rekenlast van het uitvoeren van AI-modellen op lange documenten en complexe taken dramatisch vermindert.

Traditionele AI-aandachtsmechanismen, de kerntechnologie die taalmodellen in staat stelt context te begrijpen, schalen slecht naarmate de invoerlengte toeneemt. Als u een document twee keer zo lang wilt verwerken, zijn er doorgaans vier keer zoveel berekeningen nodig. De aanpak van DeepSeek doorbreekt deze beperking door gebruik te maken van wat het bedrijf een ‘bliksemindexer’ noemt, die alleen de meest relevante delen van de context voor elke zoekopdracht identificeert en de rest negeert.

Volgens Technisch rapport van DeepSeekDSA vermindert de inferentiekosten met ongeveer de helft in vergelijking met eerdere modellen bij het verwerken van lange reeksen. De architectuur “vermindert de rekencomplexiteit aanzienlijk terwijl de modelprestaties behouden blijven”, aldus het rapport.

Het verwerken van 128.000 tokens – ongeveer het equivalent van een boek van 300 pagina’s – kost nu ongeveer $ 0,70 per token. miljoen tokens voor decodering, vergeleken met $ 2,40 voor de vorige V3.1-Terminus-model. Dit komt overeen met een reductie van 70% op de afsluitkosten.

De 685 miljard parametermodellen ondersteunen contextvensters van 128.000 tokens, waardoor ze geschikt zijn voor het analyseren van lange documenten, codebases en onderzoekspapers. DeepSeek’s technisch rapport merkt op dat uit onafhankelijke evaluaties van lange-contextbenchmarks blijkt dat V3.2 even goed of beter presteert dan zijn voorganger, “ondanks dat er een spaarzaam aandachtsmechanisme in zit.”

De benchmarkresultaten die DeepSeek in dezelfde klasse plaatsen als GPT-5

De beweringen van DeepSeek over gelijkwaardigheid met de toonaangevende AI-systemen van Amerika berusten op uitgebreide tests op het gebied van wiskunde, coderen en redeneren – en de cijfers zijn opvallend.

Op AIME 2025een prestigieuze Amerikaanse wiskundewedstrijd, DeepSeek-V3.2-speciaal behaalde een slagingspercentage van 96,0% vergeleken met 94,6% voor GPT-5-High en 95,0% voor Gemini-3.0-Pro. Op Harvard-MIT wiskundetoernooiDe Specialty-variant scoorde 99,2% en versloeg de Gemini’s 97,5%.

De standaard V3.2-modelgeoptimaliseerd voor dagelijks gebruik, scoorde 93,1% op AIME en 92,5% op HMMT – marginaal onder grensmodellen, maar bereikt met aanzienlijk minder rekenbronnen.

Het meest opvallend zijn de wedstrijduitslagen. DeepSeek-V3.2-speciaal scoorde 35 van de 42 punten Internationale Wiskundeolympiade 2025behaalt de status van gouden medaille. Met Internationale Olympiade in de Informaticahet scoorde 492 van de 600 punten – ook goud, en werd 10e algemeen. Het model loste 10 van de 12 problemen op ICPC-wereldfinalesplaatsen tweede.

Deze resultaten kwamen zonder internettoegang of geteste tools. Het rapport van DeepSeek zegt dat “het testen nauw aansluit bij de tijd- en proeflimieten van de concurrentie.”

Wat betreft coderingsbenchmarks, DeepSeek-V3.2 loste 73,1% van de echte softwarefouten op SWE geverifieerdconcurrerend met GPT-5-High met 74,9%. Op Terminalbank 2.0waarin complexe codeerworkflows werden gemeten, scoorde DeepSeek 46,4% – ruim boven de 35,2% van GPT-5-High.

Het Bedrijf erkent beperkingen. “Tokenefficiëntie blijft een uitdaging”, stelt het technische rapport, waarbij wordt opgemerkt dat DeepSeek “doorgaans langere generatietrajecten vereist” om de uitvoerkwaliteit van Gemini-3.0-Pro te evenaren.

Waarom AI leren denken tijdens het gebruik van tools alles verandert

Naast een ruwe redenering, DeepSeek-V3.2 introduceert ’tool thinking’: het vermogen om door problemen heen te redeneren en tegelijkertijd code uit te voeren, op internet te zoeken en bestanden te manipuleren.

Eerdere AI-modellen hadden te maken met een frustrerende beperking: elke keer dat ze een externe tool aanriepen, raakten ze hun gedachtegang kwijt en moesten ze helemaal opnieuw redeneren. De architectuur van DeepSeek behoudt het redeneringsspoor over meerdere toolaanroepen, waardoor probleemoplossing in meerdere stappen vloeiend mogelijk wordt.

Om dit vermogen te trainen, bouwde het bedrijf een enorme synthetische datapijplijn die meer dan 1.800 verschillende taakomgevingen en 85.000 complexe instructies genereerde. Deze omvatten uitdagingen zoals het plannen van meerdaagse reizen met beperkte budgetten, het debuggen van software in acht programmeertalen en webgebaseerd onderzoek waarvoor tientallen zoekopdrachten nodig waren.

Het technische rapport beschrijft een voorbeeld: het plannen van een driedaagse reis vanuit Hangzhou met beperkingen op hoteltarieven, restaurantbeoordelingen en attracties die variëren op basis van accommodatiekeuzes. Dergelijke taken zijn “moeilijk op te lossen maar gemakkelijk te verifiëren”, waardoor ze ideaal zijn voor het trainen van AI-agenten.

Diepzoeken gebruikte tijdens de training tools uit de echte wereld (echte webzoek-API’s, codeeromgevingen en Jupyter-notebooks) en genereerde tegelijkertijd synthetische aanwijzingen om diversiteit te garanderen. Het resultaat is een model dat generaliseert naar onzichtbare tools en omgevingen, een cruciale mogelijkheid voor implementatie in de echte wereld.

Het open source-gamma van DeepSeek zou het bedrijfsmodel van de AI-industrie op zijn kop kunnen zetten

In tegenstelling tot OpenAI en Anthropic, die hun krachtigste modellen beschermen als bedrijfseigen activa, heeft DeepSeek beide vrijgegeven V3.2 En V3.2 Speciaal onder de MIT-licentie – een van de meest tolerante open source-frameworks die beschikbaar zijn.

Elke ontwikkelaar, onderzoeker of bedrijf kan de modellen met 685 miljard parameters zonder beperkingen downloaden, aanpassen en implementeren. Volledige modelgewichten, trainingscode en documentatie zijn aanwezig verkrijgbaar bij Knuffel Gezichthet toonaangevende platform voor het delen van AI-modellen.

De strategische implicaties zijn aanzienlijk. Door frontier-compatibele modellen gratis beschikbaar te stellen, ondermijnt DeepSeek concurrenten die premium API-prijzen vragen. In de Hugging Face-mockup wordt opgemerkt dat DeepSeek Python-scripts en testcases heeft geleverd “die demonstreren hoe berichten moeten worden gecodeerd in een OpenAI-compatibel formaat” – waardoor de migratie van concurrerende services eenvoudig wordt.

Voor zakelijke klanten is de waardepropositie overtuigend: baanbrekende prestaties tegen dramatisch lagere kosten, met flexibiliteit bij de implementatie. Maar zorgen over het bewaren van gegevens en onzekerheid over de regelgeving kunnen de acceptatie in gevoelige toepassingen beperken – vooral gezien de Chinese oorsprong van DeepSeek.

Regelgevende muren rijzen tegen DeepSeek in Europa en Amerika

De mondiale expansie van DeepSeek stuit op toenemende weerstand. In juni verklaarde de Berlijnse commissaris voor gegevensbescherming, Meike Kamp, dat de overdracht van Duitse gebruikersgegevens door DeepSeek naar China “illegaal” onder EU-regels, waarbij Apple en Google worden gevraagd om te overwegen de app te blokkeren.

De Duitse autoriteit uitte zijn bezorgdheid over het feit dat “de Chinese autoriteiten uitgebreide toegangsrechten hebben tot persoonlijke gegevens binnen de invloedssfeer van Chinese bedrijven.” Italië heeft DeepSeek daartoe opdracht gegeven blokkeer de app in februari. Amerikaanse wetgevers zijn overgestapt de dienst verbieden van overheidsapparatuur die bezorgdheid over de nationale veiligheid aanhaalt.

Er blijven ook vragen over de Amerikaanse exportcontroles die bedoeld zijn om de Chinese AI-capaciteiten te beperken. In augustus suggereerde DeepSeek dat China binnenkort “volgende generatie“in eigen land gebouwde chips ter ondersteuning van zijn modellen. Het bedrijf verklaarde dat zijn systemen werken met in China gemaakte chips van Huawei En Cambricon zonder extra instellingen.

Het originele V3-model van DeepSeek werd naar verluidt getraind op ongeveer 2.000 ouderen Nvidia H800-chips — hardware sindsdien beperkt tot Chinese export. Het bedrijf heeft niet bekendgemaakt wat de drijvende kracht achter de V3.2-training was, maar de voortdurende vooruitgang suggereert dat exportcontroles alleen de Chinese AI-vooruitgang niet kunnen tegenhouden.

Wat de release van DeepSeek betekent voor de toekomst van de AI-concurrentie

De release komt op een cruciaal moment. Na jaren van enorme investeringen vragen sommige analisten zich af of er zich een AI-zeepbel aan het vormen is. Het vermogen van DeepSeek om Amerikaanse grensmodellen te evenaren tegen een fractie van de kosten daagt de veronderstelling uit dat AI-leiderschap enorme kapitaaluitgaven vereist.

Het bedrijf technisch rapport blijkt dat de investeringen in gebruik nu meer dan 10% van de kosten vóór gebruik bedragen – een aanzienlijke toewijzing die wordt toegeschreven aan terreinverbeteringen. Maar DeepSeek erkent lacunes: “De breedte van de wereldkennis in DeepSeek-V3.2 blijft nog steeds achter bij toonaangevende propriëtaire modellen”, aldus het rapport. Het bedrijf is van plan dit aan te pakken door pre-training computing op te schalen.

DeepSeek-V3.2-speciaal blijft beschikbaar via een tijdelijke API tot 15 december, wanneer de mogelijkheden ervan zullen worden samengevoegd met de standaardrelease. De Speciale variant is uitsluitend ontworpen voor diepgaande redenering en ondersteunt geen tooloproepen – een beperking die het standaardmodel aanpakt.

Voorlopig is de AI-race tussen de VS en China een nieuwe fase ingegaan. De release van DeepSeek laat zien dat open source-modellen baanbrekende prestaties kunnen leveren, dat efficiëntie-innovaties de kosten dramatisch kunnen verlagen, en dat de krachtigste AI-systemen binnenkort gratis beschikbaar kunnen zijn voor iedereen met een internetverbinding.

Zoals een commentator op X opmerkte: “Deepseek die zomaar terloops deze historische benchmarks van Gemini overtreedt, is gek.”

De vraag is niet langer of de Chinese kunstmatige intelligentie kan concurreren met Silicon Valley. Het gaat erom of Amerikaanse bedrijven hun voorsprong kunnen behouden als hun Chinese rivaal vergelijkbare technologie gratis weggeeft.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in