OpenAI heeft een nieuw AI-model genaamd GPT 5.4-Cyber, maar het komt niet naar de jouwe ChatGPT. In ieder geval nog niet. In plaats daarvan geeft het bedrijf een beperkte vrijgave aan geverifieerde cyberbeveiligingstesters een blogpost dinsdag gedeeld. Deze experts zullen het model op de proef stellen om gaten en mogelijke jailbreaks te identificeren voordat het model aan het grote publiek wordt vrijgegeven.
OpenAI gebruikt feedback van deze testers om “de gedifferentieerde voordelen en risico’s van specifieke modellen te begrijpen, de weerstand tegen jailbreaks en andere vijandige aanvallen te verbeteren en de defensieve capaciteiten te verbeteren – terwijl de schade wordt beperkt”, aldus het bedrijf.
De modelrelease maakt deel uit van een uitgebreide versie van OpenAI’s Trusted Access for Cyber-programma, waarmee geverifieerde cybersecurityprofessionals en -organisaties vroegtijdig toegang kunnen krijgen tot modellen voor defensie- en preventiewerk. Dit is een veel voorkomende cyberbeveiligingspraktijk die door kunstmatige intelligentie nog waardevoller en noodzakelijker is geworden. Zowel cyberaanvallers als verdedigers zijn bewapend met AI-tools, waardoor cyberbeveiliging steeds meer een AI versus AI-landschap wordt.
Als het gaat om het beveiligen van specifieke AI-modellen, zijn de bedrijven die ze maken ervan overtuigd dat de nieuwste modellen zo gevaarlijk krachtig zijn dat ze extra beveiliging nodig hebben. Dat was de logica erachter Anthropic’s Project Glasswingvorige week bekend gemaakt. Het model van de volgende generatie van Anthropic, de Claude Mythos Preview, is blijkbaar zo krachtig dat het bedrijf zegt dat het al beveiligingskwetsbaarheden heeft gevonden “in alle grote besturingssystemen en webbrowsers”, aldus een blogpost.
In tegenstelling tot de Claude Mythos Preview, waarvan Anthropic zei dat het een geheel nieuw model is, is OpenAI’s GPT-5.4-Cyber een verfijnde versie van zijn bestaande GPT-5.4 grote taalmodel. Het is aangepast om specifiek op cyberbeveiliging te focussen en heeft lagere vangrails voor beveiligingstaken. Kortom, GPT-5.4-Cyber zal minder snel weigeren een risicovolle cybersecurity-gerelateerde taak uit te voeren dan de normale versies van GPT-5.4. Dat is zodat experts kunnen zien of en hoe het door slechte acteurs kan worden bewapend.
De timing van GPT 5.4-Cyber is waarschijnlijk niet toevallig. Dit is het nieuwste hoofdstuk in de voortdurende strijd om dominantie tussen OpenAI en Anthropic. De bedrijven zijn het hele jaar met elkaar in botsing gekomen om te bewijzen dat hun AI-modellen het meest capabel zijn, vooral na overheids- en bedrijfscontracten. Anthropic begon de race met zijn Claude Cowerk En Code instrumenten die oude technologiebedrijven (en hun aandelenkoersen) uit balans brachten met hun vaardigheden als makelaar. OpenAI volgde snel met verbeteringen zijn Codex-coderingsplatform en modellen, doodt zijn AI-video-app Sora om de middelen van het bedrijf te heroriënteren.



.png)