De snelle adoptie door bedrijven van kunstmatige-intelligentietools voor het schrijven van software stimuleert de vraag naar systemen die ervoor zorgen dat de code die deze tools produceren niet vol zit met bugs en beveiligingsfouten.
Opstarten Antithesis kondigde woensdag een financieringsronde van $105 miljoen aan onder leiding van handelsfirma Jane Street, de laatste in een reeks softwaretest- en beveiligingsgroepen die dit jaar kapitaal willen aantrekken.
Will Wilson, medeoprichter en CEO van Antithesis, zei: “Iedereen adopteert AI codeerhulpmiddelen. . . zal een enorme hoeveelheid software opleveren. . . en zet de huidige aanpak van softwaretesten en softwarevalidatie onder enorme druk”.
De investering van Jane Street laat zien hoe gebruikers van ‘vibe coding’-tools – die software schrijven met weinig of geen menselijk toezicht – zich steeds meer zorgen maken over kostbare fouten die zich kunnen verbergen in de door AI gegenereerde code.
“Het is geen toeval dat Jane Street een enorme gebruiker is van AI-codering”, aldus Wilson.
Het kwantitatieve handelsbedrijf maakt gebruik van maatwerksoftware lucratieve weddenschappen over de financiële markten heen. Het behoort tot de grootste klanten van Antithesis en werd volgens de bedrijven gevraagd om de ronde te leiden.
Jane Street heeft ook belangen in AI-groepen Anthropic en Thinking Machines Lab. Doug Patti, een software-ingenieur bij het bedrijf, zei dat de technologie van Antithesis “(Jane Street) heeft geholpen problemen aan het licht te brengen die geen enkele andere testmethode kon vinden”.
Technologiegroepen van Microsoft, Google en Nvidia tot Coinbase en Klarna hebben het afgelopen jaar het gebruik van AI-tools zoals Claude Code van Anthropic, Cursor van Anysphere en Lovable omarmd en beweerden dat ze de productiviteit van hun ontwikkelaars een boost hebben gegeven.
Uit een recent onderzoek van Gartner onder software-ingenieurs bleek dat bijna tweederde van de organisaties AI-coderingsassistenten in een of andere vorm gebruikte.
Start-ups met AI-codering hebben dat wel miljarden opgehaald van dollars omdat investeerders hen steunen als een toonaangevende praktische toepassing van kunstmatige intelligentie voor bedrijven. De waardering van Anysphere is gestegen van $2,5 miljard. begin 2025 tot 29 miljard dollar. vorige maand, waardoor het een van de snelstgroeiende startups ooit is.
Startups als Antithesis, die beloven deze door AI gegenereerde software te gaan onderzoeken, trekken nu ook investeringen aan.
In mei haalde het in New York gevestigde OX Security $60 miljoen op bij investeerders, waaronder Microsoft en IBM Ventures, om zijn ‘VibeSec’-beveiligingstestsysteem op te schalen. Endor Labs uit Palo Alto heeft $93 miljoen opgehaald. in april na het uitbrengen van een tool die door bedrijven – waaronder OpenAI – wordt gebruikt om op bugs te testen en oplossingen voor te stellen of te maken.
Antithesis test software door een simulatie te maken van het IT-systeem van een bedrijf en de nieuwe code bloot te stellen aan geautomatiseerd gebruikersgedrag dat maanden zou duren om in de echte wereld te testen.
Gartner voorspelt dat de Amerikaanse markt voor het testen van applicatiebeveiliging zal groeien tot $5,1 miljard. dit jaar een stijging van $3,4 miljard. in 2023, omdat uit sommige onderzoeken blijkt dat code die door AI-systemen wordt geschreven, foutgevoelig is.
“De problemen met vibe-codering komen voort uit de enorme hoeveelheid code die ze produceren”, zegt Michael Fertik, een vroege investeerder in Anysphere die ook Modelcode.ai beheert, een start-up die generatieve AI gebruikt om verouderde applicaties te herschrijven. “AI produceert 10.000 keer meer code dan welk mens dan ook per jaar, dus de risico’s worden groter en vermenigvuldigd.”
Die uitdaging is groter wanneer AI-codering wordt gebruikt in de labyrintische IT-systemen waar veel grote bedrijven op vertrouwen, waar kleine veranderingen een onvoorziene waterval van problemen kunnen veroorzaken.
Uit het testen van tientallen geavanceerde AI-modellen voor 80 codeertaken door Veracode, een bedrijf dat applicatiebeveiligingstools maakt, is gebleken dat bijna de helft van de door AI gegenereerde software beveiligingsfouten bevatte.
Een andere studie gepubliceerd in het tijdschrift Empirical Software Engineering in december 2024 vond kwetsbaarheden in minstens de helft van de programma’s gegenereerd door de destijds beschikbare AI-modellen van OpenAI, Google en Meta.
“Hoewel (grote taalmodellen) nuttig kunnen zijn voor het automatiseren van eenvoudige taken… is het direct opnemen van dergelijke codes in productiesoftware zonder toezicht van ervaren software-ingenieurs onverantwoord en moet worden vermeden”, schreven onderzoekers in de krant.
AI-programmeersystemen blijven verbeteren, maar zelfs vroege voorstanders beginnen alarm te slaan over de betrouwbaarheid van deze systemen.
Andrej Karpathy, de invloedrijke voormalige OpenAI- en Tesla AI-onderzoeker die in februari de term ‘vibe coding’ bedacht, zei dat hij geloofde dat deze op AI gebaseerde systemen de beloften van hun makers niet waarmaakten.
“Ik heb het gevoel dat de industrie een te grote sprong maakt en probeert te doen alsof dit geweldig is, maar dat is het niet. Het is slordig”, zei Karpathy, waarbij hij een pejoratieve term gebruikte voor nutteloos of laagwaardig door AI gegenereerd materiaal.
“We bevinden ons in deze tussenfase”, vertelde hij Dwarkesh-podcast in oktober. “De modellen zijn geweldig (maar) er is nog veel werk nodig.”
Antithesis’ Wilson vergeleek de opkomst van AI-codering met de offshore-outsourcingtrend van de jaren negentig en het begin van de jaren 2000, waar het vroege enthousiasme voor het verplaatsen van softwareontwikkeling naar locaties met lagere lonen werd ondermijnd door ‘de kosten om te vertellen of de software die u ontving precies doet wat u wilde dat het zou doen.’
Josh Albrecht, mede-oprichter van Imbue, dat een tool aanbiedt die codeerassistenten coördineert, zei dat AI-systemen, als ze correct worden gebruikt, “veel robuustere code kunnen schrijven dan in het verleden”.
“Het probleem komt doordat iemand die dit doet de softwaretechnologie niet echt begrijpt. Dat is waar je de beveiligingsproblemen krijgt”, zei hij.
Aanbieders van AI-codering beginnen het probleem zelf aan te pakken. In augustus voegde Anthropic geautomatiseerde beveiligingsbeoordelingen toe aan Claude Code.
Sommigen in de sector zien een groot deel van de inkomsten uit het beveiligen van door AI gegenereerde software uiteindelijk terugvloeien naar bedrijven als Anthropic, OpenAI en Google, die de basismodellen ontwikkelen waarop vibe-coderingstools zijn gebouwd.
“Kwetsbaarheden gebeuren sneller dankzij AI, en we verkopen software om die kwetsbaarheden sneller uit te roeien dankzij AI”, zegt Dipto Chakravarty, hoofd product en technologie bij Black Duck, een applicatiebeveiligingsbedrijf.



