Home Nieuws Anthropic treedt hard op tegen ongeoorloofd gebruik van Claude door harnassen en...

Anthropic treedt hard op tegen ongeoorloofd gebruik van Claude door harnassen en rivalen van derden

14
0
Anthropic treedt hard op tegen ongeoorloofd gebruik van Claude door harnassen en rivalen van derden

Anthropic heeft de implementatie bevestigd van strikte nieuwe technische beveiligingsmaatregelen die voorkomen dat applicaties van derden zijn officiële codeerclient, Claude Code, vervalsen om toegang te krijgen tot de onderliggende Claude AI-modellen voor gunstiger prijzen en beperkingen – een stap die de workflows voor gebruikers van de populaire open source codeeragent OpenCode heeft verstoord.

Tegelijkertijd, maar afzonderlijk, heeft het het gebruik van zijn AI-modellen door concurrerende laboratoria, waaronder xAI (via de geïntegreerde ontwikkelaarsomgeving Cursor) beperkt om concurrerende systemen te trainen voor Claude Code.

De eerdere actie werd vrijdag verduidelijkt door Thariq Shihipar, een lid van de technische staf bij Anthropic die aan Claude Code werkt.

Schrijven op het sociale netwerk X (voorheen Twitter), zei Shihipar dat het bedrijf “onze veiligheidsmaatregelen had aangescherpt tegen het vervalsen van het Claude Code-harnas.”

Hij erkende dat de uitrol onbedoelde veiligheidsschade had veroorzaakt, en merkte op dat sommige gebruikersaccounts automatisch werden verbannen omdat ze misbruikfilters activeerden – een fout die het bedrijf momenteel ongedaan maakt.

Het blokkeren van de integraties van derden zelf lijkt echter opzettelijk te zijn.

De maatregel is gericht op harnassen: softwarewrappers die het webgebaseerde Claude-account van een gebruiker via OAuth besturen om geautomatiseerde workflows aan te sturen.

Hierdoor worden Claude Pro/Max-consumentenabonnementen met een vaste prijs en externe codeeromgevingen effectief ontkoppeld.

Het harnasprobleem

Een harnas fungeert als brug tussen een abonnement (ontworpen voor menselijke chat) en een geautomatiseerde workflow.

Tools zoals OpenCode werken door de identiteit van de klant te vervalsen en headers te verzenden die de antropische server ervan overtuigen dat het verzoek afkomstig is van zijn eigen officiële opdrachtregelinterface (CLI).

Shihipar noemde technische instabiliteit de belangrijkste oorzaak van de blokkade en merkte op dat ongeautoriseerde harnassen fouten en gebruikspatronen introduceren die Anthropic niet goed kan diagnosticeren.

Wanneer een wrapper van derden zoals Cursor (in bepaalde configuraties) of OpenCode een bug tegenkomt, geven gebruikers vaak de schuld aan het model, wat het vertrouwen in het platform aantast.

De economische spanning: de analogie van het buffet

De ontwikkelaarsgemeenschap heeft echter gewezen op een eenvoudiger economische realiteit die ten grondslag ligt aan de beperkingen van Cursor en soortgelijke tools: de kosten.

Uitgebreid discussies op Hacker News Vanaf gisteren verzamelden gebruikers zich rond een buffet-analogie: Anthropic biedt een onbeperkt buffet aan via zijn consumentenabonnement ($200/maand voor Max), maar beperkt het verbruik via zijn officiële tool, Claude Code.

Harnassen van derden verwijderen deze snelheidslimieten. Een autonome agent die binnen OpenCode draait, kan lussen met hoge intensiteit uitvoeren (coderen, testen en debuggen van de ene op de andere dag) wat op een gemeten schaal onbetaalbaar zou zijn.

“In een maand met Claude Code is het gemakkelijk om zoveel LLM-tokens uit te geven dat het je meer dan $1.000 zou hebben gekost als je via de API had betaald”, aldus Hacker News-gebruiker dfabulich.

Door deze harnassen te blokkeren dwingt Anthropic grootschalige automatisering in de richting van twee goedgekeurde paden:

  • De commerciële API: gemeten prijzen per token die de werkelijke kosten van agentlussen vastleggen.

  • Claude Code: de beheerde omgeving van Anthropic waar ze de snelheidslimieten en de uitvoeringssandbox beheren.

Gemeenschapsspil: kat en muis

De reactie van gebruikers was snel en grotendeels negatief.

“Het lijkt erg klantvijandig”, schreef de Deense programmeur David Heinemeier Hansson (DHH), maker van het populaire Ruby on Rails open source webontwikkelingsframework. in een bericht op X.

Anderen stonden echter meer sympathiek tegenover Anthropic.

“Antropisch optreden tegen mensen die misbruik maken van de abonnementsauthenticatie is de mildste die het had kunnen zijn”, schreef Artem K aka. @banteg op Xeen ontwikkelaar geassocieerd met Yearn Finance. “gewoon een beleefd bericht in plaats van te knikken of met terugwerkende kracht API-tarieven in rekening te brengen.”

Het team achter OpenCode ging meteen aan de slag Open Code Zwarteen nieuw premiumniveau van $ 200 per maand, waarbij verkeer naar verluidt via een zakelijke API-gateway wordt geleid om OAuth-beperkingen voor consumenten te omzeilen.

Bovendien schreef OpenCode-maker Dax Raad op X dat het bedrijf zou samenwerken met Anthropic-rivaal OpenAI om gebruikers van zijn codeermodel en ontwikkelingsagent, Codex, “rechtstreeks van hun abonnement in OpenCode te laten profiteren”, en plaatste vervolgens een GIF van de onvergetelijke scène uit de film uit 2000. Gladiator toont Maximus (Russell Crowe) die aan een menigte vraagt: “Ben je niet geamuseerd?” na het afhakken van het hoofd van een tegenstander met twee zwaarden.

Voorlopig is de boodschap van Anthropic duidelijk: het ecosysteem consolideert. Of het nu gaat om wetshandhaving (zoals te zien is bij het gebruik van Cursor door xAI) of om technische veiligheidsmaatregelen, het tijdperk van onbelemmerde toegang tot Claude’s redeneringen loopt ten einde.

De xAI-situatie en de markerverbinding

Samen met het technische optreden hebben ontwikkelaars van het rivaliserende AI-lab xAI van Elon Musk naar verluidt de toegang tot de Claude-modellen van Anthropic verloren. Hoewel de timing een uniforme strategie suggereert, geven bronnen die bekend zijn met de zaak aan dat dit een afzonderlijke handhavingsactie is, gebaseerd op commerciële voorwaarden, waarbij Cursor een centrale rol speelt bij de ontdekking.

Zoals voor het eerst gemeld door technologiejournalist Kylie Robison van de publicatie KerngeheugenxAI-medewerkers hadden antropische modellen gebruikt – met name via de Cursor IDE – om hun eigen ontwikkeling te versnellen.

“Hallo team, ik denk dat velen van jullie al hebben ontdekt dat antropische modellen niet reageren op Cursor”, schreef xAI-medeoprichter Tony Wu woensdag in een memo aan het personeel, volgens Robison. “Volgens Cursor is dit een nieuw beleid dat Anthropic afdwingt voor al zijn grote concurrenten.”

Rubriek D.4 (Gebruiksbeperkingen) moet echter worden verwijderd De commerciële servicevoorwaarden van Anthropic verbiedt Klanten uitdrukkelijk de Services te gebruiken om:

(a) toegang krijgen tot de Services om een ​​concurrerend product of dienst te bouwen, inclusief het trainen van concurrerende AI-modellen… (of) (b) de Services reverse-engineeren of dupliceren.

In dit geval fungeerde Cursor als voertuig voor de inbreuk. Hoewel de IDE zelf een legitiem instrument is, veroorzaakte het specifieke gebruik ervan door xAI om Claude uit te buiten voor competitief onderzoek de juridische blokkade.

Precedent voor het blok: OpenAI en windsurf-cutoffs

De beperking van xAI is niet de eerste keer dat Anthropic zijn servicevoorwaarden of infrastructuurcontroles gebruikt om een ​​grotere concurrent of tool van derden uit te sluiten. De acties van deze week volgen een duidelijk patroon dat in heel 2025 is vastgesteld, waarin Anthropic agressief optrad om zijn intellectuele eigendomsrechten en computerbronnen te beschermen.

In augustus 2025 heeft het bedrijf dat gedaan heeft de toegang van OpenAI tot de Claude API ingetrokkenonder opvallend vergelijkbare omstandigheden. Bronnen zeiden De kabel dat OpenAI Claude had gebruikt om zijn eigen modellen te benchmarken en beveiligingsreacties te testen – een praktijk die Anthropic markeerde als een schending van zijn concurrentiebeperkingen.

“Claude Code is de voorkeurskeuze geworden van programmeurs overal ter wereld, dus het was geen verrassing om te horen dat OpenAI’s eigen technische staf ook onze codeertools gebruikte”, zei een woordvoerder van Anthropic destijds.

Enkele maanden daarvoor, in juni 2025, werd de codeergemeenschap Windsurf geconfronteerd met een soortgelijke plotselinge black-out. In één publieke verklaringonthulde het Windsurf-team dat “Anthropic ons met een opzegtermijn van minder dan een week heeft laten weten dat ze bijna al onze first-party mogelijkheden afsnijden” voor de Claude 3.x-modelfamilie.

Deze stap dwong Windsurf om de directe toegang voor gratis gebruikers onmiddellijk te verwijderen en over te stappen op een “Bring-Your-Own-Key” (BYOK) -model, terwijl Google’s Gemini werd gepromoot als een stabiel alternatief.

Terwijl Windsurf uiteindelijk weken later de first-party toegang voor betaalde gebruikers herstelde, versterkt het incident – ​​in combinatie met de OpenAI-terugroepactie en nu het xAI-blok – een rigide grens in de AI-wapenwedloop: hoewel laboratoria en tools naast elkaar kunnen bestaan, behoudt Anthropic zich het recht voor om de verbinding te verbreken zodra het gebruik ervan zijn concurrentievoordeel of bedrijfsmodel in gevaar brengt.

De katalysator: de virale opkomst van ‘Claude Code’

De timing van beide onderdrukkingen is onlosmakelijk verbonden met de enorme stijging in populariteit van Claude Code, de oorspronkelijke terminalomgeving van Anthropic.

Terwijl Claude Code werd oorspronkelijk begin 2025 uitgebrachtgebruikte het het grootste deel van het jaar als een nichetool. Het echte doorbraakmoment kwam pas in december 2025 en de eerste dagen van januari 2026 – minder gedreven door officiële updates en meer door de door de gemeenschap geleide Het fenomeen “Ralph Wiggum”..

Vernoemd naar de vage exemplaren De Simpsons karakter, maakte de Ralph Wiggum-plug-in een methode van “brute force” -codering populair. Door Claude op te sluiten in een zelfherstellende lus waarin fouten worden teruggekoppeld naar het contextvenster totdat de code de tests doorstaat, bereikten ontwikkelaars resultaten die verrassend dicht bij AGI leken.

Maar de huidige controverse gaat niet over het feit dat gebruikers de toegang verliezen tot de Claude Code-interface – wat veel ervaren gebruikers feitelijk beperkend vinden – maar eerder over de onderliggende engine, het Claude Opus 4.5-model.

Door de officiële Claude Code-client te spoofen, konden ontwikkelaars met tools als OpenCode het krachtigste redeneermodel van Anthropic gebruiken voor complexe, autonome loops tegen een vast abonnementstarief, waardoor het verschil tussen consumentenprijzen en bedrijfsinformatie effectief werd bemiddeld.

Zoals ontwikkelaar Ed Andersen op X schreef, kan een deel van de populariteit van Claude Code te danken zijn aan mensen die het op deze manier hebben nagebootst.

Het is duidelijk dat de hoofdgebruikers het op grote schaal wilden gebruiken zonder bedrijfsprijzen te betalen. De nieuwe handhavingsacties van Anthropic zijn een directe poging om deze op hol geslagen claim terug te sturen naar de gesanctioneerde, duurzame kanalen.

Takeaways voor zakelijke ontwikkelaars

Voor senior AI-ingenieurs die zich richten op orkestratie en schaalbaarheid vereist deze verschuiving een onmiddellijke herarchitectuur van pijpleidingen om prioriteit te geven aan stabiliteit boven ruwe kostenbesparingen.

Hoewel tools als OpenCode een aantrekkelijk, solide alternatief boden voor zware automatisering, blijkt uit het harde optreden van Anthropic dat deze ongeautoriseerde wrappers niet-diagnostische bugs en instabiliteit introduceren.

Om de modelintegriteit te garanderen, moeten alle geautomatiseerde agenten nu via de officiële Commercial API of de Claude Code-client worden geleid.

Zakelijke besluitvormers moeten er daarom rekening mee houden: hoewel open source-oplossingen wellicht betaalbaarder en verleidelijker zijn, is de toegang niet altijd gegarandeerd als ze worden gebruikt om toegang te krijgen tot bedrijfseigen AI-modellen zoals Anthropics.

Deze transitie maakt een hervoorspelling van de operationele budgetten noodzakelijk – door over te stappen van voorspelbare maandelijkse abonnementen naar variabele facturering per token – maar uiteindelijk zorgt financiële voorspelbaarheid ervoor dat er een ondersteunde, productieklare omgeving ontstaat.

Vanuit een veiligheids- en nalevingsperspectief legt de gelijktijdige blokkering van xAI en open source-tools de kritieke kwetsbaarheid van “Shadow AI” bloot.

Wanneer technische teams persoonlijke accounts of valse tokens gebruiken om bedrijfscontroles te omzeilen, riskeren ze niet alleen technische schulden, maar ook een plotseling verlies van toegang tot de hele organisatie.

Beveiligingsdirecteuren moeten nu interne toolchains controleren om ervoor te zorgen dat geen enkele ‘dogfooding’ van concurrerende modellen in strijd is met commerciële voorwaarden en dat alle geautomatiseerde workflows worden geverifieerd via de juiste bedrijfssleutels.

In dit nieuwe landschap moet de betrouwbaarheid van de officiële API de kostenbesparingen van niet-geautoriseerde tools overtroeven, omdat het operationele risico van een totaal verbod ruimschoots opweegt tegen de kosten van een goede integratie.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in