- Anthropic heeft zijn belofte ingetrokken om geen AI-modellen te trainen of vrij te geven zonder vooraf gegarandeerde veiligheidsbeperkingen
- Het bedrijf zal nu vertrouwen op transparantierapporten en veiligheidsroutekaarten in plaats van op strikte aannames
- Critici beweren dat de verschuiving de grenzen laat zien van vrijwillige AI-veiligheidsverplichtingen zonder bindende regelgeving
Antropisch heeft formeel afstand gedaan van de belangrijkste belofte om grensoverschrijdende AI-systemen niet te trainen of vrij te geven, tenzij het vooraf voldoende beveiliging kan garanderen. Het bedrijf erachter Claude bekrachtigde het besluit onder a interview met TijdHet betekende het einde van een beleid dat het ooit onder AI-ontwikkelaars had onderscheiden. Het onlangs herziene beleid voor verantwoorde schaalvergroting is er meer op gericht ervoor te zorgen dat het bedrijf concurrerend blijft naarmate de AI-markt warmer wordt.
Jarenlang heeft Anthropic deze belofte geformuleerd als bewijs dat het bestand zou zijn tegen de commerciële druk die concurrenten ertoe aanzette steeds krachtigere systemen te leveren. Het beleid verhinderde effectief dat de situatie zich voorbij bepaalde niveaus bewoog, tenzij er al vooraf gedefinieerde waarborgen waren getroffen. Nu gebruikt Anthropic een flexibeler raamwerk in plaats van categorische breuken.
Het bedrijf benadrukt dat de verandering eerder pragmatisch dan ideologisch is. Leidinggevenden betogen dat eenzijdige terughoudendheid niet langer zinvol is in een markt die wordt gekenmerkt door snelle iteratie en geopolitieke urgentie. Maar de verschuiving voelt als een keerpunt in de manier waarop de AI-industrie over zelfregulering denkt.
Onder het nieuwe beleid voor verantwoorde schaalvergroting verbindt Anthropic zich ertoe gedetailleerde ‘Border Security Roadmaps’ te publiceren waarin de geplande veiligheidsmijlpalen worden uiteengezet, samen met regelmatige ‘Risicorapporten’ waarin de modelmogelijkheden en potentiële bedreigingen worden beoordeeld. Het bedrijf zegt ook dat het de veiligheidsinspanningen van de concurrentie zal evenaren of overtreffen en de ontwikkeling zal vertragen als het gelooft dat het toonaangevend is en aanzienlijke catastrofale risico’s identificeert. Wat het niet langer zal doen, is beloven te stoppen met trainen totdat alle remedies op voorhand gegarandeerd zijn.
Dagelijkse gebruikers merken mogelijk geen veranderingen op bij interactie met Claude of andere AI-tools. Maar de vangrails die bepalen hoe deze systemen worden getraind, beïnvloeden alles, van nauwkeurigheid tot frauduleus misbruik. Wanneer het bedrijf, eenmaal gedefinieerd door zijn strikte aannames, besluit dat deze termen niet langer bruikbaar zijn, duidt dit op een bredere herijking binnen de sector.
Claude-controle
Toen Anthropic in 2023 zijn oorspronkelijke beleid introduceerde, hoopten sommige leidinggevenden dat dit rivalen zou inspireren of zelfs mogelijke regelgeving zou bevorderen. Het momentum van de regelgeving is nooit werkelijkheid geworden. De federale AI-wetgeving blijft vastlopen, en het bredere politieke klimaat heeft zich afgewend van de ontwikkeling van enig raamwerk. Bedrijven moeten kiezen tussen vrijwillige terughoudendheid en concurrerend overleven.
Anthropic groeit snel en zowel de omzet als het portfolio overtreffen rivalen als OpenAI en Googlen, zelfs leuk op ChatGPT om advertenties te krijgen in een Super Bowl-advertentie. Maar het bedrijf zag de veiligheidsredline duidelijk als een obstakel voor deze groei.
Anthropic beweert dat het herziene raamwerk betekenisvolle waarborgen bevat. De nieuwe routekaarten moeten interne druk creëren om prioriteit te geven aan mitigatieonderzoek. De komende risicorapporten zijn bedoeld om een duidelijker publiek beeld te geven van hoe modelcapaciteiten tot misbruik kunnen leiden.
“Het nieuwe beleid omvat nog steeds enkele waarborgen, maar de belangrijkste belofte dat Anthropic geen modellen zou vrijgeven tenzij het vooraf adequate beveiligingsmaatregelen kon garanderen, is verdwenen”, zegt Nik Kairinos, CEO en medeoprichter van RAIDS AI, een organisatie die zich richt op onafhankelijke monitoring en risicodetectie op het gebied van AI. “Dit is precies waarom continue, onafhankelijke monitoring van AI-systemen belangrijk is. Vrijwillige toezeggingen kunnen worden herschreven. Regelgeving, ondersteund door realtime monitoring, kan dat niet.”
Kairinos merkte ook de ironie op van de 20 miljoen dollar van Anthropic een paar weken geleden aan Public First Action, een groep die congreskandidaten steunt die beloven aan te dringen op AI-veiligheidsregulering. Deze bijdrage, zo stelde hij, benadrukt de complexiteit van het huidige moment. Bedrijven kunnen pleiten voor sterkere regelgeving en tegelijkertijd hun eigen interne beperkingen herijken.
De bredere vraag waarmee de industrie wordt geconfronteerd, is of vrijwillige normen het traject van transformatieve technologieën op betekenisvolle wijze kunnen vormgeven. Anthropic probeerde zichzelf ooit te verankeren als een model van terughoudendheid. Het herziene beleid vereist dat het de concurrentie compenseert. Dit betekent niet dat de veiligheid is opgegeven, maar wel dat de volgorde van handelen is veranderd.
De gemiddelde persoon leest misschien geen verantwoord schaalbeleid of risicorapporten, maar hij leeft met de gevolgen van deze beslissingen. Anthropic betoogt dat zinvol veiligheidsonderzoek vereist dat we aan de grens blijven en daar niet afstand van doen. Of die filosofie geruststellend of verontrustend blijkt te zijn, hangt grotendeels af van iemands visie op hoe snel AI moet bewegen en hoeveel risico de samenleving bereid is te tolereren in ruil voor vooruitgang.
Volg TechRadar op Google Nieuws En voeg ons toe als voorkeursbron om ons deskundig nieuws, recensies en meningen in uw feeds te krijgen. Klik dan zeker op de knop Volgen!
En jij kunt dat natuurlijk ook Volg TechRadar op TikTok voor nieuws, recensies, video-unboxings en ontvang regelmatig updates van ons WhatsAppen Ook.


