Terwijl Silicon Valley debatteert over zeepbellen, benchmarks en wie het slimste model heeft, heeft Anthropic zich geconcentreerd op het oplossen van problemen die zelden een hype veroorzaken maar uiteindelijk de adoptie bepalen: of AI kan erop vertrouwen dat het binnen de meest gevoelige systemen ter wereld functioneert.
Anthropic staat bekend om zijn security-first en Claude-familie van grote taalmodellen (LLM’s) en plaatst zijn grootste strategische weddenschappen daar waar AI-optimisme de neiging heeft het snelst in te storten, dat wil zeggen gereguleerde industrieën. In plaats van Claude als een consumentenproduct te beschouwen, heeft het bedrijf zijn modellen gepositioneerd als de kerninfrastructuur van de onderneming: software die naar verwachting uren, soms dagen, zal draaien in gezondheidszorgsystemen, verzekeringsplatforms en regelgevingspijplijnen.
“Vertrouwen maakt implementatie op schaal mogelijk”, zegt Daniela Amodei, medeoprichter en president van Anthropic. Snel bedrijf in een exclusief interview. “In gereguleerde sectoren is de vraag niet alleen welk model het slimste is, maar ook welk model je daadwerkelijk kunt vertrouwen en of het bedrijf erachter een verantwoordelijke langetermijnpartner zal zijn.”
Die filosofie kreeg concrete vorm op 11 januari, toen Anthropic Claude for Healthcare and Life Sciences lanceerde. De release breidde eerdere levenswetenschappelijke tools uit die waren ontworpen voor klinische onderzoeken, en voegde ondersteuning toe voor vereisten als HIPAA-ready infrastructuur en human-in-the-loop escalatie, waardoor de modellen beter geschikt zijn voor gereguleerde workflows waarbij beschermde gezondheidsinformatie betrokken is.
“Wij gaan waar het werk zwaar is en de inspanning reëel”, zegt Amodei. “Wat ons boeit is het vergroten van de expertise: een arts die een moeilijke casus overdenkt, een onderzoeker die een hypothese stresstest. Dit zijn momenten waarop een doordachte AI-partner het werk echt kan versnellen. Maar dat werkt alleen als het model nuances begrijpt, en niet alleen patroonovereenkomsten op basisniveau.”
Dezelfde gedachte ging naar Cowork, een nieuwe agent AI-functie die op 12 januari door Anthropic werd uitgebracht. Claude Cowork is ontworpen voor algemene kenniswerkers en kan worden gebruikt zonder expertise op het gebied van coderen. Hij kan zelfstandig taken in meerdere stappen uitvoeren op de computer van een gebruiker: bestanden ordenen, onkostendeclaraties genereren op basis van bonnenafbeeldingen, of documenten opstellen op basis van verspreide aantekeningen. Volgens rapporten versterkte de lancering onbedoeld de bezorgdheid van de markt en investeerders over de levensvatbaarheid van software-as-a-service-bedrijven; velen begonnen de veerkracht van terugkerende software-inkomsten in twijfel te trekken in een wereld waar AI-agenten voor algemene doeleinden indien nodig aangepaste tools kunnen genereren.
Het meest virale product van Anthropic, Claude Code, heeft dit ongemak versterkt. De agentic tool kan helpen bij het sneller schrijven, debuggen en beheren van code met behulp van aanwijzingen in natuurlijke taal en heeft een aanzienlijke impact gehad onder ingenieurs en hobbyisten. Gebruikers melden dat ze alles hebben gebouwd aangepaste MR-viewers naar automatiseringssystemen helemaal bij Claude.
De afgelopen drie jaar is de omzet van het bedrijf gegroeid van $87 miljoen eind 2023 naar iets minder dan $1 miljard eind 2024 en naar $9 miljard plus eind 2025. “Die groei weerspiegelt dat bedrijven, startups, ontwikkelaars en powerusers Claude dieper hebben geïntegreerd met de manier waarop zij dit werk feitelijk hebben gedaan in een deel van ons werk”, zegt Amodi.
Vertrouwen opbouwen in de meest veeleisende zakelijke omgevingen
Volgens één rapport medio 2025 Volgens durfkapitaalbedrijf Menlo Ventures zullen de AI-uitgaven in de gezondheidszorg in 2025 1,4 miljard dollar bedragen, een bijna verdrievoudiging van het totaal ten opzichte van 2024. Uit het rapport blijkt ook dat gezondheidszorgorganisaties AI 2,2 keer sneller adopteren dan de bredere economie. De grootste uitgavencategorieën omvatten klinische documentatie, goed voor 600 miljoen dollar, en automatisering van codering en facturering, voor 450 miljoen dollar.
De snelst groeiende segmenten weerspiegelen echter waar de operationele druk het meest acuut is, zoals de betrokkenheid van patiënten, waar de uitgaven jaar na jaar vertwintigvoudigden, en voorafgaande toestemming, die in dezelfde periode vertienvoudigde. Claude for Healthcare is rechtstreeks ingebed in de workflows van laatstgenoemde en probeert tijdrovende en foutgevoelige taken op zich te nemen, zoals het beoordelen van claims, zorgcoördinatie en documentatie van regelgeving.
Claude for Life Sciences heeft een soortgelijk patroon gevolgd. Anthropic heeft de integraties met Medidata, ClinicalTrials.gov, Benchling en bioRxiv uitgebreid, waardoor Claude kan opereren in het beheer van klinische onderzoeken en de synthese van wetenschappelijke literatuur. Het bedrijf heeft ook de vaardigheden van agenten geïntroduceerd voor protocolontwerp, pijplijnen voor bio-informatica en analyse van lacunes in de regelgeving.
Klanten zijn onder meer Novo Nordisk, Banner Health, Sanofi, Stanford Healthcare en Eli Lilly. Volgens Anthropic meldde ruim 85% van de 22.000 providers bij Banner Health dat ze sneller en nauwkeuriger werkten met behulp van door Claude ondersteunde workflows. Anthropic meldt ook dat interne teams bij Novo Nordisk de tijdlijnen voor klinische documentatie hebben teruggebracht van meer dan twaalf weken naar slechts enkele minuten.
Amodei voegt eraan toe dat wat haar het meest verbaasde, was hoe snel praktijkmensen hun relatie met de AI-modellen van het bedrijf op hun eigen voorwaarden definieerden.
“Ze laten beslissingen niet aan Claude over”, zegt ze. “Ze integreren het op heel specifieke manieren in hun workflows – door literatuur te synthetiseren, patiëntcommunicatie op te stellen, hun redenering te doorbreken – en vervolgens hun eigen oordeel toe te passen. Het is precies het soort samenwerking waar we op hoopten. Maar eerlijk gezegd kwamen ze er sneller dan ik had verwacht.”
Experts uit de industrie zeggen dat de aantrekkingskracht verder gaat dan pure prestaties. De bewuste nadruk van Anthropic op vertrouwen, terughoudendheid en betrouwbaarheid op de lange termijn komt naar voren als een echte concurrentiepositie in gereguleerde bedrijfssectoren.
“Deze aanpak sluit aan bij begrensde autonomie en sandbox-uitvoering, wat essentieel is voor veilige implementatie, waarbij pure snelheid vaak onaanvaardbare risico’s met zich meebrengt”, zegt Cobus Greyling, hoofdevangelist bij Kore.ai, een leverancier van zakelijke AI-platforms. Hij voegt eraan toe dat het ‘universele agent’-concept van Anthropic een derde architectonisch model voor AI-agenten introduceerde dat uitbreidt hoe autonomie veilig kan worden geïmplementeerd.
Andere AI-concurrenten bewegen zich ook agressief in de gezondheidszorg, zij het met andere prioriteiten. OpenAI debuteerde in januari 2026 met zijn gezondheidszorgaanbod, ChatGPT Health. Het product richt zich voornamelijk op brede consumenten- en eerstelijnsgebruiksscenario’s, zoals symptoomtriage en gezondheidsnavigatie buiten de openingstijden van de kliniek. Het profiteert van een grootschalige adoptie op consumentenschaal en verwerkt elke week wereldwijd meer dan 230 miljoen gezondheidsgerelateerde vragen.
Hoewel GPT Health effectief is gebleken bij generalistische taken zoals documentatieondersteuning en patiëntbetrokkenheid, wint Claude steeds meer terrein in meer gespecialiseerde domeinen die gestructureerd redeneren en strikte regelgeving vereisen – inclusief de ontdekking van geneesmiddelen en het ontwerp van klinische onderzoeken.
Greyling waarschuwt echter dat trage inkoopcycli, verankerd organisatiebeleid en strenge compliance-eisen de adoptie van AI in de gezondheidszorg, de levenswetenschappen en de verzekeringen kunnen vertragen.
“Zelfs met sterke technische prestaties in modellen als de Claude 4.5 vereist de zakelijke realiteit uitgebreide validatie, aangepaste integraties en risicomijdende belanghebbenden”, zegt hij. “De strategie kan vastlopen als de implementatietijdlijnen verder reiken dan financiële rechtvaardiging, of als kosten- en latentieproblemen zwaarder wegen dan de betrouwbaarheidswinst in de productie.”
In januari kondigde Travellers aan dat het Claude AI-assistenten en Claude Code zou inzetten voor bijna 10.000 ingenieurs, analisten en producteigenaren – een van de grootste zakelijke AI-implementaties in de verzekeringssector tot nu toe. Elke assistent is gepersonaliseerd voor de rollen van de medewerkers en verbonden met interne gegevens en realtime tools. Op dezelfde manier heeft Snowflake 200 miljoen dollar toegezegd voor gezamenlijke ontwikkeling. Salesforce integreerde Claude in gereguleerde workflows in de sector, terwijl Accenture meerjarige overeenkomsten verlengde om bedrijfsimplementaties te schalen.
AI-bubbel of buigpunt?
Sceptici beweren dat de huidige agentenhype vergelijkbaar is met eerdere automatiseringscycli: grote beloften gevolgd door een langzame institutionele acceptatie. Als de waarderingen eerder speculatie dan substantie weerspiegelen, zouden gereguleerde industrieën snel zwakke punten aan het licht moeten brengen, en Anthropic lijkt die test te accepteren. De kapitaalpositie weerspiegelt vertrouwen via een Series F van $13 miljard tegen een waardering van $183 miljard in 2025, gevolgd door berichten over een aanzienlijk grotere ronde die momenteel wordt besproken. Anthropic gokt erop dat de AI-race uiteindelijk de voorkeur zal geven aan degenen die eerst ontwerpen voor vertrouwen en verantwoordelijkheid.
“We hebben een bedrijf gebouwd waar onderzoek, producten en beleid zijn geïntegreerd. De mensen die onze modellen bouwen, werken nauw samen met mensen die bestuderen hoe ze veiliger kunnen worden gemaakt. Daardoor kunnen we snel handelen zonder bezuinigingen”, zegt Amodei. ‘In talloze industrieën staat Claude centraal in hun meest cruciale werk. Dat vertrouwen ontstaat pas als je het hebt verdiend.’



