Woensdag kwamen berichten naar voren dat het Witte Huis dat wel is voorbereiding van een uitvoeringsbesluit federale instanties opdracht geven om AI-regelgeving op staatsniveau aan te vechten of te blokkeren.
Ondernemer uit Seattle Joe Braidwood ziet het nieuws als een grote kans.
Braidwood is de CEO en mede-oprichter van Ijsjeeen nieuwe startup, ondersteund door de AI2 Incubator, die software bouwt om bedrijven te helpen bewijzen dat hun AI-beveiligingsmaatregelen presteren zoals bedoeld. Glacis creëert fraudebestendige ‘bewijzen’ voor elke AI-beslissing, waardoor bedrijven kunnen bewijzen dat hun beveiligingssystemen daadwerkelijk hebben gewerkt.
“Zie het als een vluchtrecorder voor zakelijke AI”, zei Braidwood.
Braidwood zei dat het mogelijke bevel van het Witte Huis om de AI-wetten van de staat te blokkeren, Glacis transformeert van een startup die net van de grond komt in een ‘infrastructuurnoodzaak’. In een omgeving waarin het ministerie van Justitie staten zou aanklagen die AI-regels aannemen, zou een neutrale, platform-agnostische vertrouwenslaag steeds relevanter kunnen worden.
De oorsprong van Glacis is geworteld in de complexiteit van regelgeving.
Braidwood, een oude tech-marketingmanager, heeft onlangs Yara gesloten, zijn eenjarige startup die AI wilde gebruiken om het mentale welzijn te verbeteren. Hij haalde de regels uit Illinois aan die AI-therapie ‘effectief onverzekerbaar’ maakten.
In één LinkedIn-bericht dat sindsdien viraal is gegaan, legde Braidwood de beslissing uit om Yara te sluiten en een reeks beveiligingsrichtlijnen die hij had ontwikkeld open source te maken.
Hij schreef dat Yara sloot nadat hij zich realiseerde dat kunstmatige intelligentie ‘gevaarlijk’ werd bij de interactie met mensen die te maken kregen met diepe trauma’s of zelfmoordgedachten – en niet alleen ontoereikend. De ervaring, zei hij, liet zien ‘waar de grenzen moeten liggen’ en liet zien hoe startups die in AI-categorieën met een hoog risico werken, te maken krijgen met onbeheersbare verantwoordelijkheden en regeldruk.
Na de post namen toezichthouders, artsen, ingenieurs, oprichters en verzekeringsmanagers contact op. Velen wezen op hetzelfde probleem: wanneer AI-systemen beslissingen nemen, kan niemand onafhankelijk verifiëren of het beveiligingsbeleid daadwerkelijk is geactiveerd.
Die helderheid werd het zaad van Glacis.
Elke keer dat een AI-model een vraag beantwoordt of een actie onderneemt, maakt Glacis een ondertekend record met de invoer, uitgevoerde beveiligingscontroles en de uiteindelijke beslissing. Het record kan niet worden gewijzigd en het genereren ervan duurt minder dan 50 milliseconden. Toezichthouders en verzekeraars kunnen deze bonnen verifiëren zonder enige persoonlijke gegevens te zien, en Braidwood zei dat verzekeraars denken dat dit het eindelijk mogelijk zou kunnen maken om AI-systemen te verzekeren die kunnen bewijzen dat ze de regels hebben gevolgd.
Braidwood richtte Glacis op samen met Dr. Jennifer Shannoneen psychiater en adjunct-professor aan de Universiteit van Washington.
Het bedrijf bevindt zich momenteel in een private bètafase met digitale zorgklanten, waaronder nVoq, en richt zich op de gezondheidszorg-, fintech- en verzekeringssector. Het maakt ook deel uit van het Launchpad-programma van Cloudflare.
Braidwood was voorheen hoofd strategie bij Vektor Medical. Hij was ook medeoprichter van het sociale tv-platform Scener en was chief marketing officer bij SwiftKey.
Shannon is al bijna twintig jaar psychiater. Ze was ook medisch directeur bij Cognoa en is lid van de AI Resource Committee van de American Academy of Child and Adolescent Psychiatry.



