Antropisch is gearriveerd richting één voorgestelde wet van Illinois ondersteund door OpenAI, dat AI-laboratoria zou beschermen tegen aansprakelijkheid als hun systemen worden gebruikt om grote schade aan te richten, zoals massale slachtoffers of meer dan $ 1 miljard aan materiële schade.
De strijd om het staatswetsontwerp, SB 3444, trekt nieuwe strijdlijnen tussen Anthropic en OpenAI over de manier waarop AI-technologieën geregeld moeten worden. Hoewel deskundigen op het gebied van AI-beleid zeggen dat de wetgeving slechts een kleine kans heeft om wet te worden, heeft deze niettemin politieke verdeeldheid blootgelegd tussen twee toonaangevende Amerikaanse AI-laboratoria, die steeds belangrijker zouden kunnen worden naarmate de rivaliserende bedrijven hun lobbyactiviteiten in het hele land opvoeren.
Achter de schermen heeft Anthropic gelobbyd bij staatssenator Bill Cunningham, de sponsor van SB 3444, en andere wetgevers uit Illinois om grote wijzigingen in het wetsvoorstel aan te brengen of het in de huidige vorm te beëindigen, volgens mensen die bekend zijn met de zaak. In een e-mail aan WIRED bevestigde een woordvoerder van Anthropic het verzet van het bedrijf tegen SB 3444 en zei dat het veelbelovende gesprekken heeft gevoerd met Cunningham over het gebruik van het wetsvoorstel als uitgangspunt voor toekomstige AI-wetgeving.
“Wij zijn tegen dit wetsontwerp. Goede transparantiewetgeving moet de publieke veiligheid en aansprakelijkheid garanderen voor de bedrijven die deze krachtige technologie ontwikkelen, en niet een ‘verlaat de gevangenis zonder enige aansprakelijkheid’-kaart bieden tegen enige aansprakelijkheid”, zei Cesar Fernandez, hoofd van de Amerikaanse staats- en lokale overheidsrelaties van Anthropic, in een verklaring. “We weten dat senator Cunningham veel waarde hecht aan AI-veiligheid, en we kijken ernaar uit om met hem samen te werken aan veranderingen die in plaats daarvan transparantie zullen koppelen aan echte verantwoordelijkheid om de ernstigste schade te beperken die AI-systemen op de grens kunnen veroorzaken.”
Vertegenwoordigers van Cunningham hebben niet gereageerd op een verzoek om commentaar. Een woordvoerder van de gouverneur van Illinois, JB Pritzker, stuurde de volgende verklaring: “Hoewel het kantoor van de gouverneur de vele AI-wetsvoorstellen die door de Algemene Vergadering gaan, zal monitoren en herzien, gelooft gouverneur Pritzker niet dat grote technologiebedrijven ooit een volledig schild zouden moeten hebben dat zich onttrekt aan de verantwoordelijkheid die zij zouden moeten hebben om het publieke belang te beschermen.”
De kern van het meningsverschil tussen OpenAI en Anthropic over SB 3444 komt neer op wie aansprakelijk moet zijn in het geval van een door AI mogelijk gemaakte ramp – een potentieel nachtmerrieachtig scenario waar Amerikaanse wetgevers pas onlangs mee zijn begonnen te confronteren. Als SB 3444 wordt aangenomen, zou een AI-laboratorium niet aansprakelijk zijn als een slechte actor zijn AI-model zou gebruiken om bijvoorbeeld een biowapen te maken dat honderden mensen doodt, zolang het laboratorium maar zijn eigen veiligheidskader heeft opgesteld en dit op zijn website heeft gepubliceerd.
Open AI hebben betoogd dat SB 3444 het risico op ernstige schade als gevolg van grensoverschrijdende AI-systemen verkleint en tegelijkertijd “deze technologie nog steeds in handen laat komen van mensen en bedrijven – klein en groot – in Illinois.”
De ChatGPT-maker zegt dat het heeft samengewerkt met staten als New York en Californië om een zogenaamde ‘geharmoniseerde’ aanpak voor het reguleren van AI te creëren. “Bij gebrek aan federale actie zullen we blijven samenwerken met staten – inclusief Illinois – om te werken aan een consistent veiligheidskader”, zei OpenAI-woordvoerster Liz Bourgeois in een verklaring. “We hopen dat deze staatswetten een nationaal raamwerk zullen vormen dat ervoor zal zorgen dat de Verenigde Staten het voortouw blijven nemen.”
Anthropic stelt daarentegen dat bedrijven die geavanceerde AI-modellen ontwikkelen op zijn minst gedeeltelijk verantwoordelijk moeten worden gehouden als hun technologie wordt gebruikt voor wijdverbreide maatschappelijke schade.
Sommige deskundigen zeggen dat het wetsvoorstel de bestaande regels zou ontmantelen die bedoeld zijn om bedrijven ervan te weerhouden zich slecht te gedragen. “Er bestaan al verplichtingen op het gebied van het gewoonterecht en vormen een sterke stimulans voor AI-bedrijven om redelijke stappen te ondernemen om de voorzienbare risico’s van hun AI-systemen te voorkomen”, zegt Thomas Woodside, mede-oprichter en senior beleidsadviseur bij het Secure AI Project, een non-profitorganisatie die heeft geholpen bij het ontwikkelen en pleiten voor AI-veiligheidswetten in Californië en New York. “SB 3444 zou de extreme stap zetten om de aansprakelijkheid voor ernstig letsel vrijwel te elimineren. Maar het is een slecht idee om de aansprakelijkheid te verzwakken, wat in de meeste staten de belangrijkste vorm van wettelijke aansprakelijkheid is voor reeds bestaande AI-bedrijven.”



