Grote verzekeraars willen AI-risico’s uitsluiten van bedrijfsbeleid, omdat bedrijven te maken krijgen met claims van meerdere miljarden dollars die zouden kunnen voortkomen uit de snel evoluerende technologie.
AIG, Great American en WR Berkley behoren tot de groepen die onlangs toestemming hebben gevraagd aan Amerikaanse toezichthouders om beleid aan te bieden dat aansprakelijkheid uitsluit die verband houdt met bedrijven die AI-tools inzetten, waaronder chatbots en agenten.
De onwil van de verzekeringssector om uitgebreide dekking te bieden komt doordat bedrijven zich haasten om de allernieuwste technologie te adopteren. Dit heeft al geleid tot gênante en dure fouten wanneer modellen ‘hallucineren’ of dingen verzinnen.
Een uitsluiting, zo suggereerde WR Berkley, zou claims uitsluiten die betrekking hebben op “elk daadwerkelijk of vermeend gebruik” van kunstmatige intelligentie, inclusief elk product of elke dienst die wordt verkocht door een bedrijf dat de technologie “incorporeert”.
In reactie op een verzoek van de Illinois Insurance Authority over de uitsluitingen, zei AIG in een aanvraag generatieve AI was een “veelomvattende technologie” en de mogelijkheid dat gebeurtenissen tot toekomstige claims leiden, zal “in de loop van de tijd waarschijnlijk toenemen”.
AIG vertelde de Financial Times dat het, hoewel het generatieve AI-uitsluitingen had ingediend, “geen plannen heeft om deze in dit stadium te implementeren”. Goedkeuring van de vrijstellingen zou het bedrijf in staat stellen deze later in te voeren.
WR Berkley en Great American weigerden commentaar te geven.
Verzekeraars beschouwen de output van AI-modellen steeds vaker als te onvoorspelbaar en ondoorzichtig om te verzekeren, zegt Dennis Bertram, hoofd cyberverzekeringen voor Europa bij Mozaïek. “Het is te veel een zwarte doos.”
Zelfs Mozaïek, een gespecialiseerde verzekeraar op de Lloyd’s of London Marketplace die dekking biedt voor sommige door AI ondersteunde software, heeft geweigerd de risico’s van grote taalmodellen zoals ChatGPT te aanvaarden.
“Niemand weet wie verantwoordelijk is als er iets misgaat”, zegt Rajiv Dattani, medeoprichter van Artificial Intelligence Underwriting Company, een AI-verzekerings- en audit-startup.
Deze stappen komen te midden van een groeiend aantal spraakmakende AI-geleide mislukkingen. Wolf River Electric, een zonne-energiebedrijf, klaagde Google aan wegens smaad en eiste een schadevergoeding van minstens $110 miljoen, nadat hij beweerde dat zijn AI-overzichtsfunctie ten onrechte had verklaard dat het bedrijf werd aangeklaagd door de procureur-generaal van Minnesota.
Ondertussen beval een rechtbank vorig jaar Air Canada om een korting te honoreren die was toegekend door de chatbot van de klantenservice.
Vorig jaar, Britse ingenieursgroep Arup verloor HK $ 200 miljoen ($25 miljoen) nadat fraudeurs tijdens een videoconferentie een digitaal gekloonde versie van een senior manager hadden gebruikt om financiële overboekingen te bestellen.
Aon’s cyberhoofd Kevin Kalinich zei de verzekeringssector kan zich een verlies van 400 miljoen dollar veroorloven. of $ 500 miljoen. aan één bedrijf dat agent-AI implementeerde die onjuiste prijzen of medische diagnoses opleverde.
“Wat ze zich niet kunnen veroorloven is dat een AI-aanbieder een fout maakt die uiteindelijk een verlies van 1.000 of 10.000 oplevert – een systemisch, gecorreleerd, geaggregeerd risico”, voegde hij eraan toe.
AI-hallucinaties vallen doorgaans buiten de standaard cyberdekking, die wordt veroorzaakt door inbreuken op de beveiliging of privacy. Het is waarschijnlijker dat beleid inzake zogenaamde ‘fouten en weglatingen’ op het gebied van de technologie AI-fouten dekt, maar nieuwe weglatingen kunnen de reikwijdte van de aangeboden dekking verkleinen.
Ericson Chan, Chief Information Officer van Zurich Insurance, zei dat wanneer verzekeraars andere door technologie veroorzaakte mislukkingen evalueerden, ze “gemakkelijk de verantwoordelijkheid konden identificeren”. Bij het AI-risico zijn daarentegen mogelijk veel verschillende partijen betrokken, waaronder ontwikkelaars, modelbouwers en eindgebruikers. Als gevolg hiervan zou de potentiële marktimpact van AI-gestuurde risico’s “exponentieel kunnen zijn”, zei hij.
Sommige verzekeraars zijn in actie gekomen om de rechtsonzekerheid te verduidelijken met zogenaamde ‘endorsements’ – een beleidswijziging – van AI-gerelateerde risico’s. Maar makelaars waarschuwen dat deze nauwkeurig moeten worden onderzocht, omdat dit in sommige gevallen tot minder dekking heeft geleid.
Een goedkeuring van verzekeraar QBE breidde enige dekking uit voor boetes en andere straffen onder de AI-wetgeving van de EU, die wordt beschouwd als ’s werelds strengste regime voor de ontwikkeling van de technologie.
Maar de goedkeuring, die andere verzekeraars sindsdien hebben overgenomen, beperkte de uitbetalingen voor boetes die voortvloeien uit het gebruik van kunstmatige intelligentie tot 2,5 procent van de totale polislimiet, aldus een grote makelaar.
QBE vertelde de Financial Times dat het “de potentiële kloof (in AI-gerelateerde risico’s) heeft aangepakt die mogelijk niet door andere verzekeringen wordt gedekt”.
In gesprekken met makelaars heeft het in Zürich gevestigde Chubb ingestemd met voorwaarden die bepaalde AI-risico’s zouden dekken, maar heeft “wijdverbreide” AI-incidenten uitgesloten, zoals een probleem met een model dat veel klanten tegelijk zou treffen. Chubb weigerde commentaar te geven.
Ondertussen hebben anderen add-ons geïntroduceerd die nauw gedefinieerde AI-risico’s dekken. chatbot gaat fout.
Verzekeringsmakelaars en advocaten zeiden dat ze vreesden dat verzekeraars claims voor de rechtbank zouden gaan aanvechten als de door AI veroorzaakte verliezen aanzienlijk zouden stijgen.
Aaron Le Marquer, hoofd van het verzekeringsgeschillenteam bij advocatenkantoor Stewarts, zei: “Er is waarschijnlijk een grote systemische gebeurtenis voor nodig voordat verzekeraars zeggen: wacht, we gaan dit soort gebeurtenissen nooit dekken.”



