Weggestopt in een voetnoot van twee zinnen in een omvangrijk oordeel van de rechtbank, schreeuwde een federale rechter onlangs immigratie agenten gebruiker kunstmatige intelligentie om rapporten te schrijven over het gebruik van geweld die aanleiding geven tot bezorgdheid dat dit tot onnauwkeurigheden zou kunnen leiden en het vertrouwen van het publiek daarin verder zou kunnen aantasten hoe de politie heeft gehandeld het immigratiebeleid in de Omgeving Chicago en daaruit voortvloeiende protesten.
De Amerikaanse districtsrechter Sara Ellis schreef de voetnoot in een 223 pagina’s tellend advies dat vorige week werd uitgegeven, en merkte op dat de praktijk van het gebruik van ChatGPT om rapporten over geweldgebruik te schrijven de geloofwaardigheid van de agenten ondermijnt en “de onnauwkeurigheid van die rapporten zou kunnen verklaren.” Ze beschreef wat ze in ten minste één lichaamscameravideo zag en schreef dat een agent ChatGPT vraagt om een verhaal in een rapport samen te stellen nadat hij het programma een korte beschrijvende zin en verschillende foto’s heeft gegeven.
De rechter merkte feitelijke discrepanties op tussen het officiële verhaal van de reacties van de wetshandhavers en wat de lichaamscamerabeelden lieten zien. Maar experts zeggen dat het gebruik van kunstmatige intelligentie om een rapport te schrijven dat afhangt van het specifieke perspectief van een agent, zonder gebruik te maken van de feitelijke ervaring van een agent, het slechtst mogelijke gebruik van de technologie is en ernstige zorgen oproept over nauwkeurigheid en privacy.
Het noodzakelijke perspectief van een officier
Wetshandhavingsinstanties in het hele land hebben moeite met het creëren van vangrails waardoor agenten de steeds beter beschikbare AI-technologie kunnen gebruiken met behoud van nauwkeurigheid, privacy en professionaliteit. Experts zeiden dat het voorbeeld in de verklaring niet aan die uitdaging voldeed.
“Wat deze man deed is het ergste van alle werelden. Om er één enkele zin en een paar foto’s aan te geven – als het waar is, als dat is wat hier is gebeurd – druist in tegen al het advies dat we hebben. Het is een nachtmerriescenario”, zegt Ian Adams, assistent-professor criminologie aan de Universiteit van South Carolina en lid van de Artificial Intelligence Task Force, een onpartijdige misdaaddenktank.
Het Department of Homeland Security reageerde niet op verzoeken om commentaar en het was onduidelijk of de dienst richtlijnen of beleid had voor het gebruik van AI door agenten. De lichaamscamerabeelden die in het bevel worden genoemd, zijn nog niet vrijgegeven.
Adams zei dat weinig departementen beleid hebben ingevoerd, maar afdelingen die vaak het gebruik van voorspellende AI hebben verboden bij het schrijven van rapporten die wetshandhavingsbeslissingen rechtvaardigen, met name rapporten over het gebruik van geweld. Rechtbanken hebben een norm vastgesteld die objectieve redelijkheid wordt genoemd bij de beoordeling of het gebruik van geweld gerechtvaardigd was, en is sterk afhankelijk van het perspectief van de specifieke officier in het specifieke scenario.
“We hebben de specifiek gearticuleerde gebeurtenissen van die gebeurtenis en de specifieke gedachten van de specifieke officier nodig om ons te vertellen of dit een gerechtvaardigd gebruik van geweld was”, zei Adams. “Dat is het worstcasescenario, afgezien van het expliciet vertellen dat hij feiten moet verzinnen, omdat je hem smeekt om feiten te verzinnen in deze situatie waar veel op het spel staat.”
Privé-informatie en bewijsmateriaal
Naast het uiten van zorgen over een door AI gegenereerd rapport dat onnauwkeurig beschrijft wat er is gebeurd, brengt het gebruik van AI ook potentiële privacyproblemen met zich mee.
Katie Kinsey, stafchef en technisch beleidsadviseur bij het Policing Project aan de NYU School of Law, zei dat als de gerechtsdeurwaarder een openbare versie van ChatGPT gebruikte, hij zich waarschijnlijk niet realiseerde dat hij de controle over de afbeeldingen verloor op het moment dat hij ze uploadde, waardoor ze deel konden uitmaken van het publieke domein en mogelijk door slechte acteurs konden worden gebruikt.
Kinsey zei dat vanuit technologisch oogpunt de meeste afdelingen het vliegtuig bouwen terwijl het vliegt als het gaat om kunstmatige intelligentie. Ze zei dat het bij wetshandhaving vaak een patroon is om te wachten tot er al nieuwe technologieën worden gebruikt, en in sommige gevallen fouten, voordat wordt gesproken over het invoeren van richtlijnen of beleid.
“Je doet de dingen liever andersom, waarbij je de risico’s begrijpt en vangrails rond de risico’s ontwikkelt”, zei Kinsey. “Zelfs als ze de best practices niet bestuderen, is er nog wat lager hangend fruit dat kan helpen. We kunnen uitgaan van transparantie.”
Kinsey zei dat, hoewel de federale wetshandhavingsdiensten overwegen hoe ze de technologie wel of niet moeten gebruiken, ze een beleid zouden kunnen aannemen zoals dat onlangs in Utah of Californië is ingevoerd, waarbij politierapporten of communicatie die met behulp van AI zijn geschreven, moeten worden gemarkeerd.
De foto’s die de officier gebruikte om een verhaal te genereren, veroorzaakten bij sommige experts ook zorgen over de nauwkeurigheid.
Bekende technologiebedrijven zoals Axon zijn begonnen met het aanbieden van AI-componenten met hun lichaamscamera’s om te helpen bij het schrijven van incidentrapporten. Deze AI-programma’s die aan de politie worden verkocht, werken op een gesloten systeem en beperken zich grotendeels tot het gebruik van audio van lichaamscamera’s om verhalen te produceren, omdat de bedrijven hebben gezegd dat programma’s die beelden proberen te gebruiken niet effectief genoeg zijn om te gebruiken.
“Er zijn veel verschillende manieren om een kleur, een gezichtsuitdrukking of een visuele component te beschrijven. Je kunt het aan elke AI-expert vragen en zij zullen je vertellen dat prompts heel verschillende resultaten opleveren tussen verschillende AI-toepassingen, en het wordt ingewikkeld met een visuele component”, zegt Andrew Guthrie Ferguson, hoogleraar rechten aan de George Washington University Law School.
“Er zijn ook vragen over professionaliteit. Vinden we het goed dat politieagenten voorspellende analyses gebruiken?” voegde hij eraan toe. “Het gaat erom wat het model denkt dat er had moeten gebeuren, maar misschien is dat niet wat er werkelijk is gebeurd. Je wilt niet dat dat in de rechtszaal terechtkomt om je daden te rechtvaardigen.”
—Claudia Lauer, Associated Press



