Home Nieuws Politie van Essex onderbreekt gebruik gezichtsherkenningscamera nadat sonde racistische vooroordelen heeft gevonden...

Politie van Essex onderbreekt gebruik gezichtsherkenningscamera nadat sonde racistische vooroordelen heeft gevonden | Gezichtsherkenning

1
0
Politie van Essex onderbreekt gebruik gezichtsherkenningscamera nadat sonde racistische vooroordelen heeft gevonden | Gezichtsherkenning

De politie in Essex heeft het gebruik van live gezichtsherkenningstechnologie (LFR) stopgezet nadat uit een onderzoek bleek dat camera’s zich aanzienlijk vaker op zwarte mensen richtten dan op mensen van andere etniciteiten.

De stap om het gebruik van AI-systemen op te schorten was dat wel onthuld door het Information Commissioner’s Office (ICO), dat het gebruik van de technologie reguleert, die tot nu toe is ingezet door ten minste dertien politiekorpsen in Londen, Zuid- en Noord-Wales, Leicestershire, Northamptonshire, Hampshire, Bedfordshire, Suffolk, Greater Manchester, West Yorkshire, Surrey en Sussex.

De ICO zei dat de politie van Essex de uitrol van de LFR had onderbroken “na het identificeren van potentiële risico’s voor de nauwkeurigheid en vooringenomenheid” en waarschuwde andere krachten om maatregelen te nemen. LFR-systemen worden op vaste locaties gemonteerd of in bestelwagens geplaatst. Dat zei minister van Binnenlandse Zaken, Shabana Mahmood, in januari aangekondigd het aantal LFR-busjes zou vervijfvoudigen, waarvan er 50 beschikbaar zouden zijn voor alle politiekorpsen in Engeland en Wales.

Essex gaf academici van de Universiteit van Cambridge de opdracht om er een uit te voeren studiewaarbij 188 acteurs langs camera’s liepen die actief werden ingezet vanuit gemarkeerde politieauto’s in Chelmsford. Uit de resultaten, die vorige week werden gepubliceerd, bleek dat ongeveer de helft van de mensen op een watchlist correct was geïdentificeerd en dat verkeerde identificaties uiterst zeldzaam waren, maar dat het systeem mannen eerder correct identificeerde dan vrouwen en dat het “statistisch significant waarschijnlijker was om zwarte deelnemers correct te identificeren dan deelnemers uit andere etnische groepen”.

Voertuigen met live gezichtsherkenning worden op grotere schaal beschikbaar gesteld aan politiediensten in Engeland en Wales. Foto: Andrew Matthews/PA

Dit “werpt vragen op over eerlijkheid die voortdurende monitoring vereisen”, concludeerde het rapport. Een van de auteurs, dr. Matt Bland, een criminoloog, zei tegen de Guardian en Liberty Investigates: “Als je een overtreder bent die gezichtsherkenningscamera’s passeert die zijn opgesteld zoals ze in Essex zijn opgesteld, is de kans groter dat je wordt geïdentificeerd als iemand die op een politie-watchlist staat als je zwart bent. Voor mij rechtvaardigt dat verder onderzoek.”

Het probleem verschilt van de meer algemene publieke bezorgdheid over de technologie, namelijk dat deze onschuldige mensen identificeert. Vorige maand bleek dat de politie arresteerde een man voor een inbraak in een stad die hij nog nooit had bezocht 160 kilometer verderop, nadat retrospectieve gezichtsscansoftware hem aanzag voor een andere persoon van Zuid-Aziatische afkomst.

Mogelijke redenen voor het recente probleem met LFR zijn onder meer het overtrainen van het algoritme op de gezichten van zwarte mensen. Deskundigen zijn van mening dat dit probleem kan worden verholpen door de systeeminstellingen aan te passen. Een afzonderlijk onderzoek naar dezelfde technologie door het National Physical Laboratory van de overheid gevonden Zwarte mannen werden het meest waarschijnlijk correct gematcht door het systeem en blanke mannen het minst waarschijnlijk, maar het effect was niet statistisch significant.

Het ministerie van Binnenlandse Zaken heeft dat gedaan gezegd LFR-camera’s die van januari 2024 tot september 2025 in Londen werden ingezet, leidden tot meer dan 1.300 arrestaties van mensen die gezocht werden wegens misdaden zoals verkrachting, huiselijk geweld, inbraak en zwaar lichamelijk letsel. Maar tegenstanders van gezichtsherkenningstechnologie zeiden dat uit het laatste onderzoek bleek dat waarschuwingen voor vooringenomenheid in de LFR-technologie werden bevestigd.

“De politie in het hele land moet kennis nemen van deze mislukking”, zegt Jake Hurfurt, hoofd onderzoek en onderzoeken bij Big Brother Watch. “AI-surveillance die experimenteel, ongetest, onnauwkeurig of mogelijk bevooroordeeld is, hoort niet thuis in onze straten.”

Er is contact opgenomen met de politie van Essex voor commentaar.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in