Início Tecnologia A polícia de Essex interrompe o uso da câmera de reconhecimento facial...

A polícia de Essex interrompe o uso da câmera de reconhecimento facial depois que estudo revela preconceito racial

23
0
A polícia de Essex interrompe o uso da câmera de reconhecimento facial depois que estudo revela preconceito racial

A polícia de Essex interrompeu o uso da tecnologia de reconhecimento facial ao vivo (LFR) depois que um estudo descobriu que as câmeras tinham uma probabilidade significativamente maior de atingir pessoas negras do que pessoas de outras etnias.

A medida para suspender o uso de sistemas habilitados para IA foi revelada pelo Information Commissioner’s Office (ICO), que regula o uso da tecnologia implantada até agora por pelo menos 13 forças policiais em Londres, sul e norte do País de Gales, Leicestershire, Northamptonshire, Hampshire, Bedfordshire, Suffolk, Grande Manchester, West Yorkshire, Surrey e Sussex.

A ICO disse que a polícia de Essex interrompeu as implantações LFR “depois de identificar riscos potenciais de precisão e parcialidade” e alertou outras forças para implementarem mitigações. Os sistemas LFR são montados em locais fixos ou implantados em vans. Em Janeiro, a ministra do Interior, Shabana Mahmood, anunciou que o número de carrinhas LFR iria aumentar cinco vezes, com 50 disponíveis para todas as forças policiais em Inglaterra e no País de Gales.

Essex contratou acadêmicos da Universidade de Cambridge para conduzir um estudo, que envolveu 188 atores passando por câmeras sendo ativamente posicionadas em vans policiais marcadas em Chelmsford. Os resultados foram publicados na semana passada e mostraram que cerca de metade das pessoas numa lista de observação foram identificadas corretamente e identificações incorretas eram extremamente raras, mas o sistema tinha maior probabilidade de identificar corretamente os homens do que as mulheres e era “estatisticamente significativamente mais provável de identificar corretamente os participantes negros do que os participantes de outros grupos étnicos”.

Vans de reconhecimento facial ao vivo estão sendo disponibilizadas de forma mais ampla às forças policiais em Inglaterra e no País de Gales. Fotografia: Andrew Matthews/PA

Isto “levanta questões sobre justiça que requerem monitorização contínua”, concluiu o relatório. Um dos seus autores, Dr. Matt Bland, um criminologista, disse ao Guardian e Liberty Investigates: “Se você é um infrator que passa por câmeras de reconhecimento facial instaladas como em Essex, as chances de ser identificado como estando em uma lista de vigilância policial são maiores se você for negro. Para mim, isso merece uma investigação mais aprofundada”.

O problema difere da preocupação pública mais comum sobre a tecnologia, que é a identificação de pessoas inocentes. No mês passado, descobriu-se que a polícia prendeu um homem por um roubo numa cidade que ele nunca tinha visitado, a 160 quilómetros de distância, depois de um software de digitalização facial retrospectiva o ter confundido com outra pessoa de ascendência do sul da Ásia.

As possíveis razões para o último problema com LFR incluem o overtraining do algoritmo nos rostos das pessoas negras. Os especialistas acreditam que isso poderia ser corrigido ajustando as configurações do sistema. Um estudo separado da mesma tecnologia realizado pelo Laboratório Nacional de Física do governo descobriu que os homens negros tinham maior probabilidade de serem corretamente correspondidos pelo sistema e os homens brancos menos prováveis, mas o efeito não foi estatisticamente significativo.

O Ministério do Interior disse que as câmeras LFR instaladas em Londres de janeiro de 2024 a setembro de 2025 levaram a mais de 1.300 prisões de pessoas procuradas por crimes, incluindo estupro, violência doméstica, roubo e lesões corporais graves. Mas os oponentes da tecnologia de reconhecimento facial disseram que a pesquisa mais recente mostrou que os alertas sobre o preconceito na tecnologia LFR estavam sendo confirmados.

“A polícia de todo o país deve tomar nota deste fiasco”, disse Jake Hurfurt, chefe de pesquisa e investigações do Big Brother Watch. “A vigilância por IA experimental, não testada, imprecisa ou potencialmente tendenciosa não tem lugar nas nossas ruas.”

A polícia de Essex foi contatada para comentar.

Fuente