O avanço da tecnologia digital e a consequente popularização das imagens têm levado as forças policiais a adotarem o reconhecimento fotográfico como uma ferramenta central para a emissão de mandados de prisão. Essa estratégia, idealizada para solucionar a lentidão na localização e captura de foragidos, introduz um grave novo problema: o erro judiciário com consequências devastadoras para pessoas inocentes. 

Em alguns casos, são apresentadas a testemunhas fotos de suspeitos com o intuito de identificá-los. Além do processo realizado por humanos, aumentaram o número de estados que passaram a realizar reconhecimento facial por máquina. São Paulo desde outubro de 2025 já conta com um sistema, o smart sampa, com mais de 20 mil câmeras para essa função. A Bahia conta com o maior sistema desse tipo no país que entre 2018 e 2022 recebeu R$ 683 milhões de investimento. Contudo relatório recente do Panóptico, projeto do Centro de Estudo de Segurança e Cidadania que monitora o uso da tecnologia, destaca que as acusações injustas acontecem com mais frequência com pessoas negras e de minorias étnicas. Um dos motivos é o uso de termos genéricos, como o “estilo de cabelo” e o “estilo inferior” para identificar pessoas. 

Os acusados injustamente sofrem diversas violências no processo. Primeiro que são presos com violência física. Na prisão ficam juntos com outros condenados por tempo indefinido, pois mesmo quando a inocência é provada a justiça demora a conceder a liberdade. Quando finalmente livres, precisam arcar com os custos, financeiros e emocionais, de responder ao processo na justiça.

Essa problemática se agrava no contexto da inserção tecnológica na segurança pública, pois, como ressalta Tarcizio Silva, autor do livro "Racismo algorítmico: inteligência artificial e discriminação nas redes digitais", as novas ferramentas não estão imunes a vieses discriminatórios historicamente construídos. Silva argumenta que "O desenvolvimento de tecnologias algorítmicas se alimenta do histórico social para oferecer uma pretensa inteligência artificial, que é comprometida com o patriarcado e o colonialismo. Mas essa desinteligência artificial, que atualiza opressões como o racismo estrutural, é vendida como neutra". Isso significa que, no âmbito da segurança pública, o uso de bases de dados de identificação fotográfica, que refletem a seletividade penal e o racial profiling histórico, tem o potencial de automatizar e amplificar o racismo, aumentando o risco de falsas identificações e prisões injustas, perpetuando o ciclo de violência institucional contra grupos já marginalizados.