Algoritmos na segurança pública podem prevenir crimes, mas há o risco de discriminação

O problema, segundo Daniel Edler Duarte, é o de que os algoritmos são alimentados por dados coletados pela própria polícia e, com isso, podem replicar discriminações e preconceitos

O Jornal da USP no Ar 1ª Edição conversou com Daniel Edler Duarte, pós-doutor no Departamento de Sociologia da FFLCH (Faculdade de Filosofia, Letras e Ciências Humanas) e pesquisador do Núcleo de Estudos da Violência (NEV) da USP, para a discussão envolvendo o debate moral relacionado ao uso dos algoritmos no cotidiano. 

Estamos a todo momento interagindo com os algoritmos, desde o momento que acordamos até o momento que vamos dormir. Duarte destaca que isso não é uma ferramenta nova e exemplifica o caso da Amazon, que passava a indicar livros a partir das suas preferências de compras. Nesse caso, as recomendações recebidas partiram de uma análise em cima de uma coleta de dados que possui o algoritmo como base. 

Isso tem gerado discussões sobre as compras em farmácias, por gerar uma base de dados nominal, ocasionando um marketing direcionado, o que também ocorre nos planos de saúde: “Por exemplo, se você está comprando muito de determinado produto, eles podem dizer que o risco de você ter alguma doença pode ser maior, então seu plano de saúde vai aumentar”, exemplifica Duarte. 

Como dito, para ele, os campos de coleta de informações são os mais variados, podendo ser as redes sociais, a página da internet dos grandes jornais ou as compras do dia a dia. Mas ele ressalta que são as redes sociais um dos grandes campos de coleta de dados.

Algoritmos na segurança pública

Grandes bancos de dados são feitos a partir da coleta de informações. E isso auxilia não só grandes empresas como a segurança pública. Mas a aplicabilidade dos algoritmos nesse âmbito tem gerado discussões sensíveis sobre o que poderia ser socialmente aceito no uso dessa tecnologia. Paralelo a isso, existe uma pressão da sociedade civil muito grande para aumentar a transparência e o controle das ações policiais. 

É aqui que o algoritmo entra. O pesquisador diz que, a partir do sistema de processamento geográfico, é possível identificar os crimes em um mapa digital e, com os algoritmos para identificação de padrões, diminuir a incidência de crimes. A questão principal é a geração dos algoritmos, que podem ser discriminatórios: “Esses algoritmos são alimentados por dados coletados pela própria polícia, então, historicamente, a polícia foi mais incisiva na repressão em determinadas áreas”, complementa ele.

Além disso, Duarte ainda exemplifica o caso dos principais pacotes de software, que cometem muito mais erros no caso de mulheres negras e no de homens negros. Isso repercute na forma como o sistema de polícia reconhece um homem branco, gerando abordagens policiais mais direcionadas e discriminatórias. À medida em que isso é colocado em prática, é possível observar os usos corretos e os abusos dessa tecnologia. Para evitar a perpetuação de estereótipos e discriminações, campanhas vêm sendo desenvolvidas, a fim de apontar as falhas ainda existentes na tecnologia. 

20220607 daniel
Daniel Edler Duarte – Foto: Arquivo pessoal

Fonte: Jornal da USP

Redação BAA
Redação BAA
Redação do portal BrasilAmazôniaAgora

Artigos Relacionados

BR-319: reconstruir não é tudo 

"A reconstrução da BR-319 não será simples. Há um...

Barcelona e o dever da resistência

"Um chamado à responsabilidade política em um tempo em...

O mapa do resgate – Quem terá coragem de deter Trump?

"Trump não será contido apenas porque é excessivo. Líderes...

Dom Pedro II: a escola que ensina o passado e cobra o futuro

Com mais de 150 anos, colégio histórico Dom Pedro...