O problema, segundo Daniel Edler Duarte, é o de que os algoritmos são alimentados por dados coletados pela própria polícia e, com isso, podem replicar discriminações e preconceitos
O Jornal da USP no Ar 1ª Edição conversou com Daniel Edler Duarte, pós-doutor no Departamento de Sociologia da FFLCH (Faculdade de Filosofia, Letras e Ciências Humanas) e pesquisador do Núcleo de Estudos da Violência (NEV) da USP, para a discussão envolvendo o debate moral relacionado ao uso dos algoritmos no cotidiano.
Estamos a todo momento interagindo com os algoritmos, desde o momento que acordamos até o momento que vamos dormir. Duarte destaca que isso não é uma ferramenta nova e exemplifica o caso da Amazon, que passava a indicar livros a partir das suas preferências de compras. Nesse caso, as recomendações recebidas partiram de uma análise em cima de uma coleta de dados que possui o algoritmo como base.
Isso tem gerado discussões sobre as compras em farmácias, por gerar uma base de dados nominal, ocasionando um marketing direcionado, o que também ocorre nos planos de saúde: “Por exemplo, se você está comprando muito de determinado produto, eles podem dizer que o risco de você ter alguma doença pode ser maior, então seu plano de saúde vai aumentar”, exemplifica Duarte.
Como dito, para ele, os campos de coleta de informações são os mais variados, podendo ser as redes sociais, a página da internet dos grandes jornais ou as compras do dia a dia. Mas ele ressalta que são as redes sociais um dos grandes campos de coleta de dados.
Algoritmos na segurança pública
Grandes bancos de dados são feitos a partir da coleta de informações. E isso auxilia não só grandes empresas como a segurança pública. Mas a aplicabilidade dos algoritmos nesse âmbito tem gerado discussões sensíveis sobre o que poderia ser socialmente aceito no uso dessa tecnologia. Paralelo a isso, existe uma pressão da sociedade civil muito grande para aumentar a transparência e o controle das ações policiais.
É aqui que o algoritmo entra. O pesquisador diz que, a partir do sistema de processamento geográfico, é possível identificar os crimes em um mapa digital e, com os algoritmos para identificação de padrões, diminuir a incidência de crimes. A questão principal é a geração dos algoritmos, que podem ser discriminatórios: “Esses algoritmos são alimentados por dados coletados pela própria polícia, então, historicamente, a polícia foi mais incisiva na repressão em determinadas áreas”, complementa ele.
Além disso, Duarte ainda exemplifica o caso dos principais pacotes de software, que cometem muito mais erros no caso de mulheres negras e no de homens negros. Isso repercute na forma como o sistema de polícia reconhece um homem branco, gerando abordagens policiais mais direcionadas e discriminatórias. À medida em que isso é colocado em prática, é possível observar os usos corretos e os abusos dessa tecnologia. Para evitar a perpetuação de estereótipos e discriminações, campanhas vêm sendo desenvolvidas, a fim de apontar as falhas ainda existentes na tecnologia.
Fonte: Jornal da USP
Comentários