Arie Halpern: Inteligência preditiva e a tecnologia no combate ao crime

Arie Halpern: Inteligência preditiva e a tecnologia no combate ao crime

Autoridades chinesas estão focando no desenvolvimento de tecnologia de reconhecimento facial combinada à inteligência preditiva para ajudar a polícia a combater o crime antes mesmo de ele acontecer. A empresa CloudWalk está testando um sistema que rastreia os movimentos de qualquer pesssoa. Com informação baseada em onde e quando determinado cidadão vai, a plataforma classifica o risco de um crime ser cometido. Qualquer semelhança com o clássico futurista de Steven Spielberg “Minority Report” pode não ser coincidência. Mas, assim como a obra ficcional, “é fundamental que dilemas éticos sejam discutidos para o aperfeiçoamento dessas ferramentas”, afirma Arie Halpern.

De acordo com o portal-voz da CloudWalk, alguém que compra uma faca de cozinha, por exemplo, não é considerado suspeito. Mas, se a mesma pessoa, adquire um martelo e um saco algum tempo depois, a classificação como suspeita aumenta. O software funciona com base nos dados da polícia de mais de 50 cidades e províncias da China, podendo identificar possíveis suspeitos em tempo real.

A ferramenta é baseada em inteligência preditiva, isto é, a análise de padrões de comportamento do passado para sinalizar o que pode acontecer no futuro – nada mais é que softwares que leem algoritmos, mesma fórmula aplicada na Amazon para recomendar livros, por exemplo.

O gigante asiático não é o único país a aproveitar esse tipo de tecnologia. A cidade de Milão, na Itália, utiliza há mais de uma década uma ferramenta que prevê onde assaltos podem ocorrer com base no histórico de dados. Nos Estados Unidos, mais da metade dos departamentos policiais utilizam sistema parecido.

Apesar de os departamentos policiais norte-americanos terem saudado tal recurso como eficiente instrumento para a redução da criminalidade, muitos cidadãos e membros de grupos de defesa racial veem com desconfiança as fórmulas aplicadas. Eles acreditam que a ferramenta pode se basear em dados policiais aplicados anteriormente com enviesamento racial.

“As capacidades técnicas do big data atingiram um nível de sofisticação e abrangência que exige a consideração de como equilibrar as oportunidades proporcionadas pelos grandes dados contra questões éticas e raciais que essas tecnologias levantam”, escreveu a Casa Branca em um comunicado durante a gestão de Barack Obama.

Um caso explicita bem a confusão que algoritmos podem causar ao analisar riscos futuros envolvendo pessoas. Em 2014, a jovem negra Brisha Borden roubou a bicicleta e a scooter de uma criança, perda equivalente a US$ 80. Um ano antes, Vernon Prater, branco, de 40 anos, foi preso por furtar uma loja de ferramentas causando um prejuízo de US$ 86. Borden nunca tinha sido presa, enquanto Prater já havia passado cinco anos na prisão por assalto à mão armada. No entanto, o mesmo programa de computador utilizado pela polícia avaliou que ela apresentava maior risco à sociedade. Dois anos depois, a análise dos algoritmos se comprovou errada: nenhuma nova acusação foi feita a Borden nesse período, já Prater cumpria o primeiro ano de uma sentença de oito anos por roubar uma loja eletrônica.


Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *