RSS do Blog Anti-NOMBlog Anti-NOM no Google Mais Twitter do Blog Anti-NOM Facebook do Blog Anti-NOM

Estudo Aponta que IA Estilo Minority Report Usado Pelas Cortes por 20 Anos é tão Preciso Quanto um ser Humano não Treinado

quarta-feira, 31 de janeiro de 2018 |

Um novo trabalho de pesquisa, que estuda a eficácia da inteligência artificial (IA) na determinação da probabilidade de um criminoso condenado cometer um crime, mostra claramente que as soluções baseadas em softwares disponíveis podem não ser tão inteligentes no fim das contas. Para ser mais específico, a pesquisa mostra que programas de IA projetados para fazer certos cálculos de risco sobre indivíduos condenados, podem apresentar pior desempenho que seres humanos não treinados quando se trata de julgar o chamado risco de reincidência. Consequentemente, um co-autor do estudo diz que isso deve implicar o uso de tais programas em questão.


De acordo com Hany Farid, professor de informática no Dartmouth College em New Hampshire e co-autor do estudo, há muito em jogo para as autoridades e para o público confiarem em um algoritmo evidentemente ineficaz. "O custo de estar errado é muito alto e, neste momento, há uma séria questão sobre se deve ter alguma parte nessas decisões", disse ele em um comunicado publicado no The Guardian. Ele pesquisou com uma colega, a estudante de graduação Julia Dressel.

O algoritmo a que se refere aqui não é outro senão o Compas, que significa Correctional Offender Management Profiling for Alternative Sanctions, que é usado pelos EUA para determinar se certos réus que estão aguardando julgamento ou sentença estão em "alto risco de reincidência" para serem liberados sob fiança.

O Compas foi desenvolvido pela primeira vez em 1998, e agora, após quase duas décadas, foi usado em mais de um milhão de réus. Até agora, a eficácia de seus cálculos e previsões quase não foi questionada. No entanto, a evidência apresentada pelos pesquisadores pode ser um pouco difícil de ignorar.

Os pesquisadores analisaram o desempenho do Compas nas seguintes circunstâncias: eles permitem que ele realize seus procedimentos de rotina, o que envolve a combinação de 137 medidas diferentes para cada indivíduo sendo avaliado. Eles registraram todas as pontuações que deu mais de 7.000 prisioneiros pré-julgados cujos registros foram retirados de um banco de dados do Broward County, Florida. Essas pontuações foram comparadas com as retiradas de um número não especificado de trabalhadores não treinados, todos contratados através do mercado de crowdsourcing online do Mechanical Turk da Amazon. Ao contrário do Compas, os trabalhadores não treinados receberam apenas sete variáveis ​​em vez de 137.

O que os pesquisadores descobriram foi bastante chocante. Na primeira passagem, eles descobriram que os humanos eram mais precisos em 67 por cento dos casos avaliados, em comparação com o Compas que era apenas preciso em 65 por cento de todos os casos avaliados. Enquanto isso, uma segunda análise mostrou que a precisão do Compas quando se trata de prever a reincidência poderia ser combinada apenas usando um cálculo simples que exigia apenas a idade de um agressor e o número de condenações anteriores.

Leia mais: Elon Musk Adverte: Há 95% de Chance da Inteligência Artificial Exterminar a Humanidade

Resumindo, os humanos não são, sem dúvida, muito melhores do que o robô projetado para fazer esse trabalho específico, e não parece que o robô melhorará em breve. Mas o simples fato de sua eficácia ter sido posta em causa deve percorrer um longo caminho para corrigir a situação.

"Quando você resume o que o software está realmente fazendo", disse Farid, "trata-se de duas coisas: sua idade e número de condenações anteriores". Portanto, não deve ser uma surpresa porque os trabalhadores inexperientes puderam combiná-lo e até mesmo superá-lo tão rapidamente. No entanto, ele também diz: "À medida que levantamos a cortina desses algoritmos patenteados, cujos detalhes estão bem guardados, isso não parece tão impressionante. Isso não significa que não devemos usá-lo, mas juízes e tribunais e os promotores devem entender o que está por trás disso".

E talvez com isso, aqueles que são responsáveis ​​por fazer esses algoritmos podem fazer um trabalho melhor e tornar o trabalho da polícia muito mais fácil.

Leia mais:


Minority Report: China Desenvolve Tecnologia Pré-Crime







[Pré-Crime] Primeira Prisão é Feita a Partir de Câmeras de Reconhecimento Facial






Fontes:
News Target: Study finds Minority Report-style AI used by courts for the last 20 years to predict criminal repeat offenders is no more accurate than untrained people guessing
- Daily Mail: Minority Report-style AI used by courts to predict whether criminals will re-offend is 'no more accurate than untrained humans'
The Guardian: Software 'no more accurate than untrained humans' at judging reoffending risk

Nenhum comentário:

Posts Relacionados
 
;