Em 2002, Steven Spielberg dirigiu o filme, ‘Minority Report – A Nova Lei’, uma adaptação do livro escrito por um dos maiores autores de ficção cientÃfica de todos os tempos, Philip K. Dick. Assim, no longa-metragem, Tom Cruise assume a pele de John Anderton, um policial que trabalha em uma divisão especial que possui um sistema capaz de prever crimes antes que eles aconteçam. No entanto, ao longo da trama, encontramos uma série de problemas no uso desse sistema.
Conforme a Inteligência Artificial (IA) avança ao longo dos anos, podemos cada vez mais, nos aproximar de um possÃvel ‘Minority Report’. Contudo, será que esse momento finalmente chegou? Nos últimos anos, o sistema de IA do Reino Unido permitiu que a criação de um dispositivo semelhante ao do universo ficção cientÃfica. Mas, bem como no cinema e na literatura, o experimento foi descontinuado por questões éticas.
Será que finalmente podemos prever crimes antes deles acontecerem?
Imagino só, prever quem poderia cometer um crime antes mesmo dele acontecer. Parece história de ficção cientÃfica e, de fato, é. Entretanto, o “Most Serious Violence” (“Violência Mais Grave”), ou MSV, cumpre esse papel. Desenvolvido pelo National Data Analytics Solution (NDAS) do Reino Unido, o projeto custou em torno de US$ 13 milhões ao longo de dois anos de pesquisas. Dessa forma, ao invés de contar com um artificio mágico, o projeto utilizava IA como método para observar cidadãos. Assim, o MSV poderia prever se as pessoas cometeriam seu crime através de uma “pontuação criminal”.
Para descobrir quem estaria mais suscetÃvel a cometer determinado crime, foram coletados dados de 2,4 milhões de pessoas do banco de dados de West Midlands. Além disso, também foram utilizados dados de 1,1 milhão de pessoas da cidade de West Yorkshire. Entre os registros das duas cidades da Inglaterra, estavam informações relacionadas a crimes. Podemos citar, registros, custódia, relatórios e outras informações. Com esses dados em mãos, foi gerado uma espécie de pontuação. Nesse sentido, seria possÃvel dizer qual a probabilidade os indivÃduos voltarem a cometer novos crimes.
Um projeto que funcionou melhor no papel
Ainda que não saibamos como a “pontuação criminal” era feita, sabemos que ela não era eticamente adequada. De cada 100 pessoas com Ãndice alto de “pontuação criminal”, 54 delas já haviam cometido crimes com armas ou facas. Porém, quando o projeto começou a ser efetivado, um grande erro logo o derrubou. “Foi encontrado um erro de codificação na definição do conjunto de dados de treinamento, o que tornou a declaração do problema atual do MSV inviável”, afirmou um resumo da NDAS, publicado em março deste ano.
De acordo com um porta-voz do projeto, o erro foi um problema de ingestão. Dito isso, maiores informações não foram divulgadas. De toda forma, os órgãos envolvidos no projeto acabariam concordando que a falta de precisão colocava a credibilidade o programa em risco. E claro, foi o que aconteceu. Esse experimento mostra que o atual sistema de identificação precisa ser reavaliado. Isso porque, bem como os programas de prevenção de crimes em outros paÃses, o projeto apresentava traços de racismo estrutural. Portanto, acabou sendo desligado há algumas semanas.
Comentários