Minority Report da vida real? Reino Unido está desenvolvendo IA para prever assassinatos; entenda como funciona

Parece coisa de ficção científica, mas está acontecendo de verdade: o Reino Unido está desenvolvendo uma ferramenta baseada em inteligência artificial para prever possíveis assassinatos antes que eles aconteçam. O projeto usa dados de pessoas já registradas pelas autoridades e promete identificar indivíduos com maior risco de cometer crimes violentos.

Prevendo assassinatos com algoritmos

image fx 7

O projeto é apelidado de “Intercâmbio de dados para melhorar a avaliação de riscos” e ainda está em fase de desenvolvimento. A ideia é usar inteligência artificial para cruzar dados de agências como a polícia britânica e o sistema de liberdade condicional, de modo a antecipar quem pode vir a cometer homicídios no futuro.

Segundo o jornal The Guardian, o algoritmo analisará uma série de fatores — desde histórico criminal até informações pessoais como autolesões e envolvimento em casos de violência doméstica. Os dados são obtidos de diversas fontes oficiais, incluindo a polícia de Manchester, a Scotland Yard e o Ministério do Interior.

O controverso “Projeto de Previsão de Homicídios”

O sistema começou como um projeto interno do governo britânico chamado “Projeto de Previsão de Homicídios”, revelado por meio de solicitações de transparência feitas pelo grupo de direitos civis Statewatch. O objetivo oficial seria ampliar os modelos de avaliação de risco já utilizados para prever reincidência entre criminosos em liberdade condicional.

Mas o projeto vai além: segundo o próprio Ministério da Justiça, a IA vai buscar padrões entre características comuns de criminosos que cometeram homicídios, aplicando métodos alternativos de ciência de dados para melhorar a precisão das avaliações.

Dados usados incluem saúde mental, etnia e vícios

image fx 3 1

Os algoritmos utilizados vão processar dados como nome, gênero, etnia, data de nascimento, histórico penal, além de marcadores sensíveis como saúde mental, física, presença de vícios, tentativas de suicídio e até deficiências. Os indivíduos analisados recebem um número de identificação no sistema, que anonimiza os dados parcialmente — mas não os elimina das mãos do governo.

Boa parte desses dados vem do sistema britânico de avaliação de criminosos conhecido como OASys, que já é usado para prever taxas de reincidência.

Comparações com Minority Report e críticas à ética do projeto

Críticos comparam o projeto ao enredo do filme Minority Report (2002), onde um departamento de polícia prende criminosos antes que os crimes aconteçam. Grupos de direitos civis, como o próprio Statewatch, chamam o sistema de “distópico e preocupante”, levantando alertas sobre possíveis falsos positivos e reforço de preconceitos estruturais.

Esses grupos destacam que os dados usados já carregam viés — como racismo e homofobia — e alertam que o uso institucional da IA pode amplificar esses problemas. A preocupação é que pessoas inocentes sejam rotuladas como perigosas por causa de características pessoais ou condições de saúde.

Governo afirma que uso será apenas para fins de pesquisa (por enquanto)

O Ministério da Justiça do Reino Unido garante que, por enquanto, o sistema será utilizado exclusivamente em pesquisas internas, com o objetivo de compreender melhor os riscos associados a reincidências em crimes violentos. Segundo a pasta, a IA foi treinada com dados de criminosos condenados, e não será aplicada de forma prática sem antes passar por avaliações éticas e técnicas.

Adicionar aos favoritos o Link permanente.