
Sistema de IA criado para avaliar abuso infantil falhou em testes e foi descartado. Erros ocorreram em 60% das decisões, levantando preocupações sobre sua eficácia.
A Agência para Crianças e Famílias decidiu não prosseguir com o sistema de IA que estava sendo desenvolvido para ajudar a determinar se crianças suspeitas de abuso deveriam ser colocadas em custódia temporária. O projeto, que estava sendo desenvolvido desde o ano fiscal de 2021, visava usar inteligência artificial para apoiar os centros de consulta infantil no Japão. No entanto, durante a fase de testes, a IA cometeu erros em 60% das decisões.
O Sistema de IA e Seus Erros de Decisão
O sistema de IA foi projetado para analisar cerca de 91 pontos de dados sobre os casos de abuso infantil, como a presença de ferimentos, sua localização no corpo da criança, e até a atitude dos pais. A partir dessas informações, a IA gerava uma pontuação que indicava a probabilidade de abuso. No entanto, os testes mostraram que o sistema falhou ao determinar o risco em muitos casos.
Por exemplo, em um dos casos, uma criança relatou que sua mãe havia quase matado ela, descrevendo que a mãe a agrediu fisicamente. Contudo, o sistema atribuiu uma pontuação muito baixa de risco, o que indicou um erro crítico na avaliação. Em 62 dos 100 casos avaliados, o sistema forneceu respostas questionáveis, como indicar uma probabilidade de abuso “extremamente baixa” em situações graves.
Custódia Temporária e a Lei de Bem-Estar Infantil
A custódia temporária é uma medida prevista pela Lei de Bem-Estar Infantil, permitindo que crianças em situação de abuso sejam removidas de suas casas e colocadas sob proteção até que se averigue a situação. O sistema de IA foi desenvolvido com a intenção de apoiar os centros de consulta infantil, que enfrentam uma escassez crônica de pessoal, ajudando-os a tomar decisões mais rápidas.
No entanto, os testes mostraram que a IA não era adequada para lidar com a complexidade e as variáveis que envolvem cada caso de abuso infantil. Especialistas afirmam que fatores como a perda de peso em crianças não estavam sendo considerados pelo sistema, e a falta de flexibilidade para a análise das lesões também comprometeu a precisão dos resultados.
A Decisão de Abandonar o Projeto
Dado os erros nos testes e a falta de precisão, a Agência para Crianças e Famílias decidiu suspender o desenvolvimento do sistema. Em uma declaração oficial, a agência afirmou que “é muito cedo para fornecer o sistema a centros de consulta infantil”. A partir de agora, será necessário revisar os avanços feitos na IA e considerar se o projeto pode ser retomado no futuro.
O professor Ichiro Sato, do Instituto Nacional de Informática, destacou que a IA não é uma solução mágica. Ele enfatizou a necessidade de um planejamento cuidadoso e de um exame detalhado da viabilidade antes do desenvolvimento de sistemas como esse.
Desafios e Lições para o Futuro
O incidente levanta questões sobre o uso de IA em decisões sensíveis como a avaliação de abuso infantil. A experiência destaca a necessidade de uma abordagem equilibrada e de cautela ao integrar tecnologias emergentes em processos decisórios críticos. Especialistas sugerem que mais tempo e dados são necessários para que a IA seja eficaz nesse tipo de aplicação.
Conclusão: O Futuro da IA em Processos de Decisão
Embora o sistema de IA tenha falhado nos testes, a utilização da inteligência artificial nos setores públicos continua a ser um campo promissor. O desenvolvimento de sistemas mais refinados e adaptados à realidade dos casos pode ser uma solução no futuro, mas para isso é essencial aprender com os erros e buscar melhorias constantes.


**Portal Mundo-Nipo**
Sucursal Japão – Tóquio