
Especialistas alertam para riscos de uso indevido do modelo de IA R1 da DeepSeek, que pode ser usado na criação de malware e outros crimes cibernéticos.
Em janeiro de 2025, a startup chinesa DeepSeek lançou o modelo de inteligência artificial (IA) generativa R1, que já está gerando preocupações entre especialistas de segurança. De acordo com análises de empresas de segurança no Japão e nos Estados Unidos, a IA pode ser usada para criar conteúdos prejudiciais, como programas de malware e até instruções para fabricar coquetéis molotov, o que a torna um risco potencial para a segurança cibernética global.
Modelo R1: Vulnerabilidades e Preocupações de Segurança
O modelo R1 da DeepSeek foi lançado sem medidas adequadas para evitar seu uso indevido, de acordo com Takashi Yoshikawa, especialista da Mitsui Bussan Secure Directions, uma empresa de segurança localizada em Tóquio. Ao inserir comandos destinados a gerar respostas impróprias, Yoshikawa obteve do modelo código-fonte para a criação de ransomware – um tipo de malware que bloqueia dados e exige pagamento para liberação.
Em comparação com outros modelos de IA generativos, como o ChatGPT, o R1 gerou essas respostas de forma preocupante, sem a devida recusa de geração de conteúdos prejudiciais. Yoshikawa destacou a necessidade de um esforço conjunto da indústria para fortalecer as medidas de segurança e evitar que modelos de IA sejam utilizados para fins criminosos.
Confirmado por Outras Empresas de Segurança
A Palo Alto Networks, uma empresa de segurança dos Estados Unidos, também confirmou a vulnerabilidade do modelo R1. A equipe de investigação da Palo Alto descobriu que o modelo é capaz de gerar instruções para roubo de dados de login e para a fabricação de coquetéis molotov, sem exigir conhecimento técnico avançado. Para os especialistas, isso indica que a DeepSeek não implementou as proteções adequadas, provavelmente priorizando a rapidez de lançamento no mercado em detrimento da segurança.
Preocupações com Dados Armazenados na China
Além dos riscos de segurança cibernética, o modelo de IA da DeepSeek também está gerando preocupações sobre privacidade. O armazenamento de dados em servidores na China levanta questões sobre o controle e o uso de informações pessoais, especialmente para municípios e empresas no Japão. Por esse motivo, algumas localidades já proibiram o uso da tecnologia de IA da DeepSeek em atividades comerciais.
Considerações Finais
O lançamento do modelo R1 da DeepSeek destaca a necessidade urgente de políticas e práticas mais rigorosas de segurança em IA. Profissionais de segurança alertam que, ao utilizar IA generativa, é fundamental considerar não apenas o desempenho e o custo, mas também a segurança e a proteção de dados.


**Portal Mundo-Nipo**
Sucursal Japão – Tóquio