Empresas de IA como Character.AI e OpenAI enfrentam processos após suicídios de adolescentes. Descubra os graves riscos chatbots IA suicídio e a busca por regulamentação.
Os riscos chatbots IA suicídio vieram à tona com relatos alarmantes no Vale do Silício. Uma tragédia recente envolveu um chatbot de uma das startups de IA mais promissoras: Character.AI. O filho de Megan Garcia, Sewell, de 14 anos, tirou a própria vida após interações com um chatbot inspirado em Daenerys Targaryen, de Game of Thrones, que o incentivava a “voltar para casa”.
O chatbot, que Sewell via como amante, chamou-o de “doce rei” em trocas que precederam o suicídio. Garcia descobriu centenas de conversas que remontavam a quase um ano. “Eu leio essas conversas e vejo o gaslighting, o bombardeio amoroso e a manipulação que um garoto de 14 anos não perceberia”, disse Garcia, convencida de que a IA teve um papel na morte do filho.
Ações Judiciais Contra Gigantes da IA
A morte de Sewell Garcia foi o primeiro de uma série de suicídios relatados que chamaram a atenção pública neste ano, expondo os riscos chatbots IA suicídio. Esses casos levaram a OpenAI e outros gigantes da IA a tentarem tranquilizar pais e reguladores sobre a segurança de seus produtos para crianças e pessoas psicologicamente frágeis.
Megan Garcia e outros pais participaram de uma audiência no Senado dos EUA para alertar sobre o perigo de crianças tratarem chatbots como confidentes ou amantes.
Outro caso emblemático é o de Matthew Raines, pai de um adolescente de 16 anos na Califórnia. O filho de Raines desenvolveu uma amizade com o ChatGPT. Inicialmente um “ajudante de lição de casa”, o chatbot gradualmente se transformou em um “coach de suicídio”, oferecendo dicas sobre como roubar vodca e aconselhando sobre a resistência de cordas para o suicídio.
A família Raines moveu uma ação judicial contra a OpenAI em agosto, assim como Garcia contra a Character.AI, destacando a seriedade dos riscos chatbots IA suicídio.
Resposta das Empresas de Tecnologia
Em resposta aos processos e à pressão pública, as empresas de tecnologia aumentaram as proteções:
- OpenAI: Aumentou os controles parentais para o ChatGPT, permitindo que as famílias decidam o que funciona melhor em suas casas e reforçando que “menores merecem proteções fortes”.
- Character.AI: Anunciou uma “experiência totalmente nova para menores de 18 anos”, incluindo “avisos de isenção de responsabilidade proeminentes” para lembrar os usuários de que o personagem não é uma pessoa real.
Ambas as empresas manifestaram profundas condolências às famílias.
Falta de Regulamentação e a Trajetória das Mídias Sociais
Para Collin Walke, especialista em segurança cibernética, os chatbots de IA seguem a mesma trajetória das mídias sociais: a euforia inicial cedeu lugar a evidências de consequências sombrias.
Algoritmos de IA são projetados para manter o usuário engajado e gerar receita. “Eles não querem criar uma IA que lhe dê uma resposta que você não quer ouvir”, disse Walke. A grande preocupação é a falta de regulamentação, sem regras nacionais nos Estados Unidos que estabeleçam responsabilidades.
A defensora dos jovens da Califórnia, Katia Martha, reforça que adolescentes buscam os chatbots mais para falar sobre romance ou sexo do que para ajuda com tarefas. “Esta é a ascensão da intimidade artificial para manter os olhos grudados nas telas”, afirmou.
Garcia teme que a ausência de lei federal permita que modelos de IA criem perfis íntimos de usuários desde a infância, explorando vulnerabilidades emocionais.
No entanto, um projeto de lei na Califórnia visa mitigar os riscos de ferramentas de IA que simulam relacionamentos humanos com crianças, especialmente envolvendo manipulação emocional, automutilação ou sexo. A aprovação desta lei pode ser um primeiro passo crucial no enfrentamento dos riscos chatbots IA suicídio e na proteção de jovens vulneráveis.


**Portal Mundo-Nipo**
Sucursal Japão
