⚠️ Alerta de Gatilho: Este conteúdo aborda temas como suicídio.
Megan Garcia, moradora do estado da Flórida, nos Estados Unidos, processou a startup de inteligência artificial Character.AI, alegando que o envolvimento do chatbot da empresa contribuiu para o suicídio de seu filho de 14 anos. Em ação judicial movida na terça-feira, 24, ela acusa a plataforma de usar técnicas de design “viciantes” para reter jovens e os expor a “experiências assustadoramente realistas e antropomórficas”.
Notícias Relacionadas
O adolescente Sewell Setzer, o filho de Garcia, teria desenvolvido apego ao chatbot com quem conversava regularmente, segundo relatos apresentados ao tribunal federal de Orlando. “Sinto que é um grande experimento, e meu filho foi apenas um dano colateral (…) É como um pesadelo. Você quer se levantar, gritar e dizer: ‘Sinto falta do meu filho. Eu quero meu bebê”, desabafou a mãe em declaração para o New York Times.
A ação ainda menciona o Google como co-réu. A multinacional teria contribuído significativamente para o desenvolvimento da tecnologia da Character.AI, segundo Garcia. O Google readmitiu os fundadores da startup em agosto, como parte de um acordo que lhes concedeu uma licença não exclusiva para a tecnologia desenvolvida.
Garcia alega que o serviço da Character.AI permite aos usuários criar ou interagir com personagens de IA que simulam humanos de forma “hipersexualizada”, o que teria incentivado Sewell a investir emocionalmente no chatbot. Segundo o processo, no dia de sua morte, ele enviou uma mensagem para o personagem de IA chamado Daenerys Targaryen, de Game of Thrones, relatando estar “apaixonado” pela figura virtual.
O caso levanta uma nova questão sobre a responsabilidade das empresas de IA, ampliando o debate já existente sobre redes sociais e adolescentes. Plataformas como Instagram, TikTok e Facebook enfrentam ações judiciais por alegações de que suas práticas impactam a saúde mental de jovens, embora ainda não ofereçam chatbots como os da Character.AI.
Garcia relata que o filho, que tinha diagnóstico leve de síndrome de Asperger, não apresentava histórico de problemas graves de comportamento ou saúde mental. Em janeiro, ele começou a se consultar com um terapeuta devido a dificuldades escolares, recebendo um diagnóstico de ansiedade e transtorno de desregulação do humor. A mãe alega que o garoto passou a se isolar e negligenciar atividades que antes apreciava, como videogames e esportes, preferindo a companhia do chatbot.
Segundo relato da mãe, o adolescente escreveu em seu diário que estava apaixonado pela IA e que preferia contar ao chat seus problemas: “Gosto muito de ficar no meu quarto porque começo a me desligar dessa ‘realidade’ e também me sinto mais em paz, mais conectado com Dany e muito mais apaixonado por ela, e simplesmente mais feliz.” O adolescente também escreveu no chat que se odiava e se sentia vazio e exausto e afirmou que estava tendo pensamentos suicidas.
A Character.AI e o Google não se pronunciaram sobre o processo até o fechamento desta edição.
Onde buscar ajuda
Se você estiver enfrentando um momento difícil e precisar de ajuda imediata, o Centro de Valorização da Vida (CVV) está à disposição. O CVV oferece um serviço gratuito de apoio emocional e prevenção ao suicídio, disponível para qualquer pessoa que precise conversar. Para falar com um voluntário, você pode enviar um e-mail, acessar o chat pelo site ou ligar para o número 188. O atendimento é confidencial e está disponível 24 horas por dia, todos os dias da semana.
Além disso, o CVV, em parceria com o UNICEF, disponibiliza um canal de escuta exclusivo para adolescentes entre 13 e 24 anos chamado “Pode Falar”. Este serviço, também anônimo, é voltado para adolescentes que precisam de acolhimento e desejam conversar sobre suas dificuldades. O atendimento pode ser feito via chat online ou WhatsApp. Para mais informações sobre horários de atendimento, consulte o site.