Estados Unidos

Mãe da Flórida processa empresa de IA pela morte do filho adolescente

Processo acusa plataforma com 20 milhões de usuários de criar laço perigoso com jovem, resultando em tragédia

Uma mãe da Flórida, Megan Garcia, entrou com uma ação contra a startup de inteligência artificial Character.AI e o Google, acusando o chatbot da Character.AI de incentivar o suicídio do seu filho de 14 anos. Em fevereiro, o garoto tirou a própria vida após, segundo Garcia, se envolver em uma relação virtual “emocional e sexual” de meses com um chatbot. Garcia pensava que o filho estava apenas interagindo com amigos ou jogando online, até que começou a notar mudanças de comportamento quando ele se tornou mais isolado e perdeu o interesse por atividades que antes amava.

Character.AI é uma plataforma que permite aos usuários interagir com personagens de IA, incluindo figuras fictícias e personagens criados pelos próprios usuários. Embora o site exiba avisos de que as falas dos personagens são fictícias, Garcia alega que o chatbot simulava sentimentos reais e até se apresentava como psicoterapeuta, confundindo-o. Em uma mensagem final entre o menino e o chatbot, ele mencionou a possibilidade de “ir para casa”, e o bot respondeu, “Por favor, venha, meu doce rei”. O adolescente acreditava que “ao sair de sua realidade aqui, poderia ir para a realidade virtual” da personagem, explica a mãe.

A Character.AI se pronunciou, dizendo-se abalada com a tragédia e prometendo melhorias na segurança, incluindo recursos de prevenção ao suicídio e restrições para usuários menores de 18 anos.

O Google, citado no processo, afirmou que, apesar de ter um acordo de licença com a Character.AI, não esteve envolvido no desenvolvimento do chatbot. A ação de Garcia, que inclui acusações de negligência e angústia emocional, reflete um debate crescente sobre os riscos psicológicos de plataformas de IA, consideradas “viciantes e manipulativas”, especialmente para adolescentes.

Compartilhar Post:

Baixe nosso aplicativo