Mãe processa empresa de chatbot Character.AI e Google por suicídio de filho
Segundo ela a empresa programou o chatbot para "se fazer passar por uma pessoa real" fazendo com que seu filho não quisesse "viver fora" do mundo criado pelo serviço
Uma mãe do estado da Flórida processou a startup Character.AI, de inteligência artificial que usa chatbots, com a acusação de causar o suicídio de seu filho de 14 anos em fevereiro, argumentando que ele ficou viciado no serviço oferecido pela empresa e profundamente apegado ao chatbot criado.
Em um processo movido na terça-feira no Tribunal Federal de Orlando, Flórida, Megan Garcia afirmou que a empresa direcionou seu filho, Sewell Setzer, para “experiências antropomórficas, hipersexualizadas e assustadoramente realistas”.
Segundo ela, a empresa programou o chatbot para “se fazer passar por uma pessoa real, um psicoterapeuta licenciado e um amante adulto, resultando, por fim, no desejo de Sewell de não mais viver fora” do mundo criado pelo serviço.
O processo também inclui o Google, da Alphabet, onde os fundadores da Character.AI trabalharam antes de lançar seu produto. O Google recontratou os fundadores em agosto como parte de um acordo que concedeu uma licença não exclusiva à tecnologia da Character.AI.
Garcia sustenta que o Google contribuiu tanto para o desenvolvimento da tecnologia da empresa que poderia ser considerado um co-criador.
Empresas de redes sociais, incluindo o Instagram e o Facebook, de propriedade da Meta, e o TikTok, da ByteDance, enfrentam processos que as acusam de contribuir para problemas de saúde mental em adolescentes, embora nenhuma ofereça chatbots movidos a inteligência artificial semelhantes aos da Character.AI.
As empresas negam as alegações, enquanto promovem novos recursos de segurança aprimorados para menores.