Prime Time

seg - sex

Apresentação

Ao vivo

A seguir

    Dona do ChatGPT teme que pessoas se tornem emocionalmente dependentes de novo modo de voz

    Empresa está preocupada com relacionamentos pessoais entre humanos e inteligência artificial

    Clare Duffyda CNN , Nova York

    A OpenAI está preocupada com o fato de que as pessoas possam começar a depender demais do ChatGPT para companhia, o que poderia levar a uma “dependência”, devido ao seu novo modo de voz com som humano.

    Essa revelação veio em um relatório divulgado na quinta-feira pela OpenAI sobre a revisão de segurança que realizou da ferramenta — que começou a ser disponibilizada para usuários pagos na semana passada — e do grande modelo de linguagem de IA no qual ela é baseada.

    O modo avançado de voz do ChatGPT soa notavelmente realista. Ele responde em tempo real, pode se ajustar a interrupções, faz os tipos de sons que os humanos fazem durante conversas, como rir ou fazer “hmms”. Também pode julgar o estado emocional de um falante com base no tom de voz dele.

    Poucos minutos após a OpenAI anunciar o recurso em um evento no início deste ano, ele foi comparado ao assistente digital de IA no filme de 2013 “Her”, com o qual o protagonista se apaixona, apenas para ficar de coração partido quando a IA admite que também tem relacionamentos com centenas de outros usuários.

    Agora, a OpenAI está aparentemente preocupada que essa história fictícia esteja se tornando um pouco real, depois de observar usuários conversando com o modo de voz do ChatGPT em uma linguagem que “expressa laços compartilhados” com a ferramenta.

    Eventualmente, “os usuários podem formar relacionamentos sociais com a IA, reduzindo sua necessidade de interação humana — o que pode beneficiar indivíduos solitários, mas possivelmente afetar relacionamentos saudáveis”, afirma o relatório. O documento acrescenta que ouvir informações de um bot que soa como um humano pode levar os usuários a confiar na ferramenta mais do que deveriam, dado a propensão da IA a cometer erros.

    O relatório destaca um risco maior em torno da inteligência artificial: as empresas de tecnologia estão correndo para disponibilizar rapidamente ao público ferramentas de IA que dizem poder mudar a forma como vivemos, trabalhamos, socializamos e encontramos informações.

    Mas as companhias estão fazendo isso antes que alguém realmente entenda quais são essas implicações. Assim como com muitos avanços tecnológicos, as empresas frequentemente têm uma ideia de como suas ferramentas podem e devem ser usadas, mas os usuários desenvolvem uma série de outras aplicações potenciais, muitas vezes com consequências não intencionais.

    Algumas pessoas já estão formando o que descrevem como relacionamentos românticos com chatbots de IA, o que está gerando preocupações entre especialistas em relacionamentos.

    “É uma grande responsabilidade para as empresas realmente navegar nisso de uma maneira ética e responsável, e tudo está em uma fase de experimentação no momento”, disse Liesel Sharabi, professora da Arizona State University que estuda tecnologia e comunicação humana, em uma entrevista à CNN em junho. “Eu me preocupo com as pessoas que estão formando conexões realmente profundas com uma tecnologia que pode não existir a longo prazo e que está em constante evolução.”

    A OpenAI afirmou que as interações dos usuários humanos com o modo de voz do ChatGPT também podem, com o tempo, influenciar o que é considerado normal nas interações sociais.

    “Nossos modelos são deferentes, permitindo que os usuários interrompam e ‘peguem o microfone’ a qualquer momento, o que, embora esperado para uma IA, seria anti-normativo em interações humanas”, disse a empresa no relatório.

    Por enquanto, a OpenAI afirma estar comprometida em construir a IA “de forma segura” e planeja continuar estudando o potencial de “dependência emocional” dos usuários em relação às suas ferramentas.

    Tópicos