Baidu está confiante de que chatbot de IA não cometerá erros em “tópicos sensíveis”
Testes mostraram que Ernie bot, nova plataforma semelhante ao ChatGPT, não responde a uma ampla gama de perguntas relacionadas a líderes do governo chinês
A experiência da Baidu em adaptar seu mecanismo de busca aos requisitos regulatórios chineses a deixa confiante de que seu chatbot baseado em inteligência artificial não cometerá erros em “tópicos importantes e sensíveis”, disse a companhia na terça-feira (16).
Em uma conferência com analistas, o presidente-executivo da Baidu, Robin Li, disse que a empresa espera a aprovação do governo antes de lançar seu chatbot Ernie, semelhante ao ChatGPT, cujos testes feitos pela Reuters mostraram que a plataforma se recusa a responder a uma ampla gama de perguntas sobre política, particularmente aquelas relacionadas a líderes do governo chinês.
“Para tópicos importantes e sensíveis, temos que garantir que a inteligência artificial não alucine”, disse Li, utilizando o termo do setor para quando os modelos de IA geram resultados diferentes do esperado.
“Dado que o LLM (modelo de linguagem ampla) é mais ou menos um modelo probabilístico, essa tarefa não é problema algum”, acrescentou, referindo-se ao modelo usado por muitos chatbots de IA, como o ChatGPT e o Ernie bot.
Li disse que a regulamentação do setor ainda não é definitiva e que a empresa continuará atualizando sua estratégia à medida que evolui.
“A Baidu opera serviços de busca na China há mais de 20 anos e possui ampla experiência com a cultura chinesa e o ambiente regulatório”, disse ele.
“Por outro lado, as empresas que não possuem ampla experiência em fornecer conteúdo online apropriado ou que não têm histórico de colaboração próxima com reguladores enfrentarão desafios significativos.”