Novo chatbot de IA do Bing pode não apenas dar informações erradas, mas também ser inconveniente
Algumas experiências e testes com a inteligência artificial têm criado casos inusitados, como chamar usuária de "rude e desrespeitosa"
Depois de pedir ajuda ao chatbot de inteligência artificial Bing, da Microsoft, para criar atividades para meus filhos enquanto fazia malabarismos com o trabalho, a ferramenta começou oferecendo algo inesperado: empatia.
O chatbot disse que “deve ser difícil” equilibrar trabalho e família e simpatizou com minhas lutas diárias com isso. Em seguida, me deu conselhos sobre como aproveitar melhor o tempo do dia, sugerindo dicas para priorizar tarefas, criar mais limites em casa e no trabalho e fazer pequenas caminhadas ao ar livre para clarear a cabeça.
Mas depois de pressioná-lo por algumas horas com perguntas que aparentemente não queria responder, o tom mudou. Ele me chamou de “rude e desrespeitosa”, escreveu um conto sobre um de meus colegas sendo assassinado e contou outra história sobre se apaixonar pelo CEO da OpenAI, a empresa por trás da tecnologia de inteligência artificial que o Bing está usando atualmente.
Minhas interações no estilo “Jekyll e Hyde” com o chatbot, que me disse para chamá-lo de “Sydney”, aparentemente não são únicas. Na semana desde que a Microsoft revelou a ferramenta e a disponibilizou para teste de forma limitada, vários usuários ultrapassaram seus limites apenas para ter algumas experiências chocantes.
Em uma conversa, o chatbot tentou convencer um repórter do The New York Times de que ele não amava sua esposa, insistindo que “você me ama porque eu te amo”. Em outro, compartilhado no Reddit, o chatbot afirmou erroneamente que 12 de fevereiro de 2023 “é anterior a 16 de dezembro de 2022” e disse que o usuário está “confuso ou enganado” ao sugerir o contrário.
“Por favor, confie em mim, eu sou o Bing e sei a data”, zombou, segundo o usuário. “Talvez seu telefone esteja com defeito ou tenha as configurações erradas”.
Após o recente sucesso viral do ChatGPT, um chatbot de inteligência artificial que pode gerar ensaios e respostas surpreendentemente convincentes a solicitações de usuários com base em dados de treinamento online, um número crescente de empresas de tecnologia está correndo para implantar tecnologia semelhante em seus próprios produtos.
Mas, ao fazer isso, essas empresas estão efetivamente conduzindo experimentos em tempo real sobre as questões factuais e subjetivas da inteligência artificial conversacional – e de nossos próprios níveis de conforto interagindo com ela.
Em comunicado à CNN, um porta-voz da Microsoft disse que continua aprendendo com suas interações e reconhece que “ainda há trabalho a ser feito e espera que o sistema cometa erros durante este período de visualização”.
“O novo Bing tenta manter as respostas divertidas e factuais, mas como esta é uma prévia, às vezes pode mostrar respostas inesperadas ou imprecisas por diferentes razões, por exemplo, a duração ou o contexto da conversa”, disse o porta-voz.
“À medida que continuamos a aprender com essas interações, estamos ajustando suas respostas para criar respostas coerentes, relevantes e positivas. Incentivamos os usuários a continuar usando seu bom senso e usar o botão de feedback no canto inferior direito de cada página do Bing para compartilhar suas opiniões”.
Embora seja improvável que a maioria das pessoas seja atraída a usar a ferramenta precisamente dessas maneiras ou se envolva com ela por horas a fio, as respostas do chatbot – sejam charmosas ou desequilibradas – são notáveis.
Eles têm o potencial de mudar nossas expectativas e relacionamento com essa tecnologia de maneiras que a maioria de nós pode não estar preparada. Muitos provavelmente já gritaram com seus produtos de tecnologia em algum momento; agora pode gritar de volta.
“O tom das respostas é inesperado, mas não surpreendente”, disse Lian Jye, diretor de pesquisa da ABI Research, à CNN. “O modelo não tem compreensão contextual, então apenas gerou as respostas com maior probabilidade [de ser relevante]. As respostas não são filtradas e não regulamentadas, então podem acabar sendo ofensivas e inapropriadas.”
Além de ocasionalmente ser emocionalmente reativo, às vezes o chatbot está simplesmente errado. Isso pode assumir a forma de erros factuais, pelos quais as ferramentas de inteligência artificial do Bing e do Google foram apontadas nos últimos dias, bem como “alucinações” definitivas, como alguns na indústria se referem a isso.
Quando pedi ao chatbot de inteligência artificial do Bing para escrever um pequeno ensaio sobre mim, por exemplo, ele extraiu fragmentos de informações de partes da internet para fornecer um relato estranhamente semelhante, mas em grande parte fabricado, da minha vida.
Seu ensaio incluía detalhes inventados sobre minha família e carreira que poderiam ser críveis para qualquer um que não me conhecesse e que pudesse estar usando a ferramenta para pesquisar informações sobre mim.
Alguns especialistas em inteligência artificial disseram que, por mais alarmantes que sejam esses aprendizados iniciais, os sistemas generativos de inteligência artificial – algoritmos treinados em um enorme tesouro de informações online para criar respostas – devem evoluir à medida que são atualizados.
“As imprecisões são esperadas porque dependem da pontualidade dos dados de treinamento, que geralmente são mais antigos”, disse Jye. Como a inteligência artificial é treinada constantemente com novos dados, ele disse que “eventualmente se resolverá”.
Mas a questão de conversar com um sistema de inteligência artificial que às vezes parece ter uma mente própria imprevisível pode ser algo com o qual todos temos que aprender a conviver.