Pesquisadores da OpenAI alertaram conselho sobre avanço da IA antes da demissão do CEO, dizem fontes
Carta escrita foi um dos fatores, entre outras queixas, que levou Altman à demissão
Antes dos quatro dias de exílio do CEO da OpenAI, Sam Altman, vários pesquisadores escreveram uma carta ao conselho de administração alertando sobre uma poderosa descoberta de inteligência artificial que, segundo eles, poderia ameaçar a humanidade, disseram à Reuters duas pessoas familiarizadas com o assunto.
A carta e o algoritmo de IA não relatados anteriormente foram desenvolvimentos importantes antes da demissão de Altman pela diretoria, o garoto-propaganda da IA generativa, disseram as duas fontes.
Antes de seu retorno na terça-feira (21), mais de 700 funcionários ameaçaram se demitir e se juntar à Microsoft (MSFT.O) em solidariedade ao líder demitido.
As fontes citaram a carta como um fator entre uma lista mais longa de queixas da diretoria que levou à demissão de Altman, entre as quais estavam preocupações com a comercialização de avanços antes de entender as consequências.
A Reuters não conseguiu analisar uma cópia da carta. Os funcionários que escreveram a carta não responderam aos pedidos de comentários.
Depois de ser contatada pela Reuters, a OpenAI, que se recusou a comentar, reconheceu em uma mensagem interna para os funcionários um projeto chamado Q* e uma carta para a diretoria antes dos eventos do fim de semana, disse uma das pessoas.
Um porta-voz da OpenAI disse que a mensagem, enviada pela executiva de longa data Mira Murati, alertava a equipe sobre certas histórias da mídia sem comentar sobre sua precisão.
Algumas pessoas da OpenAI acreditam que o Q* (pronuncia-se Q-Star) pode ser um avanço na busca da startup pelo que é conhecido como inteligência artificial geral (AGI), disse uma delas à Reuters. A OpenAI define AGI como sistemas autônomos que superam os humanos na maioria das tarefas de valor econômico.
Com vastos recursos de computação, o novo modelo foi capaz de resolver determinados problemas matemáticos, disse a pessoa sob anonimato porque não estava autorizada a falar em nome da empresa.
Apesar de realizar apenas cálculos matemáticos no nível de alunos do ensino fundamental, o fato de ser bem-sucedido em tais testes deixou os pesquisadores muito otimistas quanto ao sucesso futuro do Q*, disse a fonte.
A Reuters não conseguiu verificar de forma independente as capacidades do Q* reivindicadas pelos pesquisadores.
Os pesquisadores consideram a matemática como a fronteira do desenvolvimento da IA generativa. Atualmente, a IA generativa é boa em escrita e tradução de idiomas, prevendo estatisticamente a próxima palavra, e as respostas para a mesma pergunta podem variar muito.
Mas conquistar a capacidade de fazer contas – onde há apenas uma resposta certa – implica que a IA teria maior capacidade de raciocínio, semelhante à inteligência humana. Isso poderia ser aplicado a novas pesquisas científicas, por exemplo, acreditam os pesquisadores de IA.
Ao contrário de uma calculadora que pode resolver um número limitado de operações, a AGI pode generalizar, aprender e compreender.
Em sua carta ao conselho, os pesquisadores destacaram a proeza e o perigo potencial da IA, disseram as fontes, sem especificar as preocupações de segurança exatas observadas na carta.
Há muito tempo, os cientistas da computação discutem sobre o perigo representado por máquinas altamente inteligentes, por exemplo, se elas podem decidir que a destruição da humanidade é de seu interesse.
Os pesquisadores também indicaram o trabalho de uma equipe de “cientistas de IA”, cuja existência foi confirmada por várias fontes. O grupo, formado pela combinação das equipes anteriores “Code Gen” e “Math Gen”, estava explorando como otimizar os modelos de IA existentes para melhorar seu raciocínio e, eventualmente, realizar trabalhos científicos, disse uma das pessoas.
Altman liderou os esforços para tornar o ChatGPT um dos aplicativos de software de crescimento mais rápido da história e atraiu investimentos – e recursos de computação – necessários da Microsoft para se aproximar da AGI.
Além de anunciar uma série de novas ferramentas em uma demonstração este mês, Altman afirmou na semana passada em cúpula de líderes mundiais em São Francisco, que acreditava que grandes avanços estavam à vista.
“Quatro vezes na história da OpenAI, sendo que a mais recente foi apenas nas últimas semanas, eu pude estar na sala, quando nós meio que empurramos o véu da ignorância para trás e a fronteira da descoberta para frente, e fazer isso é a honra profissional de uma vida”, disse ele na cúpula da Cooperação Econômica Ásia-Pacífico.
Um dia depois, o conselho demitiu Altman.