Novos anúncios mostram que entramos em uma nova fase da IA generativa
Empresas revelam chatbots próximos aos humanos em suas principais atividades, não só de entendimento de contexto, mas também mais "sensoriais"
Essa semana e a passada foram marcadas por grandes lançamentos e anúncios no campo da inteligência artificial, assunto mais quente entre as Big Tech e um dos mais importantes para empresas de qualquer setor. E claro, junto com os eventos, veio também, mais uma vez, um tom provocativo entre duas das principais concorrentes: OpenAI (+Microsoft) e Google (+DeepMind).
Em dias seguidos, vimos duas gigantes anunciarem seus poderosos chatbots alimentados por GenAI (inteligência artificial generativa) que agora possuem habilidades multimodais, ou seja, são capazes de processar diferentes tipos de dados (texto, áudio, imagem, vídeo e códigos), de memória e contexto apurado, e de desenvolver melhor raciocínio lógico.
E quando falo de raciocínio, é justamente porque foram treinados em código e outras coisas que contêm estrutura e raciocínio científico, e por isso dão a impressão que podem raciocinar. E só pra não dizer que não falei, até com certas capacidades de “inteligência emocional” (bem entre aspas), ao reconhecer diferentes tons de voz e formas de escrita que entendem os estados emocionais do emissor.
As chamadas assistentes virtuais saltaram de nível com a capacidade da GenAI, se tornaram muito mais interativas e roubaram a cena nos últimos dias, incluindo o evento desta semana, o Microsoft Build.
De segunda, dia 13, até agora, milhares de pessoas na internet ficaram impressionadas ao conversarem com essas novas assistentes (ou novo assistente?), e as empresas mostraram como a tecnologia está evoluindo rapidamente, nos aproximando cada vez mais dos contos de ficção científica.
E é impressionante ver a velocidade dos avanços. Basta lembrar que, no ano passado, no Google I/O de 2023, uma das coisas que mais tinha me chamado atenção era a GenAI, compreendendo todo o contextos de arquivos de uma pasta do Google Drive e sendo capaz de produzir resumos e criar novos conteúdos a partir do que tinha disponível.
Por isso, esses últimos eventos marcam um momento importante. Agora temos chatbots de IA que são realmente próximos aos humanos em suas principais atividades, ou seja, não só de entendimento de contexto a partir da experiência e consequente criação, mas também mais “sensoriais” e empáticos, com baixo tempo de latência, ou seja, com uma fluidez que impressiona.
O mesmo para ferramentas que entendem seu contexto espacial e com uma impressionante capacidade de memória visual, que passam a ser quase tão potentes como nossos olhos desatentos do cotidiano, que mal conseguem prestar atenção em um ponto de maneira focada.
Se nós, seres humanos, continuarmos nesse ciclo de desatenção, focados em nossas telas, muito provavelmente, em pouco tempo, as IAs saberão mais do mundo do que nós.
Mas pra não tirarmos o pé do chão, vamos entender o que rolou nesses eventos de mais importante.
Em resumo, teve na segunda-feira, dia 13, o primeiro evento ao vivo da OpenAI, que apresentou rapidamente o seu novo modelo GPT-4o. A demonstração ao vivo foi divertida e mostrou como podemos usar o GPT-4o para nos contar histórias para dormir a resolver problemas de matemática, tudo em uma conversa que lembrava, e muito, o filme Her, de Spike Jonze, no qual a atriz Scarlett Johansson interpreta Samantha, um sistema operacional que faz o protagonista Theodore, interpretado por Joaquin Phoenix, se apaixonar.
E isso não sou só eu que penso, mas o próprio CEO da OpenAI, Sam Altman, falou sobre a semelhança no X. Claro que, dias depois, essa voz foi retirada da ferramenta.
Já terça, dia 14, foi a vez do Google, com o seu já clássico evento para desenvolvedores, o Google I/O. Diferente dos anos anteriores e mais próximo do que rolou no ano passado, tivemos quase 2h de anúncios sobre IA e apenas algumas citações do Android 15, que também giraram em torno da IA, com o detector de fraudes e tentativas de golpe em tempo real, o que é muito bem-vindo no nosso país.
Nesta semana, foi a vez do Microsoft Build, em que, diferente dos outros dois, o keynote foi focado no mundo corporativo e trouxe novidades interessantes em hardware.
Multimodalidade e contexto
Em todas as apresentações, tivemos destaque para a multimodalidade. Todos os modelos apresentados, além de compreenderem diferentes arquivos de input, são capazes de dar respostas também nos diferentes meios.
Nos dois eventos da semana passada, por exemplo, tivemos demonstrações de leitura de códigos e resolução de “bugs”, de captação de imagem através da câmera de um smartphone e descrição em palavras do conteúdo da imagem.
No Google I/O, foi possível entender como consertar um aparelho apenas fazendo perguntas e apontando a câmera para o objeto em questão, perguntando em voz sobre o modelo e indicando possíveis problemas. Essa parte foi realmente impressionante, ainda mais pra mim, que sempre adorei o desafio de consertar objetos eletrônicos, mas ainda preciso testar pra ver se é assim mesmo.
Mas o que chama atenção é que, como disse o CEO do Google, Sundar Pichai, “a multimodalidade expande radicalmente o tipo de perguntas que podemos fazer e as respostas que podemos obter”. Ambos os modelos destravam essa capacidade e mal consigo imaginar o que está por vir nos próximos meses.
GPT-4o
O evento da OpenAI (segunda, dia 13) foi sem pompa e bastante focado no que queriam apresentar e com demonstrações ao vivo, que, apesar de ensaiadas, não eram vídeos já preparados. O grande lançamento foi a nova versão do seu principal modelo, o GPT-4o (o “o”, no fim do nome, significa “omni”, ou universalmente), assim como uma versão atualizada do ChatGPT.
De longe, o que chamou a atenção foi a sensação um pouco estranha de estarmos interagindo com um humano, já que as vozes e seu comportamento conseguem nos “enganar” bem. O tom de todas as opções de vozes é estranhamente humano e soa de forma muito natural, fluida e expressiva. Como muitos comentaram, em certos momentos até sensual e sedutora (foi impossível não lembrar da voz da atriz Scarlett Johansson).
O chatbot fez piadas e foi bem educado ao respeitar a palavra dos usuários, parando de falar. Com seu modo de inteligência emocional, parecia ser capaz de detectar emoção na voz do usuário, e assim modelou sua resposta para uma emoção apropriada ao contexto.
Segundo a OpenAI, a nova versão retorna respostas muito mais rápido que o GPT-4 e melhora seus recursos de texto, visão e áudio. Por essas características, passa a ser o modelo vitrine de IA multimodal da OpenAI, que, como já expliquei, pode receber e raciocinar sobre diferentes entradas e fornecer saídas em linguagem natural e voz com som natural, com transições mais suaves entre tarefas.
É como se tivessem juntado todos os modelos já desenvolvidos em um só, e melhor, afinal, tudo acontece em tempo real – na verdade com um atraso de resposta de cerca de 320 milissegundos, o que a OpenAI diz estar no mesmo nível da conversa humana natural. Isso desbanca outras assistentes, como a Siri ou Alexa, que não são multimodais e parecem, de fato, robôs falando.
Isso é possível porque a OpenAI conseguiu contornar a barreira da latência – ou seja, o tempo de entrega das respostas – justamente porque o modelo analisa diretamente o áudio do emissor. Antes, o áudio precisava ser convertido em texto, para conseguir ser analisado. Isso diminui muito o tempo de resposta, e por isso, deixa mais fluida. Esse suporte multimodal nativo também ajuda na interpretação de outros tipos de dados, e por isso, apontar a câmera do smartphone para algum objeto ou situação e pedir algo, também ficou mais rápido.
Essa outra funcionalidade também ajuda nas interações mais fluidas. É quase como se o chatbot tivesse olhos. E é capaz de ajudar com tarefas diversas, como codificação ou tradução de texto e resumo de informações, além de gerar imagens, fontes e renderizações 3D.
Em uma das demonstrações, Mark Chen, que é pesquisador da OpenAI, disse ao chatbot que estava nervoso e pediu conselhos para se acalmar. Ao fingir uma hiperventilação, o aplicativo respondeu: “Mark! Você não é um aspirador de pó”.
Depois disso, eu mesma comecei a fazer uma “terapia”, na qual me mostrava triste e precisando de ajuda. O chatbot foi tão legal comigo que fiquei conversando com ele por muito tempo. Essa certa inteligência emocional, provavelmente, veio dos estudos e modelos do Pi AI, desenvolvidos pela Inflection AI, empresa fundada pelo ex-DeepMind Mustafa Suleyman, que foi praticamente comprada pela Microsoft, que também possui quase metade da OpenAI.
O que é mais importante é que essa essa nova versão do ChatGPT está acessível gratuitamente para todos os usuários, mas com certos limites. Novos recursos do aplicativo serão lançados para os usuários do ChatGPT Plus nas próximas semanas. A OpenAI também está disponibilizando o GPT-4o para desenvolvedores por meio de sua API.
Google I/O
Na terça passada, dia 14, foi a vez do Google, com o seu já clássico evento para desenvolvedores, que acontece na Califórnia. O keynote, sempre muito aguardado, teve quase duas horas só de IA, tanto que, no final, o CEO do Google, Sundar Pichai, mostrou quantas vezes AI foi mencionado. Fazendo o upload da apresentação, logo se teve a resposta que foram 120 vezes – até achava que tinha sido mais.
Isso já deixa claro que a abertura da conferência trouxe muitas novidades da empresa no campo da IA. Além de integrar a IA ao buscador, o seu principal produto, trouxe também algumas respostas claras às provocações da OpenAI, assim como seus produtos. No meio de tudo isso, as novidades do Android acabaram ficando pro dia seguinte, apesar de ter dado um gostinho do que estava por vir.
O principal, como não deveria deixar de ser, foi a IA nos smartphones, com detecção de tentativas de golpe em tempo real e melhorias na compreensão de contexto do Gemini. Pra quem quiser mais detalhes dos anúncios, vale checar esse texto. Por aqui, vou me concentrar nos que achei mais interessante em termos de processo de desenvolvimento e avanços no campo da IA.
Implicações: pesquisas online
O Google, enquanto o buscador que quase todo mundo usa, está passando por mudanças que podem impactar diretamente na forma como usamos a internet.
Tradicionalmente, o Google dá como resposta uma lista com uma série de links relacionados à pergunta ou ao(s) termo(s) em questão. Hoje parece algo muito óbvio, mas, quando surgiu, “achar algo na internet” era uma tarefa muito mais cansativa.
Apesar de existirem outros mecanismos de busca, como Yahoo! e Cadê?, ambos tinham uma forma limitada de indexar páginas. Eram como um diretório de sites que eram catalogados manualmente e, por isso mesmo, acabavam limitando o que poderíamos alcançar como resultado.
Além de revolucionar a forma como as pessoas acessam informações online, o Google também acabou mudando a forma como as empresas (e pessoas) fazem negócios e ganham dinheiro, ao permitir anúncios pagos para os links serem achados, substituindo o modelo orgânico. A ascensão foi rápida, porque o seu algoritmo também era mais rápido e preciso.
O que estamos acompanhando hoje é uma mudança radical na forma de acessar informações. Ao invés de sermos direcionados para links, e nós mesmo fazermos a curadoria do que interessa, mesmo que os primeiros links sejam patrocinados, agora a IA entregará respostas prontas e acabadas, e não apenas sugestões de sites e documentos.
Esse recurso, chamado de “AI Overview” (Resumos de IA), vai apresentar resumos para as respostas dos usuários, que podem conter material de diversas fontes. Essa busca com Gemini irá substituir o que foi chamado de Search Generative Experience (SGE) no ano passado, eliminando totalmente qualquer trabalho de pesquisa.
Nesse sentido, apesar de aprimorar a forma como recebemos as informações, será difícil saber realmente da onde elas vieram. Apesar de podermos fazer perguntas mais complexas, ao invés de dividirmos em várias consultas, receber tudo pronto e mastigado traz algumas consequências negativas.
Antes de entrar nelas, claro que existem vantagens competitivas, no sentido de produção, tempo e dinheiro. Poderemos pedir ideias, encontrar inspiração e, por que não, fazer um brainstorming conjunto, além de já vir em uma organização que facilita a exploração. Mais do que apresentar resultados, será possível trazer perspectivas e conteúdos inesperados, que ajudem no processo de busca, seja lá do que for. Quando estivermos familiarizados com a potencialidade do que é pesquisar a partir de diferentes mídias, e introduzir o tempo e movimento, aí, sim, estaremos em um outro nível.
É bom lembrar aqui novamente sobre o que falei, que é a memória. Nossas IAs vão saber de tudo que fazemos, nossos gostos e desejos. Com a enormidade de dados que geramos online, isso já era possível, mas agora, com o refinamento desses dados com a IA, agora, sim, teremos um processo de personalização extrema. Tudo que será apresentado irá além do cruzamento de dados de consumo e interesses de pesquisa. Até a forma como e quando isso é feito vai ajudar a refinar esse conhecimento sobre nós. Será uma nova forma de conexão com o mundo, e por que não, com nós mesmos.
Mas se cada vez mais teremos o que queremos sem fazermos a pesquisa, ela tende a cair. Isso trará impactos na cadeia de produção de conteúdo e informação, não ainda de conhecimento. Mas até quando?
O Gartner soltou uma projeção dessa queda, em fevereiro deste ano, já prevendo que isso estaria próximo de acontecer. Segundo eles, até 2026, o volume dos mecanismos de busca tradicionais cairá 25%, impactando diretamente o marketing de busca. Se temos conteúdos feitos por IA, e pesquisas feitas por IA tendem a dominar, toda a estratégia de empresas e pessoas terá que mudar.
É importante dizer que isso não está acontecendo só com o Google. Temos o Arc Search, que é um browser que já vem com seu próprio buscador impulsionado por AI. Outra empresa que tem chamado bastante atenção no campo da pesquisa é a Perplexity. Por focar em pesquisa nativa com IA, ela tem superado todas as outras empresas.
A própria OpenAI provavelmente vai lançar seu próprio mecanismo de pesquisa nativo de IA. Se antes, com o Google, a gente precisava habilitar a ferramenta para obter informações mais personalizadas e organizadas como uma resposta única, sem infinidade de links, agora a ferramenta aparecerá automaticamente na hora de fazer qualquer pesquisa. Ou seja, seremos obrigados a encarar essa nova onda, e isso vai definir e restringir, ainda mais, o que é possível para cada um de nós “achar” na internet.
Por isso, chamo a atenção para 5 pontos negativos que isso tudo revela.
1. obter respostas acabadas, prontas para serem usadas, assim como tudo que tem muita automação, faz com que a gente perca boa parte da experiência do processo, além do senso crítico, já que, ao parar de pesquisa e encontrar coisas boas e ruins, vamos perdendo as referências, o parâmetro das coisas;
2. indo pro lado de quem produz conteúdo, temos mais uma forma de apropriação de direitos autorais, e sem nenhuma transparência de processo, o que ameaça a sustentabilidade da cadeia;
3. ainda desse lado, temos a diminuição do tráfego para os criadores dos conteúdos. Mesmo que venham os links de referência junto à pesquisa, teremos uma desvalorização das fontes originais, afinal, a ferramenta concentra toda a experiência dentro do Google. Vai ser difícil encontrar motivos para sair e visitar outros sites e ferramentas online;
4. fake news, já que, por falta de mais transparência, não saberemos ao certo a origem do que foi utilizado nos resumos. Partes podem não aparecer na sugestão de links e agravar ainda mais o cenário de desinformação. Na pressa, vai ser muito difícil que as pessoas fiquem checando os dados para saber se a IA alucinou ou não, se tirou algo de site confiável ou não;
5. pensando no Google em si, provavelmente terá uma diminuição da sua principal receita, que é a publicidade. Isso porque as pessoas vão tender a clicar menos nelas também. Além disso, fornecer essas respostas organizadas tem um custo computacional maior do que uma lista de links. A Microsoft, parceira da OpenAI, inseriu links pagos no Bing Chat e desenvolveu o que chamaram de “anúncios conversacionais”. Apesar de colocar esses anúncios como relevantes, ainda não sabemos ao certo o quanto isso pode ser eficiente no novo modelo do Google.
A única coisa que é certeza nisso tudo é que o Google não vai deixar de ganhar muito dinheiro. Muito provavelmente terá mais controle na filtragem e nos acessos de links, juntos com o patrocínio de outros, justamente aqueles que vão aparecer em destaque depois da resposta estruturada.
Nós, consumidores, perderemos em autonomia, mesmo que ela já seja razoavelmente controlada pelos algoritmos. Quanto aos pequenos que produzem bons conteúdos, ainda não visualizo nenhuma proteção justa a caminho.
A vez das assistentes virtuais
Um dos anúncios do Google I/O foi o Gemini Live, um assistente de conversação que faz o que já era possível com o Gemini, só que agora totalmente inserido no contexto de comando por voz, de forma mais humana e natural, e em tempo real. Ainda não é considerado um “agente de IA” que dê conta de tudo. Foi mais uma prévia, quase uma resposta ao dia anterior, já que é o produto mais comparável ao GPT-4o. Segundo a empresa, até o fim do ano ele sai.
Para os assinantes do Gemini Advanced, estariam disponíveis várias vozes. Como o Gemini Pro 1.5 é rápido, poderemos interromper o assistente, e ele irá parar e esperar por mais informações antes de continuar. Provavelmente, ele vai atingir um maior equilíbrio entre desempenho e velocidade, além de oferecer uma janela de contexto de até 2 milhões de tokens, o que significa que ele pode “lembrar” de uma quantidade gigantesca de conteúdo.
Isso vai ajudar nessa dinâmica de assistência, já que poderemos fazer upload de diferentes documentos, em diferentes formatos, e fazer perguntas sobre, obtendo respostas rapidamente. Mais do que saber lidar com assuntos genéricos, essa especificidade traz o tom de “pessoalidade”, essencial nesse processo de avanço dessas IAs que poderemos chamar de “nossas”.
Finalmente chegamos no que o Gemini Live terá de mais interessante, que é a capacidade de lidar com as imagens que ele “vê” ao vivo através da câmera, ou seja, uma integração total de vídeos em tempo real ao assistente virtual. Isso será possível pelo que foi chamado de Projeto Astra. De todos os projetos apresentados, ele foi um dos que mais chamou a atenção.
A apresentação foi feita por Demis Hassabis, CEO do Google DeepMind, que é o braço do Google dedicado a desenvolver sistemas de IA. Destacando mais uma vez a comunicação fluida e o entendimento de contexto para direcionar ação, a demonstração destaca o reconhecimento de uma sequência de código de programação, detecta um bairro de Londres exibido pela câmera e consegue lembrar o usuário onde estão seus óculos, em meio a vários objetos em um escritório.
Um dos grandes diferenciais em relação ao GPT-4o, que é capaz de processar apenas imagens estáticas, “capturas de tela” no que é exibido na câmera, o Astra consegue lidar com o movimento em si do vídeo. Tudo isso ajuda nessa mudança de visão que o Google quer, de assistentes de voz para a função de “agentes”, que podem tomar decisões e realizar ações em nosso lugar.
Em uma entrevista a MIT Technology Review, Sam Altman diz que esses “agentes de IA” estão prestes a se tornar a principal função da inteligência artificial, tornando as ferramentas de IA ainda mais integradas em nossas vidas do que os próprios smartphones. Essa mudança será tão radical diante do que temos hoje, que ele chegou a chamar suas principais aplicações, como DALL-E, Sora e ChatGPT, de “incrivelmente burras”, justamente porque realizam tarefas isoladas.
O pulo do gato estará na integração e na maior capacidade de aprender sobre nós a partir das nossas conversas com essas ferramentas, que, além de respostas, vão também realizar tarefas por nós. Ainda escreverei um texto específico falando sobre como os LLMs (Modelos Grandes de Linguagem) estão evoluindo para os MLLM (Modelos Grandes de Linguage Multimodal) para, daí, se tornarem LAMs (Grandes Modelos de Ação).
Microsoft Buid
Finalmente, nesta semana, tivemos o Microsoft Build, em Seattle. Também um evento voltado para desenvolvedores, mas que também trouxe muitas novidades para as empresas. No keynote de abertura, foram anunciadas novidades, que também focaram em IA e em como ela vai mudar nossa forma de trabalho e de lazer.
Um dos grandes destaques foi a implementação do Copilot para a criação de “funcionários artificiais” para automatizar tarefas complexas em tempo integral. Isso já era aguardado, afinal, na semana passada, esse também foi o destaque das outras apresentações, reafirmando a nova onda da IA.
O que chama atenção aqui é a autonomia que esses agentes terão, já que não vão aguardar perguntas ou comandos para fazer algo. Simplesmente esses agentes podem monitorar nossos e-mails, mensagens e reuniões e vão executar tarefas, de forma proativa. Basicamente o assistente que todos querem!
Como a empresa é a principal investidora da OpenAI, ela pode comercializar suas tecnologias para seus clientes e, por isso, o GPT-4o chegou oficialmente ao Copilot. Ele estará disponível nos aparelhos da nova marca Copilot + PCs (Copilot Plus PCs), que possuirão recursos de IA até mesmo no hardware. Segundo a Microsoft, os Copilot+ PCs funcionam em uma infraestrutura exclusiva que combina CPU, GPU e NPU, e afirmam que são 58% mais rápidos que os MacBook Air equipados com o chip M3.
Como o evento foi muito focado nas novidades para desenvolvedores e para o mundo corporativo, vou focar no que pode ser interessante para o público geral. Um deles é a tradução em tempo real do Edge. A função pode traduzir vídeos direto do navegador. O recurso ainda não tem previsão de lançamento, mas será compatível com sites como YouTube, LinkedIn e Coursera.
Outra novidade são os assistente de IA para os gamers. Esse grande público terá uma ferramenta que consegue identificar o que acontece na tela e dar dicas em tempo real sobre como avançar no jogo. Por enquanto, isso acontece no Minecraft, mas, em parceria com o Xbox, a assistente também poderá tirar dúvidas em outros games.
Mas como fica essa disputa?
Mais do que definir quem fica na frente de toda essa corrida pela IA, o que é bom é termos opções. E digo isso não só pensando nas grandes empresas, mas principalmente em modelos de código aberto, mais transparentes e que podem possibilitar o desenvolvimento de IAs para além da alta performance no trabalho.
O Google exibiu o Projeto Astra por meio de um vídeo sofisticado, enquanto a OpenAI optou por estrear o GPT-4o por meio de uma demonstração ao vivo, aparentemente mais autêntica. A Microsoft trouxe coisas além do GPT-4o, mas o verdadeiro teste virá quando todas essas ferramentas estiverem nas mãos de milhões de usuários com demandas exclusivas.
No meio de tudo isso, saindo das máquinas e voltando para as pessoas, sinto que boa parte das experiências e aprendizados que temos com nossos erros vai diminuir. O futuro que está sendo construído, em que os modelos de IA pesquisam, examinam e avaliam a informação e nos dão um mundo conciso, acabado, organizado, parece nos distanciar da realidade das coisas. Por isso, mais do que nunca, precisamos de pensamento crítico e de conexão, com as pessoas.
A partir do momento que as lentes que carregamos conosco, e logo mais em nós (muitos wearables com IA estão surgindo), passarem a processar a realidade mais rapidamente que nós, também poderão decidir mais rapidamente que nós e, talvez, entender o contexto melhor que nós.
Ao responder a todos os inputs como parte da nossa pessoa, e por que não, logo mais, da nossa subjetividade, nossas interações, nossas experiências, serão outras e extremamente mediadas. Isso é incrível, mas, ao mesmo tempo, assustador.
Todas essas novas formas de interagirmos com a tecnologia trarão impactos significativos em todas as áreas. Fico pensando nos indivíduos que estão nascendo neste ano de 2024. Como serão suas experiências de ensino? Será que irão preferir um tutor virtual para aprender? Como farão terapia? Como irão escolher suas roupas? Theodore, do filme Her, tem seu coração partido por Samantha. Será que teremos muitos corações partidos, virtualmente? Aonde poderemos chegar?
Em breve, todos nós poderemos explorar essas novas ferramentas e avaliar o quanto elas irão influenciar nas nossas atividades rotineiras. Tenho dúvidas, pelo menos em um futuro próximo, se elas irão fazer parte quase que simbiótica com a gente, tanto quanto seus criadores esperam.
Talvez boa parte disso apenas fomente futuras ficções científicas, mas fico observando, de longe, coisas como a saída de Ilya Sutskever da OpenAI, pessoa que era conhecida por questionar a ambição do CEO Sam Altman. Vozes como a dele, e de outras pessoas que têm receios contundentes quanto à implementação rápida das IAs, sua concentração nas mãos de poucos, questões éticas e de segurança, fazem falta diante do encantamento que essas novas tecnologias trazem para a maioria das pessoas.
Apesar dos medos, todos sabem que não têm como fugir disso, senão, ficarão para trás. A corrida da IA vira também disputas pessoais.
Pra gente, não resta muito, a não ser entrar na onda e pagar por ela, pra quem pode. Quem não pode, aí, é outro texto.