Prime Time

seg - sex

Apresentação

Ao vivo

A seguir

    Rita Wu
    Blog

    Rita Wu

    Arquiteta e designer apaixonada por tecnologias. Interdisciplinar por natureza e indisciplinar por opção, é palestrante, maker e mãe do doguinho Ovo

    A era dos dispositivos com inteligência artificial

    Novos gadgets tentam substituir boa parte das funções dos smartphones e despertam dúvidas sobre como podem se integrar ao ecossistema dos celulares

    Depois do boom da inteligência artificial (IA) em ferramentas online pra se fazer quase tudo, agora estamos entrando na era dos dispositivos com IA.

    Do início do ano pra cá, muitos deles foram lançados e alguns chamaram bastante a atenção dos “early adopters”, como o AI Pin, Rabbit R1, os óculos inteligentes da Brilliant Labs e o Ray-Ban Meta.

    Diante desses gadgets, temos produtos que já fazem parte do nosso dia a dia, como os smartphones da Samsung Galaxy AI e os novos computadores Copilot+PC da Microsoft, lançados no mês passado.

    Enquanto os dois últimos possuem funções mais abrangentes e conhecidas, os novos gadgets estão gerando uma nova onda de dispositivos que tentam, de alguma forma, substituir boa parte das funções dos nossos computadores mobile, os nossos celulares.

    Não quero fazer uma crítica aprofundada desses produtos e sua viabilidade per se, já que não experimentei nenhum deles e não faço questão de comprar no momento. Confesso que quase comprei o Rabbit, porque achei ele extremamente fofo, mas só. Ele tem o apelo de design dos outros produtos da Teenage Engineering, que já é conhecida como a “Apple da GenZ”e tem uma série de produtos incríveis.

    Mas o que esses produtos têm de interessante é que trazem uma provocação ao mercado, mais pela sua existência do que por suas funcionalidades. Eles sugerem que nossos smartphones podem ser bem diferentes do que são hoje.

    Como dispositivos que focam na experiência e na interação baseada em IA, eles trazem um frescor para o design de produtos. Diferente do que acontece hoje, quando podemos usar diversos aplicativos em nossos celulares com inteligência artificial, o próprio dispositivo coloca a IA na frente de toda a experiência, na frente de tudo que fazemos e acessamos.

    Vou deixar isso mais claro. Para fazer qualquer coisa, usamos vários programas e aplicativos que possuem funções específicas. Temos um para fazer nossas listas, outro para organizar nossas tarefas, agenda para colocar tudo distribuído ao longo do tempo e por aí vai. E isso que estou falando só de apps de organização. Muitas vezes, os aplicativos não se conversam e temos que ficar passando informações de um para o outro.

    LAM

    Agora, vamos imaginar ações muito básicas que temos que fazer no nosso dia a dia. Você recebe um email, que pede pra você assinar uns documentos e fazer uma transferência bancária, enviar o comprovante e atualizar algumas tabelas, além de avisar toda a equipe no Slack que tudo foi feito. Um trabalhinho que demanda um certo tempo pra dar conta de todas as ações.

    Mas com os chamados modelos de ação grande, ou LAM, podemos usar todo o poder dos LLM, que são os modelos de boa parte das IAs que estamos usando hoje e que entendem a nossa linguagem muito bem, para fazer as coisas, para tomar decisão e partir pra ação. Basicamente, um LAM é um modelo que executa ações com base nos prompts que recebe, e isso inclui instruções escritas ou verbais. Eles têm a capacidade de compreender quase qualquer interface de usuário e navegar por ela.

    Isso é revolucionário, já que estamos falando da automação real do nosso cotidiano, no que mais nos demanda tempo (e saco). Os LAMs são projetados para compreender e executar tarefas complexas, com base no que os usuários desejam. Isso é feito analisando uma sequência de ações realizadas e, em seguida, replicando essas ações.

    Pra quem curte automação robótica de processos (RPA), isso parece bastante familiar, mas a principal diferença é que a RPA é super específica e não “possui cérebro próprio”, pois executa uma tarefa exatamente como é instruída a fazer. Já os LAMs são inteligentes e podem deduzir um pouco mais e se adaptar, por meio dos dados. Isso permite que eles tomem decisões por nós, como se fossem nós mesmos. Meio perigoso, mas muito potente.

    Então, para aquele mesmo problema no trabalho que citei acima, com um LAM, você pode estar fazendo a sua caminhada matinal e pedir pro dispositivo que está na sua roupa, por exemplo, verificar esse e-mail recebido e executar todas as tarefas necessárias para você, incluindo fazer o login no app do seu banco ou o da empresa e fazer as movimentações necessárias. E é justamente essa a promessa do LAM no hardware: abstrair todas essas etapas em ações virtuais.

    Pedir uma pizza vai ser apenas uma mensagem de voz. O dispositivo poderia acessar o aplicativo da pizzaria ou do delivery de comida, “tocar” nos botões, preencher as informações de endereço e pagamento. E claro que ele já vai saber seu sabor predileto! É esse tipo de coisa que dispositivos como o Rabbit R1 se propõe a fazer.

    Outro exemplo é o AI Pin, um “broche” inteligente ao qual você pode perguntar algo, pedir pra tocar uma música (“Alexa feelings”) ou tirar uma foto. O dispositivo vai executar sua consulta por meio de uma série de modelos de linguagem para descobrir o que você está pedindo e escolher a melhor forma de realizá-lo. Tudo isso propõe mais do que uma maior produtividade nas tarefas. É a possibilidade de simplesmente mandarmos nosso assistente virtual fazer a tarefa.

    Dispositivo AI Pin, lançado pela empresa Humane / Divulgação/Humane

    Decepção e telas

    E tudo isso, que parece um sonho, está bem próximo da realidade. Apesar de todos os reviews criticarem categoricamente a funcionalidade desses dispositivo, principalmente o AI Pin e o Rabbit, afinal, eles não funcionam muito bem mesmo, alguém tinha que dar o primeiro passo. Acho que, nesse caso, eles poderiam ter sido anunciados mais como protótipos, e não produtos acabados, e principalmente serem vendidos a preços que condizem com a realidade.

    Outra coisa que também deixou a desejar é que tudo que eles conseguem executar está longe das promessas do que um LAM é capaz de fazer, além de serem lerdos e terem bugs muito chatos. Mas o principal argumento contra todos esses dispositivos de IA até agora é que os smartphones existem e, diante do que é possível fazer, eles já fazem muito melhor. Mesmo diante desse cenário, a principal pergunta a se fazer no momento é: pra onde está indo a evolução dos smartphones em si?

    Não sei você, mas eu estou exausta de telas. Eu tento usar o celular o mínimo possível, porque já fico com os olhos na tela do computador o tempo todo. Quando saio, muitas vezes nem levo meu celular e ando apenas com meu smartwatch, que tem tudo que mais preciso: Whatsapp, faz ligação e pagamentos, posso ouvir música, gravar áudios, descobrir músicas, fazer anotações, ver agenda e e-mails.

    A única coisa que sinto falta é não poder tirar foto ou gravar um vídeo. Mas olha só que bacana. Se eu tivesse um Ray-Ban Meta, poderia adicionar minhas lentes com grau, ter a câmera e continuar com os apps do relógio. Se o relógio funcionasse completamente a partir dos meus comandos de voz, principalmente transcrever meus áudios em mensagens, já estaria bem mais tranquila e certamente usaria meu smartphone como um “celular fixo”, apenas em casa pra dar uma olhadinha de leve em redes sociais.

    Outro ponto importante a ser pensado é que, de tanto usarmos o celular durante o nosso dia, a gente mal percebe o quanto de fricção, de contato, que ele demanda dos nossos olhos e mãos. Pra quem vive em grandes cidades, não dá pra ficar com celular na mão, a não ser que você queira se desfazer dele rapidinho. Eu sempre dou um jeito bizarro de esconder e deixar ele o mais inacessível possível. Só uso se estiver dentro de locais confiáveis.

    Só a fricção de tirar ele do esconderijo, desbloquear com digital e senha longa (sim, tenho os dois), procurar o aplicativo de mensagens, desbloquear ele também, procurar a mensagem no meio de várias, escrever e enviar… nossa, é um rolê. Adoraria só dizer, andando em qualquer lugar, “diga que sim para X e que o encontro em 20 minutos”, sem ter que tocar e olhar pra nada.

    Isso ainda não é possível, mas o que vimos no filme “Her” não está tão longe assim, e o mercado de wearables, esses dispositivos vestíveis, está mais quente do que nunca.

    As IAs alucinam, erram, podem não nos conhecer por completo e todo esse processo pode ter outro tipo de fricção. De qualquer forma, antes de um dispositivo de substituição do celular, podemos pensar em como esses novos dispositivos podem se integrar ao ecossistema dos nossos smartphones, assim como aconteceu com fones de ouvido e smartwatches.

    Mercado

    Faz poucos dias que a Humane, empresa do AI Pin, anunciou um grave problema nas células da bateria do estojo de carregamento, sem dar grandes explicações e apenas isentando os donos do gadget de dois meses de assinatura. Percebe-se que esse e outros produtos na mesma linha estão longe de serem concorrentes à altura dos smartphones.

    Como disse, na verdade, eles não são produtos acabados. Para que essas e outras startups avancem nesse desenvolvimento, conseguindo entrar em um mercado dominado pelas grandes empresas como a Apple, o ideal é que esses dispositivos possam ser testados à exaustão. Eles precisam ser acessíveis e ter uma comunidade de pessoas que contribuam com feedbacks e com o desenvolvimento em si.

    Iniciar um negócio com aparelhos caros (Ai Pin custava US$ 700 + assinatura mensal de US$ 24 pra usar os seus recursos, e o Rabbit, US$ 199) não deve ser uma opção. É como se estivessem te vendendo um protótipo beta, nem é o final, por preço de iPhone.

    Outro ponto básico é que, se tratando de produto, de hardware que por si só, é mais caro que software. As pessoas precisam de um motivo ou demanda para comprar e, se tratando de gadgets com inteligência artificial, assim como qualquer coisa que venha com sobrenome IA, não podemos nos aventurar apenas por uma promessa e um vídeo muito bem editados. É tipo o vídeo renderizado, 3D, que o Zuckerberg apresentou como se fosse o seu metaverso operando. Temos que nos apoiar no que as coisas são, no que elas entregam, e não em futuras atualizações.

    Sam Altman, CEO da OpenAI disse, em uma entrevista, que os agentes de inteligência artificial estão prestes a se tornar a principal função da IA, e que não necessariamente precisaremos de um novo dispositivo pra isso. Segundo ele, poderia ser mais um app funcionando na nuvem, apesar de Altman ser um dos  investidores da Humane.

    Eu, por outro lado, acredito que os smartphones podem ser revolucionados, mesmo que seja um caminho longo, perto da rapidez com que as IAs evoluem, pelo menos agora. É importante lembrar que o campo da inteligência artificial existe desde a década de 50 do século passado, então, essa rapidez vem com maturidade. E isso, os smartphones possuem, mas não significa que serão nossos principais dispositivos pra sempre.

    Meta revela Ray-Bans com transmissão via Facebook e assistente de IA

    Tópicos