O necessário Prompt Educacional da Inteligência Artificial
(Este artigo não foi escrito por Inteligência Artificial)
Esse pode ser seu trigésimo artigo sobre Inteligência Artificial apenas neste ano. Ou, dependendo do nível de fascínio –ou preocupação– já tenha superado três dígitos na quantidade de conteúdo lido e assimilado sobre o tema.
Fato é que, depois do frisson, que começou pelos impressionantes números de usuários do ChatGPT, seguido por eventos como CES, SXSW e Web Summit, não falamos de outra coisa. E talvez tenhamos chegado a um novo estágio desse debate, agora com ânimos menos exaltados e mais “pé no chão”.
Quem não esteve acompanhando e aplicando de perto os recursos da IA em empresas com base tecnológica certamente se desconectou desse mundo, hoje considerado irreversível.
Segundo o estudo Global AI Adoption Index 2022, realizado pela IBM, 41% das empresas brasileiras implementaram a inteligência artificial, sendo que 39% o fizeram para obter benefícios como redução de custos e automatização de processos. Na prática, a AI é usada em funções como detecção de segurança e ameaças (44%), conversação (44%), marketing e vendas (30%) e operações de TI (30%).
Atuando na maior empresa de aprendizagem do mundo, vivencio a IA na prática e entendo a razão pela qual já não imaginamos qualquer solução sem ela. Esta é a maior oportunidade de engajar e customizar uma jornada de aprendizado de forma sem precedentes na nossa história.
É um aliado do professor, ajuda-o a entender a diversidade de seus alunos e a agir ao menor sinal de desengajamento com poderoso aliado em real-time –antes que esse desengajamento se torne em efeitos negativos de resultado de aprendizagem.
Porém, desde o princípio, entendemos que, ao se render ao potencial da tecnologia sem uma análise crítica e ética, a oportunidade se torna um risco tão potencial quanto seus efeitos positivos.
E apenas aplicar diretrizes de compliance não é suficiente. Esperar por regras de algo ainda desconhecido, muito menos regulado por governos e mecanismos supranacionais – que não são suficientemente velozes para acompanhar as mudanças – é operar no escuro.
Muitas das novas tecnologias vêm tropeçando pela falta de regulamentação ou definição dos limites de operação (criptomoedas, por exemplo) – logo a discussão da aplicação e dos limites – pensando em como a tecnologia pode nos ajudar deve ser feita à dentro das instituições e governos tão logo a tecnologia comece a se popularizar
Uma grande preocupação na seara da educação é o aumento da desigualdade social e questões de equidade e inclusão.
Precisamos partir da premissa de que a tecnologia presente nos produtos e ferramentas à disposição de professores e alunos precisa funcionar em diferentes modelos de aparelhos eletrônicos. Não podemos operar apenas para uma bolha quando se trata de educação.
É fundamental ampliar a acessibilidade das novas tecnologias para o maior número de pessoas –precisamos colocar a Inteligência Artificial no topo da agenda de processos de aprendizagem na educação básica pública e nas pautas de educação inclusiva.
Introduzir idiomas nativos na aprendizagem de línguas, para facilitar o processo, também é uma preocupação, além do cuidado em incluir pessoas com deficiências no aprendizado sob o auxílio da IA.
Redução do tempo de fala, narração detalhada do ocorrido e seleção de cores são algumas das medidas que estão sendo estudadas para mitigar problemas de acesso e inclusão. E muitas outras ainda se fazem necessárias.
Mas, antes de tudo isso, é preciso dar um passo atrás e definir quais serão os valores que acompanharão cada empresa em sua jornada com a IA. Torna-se necessário uma espécie de marco regulatório para que nós, profissionais envolvidos diretamente com essa transformação e decisores de negócio, entendamos nossos limites e desafios.
Nesse sentido, a governança de cada companhia tem papel fundamental de abordar e antever diversos desafios éticos que, até então não tinham tanto peso nas tomadas de decisões. Incluo aqui, no caso de uma edtech ou mediatech, questões sobre segurança da informação; cuidados com relação a ameaças ao usuário, especialmente infantil, e protocolos de ação em caso de emergências e questões de saúde mental.
Vamos a um exemplo concreto. No caso do aplicativo de aprendizagem de idiomas Mondly, uma marca Pearson, os códigos-fonte e prompts da tecnologia de IA em desenvolvimento são programados para evitar assuntos polêmicos e de risco. Eles também são à prova de invasões –ou seja– não é possível que usuários externos invadam os códigos da ferramenta e tomem o controle.
Essa governança da IA nas empresas pode ter diferentes estruturas e metodologias. Mas, seja qual for o caminho, ela será essencial para a companhia que reconhece o poder de transformação da tecnologia e se compromete a aplicá-la de forma responsável e alinhada aos valores do negócio, tendo em vista que, no momento, não há uma diretriz universal em vigor. Para tanto, é preciso se guiar pela ética com ainda mais severidade, e se pautar por regras internas que vão gerar comandos técnicos na prática.
Concluo esse enésimo artigo sobre IA exaltando –assim como outros colegas que já discorreram sobre o tema– o humano por trás das tecnologias. Ele é primordial para que tudo o que temos exaltado funcione de maneira benéfica e sustentável. Desde que, claro, seja um cidadão, uma empresa, um governo ou uma instituição consciente e crítica sobre o que ainda está bem resolvido na sociedade.
Fórum CNN
Os artigos publicados pelo Fórum CNN buscam estimular o debate, a reflexão e dar luz a visões sobre os principais desafios, problemas e soluções enfrentados pelo Brasil e por outros países do mundo.
Os textos publicados no Fórum CNN não refletem, necessariamente, a opinião da CNN Brasil.
Sugestões de artigos devem ser enviadas a forumcnn@cnnbrasil.com.br e serão avaliadas pela editoria de especiais.