Prime Time

seg - sex

Apresentação

Ao vivo

A seguir

    Câmara aprova marco legal para inteligência artificial; entenda implicações

    Projeto define fundamentos e princípios para desenvolvimento e aplicação da tecnologia no país; especialistas elogiam iniciativa, mas criticam falta de regras vinculantes

    Murillo Ferrarida CNN* , Em São Paulo

    A Câmara dos Deputados aprovou na quarta-feira (29) o marco legal para o uso da inteligência artificial (IA) no Brasil.

    O projeto define fundamentos e princípios para desenvolvimento e aplicação da IA no país, incluindo diretrizes para o fomento e a atuação do poder público no tema.

    O texto teve o apoio de todos os partidos, com exceção do PSOL, e foi aprovado com 413 votos favoráveis e 15 contrários. Agora, o projeto segue para o Senado Federal.

    Se for aprovado sem alterações, prosseguirá para sanção do presidente Jair Bolsonaro (sem partido). Caso contrário, volta para nova análise dos deputados.

    Discutido na Câmara como o Projeto de Lei nº 21/2020, o texto foi proposto pelo deputado Eduardo Bismarck (PDT/CE) e relatado pela deputada Luísa Canziani (PTB-PR).

    Ao justificar o PL, Bissmarck afirmou que a expansão do uso de inteligência artificial “exige transições no mercado de trabalho” e que o texto cria deveres para o poder público “para permitir a capacitação dos trabalhadores, bem como incentivá-los a se engajarem e adquirirem competitividade no mercado global”.

    “A IA traz implicações para os direitos humanos, a privacidade e a proteção de dados, temas que foram tratados com observância (…) da Lei Geral de Proteção de Dados (LGPD).”

    O que é uma inteligência artificial (IA)?

    Na ficção, a inteligência artificial geralmente é retratada em histórias ameaçadoras, às vezes envolvendo máquinas que se rebelam contra os seres humanos.

    Ela está, por exemplo, em filmes como “2001: Uma Odisseia no Espaço” (1968), ou “Matrix” (1999). Na vida real, a inteligência artificial é um tipo de programa de computador capaz de interpretar dados, aprender a partir deles e tomar decisões de forma autônoma para cumprir uma determinada tarefa definida pelo seu criador.

    É usada em lojas online, no controle de estoques de empresas, em ferramentas de reconhecimento facial, em sistemas de prevenção de fraudes e na análise de padrões de comportamento de consumidores, entre outras aplicações.

    IA já está em uso em aplicações como lojas online, controle de estoques, em ferramentas de reconhecimento facial ou em sistemas de prevenção de fraudes
    IA já está em uso em aplicações como lojas online, controle de estoques, em ferramentas de reconhecimento facial ou em sistemas de prevenção de fraudes / Gerd Altmann/Pixabay

    O que o PL estabelece como IA?

    O texto estabelece como sistemas de inteligência artificial as representações tecnológicas do campo da informática e da ciência da computação. Caberá privativamente à União legislar e editar normas sobre a matéria.

    Na prática, isso significa que sistemas com base em processo computacional que, a partir de um conjunto de objetivos definidos por humanos, e, por meio do processamento de dados e informações, pode aprender a perceber, interpretar e interagir com o ambiente externo é considerado uma IA.

    Entram nessa classificação, por exemplo, sistemas de aprendizagem de máquina (machine learning) – se debruça sobre os dados e encontra padrões –, incluindo aprendizagem supervisionada, não supervisionada e por reforço.

    O projeto de Bismarck também cria a figura do “agente de IA”, que pode ser tanto o desenvolvedor quanto o operador do algoritmo, e que passa a ser o responsável legal pelas decisões tomadas pelo software. Este “agente de IA” também é o responsável por garantir que o software respeite as normas da LGPD.

    Quais os direitos garantidos pelo texto?

    Segundo a relatora do projeto, deputada Luisa Canziani (PTB-PR), a proposta aprovada também delineia direitos dos usuários desses sistemas, como a ciência da instituição que é responsável pelo sistema, o direito de acesso a informações claras e adequadas a respeito dos critérios e dos procedimentos utilizados pelo sistema.

    “Além disso, há o estabelecimento de alguns fundamentos para o uso da inteligência artificial no Brasil, tais como o desenvolvimento tecnológico e a inovação, a livre iniciativa, a livre concorrência e o respeito aos direitos humanos e aos valores democráticos”, explicou a parlamentar.

    “Também foram preceituados objetivos que visam, por exemplo, à promoção da pesquisa e do desenvolvimento de uma inteligência artificial ética e livre de preconceitos e da competitividade e do aumento da produtividade brasileiros”, completou.

    Projeto não estabelece regras vinculantes

    Professor da Faculdade de Direito da Universidade de São Paulo (USP) e diretor do Lawgorithm, uma associação de pesquisa em Inteligência artificial e direito, Juliano Maranhão, afirmou que o projeto aprovado na Câmara tem o defeito de não estabelecer regras vinculantes para o desenvolvimento da IA, mas apenas princípios éticos baseados na regulamentação existente na União Europeia.

    Segundo Maranhão, isto pode resultar numa situação em que os detalhes da regulamentação serão definidos por diferentes juízes em todo o país – e nem sempre de modo uniforme, criando insegurança jurídica.

    De acordo com a relatora, o texto original é inspirado nos conceitos e diretrizes propostos na Recomendação sobre Inteligência Artificial da Organização dos Estados para o Desenvolvimento Econômico (OCDE).

    “O documento da OCDE é uma das principais referências internacionais sobre o assunto e já foi formalmente subscrito pelo Brasil, apesar do país não integrar ainda a OCDE”, argumentou.

    “No entanto, por se tratar de um documento de uma organização internacional e apresentar natureza principiológica, seu texto é propositadamente mais aberto e vago.”

    Antes contrário, PT votou a favor

    Inicialmente contrário ao projeto, o PT chegou a obstruir a votação, mas depois de um acordo com o autor e a relatora, votou a favor.

    O partido mudou de posição depois de duas modificações no texto: uma que incluía a transparência entre os princípios para a nova tecnologia; e o outro que determina a responsabilidade objetiva do Estado em projetos públicos que utilizem a IA.

    Ou seja: se o uso da nova tecnologia por parte do governo resultar em dano a alguém, o Estado será responsabilizado, mesmo que não tenha tido a intenção de fazer mal. Outros dois destaques apresentados pelo partido foram derrotados no plenário.

    Tema envolve discussões complexas

    Especialistas em inteligência artificial afirmam que o tema é complexo e que uma regulamentação efetiva sobre a tecnologia requer um nível de detalhamento bem maior do que o apresentado nas propostas atuais em tramitação no Congresso.

    “É bem difícil definir o que é a inteligência artificial. É muito difícil fixar os limites do que está sendo regulamentado, embora a proposta (da Câmara) apresente uma definição”, disse o professor da Escola Politécnica da Universidade de São Paulo (USP) Fabio Gagliardi Cozman, diretor do Centro de Inteligência Artificial da instituição.

    “Então, isso torna um pouco arriscado você tentar fixar agora uma legislação quando a tecnologia ainda está num momento de desenvolvimento, de consolidação”, completiou.

    “O outro aspecto é que, na (legislação da) União Europeia, há uma abordagem voltada a riscos. Você tenta verificar qual a possibilidade de algo criar um problema. E, dentro deste risco, há níveis diferentes de ações que podem ser tomadas”, explicou.

    Cozman afirmou que para chegar algo desse tipo no Brasil seria preciso uma discussão mais detalhada.

    “Não sou totalmente crítico [ao texto discutido na Câmara]. Acho que a preocupação com o assunto é válida e a discussão precisa ser feita. Não é que seja errado legislar sobre o assunto, é que ainda não existem direitos e deveres claros sobre isto.”

    Projeto era o mais detalhado no país

    Na avaliação do professor da Universidade Federal de Goiás (UFG) Anderson Soares, o projeto aprovado pela Câmara era o mais detalhado, até o momento, no país e tem o mérito de se preocupar com a qualificação dos trabalhadores que vão lidar com IA, ou que terão seus empregos atingidos pela nova tecnologia.

    Apesar disso, o professor observou que o texto pode criar um problema ao atribuir “intencionalidade” às decisões tomadas por algoritmos, já que a inteligência artificial não faz julgamento moral antes de tomar uma decisão da mesma forma que um humano faria.

    Eventualmente, o algoritmo toma uma decisão como ‘vou dar este desconto a este cliente’. E isso não pode ser 100% interpretado. E, se essa interpretação for muito rígida, a gente pode inviabilizar a inteligência artificial da forma como ela é usada hoje”, afirmou Soares, que coordena o Centro de Excelência em Inteligência Artificial da UFG.

    “No atual momento, em que está todo mundo descobrindo onde esse tipo de tecnologia cria vantagens ou não, isso pode levar a uma burocratização excessiva da tecnologia. Neste momento, é inoportuno definir esses papéis”, afirmou.

    (*Com informações da Agência Brasil e do Estadão Conteúdo)

    Tópicos