Gigantes da tecnologia pressionam para diluir legislação de IA da Europa
Em maio, parlamentares da UE aprovaram a Lei de IA, o primeiro conjunto abrangente de regras do mundo que rege a tecnologia, após meses de intensas negociações entre diferentes grupos políticos
As maiores empresas de tecnologia do mundo embarcaram em um último esforço para persuadir a União Europeia a adotar uma abordagem leve na regulamentação da inteligência artificial, na expectativa de evitarem o risco de bilhões de euros em multas.
Em maio, parlamentares da UE aprovaram a Lei de IA, o primeiro conjunto abrangente de regras do mundo que rege a tecnologia, após meses de intensas negociações entre diferentes grupos políticos.
Mas até que a regulamentação seja finalizada, ainda não está claro o grau de rigor com que as regras sobre sistemas de IA de “propósito geral” (GPAI), como o ChatGPT, serão aplicadas e a quantas ações judiciais de direitos autorais e multas multibilionárias as empresas responsáveis por esses sistemas poderão responder.
A UE convidou empresas, acadêmicos e outros interessados para ajudar a redigir o código de práticas, recebendo quase 1.000 inscrições, um número excepcionalmente alto, de acordo com uma fonte com conhecimento do assunto.
O código de prática de IA não será juridicamente vinculante quando entrar em vigor no final do próximo ano, mas fornecerá às empresas uma lista de verificação que elas poderão usar para demonstrarem conformidade. Uma empresa que alegar seguir a lei e ignorar o código poderá enfrentar problemas legais.
“O código de prática é fundamental. Se o fizermos corretamente, poderemos continuar inovando”, disse Boniface de Champris, gerente sênior de políticas da organização comercial CCIA Europe, cujos membros incluem Amazon, Google e Meta. “Se for muito restrito ou muito específico, isso se tornará muito difícil”, acrescentou.
Raspagem de dados
Empresas como a Stability AI e a OpenAI têm enfrentado questões sobre se o uso de conteúdo de livros mais vendidos ou de arquivos de fotos no treinamento de modelos de inteligência artificial sem terem permissão sobre eles é uma violação de direitos autorais.
De acordo com a Lei de IA, as empresas serão obrigadas a fornecer “resumos detalhados” dos dados usados no treinamento de seus modelos. Em teoria, um criador de conteúdo que descobrir que seu trabalho foi usado para treinar um modelo de IA poderá buscar uma indenização, embora isso esteja sendo testado nos tribunais.
Alguns líderes empresariais disseram que os resumos exigidos precisam conter poucos detalhes para proteger segredos comerciais, enquanto outros dizem que os detentores de direitos autorais têm o direito de saber se seu conteúdo foi usado sem permissão.
A OpenAI, criticada por se recusar a responder perguntas sobre os dados usados para treinar seus modelos, também se candidatou para participar dos grupos de trabalho, disse uma fonte.
O Google também enviou uma solicitação, disse um porta-voz à Reuters. Enquanto isso, a Amazon disse que espera “contribuir com nossa experiência e garantir que o código de práticas seja bem-sucedido”.