Especialistas que participaram da audiência pública sobre o projeto de lei que regulamenta o uso de inteligência artificial (IA) no Brasil defenderam mudanças no texto, antes de ser votado, na Comissão Temporária sobre Inteligência Artificial (CTIA) no Senado. Em debate na última quarta-feira, 4, os debatedores disseram temer que a proposta acabe desestimulando a inovação, a competitividade e, consequentemente, o desenvolvimento econômico e social do país por, segundo eles, não flexibilizar regras como as que que tratam da classificação do sistema de IA de “alto risco”. O debate foi presidido pelos senadores Astronauta Marcos Pontes (PL-SP) e Chico Rodrigues (PSB-RR).
O Projeto de Lei (PL) 2.338/2023, do senador Rodrigo Pacheco (PSD-MG), presidente do Senado, tramita em conjunto com outras nove matérias sobre o tema e tem como relator, o senador Eduardo Gomes (PL-TO). A CTIA é o único colegiado a analisar o projeto antes de ir a Plenário. Na avaliação de Pontes, é preciso produzir um texto atualizado, que não venha a se tornar obsoleto ao final da sua tramitação, que busque proteger os usuários, mas também garanta segurança jurídica para a indústria de IA e todos os mercados que fazem ou venham a fazer uso da tecnologia. “Uma legislação como essa, por se tratar de uma tecnologia que se desenvolve muito rapidamente, se não tivermos cuidado com o texto principal, corre o risco de ficar obsoleto minutos depois de ser promulgado. Então é necessário esse cuidado, é necessário proteger as pessoas, logicamente, através dessa análise de riscos, mas também é necessário proteger nosso mercado, ajudar no desenvolvimento das empresas aqui no Brasil, o desenvolvimento dessa tecnologia no Brasil”.
Classificação de risco
Para a vice-presidente de Política, Confiança, Dados e Tecnologia no Conselho da Indústria de Tecnologia da Informação de Washington, D.C, Courtney Lang, um dos pontos do projeto que pode ser revisto pela comissão está relacionado a classificação do sistema de inteligência artificial de alto risco. No entendimento dela, nem todo o uso de inteligência artificial, num contexto específico, necessariamente seria de alto risco, devendo o texto trazer uma definição clara de situações específicas em que a tecnologia seria classificada desta forma.
Para Courtney, seria importante incluir uma linguagem que tenha como alvo específico quando o sistema é de alto risco. “Então, a comissão poderia acrescentar uma linguagem que indique que se a decisão do sistema de inteligência artificial não impacta significativamente a segurança, os direitos humanos, além dos serviços básicos, ele não deve ser considerado de alto risco. A comissão deve também considerar a adição de uma linguagem de filtro em torno de casos em que o sistema de inteligência artificial não é considerado de alto risco”.
O projeto cria regras diferentes para faixas regulatórias definidas de acordo com o risco à sociedade. O sistema de IA, assim, pode ser considerado de “risco excessivo”, que será proibido; de “alto risco”, que será controlado; ou não estar em nenhuma das duas categorias. Para determinar o risco, um sistema de IA deverá passar por uma avaliação preliminar feita pelos próprios desenvolvedores, fornecedores ou operadores.
O professor da Faculdade de Direito de Vitória (FDV), Luis Fernando Prado, também manifestou preocupação com esse dispositivo. O projeto traz como necessárias dois tipos de avaliações de risco: as preliminares gerais, que são exigidas de todos os agentes como o desenvolvedor e o aplicador do sistema e a avaliação de impacto algorítmico.
A avaliação preliminar geral deve ser formalizada em registro, com o armazenamento de informações por cinco anos. Na opinião de Prado, o prazo pode ser mais flexível e se adequar as demandas das organizações. “Eu acho que cabe aqui uma flexibilidade para que as organizações decidam qual o melhor formato dessa avaliação, como fazer essa avaliação de risco, e não necessariamente essa lei colocar essa obrigação tão abrangente e tão rígida ao ponto de a gente ter que registrar e documentar isso por cinco anos”.
Direitos autorais
Ainda de acordo com Luis Fernando Prado, o PL 2.338/2023 tem caminhado para ser uma das legislações mais restritivas do mundo em relação ao tema, até mesmo em comparação a lei da União Europeia. Ele cita entre os dispositivos que poderiam ser alvo de alterações o que trata de direitos autorais. “Cabe mais espaço para a gente achar uma legislação mais equilibrada em relação ao tema, que possibilite o uso de obras legalmente disponíveis, pelo menos quanto a análise computacional dessas obras, claro, respeitadas as condições que também preserve os direitos dos titulares do direito do autor”.
O projeto prevê normas sobre direitos autorais, que enfrentam desafios diante das IA generativas que produzem imagens e textos. Conteúdos protegidos por direitos autorais poderão ser utilizados no desenvolvimento do sistema de IA desde que obtidos de forma legítima e sem fins comerciais, observados outros requisitos.
Período de teste
A advogada da Confederação Nacional da Indústria (CNI) e especialista no tema, Christina Dias, afirmou que a proposta de regulamentação precisa eximir de penalidade e responsabilidade os sistemas que se encontram em operação de teste para não impedir a inovação na indústria, comércio e serviços. “Porque do contrário vai acontecer o que falava o nosso diretor de inovação, ‘eu vou sentar para programar com um regulador do lado’. Ninguém no mundo faz isso, nem na Europa. Então essa falta de explicitação desse tipo de coisa no projeto nos remete a uma regulamentação que as pessoas falam que está mais restritiva do que a da União Europeia”.
Agência reguladora
A CNI também manifestou preocupação com a sobreposição regulatória entre a autoridade setorial e a autoridade central. O projeto prevê um conjunto de órgãos que devem trabalhar de modo integrado com o intuito de regular o mercado da inteligência artificial. Eles integrarão o Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA), que será coordenado pela Autoridade Nacional de Proteção de Dados (ANPD), criada pela Lei 13.853, de 2019. O relator diz no parecer que o projeto prevê a regulação de uma forma mais genérica e atribui aos órgãos reguladores de cada setor da economia estipular regras mais específicas.
Christina entende que isso é resolvido com o princípio da especialidade. “Deve ficar para aquela agência ou aquela autoridade setorial, que tem maior especialidade na matéria para regular aquele setor que está para ser regulado, ou maior capacidade técnica. Uma autoridade só, que vai regular todo mundo? Primeiro que é muito difícil que ela tenha mãos para fazer tudo isso, dinheiro e eu acho que fere até o princípio da eficiência da administração e da economicidade, e depois nós podemos ter muitos problemas concorrenciais. Os setores regulados não estão gostando dessa situação, porque você vai ter soluções para questões iguais, no final das contas, cada uma com uma regulamentação por um órgão ou agência diferentes”.
Conselho
Um dos princípios da proposta de regulamentação é a proteção do trabalho, que será observada por um Conselho de Cooperação Regulatória e Inteligência Artificial. O órgão produzirá diretrizes para reduzir potenciais riscos aos trabalhadores. Na opinião do diretor de Privacidade e Política de Dados no Centro de Liderança em Política de Informação de Washington, D.C, Matthew Reisman, o projeto deve estabelecer um requisito legal, de forma prática, para que esse conselho atue de forma articulada com todos os atores e agências. “O conselho permanente proposto de inteligência artificial trabalharia com diferentes agências e faria todos os esforços para que essa instituição pudesse trabalhar em coordenação com todos os atores”.
Já o diretor do Instituto de Tecnologia e Sociedade do Rio de Janeiro (ITS Rio), Ronaldo Lemos, alertou para os riscos de o Brasil seguir fielmente a regulamentação feita na União Europeia, sem considerar as particularidades nacionais. Ele destacou que a proposta de regulamentação brasileira deve avançar com base em um tripé: um eixo sobre as avaliações de risco (já tratado no texto), a questão da capacitação dos trabalhadores, além de dispositivos específicos sobre concorrência e competitividade.
O modelo, conforme explicou Lemos, traçaria caminhos para se evitar a concentração econômica e o estímulo às atividades da economia como indústria, comércio e serviços. “Como é que a gente vai capacitar os trabalhadores no Brasil, como é que a gente vai aumentar a nossa produtividade em relação a inteligência artificial, como é que a gente vai se preparar, os brasileiros e as brasileiras, para o trabalho do futuro. Isso não consta no projeto de lei como poderia constar?”.
Certificados de energia
Lemos também destacou que o mercado desenvolvido por meio da inteligência artificial se coloca como uma grande oportunidade para o Brasil, único país que tem uma matriz com 93,1% de energia limpa. O uso da IA, segundo ele, vai aumentar em 4,5% o consumo de energia no planeta. O diretor informou que as empresas de tecnologia têm buscado cada vez mais compensar seguidos aumentos de suas emissões de carbono. “Na minha visão, o Brasil pode enriquecer se souber vender certificados de energia renovável globalmente e também apostar em projetos como hidrogênio verde”.
Direitos e objetivos
O parecer apresentado por Eduardo Gomes tem 12 capítulos que englobam temas diretivos a serem observados, como transparência, cooperação internacional, crescimento inclusivo e proteção ao meio ambiente. O projeto ainda assegura uma série de direitos para as pessoas que forem afetadas pelos sistemas de inteligência artificial, como:
- direito à informação prévia quanto a suas interações com sistemas de IA;
- direito à privacidade e à proteção de dados pessoais;
- direito à participação humana em decisões de IA, conforme o contexto.
(Com: Agência Senado)