Aspectos como proteção de dados, proteção ao trabalho e até armas letais autônomas foram incluídos no relatório do senador Eduardo Gomes (PL-TO), apresentado pelo parlamentar à Comissão Temporária Interna sobre Inteligência Artificial no Brasil (CTIA) do Senado, na última terça-feira, 18. O texto é um substitutivo ao Projeto de Lei (PL) 2.338/2023, destinado a regulamentar o uso da inteligência artificial (IA) no país. O texto original, conhecido como Marco Legal da IA, foi proposto pelo senador Rodrigo Pacheco (PSD-MG) e tramitava juntamente com outros nove projetos.
Devido a essa alteração, a votação do Marco Legal da IA, inicialmente prevista para ocorrer na terça-feira, foi adiada. A nova votação será realizada após cinco audiências públicas para tratar da avaliação de riscos, governança, autorregulação e boas práticas, fiscalização e inovação sustentável. Os projetos de lei incorporados ao substitutivo incluem os que tratam dos princípios para o uso (PLs 5.051/2019, 872/2021 e 210/2024), da política nacional (PL 5.691/2019), dos fundamentos e diretrizes para o desenvolvimento e aplicação (PL 21/2020), de imagens e áudios de pessoas falecidas (PL 3.592/2023), da publicidade enganosa (PL 145/2024), do crime de falsa identidade (PL 146/2024) e da atuação de médicos, advogados e juízes (PL 266/2024).
O senador Eduardo Gomes (PL-TO) explicou que esses projetos foram unificados no substitutivo, que passará por uma nova análise dos senadores. “Foi um trabalho muito difícil, mas que nós realizamos com a abertura, com a discussão democrática dos temas e, mesmo nos últimos momentos, sempre provocando e expondo qualquer que seja a divergência”.
O ex-juiz federal, doutor em Direito pela UERJ e autor do livro ‘Inteligência Artificial e Direito Processual: Os Impactos da Virada Tecnológica no Direito Processual’, Erik Navarro Wolkart, entende que o Brasil copia a legislação europeia, com problemas absolutamente diferentes. Conforme o especialista, se este PL for aprovado, a partir de uma ânsia regulatória, o país corre o risco de desestimular a inovação, bem como de ficar em uma posição muito inferior em relação aos Estados Unidos e a países do Reino Unido. “A IA precisa de um ambiente livre para se desenvolver e o Brasil meio que está importando normas que estão sendo utilizadas num continente que possui um estágio social muito mais desenvolvido e talvez tenha mais a perder do que a ganhar. Uma regulação mais rigorosa agora, como é claramente a opção do Senado, é uma regulação em cima de um terreno nebuloso”.
Sistema regulatório
O texto propõe a criação do Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA) e designa a Autoridade Nacional de Proteção de Dados (ANPD) como a entidade responsável pela coordenação do SIA. Wolkart vê com preocupação a criação do órgão regulador. “A criação do SIA me parece muito perigosa, porque toda a nossa vida vai passar pela Inteligência Artificial. Esse órgão regulador viraria um monstro regulatório, pois vai regular todos os aspectos da nossa vida. Concentração de poder é algo sempre muito perigoso. Então, esse é um ponto que me preocupa muito”.
Alto risco e risco excessivo
A proposta inclui uma lista de atividades de inteligência artificial consideradas de alto risco e risco excessivo. Embora proíba o uso de sistemas para prever crimes com base em características físicas e de personalidade, o texto permite que as autoridades utilizem IA para avaliar a credibilidade de provas em investigações e na repressão de infrações. O objetivo é “prever a ocorrência ou recorrência de uma infração real ou potencial com base na definição de perfis de indivíduos”.
A pré-classificação de riscos do sistema é outro ponto que preocupa Wolkart. “Sem ter clareza do que são essas coisas, como que a gente pode taxar um sistema de altíssimo risco e já banir? Me parece precipitado”. O especialista entende que, ao regular demais em razão de um determinado risco, há prejuízo quanto ao nível de atividade econômica. “Acaba ficando abaixo do que seria o nível ótimo para gerar um custo-benefício bom para a sociedade. O meu medo é que aconteça a mesma coisa com a inteligência artificial”.
Estão entre os procedimentos de risco excessivo:
- Emprego de técnicas subliminares que tenham por objetivo ou por efeito induzir o comportamento da pessoa natural ou de grupos de maneira que cause ou seja provável que cause danos à saúde, segurança ou outros direitos fundamentais próprios ou de terceiros;
- Sistemas de armas autônomas (SAA);
- Possibilitar a produção, disseminação ou facilitem a criação de material que caracterize ou represente abuso ou exploração sexual de crianças e adolescentes;
Também estão entre os procedimentos de alto risco:
- Veículos autônomos em espaços públicos, quando seu uso puder gerar risco relevante à integridade física de pessoas;
- Controles de trânsito, redes de abastecimento de água e eletricidade;
- Informações para acesso de estudantes a cursos técnicos e universidade.
Incentivo às startups
O texto também estabelece medidas de incentivo para microempresas, empresas de pequeno porte e startups, que terão acesso prioritário a ambientes de testagem e estarão sujeitas a critérios diferenciados.
Gomes ressaltou a importância da Justiça trabalhista no contexto das novas relações de trabalho impulsionadas pela inteligência artificial. Para o senador, essa área será uma das mais impactadas pela regulamentação da tecnologia. Segundo ele, a sintonia com a Câmara dos Deputados será fundamental para entregar ao Brasil uma regulamentação ‘moderna, eficaz e simples’ do uso da inteligência artificial. “Inteligência artificial é um assunto global, que é discutido numa rua de 7 bilhões de habitantes. Não é eficiente trancar-se, evitando o debate, achando que isso vai solucionar uma questão diária, que é convivermos com essa nova tecnologia. Por isso, teremos este primeiro passo da aprovação da regulação”.
Depois de analisado na Comissão Temporária Interna sobre Inteligência Artificial no Brasil (CTIA), o texto ainda terá de passar pelos plenários do Senado e da Câmara, e ser sancionado por Lula, para virar lei.