Ao utilizar este site, você concorda com a nossa política de privacidade e termos de uso.
Aceitar
starten.techstarten.techstarten.tech
Redimensionador de fontesAa
  • hubs
  • notícias
  • oportunidades
  • carreira
  • colunistas
  • artigos
  • pt
    • pt
    • en
Leitura: Projeto Raies acompanha debate sobre regulamentação do uso de inteligência artificial (IA) no Brasil
compartilhar
Redimensionador de fontesAa
starten.techstarten.tech
  • hubs
  • notícias
  • oportunidades
  • carreira
  • colunistas
  • artigos
pesquisar
  • quem somos
  • manifesto
  • contato
siga starten.tech>
2023 © starten.tech. Todos os direitos reservados.
starten.tech > notícias > tech > Projeto Raies acompanha debate sobre regulamentação do uso de inteligência artificial (IA) no Brasil
tech

Projeto Raies acompanha debate sobre regulamentação do uso de inteligência artificial (IA) no Brasil

Pedro Barbosa
Última atualização: 17/07/2024 20:09
Pedro Barbosa - editor
compartilhar
Grupo de pesquisadores da PUCRS elaborou nota técnica com 11 sugestões ao projeto de lei que tramita na Comissão Temporária Interna sobre Inteligência Artificial no Brasil (CTIA) no Senado.Adobe Stock.
compartilhar

Elaborar um arcabouço regulatório para o uso de inteligência artificial (IA) no Brasil é um desafio complexo. Afinal, diversos aspectos devem ser levados em consideração como, por exemplo, desenvolvimento, tecnologia, ética, proteção de dados, proteção ao trabalho, níveis de risco, uso indevido de imagem, voz, notícias falsas etc.

conteúdos
Inspiração internacionalPontos de atençãoMutabilidade do autorSaiba mais sobre o Projeto Raies

Se, por um lado, os senadores que integram a Comissão Temporária sobre Inteligência Artificial (CTIA) no Senado, já adiaram por três vezes a votação do Projeto de Lei (PL) 2.338/2023, relatado pelo senador Eduardo Gomes (PL-TO), por outro, pesquisadores de todo o país tem enviado sugestões para ampliar o debate sobre o tema.

Uma destas contribuições foi elaborada por duas organizações vinculadas à PUCRS: a Artificial Intelligence Robotics Ethics Society (AIRES) e o Programa de Pós-Graduação em Direito (PPGD). Composta por 11 tópicos, a Nota Técnica visa auxiliar no desenvolvimento ético e seguro da IA, a fim de evitar distorções nos resultados esperados e a consequente responsabilização dos envolvidos. O documento aborda os seguintes assuntos: redação para definição do escopo da lei; criação de um conceito de “IA”; redação para criação de objetivos para IA no Brasil; redação para os fundamentos da IA; princípios norteadores para IA; diretrizes para o poder público ao disciplinar a IA no Brasil; diretrizes para a atuação do poder público ao utilizar IA; diretrizes para atuação do poder público; delimitação de competência; vigência; regras expressas e proibições.

Pesquisadora do Projeto Raies, Aline Santos Barbosa.

Uma das colaboradoras da ação, a pesquisadora da Rede de Inteligência Artificial Ética e Segura – Raies, Aline Santos Barbosa, destaca que algumas das sugestões foram adicionadas ao projeto substitutivo. Porém, questões como o impacto social ainda não estão bem claras. “Quando vemos sistemas, o final é sempre um resultado quantitativo. É um valor de acurácia ou um valor financeiro. Não está sendo mensurado o impacto social”.

Inspiração internacional

A proposta de legislação foi construída em sintonia com regulamentos já existentes nos Estados Unidos e Europa (EU AI Act). Aline entende que é complexo adaptar uma legislação estrangeira para o Brasil, uma vez que a sociedade brasileira possui características e particularidades próprias. Entretanto, a pesquisadora vê o modelo americano como mais preventivo do que mitigador. “Ao mesmo tempo, precisamos buscar equilíbrio econômico entre o quanto eu posso abrir de possibilidades para uma empresa de software, por exemplo”.

Pontos de atenção

Os artigos 10, 13 e 42 são vistos com certa preocupação pelos pesquisadores da PUCRS, Aires e do Projeto Raies. Para Aline, o artigo 10 transfere a responsabilidade para o usuário. “As apresentações falam de um Sistema Autônomo Inteligente, mas eles não mostram um sistema. Eu sei o sistema da Indústria Criativa, da produção alimentar, mas eu não sei o sistema de desenvolvimento de um sistema autônomo. Então, como é que eu vou conseguir dizer onde é que tem? Onde é que eu posso interferir e dizer, se eu não sei como o sistema funciona?”, questiona.

Além disso, Aline destaca que não há como fazer a concepção de um sistema sem levar em conta a diversidade. “Se eu tenho várias pessoas, que nasceram nas mesmas circunstâncias, pensando um sistema, elas vão pensar muito parecido ou da mesma forma. Então, eu não vou ter o ponto de vista da sociedade. Eu vou ter o ponto de vista de uma parte da sociedade, que vai determinar toda a tomada de decisão daquele sistema. Como é que vai ser democrático, se não utiliza dados diversos? Se perde a questão de democracia dentro da própria coleta e filtragem dos dados”.

Confira abaixo o texto do artigo 10:

  • Art. 10. Quando a decisão, previsão ou recomendação de sistema de inteligência artificial produzir efeitos jurídicos relevantes ou que impactem de maneira significativa os interesses da pessoa, inclusive por meio da geração de perfis e da realização de inferências, esta poderá solicitar a intervenção ou revisão humana.
    Parágrafo único. A intervenção ou revisão humana não será exigida caso a sua implementação seja comprovadamente impossível, hipótese na qual o responsável pela operação do sistema de inteligência artificial implementará medidas alternativas eficazes, a fim de assegurar a reanálise da decisão contestada, levando em consideração os argumentos suscitados pela pessoa afetada, assim como a reparação de eventuais danos gerados.

O artigo 13 é um dos trechos mais polêmicos da proposta, uma vez que prevê a classificação dos sistemas de inteligência artificial de acordo com o grau de risco. Para Aline, é preciso estipular o que é risco, levando em consideração o contexto de sua aplicação. “Nos sistemas autônomos para saúde, por exemplo, talvez o viés racial não seja tão importante para a realização de uma cirurgia. Agora, quando se trata do plano de saúde de um paciente, desde o primeiro exame até a tomada de decisão, aí a racialidade importa. Então, como é que eu vou generalizar o critério? É preciso ter toda uma fundamentação do que é importante e como a IA vai ser treinada”.

Confira abaixo o texto do artigo 13:

  • Art. 13. Previamente a sua colocação no mercado ou utilização em serviço, todo sistema de inteligência artificial passará por avaliação preliminar realizada pelo fornecedor para classificação de seu grau de risco, cujo registro considerará os critérios previstos neste capítulo.
    § 1º Os fornecedores de sistemas de inteligência artificial de propósito geral incluirão em sua avaliação preliminar as finalidades ou aplicações indicadas, nos termos do art. 17 desta lei.
    § 2º Haverá registro e documentação da avaliação preliminar realizada pelo fornecedor para fins de responsabilização e prestação de contas no caso de o sistema de inteligência artificial não ser classificado como de risco alto.
    § 3º A autoridade competente poderá determinar a reclassificação do sistema de inteligência artificial, mediante notificação prévia, bem como determinar a realização de avaliação de impacto algorítmico para instrução da investigação em curso.
    § 4º Se o resultado da reclassificação identificar o sistema de inteligência artificial como de alto risco, a realização de avaliação de impacto algorítmico e a adoção das demais medidas de governança previstas no Capítulo IV serão obrigatórias, sem prejuízo de eventuais penalidades em caso de avaliação preliminar fraudulenta, incompleta ou inverídica.

Aline chama atenção para a questão ética, especialmente no trecho do artigo 42 que prevê a ‘transformação’ de determinada arte. “Uma coisa é eu reproduzir uma arte e dizer advinda de, referência tal. Outra coisa, é a possibilidade de alterar e manipular ela de novo, com cada um manipulando da forma que quiser”.

Confira abaixo o texto do artigo 42:

  • Art. 42. Não constitui ofensa a direitos autorais a utilização automatizada de obras, como extração, reprodução, armazenamento e transformação, em processos de mineração de dados e textos em sistemas de inteligência artificial, nas atividades feitas por organizações e instituições de pesquisa, de jornalismo e por museus, arquivos e bibliotecas, desde que: I – não tenha como objetivo a simples reprodução, exibição ou disseminação da obra original em si; II – o uso ocorra na medida necessária para o objetivo a ser alcançado; III – não prejudique de forma injustificada os interesses econômicos dos titulares; e IV – não concorra com a exploração normal das obras.
    § 1º Eventuais reproduções de obras para a atividade de mineração de dados serão mantidas em estritas condições de segurança, e apenas pelo tempo necessário para a realização da atividade ou para a finalidade específica de verificação dos resultados da pesquisa científica.
    § 2º Aplica-se o disposto no caput à atividade de mineração de dados e textos para outras atividades analíticas em sistemas de inteligência artificial, cumpridas as condições dos incisos do caput e do § 1º, desde que as atividades não comuniquem a obra ao público e que o acesso às obras tenha se dado de forma legítima.
    § 3º A atividade de mineração de textos e dados que envolva dados pessoais estará sujeita às disposições da Lei nº 13.709, de 14 de agosto de 2018 (Lei Geral de Proteção de Dados Pessoais).

Mutabilidade do autor

Segundo o artigo 5º da Constituição Federal Brasileira, todos são iguais perante a lei, sem distinção de qualquer natureza. Esse direito fundamental básico, garante a autonomia do ser humano em sociedade. Ao propor uma análise a partir do impacto social individual humano, em comunidades e em sociedade, Aline entende que o debate em torno da regulamentação do uso de IA no Brasil seria mais bem estabelecido. Para a pesquisadora, a concepção das ações humanas e a mutabilidade do autor são muito importantes. “A manipulação de dados em prol de alguém ou em prol de um benefício próprio deveria ser muito restringida. No momento que virtualizamos a existência, personificamos diversas versões nossas online. Que percepção é essa de si mesmo ou de mim que está sendo criada? Porque é para além de mim. Então, estão tomando decisões de uma constituição minha, de uma virtualização minha”.

Saiba mais sobre o Projeto Raies

Financiado pela Fundação de Amparo à Pesquisa do Estado do RS – Fapergs, o Projeto Raies está instalado no NAVI AI New Ventures, hub de ciência de dados e inteligência artificial liderado pelo Tecnopuc e pela Wisidea Ventures. A Raies foi criada a partir da intersecção de pesquisadores, empresas, universidades e instituições nacionais e internacionais, a fim de promover o desenvolvimento de uma inteligência artificial ética e segura.

Aline explica que a iniciativa conta com a participação de pesquisadores das áreas de computação, direito e filosofia. “O nosso objetivo final é criar um Manual de Boas Práticas para utilização da internet, porque no final das contas, se as nossas vidas forem virtualizadas, é preciso criar um modus cidadão para conviver online. O projeto aborda desde a ideação, passando pelo desenvolvimento, monitoramento e utilização dos consumidores com determinado sistema”.

TAGS:tecnologia
Por Pedro Barbosa editor
siga>
Jornalista e Mestre em Comunicação, ambos pela Unisinos. Possui pós-graduação - MBA em Design Digital e Branding e pós-graduação em Gestão da Tecnologia da Informação, ambos pela Uninter. Já atuou no setor público e privado, tendo trabalhado no governo do Estado do Rio Grande do Sul, com deputados estaduais, federais, no Jornal NH e no Parque Tecnológico São Leopoldo - Tecnosinos.
Deixe um comentário

Deixe um comentário Cancelar resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

últimas notícias

  • Gabinete de Inovação de Porto Alegre realiza curso de inteligência artificial para servidores públicos
  • Dati aposta em expansão no RS com foco em IA, governança e inovação após participação no AWS Cloud Experience
  • Como a capacidade de se colocar no lugar do outro pode dar origem a equipes mais produtivas 
  • Sebrae RS lança solução de IA para transformar ideias em negócios
  • Google acelera startups de IA no Brasil com o programa AI First

notícias relacionadas

Gabinete de Inovação de Porto Alegre realiza curso de inteligência artificial para servidores públicos

1 Min leitura
tech

Dati aposta em expansão no RS com foco em IA, governança e inovação após participação no AWS Cloud Experience

10 Min leitura
tech

Sebrae RS lança solução de IA para transformar ideias em negócios

3 Min leitura
tech

Google acelera startups de IA no Brasil com o programa AI First

1 Min leitura

editorial

starten.tech: jornalismo digital que traduz o dinamismo local para o contexto global de inovação, startups e tecnologia.

🏆vencedor do Brasil Publisher Awards 2024 na categoria “Melhor site de Tecnologia”.

sugira uma pauta

[email protected]

tags

agtech artigos carreira cursos editais edtech eventos femtech fintech geek govtech healthtech hubs legaltech logtech oportunidades Sem categoria tech

cadastre-se

starten.techstarten.tech
siga starten.tech>
2024 © starten.tech. Todos os direitos reservados.
  • quem somos
  • contato
  • política de privacidade
  • termos de uso
Vá para versão mobile
Welcome Back!

Sign in to your account

Perdeu sua senha?