Por Aline Santos Barbosa[1] e Bernardo Bonifácio Ferreira[2]
A tecnologia de sistemas autônomos, também conhecido como Inteligência Artificial (IA), tem assumido um papel de relevância nas instâncias econômicas, políticas e sociais. Ao contextualizarmos a análise de impacto no Brasil, podemos identificar que, economicamente, o mercado da IA está, em sua maioria, concentrado nas regiões Sul e Sudeste do país; politicamente, o país está construindo um modelo regulatório com base nas discussões que vêm ocorrendo no Reino Unido e nos Estados Unidos, porém ainda não há uma regulamentação efetiva ou um instrutivo nacional de boas práticas a serem aplicadas; e socialmente, ainda são observados muitos erros cometidos por essa ferramenta, como erros de reconhecimentos faciais e decisões judiciais, quando direcionadas a comunidades vulnerabilizadas e oprimidas por falta de uma devida análise ética aplicada ao campo de IA brasileiro.
Logo, para um melhor entendimento dos impactos negativos que devem ser combatidos dentro do desenvolvimento e utilização da IA, especialmente em países com grandes diversidades de população como o Brasil, são a maleficência da discriminação algorítmica e a possibilidade de preveni-la ou mitigá-la mediante processos de letramentos que devem ser priorizados. Já que, os algoritmos podem reproduzir e até amplificar preconceitos existentes na sociedade, afetando de forma desproporcional grupos já marginalizados.
No Brasil, isso se manifesta em diversas áreas, como segurança pública, onde algoritmos de reconhecimento facial têm mostrado maior taxa de erro ao identificar pessoas negras[3] e nas relações de consumo ao implicar diferenças misóginas na prestação de serviços e produtos[4]. A falta de diversidade cognitiva nas equipes de desenvolvimento de inteligência artificial também contribui para essa problemática, pois a ausência de diferentes perspectivas resulta em sistemas enviesados. A Associação Brasileira das Empresas de Tecnologia da Informação e Comunicação (TIC) e de Tecnologias Digitais (Brasscom) revelou, no ano de 2022, que apenas 0,8% dos empregos do setor são ocupados por profissionais com deficiência. Em relação às mulheres, que constituem 51% da população do Brasil, elas representam apenas 20% dos profissionais de tecnologia no país – mesma proporção apontada pelo Instituto Brasileiro de Geografia e Estatística (IBGE) em 2019. Segundo o IBGE, somente 34,9% de todos os colaboradores do setor são negros ou pardos[5].
Isto posto, a ausência de profissionais demonstra ser um forte desafio a ser enfrentado e sua solução deverá, através do letramento digital, fomentar construções desde a educação básica sobre como as tecnologias funcionam até a formação de profissionais aptos para desenvolvimento de novas tecnologias em conformidade ética. A construção de soluções pode iniciar desde a implementação de programas educacionais baseado em valores humanos e equitativos, desenvolvimento de políticas públicas para inserção de tecnologia nos territórios periféricos, execução de ações de ESG para inserção de profissionais de diversidade no mercado de trabalho e conscientização da população através dos canais de mídia sobre a necessidade de proteção de seus dados pessoais perante a onda tecnológica existente.
Todos os stakeholders que fazem parte do sistema da IA, precisam ativamente combater essa estrutura opressiva já implementada em nossa sociedade. Letramento digital[6] diz respeito às práticas sociais de leitura e produção de textos em ambientes digitais. Ser um letrado digital implica saber se comunicar em diferentes situações, com propósitos variados, para fins pessoais ou profissionais. Para isso, é necessário que possamos ter a habilidade de selecionar as informações pertinentes e avaliar sua credibilidade.
Através de um letramento qualificado, em meio a um espaço com muita informação disponível, os usuários dessas tecnologias poderão, de forma mais autônoma, utilizar a IA a partir de boas práticas, identificar informações que fomentem o pensamento crítico e avaliar situações que possam ferir as suas dignidades humanas, de seus próximos ou de outros grupos identitários. Auxiliando, dessa forma, que estruturemos um modelo de Inteligência Artificial que respeite todas as formas de existências e experiências humanas, sendo benéfica para todas e todos.
[1] Eticista e Pesquisadora da Rede de Inteligência Artificial Ética e Segura (RAIES) / NAVI / PUCRS
[2] Jurista e Pesquisador da Rede de Inteligência Artificial Ética e Segura (RAIES) / NAVI / PUCRS
[3] MOREIRA, Henrique. Com mais de mil prisões na BA, sistema de reconhecimento facial é criticado por racismo algorítmico; inocente ficou preso por 26 dias. G1, Bahia, 1 set. 2023. Disponível em: https://g1.globo.com/ba/bahia/noticia/2023/09/01/com-mais-de-mil-prisoes-na-ba-sistema-de-reconhecimento-facial-e-criticado-por-racismo-algoritmico-inocente-ficou-preso-por-26-dias.ghtml. Acesso em: 27 jul. 2024.
[4]CORREIO BRAZILIENSE. Mulheres pagam mais caro nas compras on-line por causa de algoritmos. Correio Braziliense, Economia, 15 mar. 2024. Disponível em: https://www.correiobraziliense.com.br/economia/2024/03/6819823-mulheres-pagam-mais-caro-nas-compras-on-line-por-causa-de-algoritmos.html. Acesso em: 27 jul. 2024.
[5] Relatório de Diversidade no Setor TIC. Relatório de Inteligência e Informação, BRI2-2021-018 – v43. São Paulo: Brasscom, dez. 2022. Disponível em: https://brasscom.org.br/mulheres-ocupam-39-do-mercado-de-trabalho-em-tic/. Acesso em: 27 jul. 2024.
[6] RIBEIRO, Ana Elisa Ribeiro; COSCARELLI, Carla Viana. Glossária CEALE. UFMG. Disponível em: https://www.ceale.fae.ufmg.br/glossarioceale/verbetes/letramento-digital. Acesso em: 27 jul. 2024.