Predatory Data: como os algoritmos podem ser eugênicos?

Utilizar algoritmos para escolher candidatos a emprego, definir limites de crédito ou identificar rostos nas ruas por vezes parecem refletir o auge do desenvolvimento tecnológico e progresso, isto somada à rápida ascensão das big techs e pesquisas genéticas CRISPR, que muitas vezes são pensadas no vazio da ciência para ciência, sem observar para quem é feita a ciência, revelam olhos cegos que carregam a frieza dos números, sem a emoção do olhar. Diluindo na normalidade de um presente volátil com antigas lógicas: a classificação dos corpos e vidas em escalas de valor.

Grande similaridade com o séc. XIX, quando Francis Galton (1822-1911) frente a um ambiente de ‘frutífero’ desenvolvimento científico na Europa cunhou em 1883 o termo da eugenia para separar os “aptos” de “inaptos”, entendendo que alguns teriam capacidade maior de desenvolvimento do que outros, e assim condenando os “menos favorecidos”: pobres, negros, homossexuais, favelados, entre outros, à mingua. Inclusive o Brasil, chegou em 1934 trazer na constituição da república que a educação deveria ser eugênica, não dando espaço para aqueles que tivessem fora do padrão eurocêntrico branco acessar o conhecimento, condenando-os a viver sobre os ditames predatórios da branquitude.

Antes a justificativa era da “pureza racial”, agora está sob o verniz da “eficiência preditiva”.

Casos e mais casos se repetem, desde o sistema treinado pelo machismo transformado em critério técnico na Amazon em 2018, quando o seu sistema de recrutamento IA rebaixava candidatas mulheres, ou quando o Twitter admitiu que o algorítmico não reconhecia o rosto de pessoas que não fossem brancas nas imagens que os usuários postavam, porque possuíam bancos de dados enviesados e não diversos.

Até mesmo com a violação pela ‘famosa’ empresa financiada pelo Google, a 23andMe quando expôs dados confidenciais da ancestralidade de mais de 7MM de usuários e, ao mesmo tempo, vendia a promessa de autoconhecimento escondendo um mercado que precifica sonhos vendendo suas informações para a farmacêutica GlaxoSmithKline (GSK). Ironicamente, Francis Galton em 1901 sugeriu para o governo inglês a criação de um sistema de registros genealógicos detalhados junto com documentações sistemáticas de características físicas e mentais, objetivando a criação de um banco de dados familiares para rastrear as “linhagens superiores”.

Essa visão de objetificação em estatísticas das pessoas corrobora para construção de bancos de dados que capitalizam a vida. Não é mera coincidência: é uma discriminação algorítmica sistêmica/ estrutural.

Pois, lembrem: Os algorítmicos não se fazem sozinhos e podem revelar/reproduzir os interesses mais sórdidos de uma branquitude ainda presente, pois o que temos de tecnologia na sociedade é reflexo do interesse daqueles que a fazem: e quem é que está fazendo? (isso é assunto para um próximo artigo)

A questão que fica por ora é: o que esperar do futuro? Para responder essa pergunta, é interessante refletir o que nos traz a Profª. Anita Say Chan no livro Predatory Data no qual nos ensina que precisamos olhar para quem sempre resistiu. Ou seja, para aqueles que historicamente foram reduzidos a “ruído estatístico” e criaram práticas de contra-dados: coletando, narrando e protegendo informações a partir de princípios de justiça e não lucro. Precisamos desse legado de resistência para transmitir as lições dos que foram/são afetados pelos diversos tipos de opressão para que não se repitam nas novas tecnologias, a fim de não normalizar ações eugênicas nos algorítmicos e nos bancos de dados, mas sim promover um ambiente que tenha criticidade e limites bem definidos para as próximas gerações.

REFERÊNCIAS

23ANDME HOLDING CO. 23andMe announces collaboration extension with a new data licensing agreement with GSK (comunicado à imprensa). Redwood City, 30 out. 2023. Disponível em: https://investors.23andme.com/news-releases/news-release-details/23andme-announces-collaboration-extension-new-data-licensing/. Acesso em: 14 jul. 2025.

CHAN, Anita Say. Predatory data: eugenics in big tech and our fight for an independent future. Oakland: University of California Press, 2025.

FIGUEIREDO, Carolina. Após acusação de escolha racista, Twitter diz que vai revisar algoritmo. CNN Brasil, São Paulo, 21 set. 2020. Disponível em: https://www.cnnbrasil.com.br/tecnologia/apos-acusacao-de-escolha-racista-twitter-diz-que-vai-revisar-algoritmo/. Acesso em: 16 jul. 2025.

GALTON, Francis. The possible improvement of the human breed under the existing conditions of law and sentiment. Nature, [S.l.], p. 659–665, 1901.

GALTON, Francis. Inquiries into human faculty and its development. New York: Macmillan and Co., 1883.

OPPENHEIM, Maya. Amazon scraps ‘sexist AI’ recruitment tool. The Independent, 11 out. 2018. Disponível em: https://www.independent.co.uk/tech/amazon-ai-sexist-recruitment-tool-algorithm-a8579161.html. Acesso em: 16 jul. 2025.

TAGS:
siga>
Account Manager High-Value. Mestrando em Direito Europeu e Alemão pelo Centro de Estudos Europeus e Alemães (UFRGS-PUCRS-CDEA), bolsista CAPES PROEX. Bolsista no Master in Business Administration (MBA) com ênfase em Gestão Empresarial na Universidade de São Paulo/Esalq (USP). Pesquisador Visitante (Fellows) na Bonn Universität (Alemanha) a partir do Prêmio Mobilidade CDEA com bolsa do DAAD (Deutscher Akademischer Austauschdienst) em 2024, e aceito como Pesquisador Visitante em 2025 no Max Plank Institute for Legal History and Legal Theory em Frankfurt, Alemanha. Especialista em Direitos Humanos, Responsabilidade Social e Cidadania Global pela PUCRS com verba do Ministério das Relações Exteriores da Alemanha. Premiado com Prêmio de Justiça Racial de 2024 pelo Centro de Estudos das Relações de Trabalho e Desigualdades (CEERT).
Deixe um comentário

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Sair da versão mobile