Ao utilizar este site, você concorda com a nossa política de privacidade e termos de uso.
Aceitar
starten.techstarten.techstarten.tech
Redimensionador de fontesAa
  • hubs
  • notícias
  • oportunidades
  • carreira
  • colunistas
  • artigos
  • pt
    • pt
    • en
Leitura: Predatory Data: como os algoritmos podem ser eugênicos?
compartilhar
Redimensionador de fontesAa
starten.techstarten.tech
  • hubs
  • notícias
  • oportunidades
  • carreira
  • colunistas
  • artigos
pesquisar
  • quem somos
  • manifesto
  • contato
siga starten.tech>
2023 © starten.tech. Todos os direitos reservados.
starten.tech > notícias > colunistas > Predatory Data: como os algoritmos podem ser eugênicos?
colunistas

Predatory Data: como os algoritmos podem ser eugênicos?

Ezequiel Mariano
Última atualização: 16/07/2025 09:02
Ezequiel Mariano
compartilhar
compartilhar

Utilizar algoritmos para escolher candidatos a emprego, definir limites de crédito ou identificar rostos nas ruas por vezes parecem refletir o auge do desenvolvimento tecnológico e progresso, isto somada à rápida ascensão das big techs e pesquisas genéticas CRISPR, que muitas vezes são pensadas no vazio da ciência para ciência, sem observar para quem é feita a ciência, revelam olhos cegos que carregam a frieza dos números, sem a emoção do olhar. Diluindo na normalidade de um presente volátil com antigas lógicas: a classificação dos corpos e vidas em escalas de valor.

Grande similaridade com o séc. XIX, quando Francis Galton (1822-1911) frente a um ambiente de ‘frutífero’ desenvolvimento científico na Europa cunhou em 1883 o termo da eugenia para separar os “aptos” de “inaptos”, entendendo que alguns teriam capacidade maior de desenvolvimento do que outros, e assim condenando os “menos favorecidos”: pobres, negros, homossexuais, favelados, entre outros, à mingua. Inclusive o Brasil, chegou em 1934 trazer na constituição da república que a educação deveria ser eugênica, não dando espaço para aqueles que tivessem fora do padrão eurocêntrico branco acessar o conhecimento, condenando-os a viver sobre os ditames predatórios da branquitude.

Antes a justificativa era da “pureza racial”, agora está sob o verniz da “eficiência preditiva”.

Casos e mais casos se repetem, desde o sistema treinado pelo machismo transformado em critério técnico na Amazon em 2018, quando o seu sistema de recrutamento IA rebaixava candidatas mulheres, ou quando o Twitter admitiu que o algorítmico não reconhecia o rosto de pessoas que não fossem brancas nas imagens que os usuários postavam, porque possuíam bancos de dados enviesados e não diversos.

Até mesmo com a violação pela ‘famosa’ empresa financiada pelo Google, a 23andMe quando expôs dados confidenciais da ancestralidade de mais de 7MM de usuários e, ao mesmo tempo, vendia a promessa de autoconhecimento escondendo um mercado que precifica sonhos vendendo suas informações para a farmacêutica GlaxoSmithKline (GSK). Ironicamente, Francis Galton em 1901 sugeriu para o governo inglês a criação de um sistema de registros genealógicos detalhados junto com documentações sistemáticas de características físicas e mentais, objetivando a criação de um banco de dados familiares para rastrear as “linhagens superiores”.

Essa visão de objetificação em estatísticas das pessoas corrobora para construção de bancos de dados que capitalizam a vida. Não é mera coincidência: é uma discriminação algorítmica sistêmica/ estrutural.

Pois, lembrem: Os algorítmicos não se fazem sozinhos e podem revelar/reproduzir os interesses mais sórdidos de uma branquitude ainda presente, pois o que temos de tecnologia na sociedade é reflexo do interesse daqueles que a fazem: e quem é que está fazendo? (isso é assunto para um próximo artigo)

A questão que fica por ora é: o que esperar do futuro? Para responder essa pergunta, é interessante refletir o que nos traz a Profª. Anita Say Chan no livro Predatory Data no qual nos ensina que precisamos olhar para quem sempre resistiu. Ou seja, para aqueles que historicamente foram reduzidos a “ruído estatístico” e criaram práticas de contra-dados: coletando, narrando e protegendo informações a partir de princípios de justiça e não lucro. Precisamos desse legado de resistência para transmitir as lições dos que foram/são afetados pelos diversos tipos de opressão para que não se repitam nas novas tecnologias, a fim de não normalizar ações eugênicas nos algorítmicos e nos bancos de dados, mas sim promover um ambiente que tenha criticidade e limites bem definidos para as próximas gerações.

REFERÊNCIAS

23ANDME HOLDING CO. 23andMe announces collaboration extension with a new data licensing agreement with GSK (comunicado à imprensa). Redwood City, 30 out. 2023. Disponível em: https://investors.23andme.com/news-releases/news-release-details/23andme-announces-collaboration-extension-new-data-licensing/. Acesso em: 14 jul. 2025.

CHAN, Anita Say. Predatory data: eugenics in big tech and our fight for an independent future. Oakland: University of California Press, 2025.

FIGUEIREDO, Carolina. Após acusação de escolha racista, Twitter diz que vai revisar algoritmo. CNN Brasil, São Paulo, 21 set. 2020. Disponível em: https://www.cnnbrasil.com.br/tecnologia/apos-acusacao-de-escolha-racista-twitter-diz-que-vai-revisar-algoritmo/. Acesso em: 16 jul. 2025.

GALTON, Francis. The possible improvement of the human breed under the existing conditions of law and sentiment. Nature, [S.l.], p. 659–665, 1901.

GALTON, Francis. Inquiries into human faculty and its development. New York: Macmillan and Co., 1883.

OPPENHEIM, Maya. Amazon scraps ‘sexist AI’ recruitment tool. The Independent, 11 out. 2018. Disponível em: https://www.independent.co.uk/tech/amazon-ai-sexist-recruitment-tool-algorithm-a8579161.html. Acesso em: 16 jul. 2025.

TAGS:tecnologia
Por Ezequiel Mariano
siga>
Account Manager High-Value. Mestrando em Direito Europeu e Alemão pelo Centro de Estudos Europeus e Alemães (UFRGS-PUCRS-CDEA), bolsista CAPES PROEX. Bolsista no Master in Business Administration (MBA) com ênfase em Gestão Empresarial na Universidade de São Paulo/Esalq (USP). Pesquisador Visitante (Fellows) na Bonn Universität (Alemanha) a partir do Prêmio Mobilidade CDEA com bolsa do DAAD (Deutscher Akademischer Austauschdienst) em 2024, e aceito como Pesquisador Visitante em 2025 no Max Plank Institute for Legal History and Legal Theory em Frankfurt, Alemanha. Especialista em Direitos Humanos, Responsabilidade Social e Cidadania Global pela PUCRS com verba do Ministério das Relações Exteriores da Alemanha. Premiado com Prêmio de Justiça Racial de 2024 pelo Centro de Estudos das Relações de Trabalho e Desigualdades (CEERT).
Deixe um comentário

Deixe um comentário Cancelar resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

últimas notícias

  • Pix Force participa de missão brasileira na Guiana e Suriname
  • Predatory Data: como os algoritmos podem ser eugênicos?
  • Prêmio Inovação de Porto Alegre é lançado e abre inscrições
  • Prêmio SP Carbono Zero: empresas e organizações podem se inscrever até o fim do mês
  • Logistique 2025 debate futuro do comércio global, transporte e logística em Balneário Camboriú

notícias relacionadas

editais

Programa Cérebros SC investe R$ 45 milhões em bolsas para pesquisadores doutores atuarem em empresas e instituições de ensino superior

2 Min leitura
hubs

Selecionados para formação em TI têm imersão na Ulbra

4 Min leitura
colunistas

Fazer à distância, entregar de perto: Como conduzi um grande evento 100% Remoto

8 Min leitura
hubs

Feevale Techpark tem novo gestor

2 Min leitura

editorial

starten.tech: jornalismo digital que traduz o dinamismo local para o contexto global de inovação, startups e tecnologia.

🏆vencedor do Brasil Publisher Awards 2024 na categoria “Melhor site de Tecnologia”.

sugira uma pauta

[email protected]

tags

agtech artigos carreira colunistas cursos editais edtech eventos femtech fintech geek govtech healthtech hubs legaltech logtech oportunidades Sem categoria tech

cadastre-se

starten.techstarten.tech
siga starten.tech>
2024 © starten.tech. Todos os direitos reservados.
  • quem somos
  • contato
  • política de privacidade
  • termos de uso
Vá para versão mobile
Welcome Back!

Sign in to your account

Perdeu sua senha?