O avanço do uso de inteligência artificial na criação e disseminação de conteúdos falsos está mudando a forma como governos e empresas precisam enquadrar o problema da desinformação. O que antes era tratado majoritariamente como questão de opinião pública ou comunicação política, hoje se consolida como um risco de cibersegurança. Conforme dados do estudo Panorama da Desinformação no Brasil, do Observatório Lupa, houve um aumento de 308% na divulgação de conteúdos falsos criados com IA entre 2024 e 2025 no país, passando de 39 casos em 2024 para 159 em 2025.
Para Carlos Cabral, especialista em cibersegurança da Tempest Security Intelligence, empresa referência em cibersegurança no Brasil, o aumento, apesar de preocupar, não surpreende. “Qualquer organização que adota IA no dia a dia percebe o ganho de escala que a tecnologia proporciona. Para quem quer produzir desinformação, ela funciona como uma linha de montagem industrial. O que antes demandava tempo e equipe, hoje pode ser automatizado”.
Segundo o executivo, dois fatores ajudam a explicar o crescimento: a capacidade técnica de produzir conteúdo com baixo custo e alta velocidade, e o ambiente de polarização, que cria demanda constante por materiais que confirmem crenças prévias. “A polarização funciona como combustível. A fake news vira a lenha que alimenta um sistema retroalimentado de engajamento. Mesmo quando o conteúdo é desmentido, o impacto já ocorreu”, explica.
Neste ano, o foco do uso de IA em fake news deve estar na criação de deep fakes, ou seja, imagens e sons humanos produzidos por meio da tecnologia, permitindo que rostos sejam trocados em vídeos. Em 2024, conforme o Panorama, o modelo era usado principalmente para criação de golpes com famosos fazendo propagandas de sites falsos, por exemplo. Em ano eleitoral, o desafio se amplia para a esfera política e a principal preocupação não está apenas na existência de conteúdo falso, mas na capacidade de resposta.
“O problema central é velocidade. A janela entre publicação, viralização e remoção é muito curta. Se a análise contextual e o fact checking não forem igualmente rápidos, e cada vez mais automatizados, haverá um desequilíbrio estrutural”, afirma Cabral, que acredita que tratar o tema apenas sob a ótica regulatória é insuficiente. Para ajudar no enfrentamento das fake news, o Tribunal Superior Eleitoral (TSE) divulgou que irá definir até o início de março regras para o uso de IA nas eleições deste ano, com uma das propostas sendo a obrigação de rotulagem de material gerado pela tecnologia e multa de R$ 5 mil a R$ 30 mil para publicações de conteúdos manipulados com notícias falsas.
Embora medidas como multas sejam importantes, o enfrentamento exige estrutura semelhante à adotada no combate a fraudes digitais: monitoramento contínuo, inteligência de ameaças e coordenação entre instituições e plataformas. “Não se trata apenas de discurso. Quando a desinformação ganha escala automatizada, ela passa a representar risco sistêmico, inclusive para mercados e estabilidade institucional. As linhas ficaram muito mais tênues e identificar se há vínculo estrutural por trás de uma campanha exige análise técnica, não apenas avaliação de conteúdo”, afirma o especialista.
Para Cabral, o caminho para o enfrentamento envolve três frentes: cooperação efetiva das plataformas, automação de detecção com IA e educação digital para a população. “A ciência já mostrou como é difícil demover alguém do que ela quer acreditar. Por isso, o trabalho precisa ser contínuo e estruturado. Fake news não pode ser vista apenas como problema de narrativa. Em certos aspectos, é tema de segurança digital e, sim, de segurança nacional”, finaliza.
Sobre
A Tempest Security Intelligence é referência em cibersegurança no Brasil. Fundada em 2000 no Porto Digital, faz parte do grupo Embraer e oferece mais de 70 soluções em segurança digital, consultoria e integração, atendendo empresas de diversos setores.

