‘Inteligência Artificial e os ataques à Eleição 2026’
Entre 2024 e 2025, a disseminação de conteúdos falsos feitos com IA cresceu 308% no Brasil. Uso da tecnologia como arma política é temerário, mostra Eliara Santana
Publicado em
Por Eliara Santana (*)
“O ecossistema de desinformação ampliou imensamente o uso de inteligência artificial (IA) na produção dos conteúdos falsos, especialmente com o uso de deepfakes (que são, em linhas gerais, vídeos produzidos com a modulação de voz e a manipulação de perfis para produzir conteúdo mentiroso). De acordo com dados da pesquisa Panorama da Desinformação no Brasil, do Observatório Lupa, que foi divulgado no dia 5 de fevereiro deste ano, a disseminação de conteúdos falsos produzidos com IA teve um crescimento de 308% entre 2024 e 2025 no Brasil.
Em 2024, segundo a pesquisa, a IA era usada preferencialmente para golpes digitais, com vídeos fake de pessoas famosas fazendo propagandas de sites fraudulentos. Em 2025, o uso específico da tecnologia como arma política se consolidou, ampliando a produção e o alcance, com quase 45% dos conteúdos de IA com forte viés ideológico. Além disso, mais de três quartos dos conteúdos com IA que circularam em 2025 exploraram a imagem ou a voz de pessoas conhecidas, especialmente lideranças políticas: o estudo mostrou 36 ocorrências de conteúdo falso cujo alvo era o presidente Luiz Inácio Lula da Silva; e 30, o ministro Alexandre de Moraes, do STF.
Como os “enxames” de IA atuam
Uma outra pesquisa, dessa vez publicada na revista Science, mostra como efetivamente o avanço da IA ameaça não apenas processos eleitorais, mas a democracia. O estudo “How malicious AI swarms can threaten democracy” (“Como enxames maliciosos de IA podem ameaçar a democracia”, tradução livre), que foi publicado em janeiro de 2026, ressalta que “os avanços na inteligência artificial (IA) oferecem a perspectiva de manipular crenças e comportamentos em nível populacional. Grandes modelos de linguagem (LLMs) e agentes autônomos permitem que campanhas de influência alcancem escala e precisão sem precedentes. Ferramentas generativas podem expandir a produção de propaganda sem sacrificar a credibilidade e criar, a baixo custo, falsidades que são consideradas mais semelhantes à escrita humana do que aquelas escritas por humanos”.
O estudo destaca vários pontos para demonstrar como os tais “enxames” ameaçam a democracia:
Fragmentação e manipulação: Num ambiente de informação fragmentado, como é hoje, há um terreno fértil para manipulação, e os enxames de IA exploram esse cenário, criando o que os pesquisadores chamam de um consenso sintético, disseminando narrativas em nichos díspares e criando uma ilusão de concordância majoritária. Também podem reforçar essa ilusão curtindo publicações, fazendo com que as narrativas pareçam amplamente apoiadas. Essa forma, diz o estudo, os cidadãos vão consolidar suas opiniões com base em seus pares, mais do que nas evidências.
Assédio sintético: Os enxames podem desencadear um assédio coordenado que atinge implacavelmente políticos, acadêmicos, opositores, jornalistas e suas redes com abusos personalizados. Ao contrário do trolling convencional, diz o estudo, esses enxames parecem espontâneos, embora sejam orquestrados.
Aceleração de ações antidemocráticas: Segundo o estudo, os enxames de IA podem acelerar tais ações impulsionando determinadas normas ou atenuando a conformidade.
Manipulação em escala da opinião pública: Ao contrário de “bots” tradicionais, os enxames de IA são mais sofisticados, imitando comportamentos humanos de forma mais convincente para influenciar crenças e criar falsas percepções de consenso social.
Ataques coordenados de desinformação: Os enxames podem inundar as diversas plataformas com narrativas falsas, o que dificulta – ou até impede – a distinção entre informações reais e fabricadas.
Ilusão de concordância majoritária: Os enxames têm a capacidade de disseminar as narrativas em nichos distintos, o que cria a ilusão de que existe uma concordância da maioria. Esse processo também é reforçado quando os enxames curtem as publicações, criando a ilusão de um massivo apoio àquelas narrativas falsas disseminadas. Dessa forma, afirma o estudo, os cidadãos atualizam suas opiniões com base em normas dos pares, mais do que em evidências. Com esse modo de disseminação, “um coro de vozes aparentemente independentes cria uma miragem de consenso bipartidário popular com maior velocidade e poder de persuasão. O resultado é uma manipulação profundamente enraizada que permite aos operadores influenciar o discurso público de forma quase invisível ao longo do tempo”, ressalta o estudo.
Supercompensação algorítmica: Segundo o estudo, há uma ampliação das vozes de celebridades e elites. Desse modo, segundo a pesquisa, quando os feeds são inundados com postagens criadas por IA, “tanto os algoritmos de classificação quanto os usuários podem recorrer a indicadores de confiança como o número de seguidores, os selos de verificação oficiais e a fama preexistente. A atenção pode se concentrar em influenciadores, elites políticas, celebridades e grandes marcas, enquanto os participantes comuns desaparecem. A esfera pública se contrai, passando de um diálogo de muitos para muitos para uma transmissão de poucos para muitos, corroendo o pluralismo democrático e incentivando o cinismo ou a migração para grupos fechados”.
Ataques na eleição brasileira
O relatório “Desafios de Inteligência – Edição 2026” da Abin, publicado em dezembro de 2025, aponta para os ataques ao processo eleitoral e à integridade institucional do Brasil. O relatório destaca cinco desafios principais para a inteligência em 2026: segurança do processo eleitoral, transição para a criptografia pós-quântica, ataques cibernéticos autônomos com agentes de inteligência artificial, reconfiguração das cadeias de suprimento globais e interferência externa por atores não estatais.
Em relação à segurança do processo eleitoral em 2026, o relatório aponta como ameaças: ações de deslegitimação do modelo eleitoral, campanhas de desinformação (com manipulação por meio de ferramentas tecnológicas), ações de interferência externa e aprofundamento da polarização social (com instrumentalização político-eleitoral de diversos segmentos da população), assim como a atuação do crime organizado e potenciais ações de extremismo violento.
O documento reforça, ainda, a intensificação do ambiente de desinformação e chama atenção para o uso de IA, com criação sistemática de deepfakes, e para as campanhas coordenadas de desinformação que têm potencial devastador para conduzir a opinião pública e deslegitimar o processo.”
(*) Jornalista, com pós-doutorado em estudos da desinformação pelo Centro de Lógica, Epistemologia e História da Ciência (CLE) da Unicamp, doutora e mestre em Linguística e Língua Portuguesa. É pesquisadora do Observatório das Eleições. Sua tese de doutorado sobre o Jornal Nacional discute as estratégias de construção da narrativa do telejornal do impeachment de Dilma Rousseff à eleição de Jair Bolsonaro. Organizou e coordenou, com Leonardo Avritzer, o livro “Eleições 2022 e a reconstrução da democracia no Brasil” (Autêntica). Em 2024, com Avritzer e Marisa Von Büllow, organizou o livro “Democracy Under Attack” (Editora Springer).