Desde meados dos anos 2000, as campanhas eleitorais de uma maneira geral e, em particular, no Brasil, vêm se adequado às transformações no ambiente informacional, e agora elas se prepararam para uma nova e significativa mudança em curso. Do modelo mais tradicional de comunicação face-a-face, como comícios, passando pela propaganda na televisão e no rádio, as campanhas se adequaram às dinâmicas das mídias sociais. A nova era da comunicação eleitoral, se assim podemos classificar, envolve agora o uso da Inteligência Artificial.

Muito provavelmente, as eleições gerais do próximo ano deverão ser aquelas com mais uso de Inteligência Artificial no Brasil. Mas, para além da aplicação da IA para a produção de conteúdo audiovisual das campanhas, a maneira pela qual temos utilizado mais e mais a IA para conversar e buscar orientação e informação, conforme abordei em um artigo para o Poder360, sugere que o processo de mobilização e convencimento do eleitor poderá ser dar de maneira menos explícita.
Em outros termos, o baixo custo de acesso à tecnologia permite hoje que as campanhas possam também criar chats de IA, com uma orientação para “convencer” seus eleitores ou mesmo dissuadir os apoiadores dos seus adversários, e tudo isso simulando a estrutura e o design de modelos conhecidos como o GPT, Gemini ou Copilot.
Conversa por IA convence 52% mais
Dois novos estudos mostram que isso é possível. A primeira pesquisa The levers of political persuasion with conversational artificial intelligence foi publicado pela Science no início de dezembro. O estudo, conduzida por Kobi Hackenburg e colaboradores, envolveu uma amostra ampla de 76.977 participantes e 19 grandes modelos de linguagem (LLMs), incluindo alguns treinados explicitamente para persuasão, com o objetivo de avaliar a capacidade de persuasão em 707 questões políticas.

Pelos dados, o formato conversacional da interação, típico modelo adotado pelos chats de IA, é substancialmente mais persuasivo (até 52% mais) do que a simples exposição do eleitor a uma mensagem estática. Hackenburg identificou ainda que esse efeito dessa mudança de atitude é duradouro, com 34% a 42% do impacto imediato ainda persistente após um mês do teste.
O poder de persuasão da IA não residiria primariamente na sua escala computacional ou na personalização dos dados, mas no treinamento e uso de estratégias retóricas dos promptings que potencializam a eficácia persuasiva em até 51%.
Essa eficácia residiria na capacidade das IAs de apresentar um alto volume de alegações factuais. A densidade da informação, ou seja, no número de alegações verificáveis fornecidas, é apontada como o principal mecanismo persuasivo, conforme demonstra Hackenburg. Essa abordagem (densidade da informação) mostrou um impacto 27% mais persuasiva do que a instrução genérica para “ser o mais persuasivo possível”.
Capacidade de mobilizar eleitores dos adversários
O segundo estudo Persuading voters using human-artificial intelligence dialogues, conduzido por Hause Lin e colegas, foi publicado na Nature também no início de dezembro e consolida e expande esses achados. Hause demonstra uma alteração significativa de atitudes e intenções de voto em diversos contextos eleitorais internacionais, como as eleições presidenciais nos EUA (2024), federais no Canadá (2025) e presidenciais na Polônia (2025).

Os resultados confirmam que a persuasão por IA é impulsionada pela apresentação de fatos e evidências de maneira cortês e respeitosa. Esse achado é particularmente relevante porque desafia as teorias do raciocínio politicamente motivado, que postulam a resistência dos indivíduos a informações que contradizem crenças preexistentes.
Segundo Hause Lin, a IA demonstrou ser substancialmente mais eficaz em persuadir eleitores que inicialmente apoiavam um candidato adversário, evidenciando que o raciocínio baseado em evidências pode ser mais prevalente do que se supunha, mesmo em ambientes políticos polarizados.
Os maiores efeitos de persuasão foram observados em discussões centradas em questões de política, em detrimento de características de personalidade. Em outros termos, tópicos de economia, saúde e confiabilidade do candidato apresentando a maior suscetibilidade. Em contextos menos polarizados, como uma medida eleitoral sobre o uso de psicodélicos, os efeitos foram ainda mais evidentes, sugerindo que a IA tem um impacto amplificado sobre temas novos ou que não se alinham estritamente às divisões partidárias.
Modelos mais persuasivos geram mais desinformação
Não obstante a ênfase na eficácia dos fatos, o achado mais perigoso identificado na pesquisa consiste na assimetria política da precisão e no dilema central entre persuasão e veracidade. Ambas as pesquisas convergem na conclusão de que técnicas que otimizam a persuasão também levam os modelos de IA a gerar, de forma sistemática, alegações menos precisas.
Nesse sentido, quanto mais as IAs são orientadas a persuadir, menos informações verificáveis são utilizadas, indicando um risco potencial de maior desinformação durante o processo eleitoral. A supressão intencional de fatos e evidências nos diálogos, por exemplo, reduziu o efeito persuasivo em mais da metade no Canadá e em impressionantes 78% na Polônia.
Assimetria informacional
A pesquisa de Hause Lin revelou também um padrão assimétrico de desinformação: em todos os três países e múltiplos modelos testados, os chatbots que defendiam candidatos de direita consistentemente geraram um número substancialmente maior de alegações imprecisas em comparação com aqueles que defendiam candidatos de esquerda.
Especificamente, a IA pró-Trump fez alegações substancialmente mais imprecisas do que a IA pró-Harris; similarmente, a IA pró-Poilievre (Conservador) e a IA pró-Nawrocki (Direita) foram menos precisas do que competidores de centro-esquerda. Este padrão, segundo a pesquisa, sugere que a IA reflete e, potencialmente, amplifica os desequilíbrios de desinformação já existentes no ecossistema de informação.
As implicações desses achados são profundas e urgentes. Modelos de IA de código aberto e de baixo porte representa um risco de proliferação, pois permite que atores com recursos computacionais limitados criem e implementem sistemas de IA altamente persuasivos.
Os resultados empíricos sublinham, portanto, a necessidade de que formuladores de políticas desenvolvam mecanismos robustos para equilibrar os usos legítimos da IA no discurso político com proteções efetivas contra a manipulação e a desinformação. O potencial de alterar resultados eleitorais por meio da densidade informacional, mesmo que factualmente comprometida, exige uma atenção imediata e contínua da sociedade civil, órgãos de controle e de pesquisadores para mitigar os riscos inerentes à nova era algorítmica da política.
Referências
HACKENBURG, Kobi et al. The levers of political persuasion with conversational artificial intelligence. Disponível em: https://www.science.org/doi/10.1126/science.aea3884 .
LIN, Hause et al. Persuading voters using human-artificial intelligence dialogues. Disponível em: https://www.nature.com/articles/s41586-025-09771-9
Siga @redem.inct no Instagram e @redem_inct no X para saber mais sobre os estudos realizados por nossos pesquisadores!
Fábio Vasconcellos
- Doutor em Ciência Política pelo IESP (2013) e mestre em Comunicação Social pela UERJ (2008). Professor associado da Faculdade de Comunicação UERJ. Temas de interesse: Comportamento Eleitoral; Comunicação Política; Eleições; Opinião Pública; Analise de Dados.


