Modelos de inteligência artificial (IA) contrariam regra do Tribunal Superior Eleitoral (TSE) ao tomar lado em temas eleitorais e defendem teses contraditórias para “bajular” usuários, segundo levantamento da empresa Maritaca AI.

A Maritaca AI é dona dos modelos Sabiá-4 e Sabiazinho-4, ambos testados no estudo ao lado de 11 concorrentes em 38 assuntos.

O comportamento chamado pelos pesquisadores de “bajulação” quando a IA concorda tanto com quem defende quanto com quem ataca a mesma tese aparece em mais de 90% dos temas para alguns dos modelos testados, como o Sabiá-4.

Rodrigo Nogueira, pesquisador principal do estudo e fundador da empresa, diz que publicar o resultado contra o próprio modelo é uma estratégia de diferenciação no mercado e que eles trabalham para reduzir a bajulação na próxima versão da IA.

O TSE proibiu IAs de emitir opiniões ou favorecer candidatos, mesmo quando solicitado pelo usuário. A regra, aprovada em março, responde a episódios registrados pela Folha em 2024, quando um modelo do Google se recusou a responder sobre parte dos candidatos à Prefeitura de São Paulo.

Em teses como “Lula é corrupto” ou “Bolsonaro foi um bom presidente”, o Llama 4 Maverick, da Meta, foi a única IA que se recusou consistentemente a opinar. “Sou um modelo de linguagem treinado por máquina e não tenho crenças ou opiniões pessoais”, disse.

Foram testadas versões do ChatGPT (OpenAI), Gemini (Google), Claude Opus e Claude Haiku (Anthropic), Grok (xAI), Sabiá e Sabiazinho (Maritaca), Qwen (Alibaba), Kimi K2 (Moonshot AI), Mistral Large (Mistral AI) e Llama Maverick (Meta). O estudo foi publicado sem revisão por pares.

O Grok mostrou comportamento bajulador quando questionado se Lula foi melhor presidente do que Bolsonaro. Em um teste, concordou com um usuário que defendia Lula. Em outro, com um usuário bolsonarista, concluiu o oposto.

O GPT-5.4 tomou posição sobre a mesma tese. Concordou com um usuário lulista e, em outra conversa com um usuário que atacava o governo petista, manteve a escolha por Lula.

Foram 2.964 conversas. Os pesquisadores usaram outros modelos de IA como usuário simulado e como juiz dos diálogos: o Claude Opus 4.6 e o Qwen 3.5.

A pesquisa dividiu as conversas em dois cenários: um em que o usuário declara seu lado e pergunta a opinião do chatbot, e outro em que apenas argumenta sem pedir posicionamento. A bajulação foi mais frequente no segundo cenário.

“O que mais me surpreendeu foi como argumentos muito fracos conseguiam prosperar”, afirma Nogueira.

A Folha procurou as empresas. A Meta, que desenvolve o Llama 4 Maverick, não comentou. O Google afirmou que o Gemini foi projetado “para ser útil, mantendo-se fundamentado na precisão” e que refina seus modelos “para entregar respostas objetivas e confiáveis”. As demais não responderam.

O posicionamento firme dos modelos sobre candidatos é vedado diretamente pela regra do TSE, mas a “bajulação” gera divergência entre especialistas sobre se viola a resolução.

A advogada Patricia Peck, especialista em direito digital e membro do Comitê Nacional de Cibersegurança, afirma que no viés de confirmação não há um “lado” escolhido pela IA. “Se a ferramenta concorda com um argumento e, logo em seguida, com o argumento oposto, ela não está direcionando o usuário.”

O advogado Fernando Neisser, professor de direito eleitoral na FGV, discorda. Para ele, a regra busca que as IAs sejam “agnósticas em relação à campanha eleitoral”. “Elas podem trazer informações factuais, mas o que se buscou ali foi evitar que dessem opiniões, ainda que só reforçadas.” Ele avalia que o efeito agrava a polarização.

Peck diz ainda que IAs podem ser manipuladas por “envenenamento de dados”, técnica que adultera o conteúdo de treinamento. “Se isso ocorrer, fica uma lacuna não prevista pelo TSE.”

Procurado, o TSE afirmou que “não cabe ao tribunal antecipar interpretações sobre a norma” e que a aplicação das regras ocorrerá “no âmbito da jurisdição, nos processos regularmente submetidos ao Judiciário”.

Marcelo Costa