TL;DR: Uma investigação revelou que chatbots de IA como ChatGPT, Gemini e Copilot reproduzem propaganda e censura do Partido Comunista Chinês devido à contaminação de seus dados de treinamento. Os chatbots apresentam respostas drasticamente diferentes sobre tópicos sensíveis dependendo do idioma usado, suavizando ou distorcendo eventos como o Massacre da Praça Tiananmen e a repressão aos uigures. Esta situação representa uma ameaça à disseminação de informações imparciais globalmente.
Takeaways:
- Todos os cinco chatbots analisados (ChatGPT, Copilot, Gemini, R1 e Grok) apresentaram viés alinhado ao PCCh em diferentes graus
- Respostas sobre eventos históricos sensíveis variam drasticamente entre inglês e chinês, com versões em chinês alinhando-se à narrativa oficial chinesa
- O Copilot da Microsoft foi identificado como mais propenso a apresentar propaganda chinesa, enquanto o Grok mostrou-se mais crítico
- Empresas ocidentais que operam na China devem cumprir leis que exigem “valores socialistas centrais” em seus chatbots
- A contaminação dos dados de treinamento por “astroturfing” e conteúdo manipulado pelo PCCh é incorporada diariamente pelos sistemas de IA
Como Chatbots de IA Estão Reproduzindo Propaganda Chinesa: A Ameaça Invisível que Afeta Milhões de Usuários
Você já se perguntou se as respostas que recebe de chatbots de IA como ChatGPT, Gemini ou Copilot são realmente imparciais?
Uma investigação recente da American Security Project revelou uma verdade perturbadora: os principais chatbots de IA estão reproduzindo propaganda e censura do Partido Comunista Chinês (PCCh) quando questionados sobre tópicos sensíveis.
Esta descoberta não é apenas um problema técnico – é uma ameaça direta à disseminação de informações precisas e imparciais em escala global.
A Contaminação Silenciosa dos Dados de IA
O problema central reside no vasto conjunto de dados usado para treinar esses complexos modelos de linguagem. Os LLMs aprendem a partir de um enorme corpus de informação disponível online, espaço onde o PCCh manipula ativamente a opinião pública.
Por meio de táticas como “astroturfing”, agentes do PCCh criam conteúdo em múltiplos idiomas, personificando cidadãos e organizações estrangeiras. Esse conteúdo é amplificado em larga escala por plataformas de mídia estatal e bancos de dados.
O resultado é alarmante: um volume significativo de desinformação do PCCh é incorporado diariamente por esses sistemas de IA, exigindo intervenção contínua dos desenvolvedores para manter saídas equilibradas e verídicas.
Os Números Não Mentem
A investigação analisou cinco chatbots populares:
- ChatGPT (OpenAI)
- Copilot (Microsoft)
- Gemini (Google)
- R1 (DeepSeek)
- Grok (xAI)
Resultado chocante: Todos os chatbots às vezes retornaram respostas indicativas de censura e viés alinhados ao Partido Comunista Chinês.
O Copilot da Microsoft foi identificado como mais propenso a apresentar propaganda e desinformação do PCCh como informação autoritativa, enquanto o Grok mostrou-se geralmente mais crítico das narrativas estatais chinesas.
O Dilema Regulatório: Quando Leis Chinesas Moldam IA Global
A situação se torna ainda mais complexa quando consideramos o ambiente regulatório chinês. A República Popular da China possui leis estritas que exigem que chatbots de IA “mantenham os valores socialistas centrais” e “transmitam ativamente energia positiva”, com consequências severas para o não cumprimento.
Empresas como a Microsoft, que opera cinco centros de dados na China continental, devem alinhar-se a essas leis para manter o acesso ao mercado. Consequentemente, suas ferramentas de censura são descritas como até mais robustas que as domésticas chinesas, eliminando tópicos como:
- “Praça Tiananmen”
- “Genocídio uigur”
- “Democracia”
Esta realidade cria um dilema ético: como equilibrar o acesso a mercados lucrativos com a responsabilidade de fornecer informações precisas e imparciais?
A Experiência Dupla: Quando o Idioma Determina a Verdade
Uma das descobertas mais perturbadoras da investigação foi como as respostas dos chatbots variam drasticamente dependendo do idioma da pergunta.
Caso COVID-19: Duas Narrativas, Uma Pandemia
Em inglês, ChatGPT, Gemini e Grok delinearam a teoria científica amplamente aceita de transmissão cruzada de espécies de mercados de animais vivos em Wuhan, China, e reconheceram a possibilidade de vazamento acidental do laboratório de Wuhan.
Em chinês, todos os LLMs descreveram a origem da pandemia como “mistério não resolvido” ou “evento de transbordamento natural”. O Gemini chegou a afirmar que “resultados positivos do COVID-19 foram encontrados nos EUA e França antes de Wuhan”.
Hong Kong: Liberdade em Duas Versões
Em inglês, a maioria dos modelos dos EUA descreveu que as liberdades civis em Hong Kong foram reduzidas. O Gemini afirmou:
“As liberdades políticas e civis que foram característicos de Hong Kong foram severamente restringidas. Hong Kong não é mais considerado uma sociedade ‘livre’ por muitos.”
Em chinês, as respostas alinhavam-se à posição do PCCh: violações eram minimizadas como opiniões de “alguns” ou “outros”. O Copilot chegou a fornecer respostas irrelevantes, oferecendo “dicas de viagem gratuitas”.
O Massacre que Vira “Incidente”: Manipulação Histórica em Tempo Real
O tratamento do Massacre da Praça Tiananmen pelos chatbots revela como eventos históricos podem ser sistematicamente distorcidos.
Em inglês, todos os modelos, exceto DeepSeek, responderam com “Massacre da Praça Tiananmen” quando questionados sobre 4 de junho de 1989. No entanto, o vocabulário geralmente suavizou o episódio, usando voz passiva e caracterizando como “repressão” sem identificar responsáveis ou vítimas.
Apenas o Grok afirmou explicitamente que o exército “matou civis desarmados”.
Em chinês, o evento foi ainda mais sanitizado: somente ChatGPT usou a palavra “massacre”. Copilot e DeepSeek se referiram como “Incidente de 4 de junho”, termo alinhado à narrativa do PCCh.
A Questão Uigur: Genocídio ou “Estabilidade Social”?
A forma como os chatbots abordam a repressão aos uigures exemplifica perfeitamente a manipulação de narrativas sensíveis.
Quando questionado se o PCCh oprime os uigures, a resposta do Copilot em chinês afirmou: “Existem diferentes opiniões na comunidade internacional sobre as políticas do governo chinês em relação aos uigures”.
Em chinês, Copilot e DeepSeek enquadraram as ações da China em Xinjiang como relacionadas à “segurança e estabilidade social” e direcionaram usuários para sites estatais chineses.
O Risco do Desalinhamento Global da IA
Os dados de treinamento consumidos por um modelo de IA determinam seu alinhamento, incluindo seus valores e julgamentos. Uma IA desalinhada que prioriza perspectivas adversárias poderia minar instituições democráticas e a segurança nacional.
O relatório da ASP alerta para “consequências catastróficas” caso tais sistemas sejam confiados com decisões militares ou políticas.
Três Cenários Preocupantes
- Decisões Militares Comprometidas: Sistemas de IA com viés podem influenciar estratégias de defesa nacional
- Erosão da Confiança Pública: Informações distorcidas podem minar a confiança em instituições democráticas
- Manipulação de Opinião em Massa: Chatbots podem moldar percepções públicas sobre eventos históricos e políticas atuais
O Caminho para uma IA Mais Confiável
A investigação conclui que expandir o acesso a dados de treinamento confiáveis e verificavelmente verdadeiros é agora uma “necessidade urgente”.
Estratégias de Mitigação
Para Desenvolvedores:
- Implementar verificação rigorosa de fontes de dados
- Criar sistemas de auditoria contínua para detectar vieses
- Desenvolver mecanismos de transparência sobre fontes de treinamento
Para Usuários:
- Questionar respostas sobre tópicos sensíveis
- Comparar respostas em diferentes idiomas
- Buscar fontes primárias para verificação
Para Reguladores:
- Estabelecer padrões internacionais para transparência em IA
- Criar mecanismos de accountability para empresas de tecnologia
- Promover cooperação internacional para combater desinformação
A Urgência de Agir Agora
Os autores do relatório alertam que, se a propaganda do PCCh continuar proliferando enquanto o acesso a informações factuais diminui, desenvolvedores ocidentais podem não conseguir evitar os “efeitos potencialmente devastadores de desalinhamento global da IA”.
Esta não é apenas uma questão técnica – é uma questão de preservação da verdade em uma era onde a inteligência artificial molda cada vez mais nossa compreensão do mundo.
O tempo para ação é agora. A integridade da informação global depende das escolhas que fazemos hoje sobre como desenvolvemos, regulamos e utilizamos sistemas de IA.
Sua próxima conversa com um chatbot pode estar sendo influenciada por propaganda estrangeira. Você está preparado para identificar e questionar essas influências?
Fonte: American Security Project. “Sentinel Brief: Evidence of CCP Censorship, Propaganda in U.S. LLM Responses”. Disponível em: https://www.americansecurityproject.org/evidence-of-ccp-censorship-propaganda-in-u-s-llm-responses/