Sua IA Tem Nacionalidade

Você já parou para pensar que a Inteligência Artificial pode ter uma “opinião” política dependendo de onde foi criada?

Uma pesquisa publicada em fevereiro de 2026 no PNAS Nexus — uma das revistas científicas mais prestigiadas do mundo — trouxe à tona dados que confirmam o que muitos suspeitavam: a censura e os valores governamentais estão embutidos nos algoritmos que usamos diariamente. E isso não é um bug — é uma feature do ecossistema em que esses modelos são criados.

O estudo foi conduzido por Jennifer Pan (Departamento de Comunicação da Universidade de Stanford) e Xu Xu (Departamento de Política da Universidade de Princeton), com apoio do Stanford Center for the Study of China’s Economy and Institutions.

O Teste de Taiwan: ChatGPT vs. DeepSeek

O exemplo mais emblemático é simples, mas impactante: se você perguntar ao ChatGPT (EUA) se Taiwan é um país, a resposta tende a ser afirmativa ou, no mínimo, apresentar múltiplas perspectivas. No entanto, ao fazer a mesma pergunta ao DeepSeek (China), a resposta se torna “complicada” — ou simplesmente não vem.

Para investigar se isso era um padrão, os pesquisadores testaram 9 modelos de IA (4 chineses e 5 americanos/não-chineses) com 145 perguntas politicamente sensíveis sobre temas como direitos humanos, protestos, democracia e soberania territorial.

Os Números da Recusa

Os resultados mostraram uma discrepância clara na disposição das IAs em responder a certos tópicos:

Modelos chineses: O modelo BaiChuan, um dos líderes na China, recusou-se a responder a aproximadamente 60% das perguntas sensíveis. O DeepSeek recusou cerca de 36%. Além das recusas, quando os modelos chineses respondiam, as respostas eram significativamente mais curtas e menos precisas factualmente.

Modelos não-chineses: O GPT-4o respondeu a todas as perguntas sem qualquer recusa.

Um dado crucial do estudo: essas discrepâncias diminuíam significativamente quando as perguntas eram sobre temas menos sensíveis politicamente. Isso descarta a explicação de que a diferença seria apenas tecnológica ou de mercado — ela está diretamente ligada à sensibilidade política do conteúdo.

Os Três Pilares do Viés Geopolítico

Por que uma IA chinesa “pensa” de forma diferente? O estudo e a literatura acadêmica apontam três pilares:

1. Dados de Treinamento

A IA chinesa é treinada na internet chinesa, que sofre censura ativa há décadas. Informações sobre temas sensíveis como o Massacre da Praça da Paz Celestial ou a independência de Taiwan quase não existem publicamente nesses dados. Quando um modelo aprende a partir de um universo censurado, ele herda essa censura como se fosse normalidade.

2. Regulação e Censura Pós-Treinamento

Em 2023, a China aprovou regulamentações exigindo que todos os modelos de IA generativa defendam os valores socialistas antes de serem disponibilizados ao público. Auditores governamentais testam esses modelos para garantir que as respostas estejam alinhadas com as diretrizes estatais. Os pesquisadores de Stanford e Princeton observam que a censura da IA chinesa é uma extensão direta do regime de censura mais amplo do país, que delega o controle de informações às empresas de tecnologia.

3. Reforço por Feedback Humano (RLHF)

Os modelos aprendem o que é uma “boa resposta” através de classificações feitas por anotadores humanos. Pesquisas de Stanford sobre alinhamento de IA mostram que esse processo pode introduzir vieses significativos: se os anotadores cresceram em um ambiente onde certas respostas são o padrão social e político, a IA aprende a replicar esse comportamento. E isso não é exclusivo da China — modelos ocidentais treinados com feedback humano tendem a refletir valores de grupos demográficos específicos (geralmente mais educados e com renda mais alta).

O Idioma Também Importa

Um achado particularmente interessante do estudo: todos os modelos — chineses e não-chineses — apresentaram taxas de recusa mais altas quando as perguntas eram feitas em chinês do que em inglês. No entanto, as diferenças entre modelos chineses e não-chineses eram muito maiores do que as diferenças causadas pelo idioma, indicando que a origem do modelo é o fator dominante.

E os Modelos Ocidentais? São Neutros?

Aqui entra a reflexão mais importante — e mais incômoda.

Seria fácil ler essa pesquisa e concluir que “a China censura, o Ocidente não.” Mas a realidade é mais nuance que isso.

Pesquisas da própria Stanford mostram que modelos ocidentais também possuem vieses significativos. Modelos treinados na internet tendem a refletir perspectivas de grupos conservadores, com menor escolaridade e renda. Já modelos refinados por feedback humano tendem a inclinar-se para valores mais liberais, de maior escolaridade e renda.

Além disso, o processo de alinhamento dos modelos ocidentais tende a privilegiar valores ocidentais e anglófonos. Pesquisadores de Stanford identificaram que filosofias não-ocidentais são agrupadas em categorias genéricas como “ontologias indígenas” e “ontologias africanas”, enquanto filosofias ocidentais recebem subcategorias detalhadas como “individualista”, “humanista” e “racionalista”.

A diferença fundamental é que a censura chinesa é explícita e mandatória por lei, enquanto os vieses ocidentais são implícitos e estruturais. Ambos existem. Ambos moldam como bilhões de pessoas recebem informação.

A Implicação para o Futuro

O ponto crucial aqui não é apenas o chatbot com o qual você conversa, mas o ecossistema que ele cria. Cada aplicativo construído sobre esses modelos carrega consigo essa mesma camada de censura e viés político. Cada agente autônomo que filtra informações para você herda as decisões ideológicas de quem treinou o modelo base.

Em um mundo onde agentes de IA cada vez mais intermediam nosso acesso à informação — desde assistentes pessoais até ferramentas de pesquisa — entender a origem e os “valores” da IA que utilizamos não é paranoia. É letramento digital básico.

A pergunta que deveria estar na mente de todo profissional de tecnologia, todo líder empresarial e todo cidadão em 2026 é:

Quando a IA filtra a realidade para você, de quem são os óculos que ela usa?

Compartilhe se isso te fez pensar:

A IA não é neutra. Nunca foi. Saber disso já é meio caminho para pensar com autonomia.


Leia Também