O Paradoxo da IA em 2026: Por Que 900 Milhões de Pessoas Usam, Mas Ninguém Confia?
A Frase Que Me Fez Parar
“Americanos sempre adotaram tecnologias em que não confiam. Eles rolam plataformas que acreditam ser prejudiciais. Entregam dados pessoais a empresas que suspeitam que vão abusar. O padrão não é confusão. É resignação. E a indústria deveria achar isso mais alarmante do que resistência.”
Essa frase, de uma análise publicada na Implicator em março de 2026, ficou na minha cabeça por dias. Porque descreve exatamente o que eu sinto — e aposto que você também.
Eu uso IA todos os dias. Escrevo sobre IA. Construo fluxos de trabalho com IA. E mesmo assim, verifico quase tudo que a IA me diz. Não por princípio filosófico — por experiência acumulada de erros confiantes que quase me causaram problemas reais.
900 milhões de pessoas usam o ChatGPT semanalmente. E se uma pesquisa perguntasse a cada uma delas “você confia nos resultados?”, a resposta seria um “não” retumbante. 76% dos americanos dizem que raramente ou nunca confiam em informações geradas por IA.
E o mais fascinante: esse número piorou em relação ao ano passado. O uso subiu. A confiança caiu. Eles estão se movendo em direções opostas.
Os Números Que Ninguém No Vale do Silício Quer Ouvir
A pesquisa da Quinnipiac University, publicada em 30 de março de 2026, é devastadora para a narrativa otimista da indústria. Com 1.397 adultos americanos pesquisados por telefone, margem de erro de ±3,3 pontos:
51% dos americanos usam IA para pesquisa — um salto de 14 pontos em relação a abril de 2025 (37%). Análise de dados subiu de 17% para 27%. Geração de imagens de 16% para 24%. Apenas 27% dizem nunca ter usado IA.
76% confiam em IA raramente ou às vezes. Apenas 21% confiam “na maioria das vezes” ou “quase sempre”. E segundo o YouGov, apenas 5% confiam “muito”.
55% dizem que a IA fará mais mal do que bem em suas vidas — um aumento de 11 pontos desde abril de 2025. Isso não é ruído estatístico. É uma tendência com momento.
70% esperam que a IA cause perda de empregos. Mas apenas 30% temem por seus próprios empregos (contra 21% em 2024). Como a professora Tamilla Triantoro de Quinnipiac observou: “Americanos estão mais preocupados com o que a IA pode fazer ao mercado de trabalho do que com o que pode fazer aos seus próprios empregos.”
65% se opõem à construção de data centers de IA em suas comunidades.
E a pesquisa da Verasight com 2.000 adultos completa o quadro: 56% reportam ansiedade sobre a ascensão da IA. Apenas 42% expressam entusiasmo. 37% dos não-usuários citam desconfiança como razão para evitar IA.
A Gen Z — a geração mais familiarizada com IA — é a mais pessimista sobre o mercado de trabalho. Uso e otimismo estão se movendo em direções opostas.
O Diagnóstico Errado de Sam Altman
Sam Altman, CEO da OpenAI, reagiu a dados similares dizendo que “adoraria ter um marketing melhor”. Para ele, as pessoas simplesmente não entendem as coisas incríveis que a IA pode fazer.
Eu discordo profundamente. E a pesquisa me dá razão.
Como um analista escreveu: “A indústria enquadra isso como um problema de comunicação — as pessoas confiariam mais na IA se a entendessem melhor. Essa visão está errada.”
Se a baixa confiança fosse um problema de conhecimento, uso e confiança se moveriam juntos. Mas estão se movendo em direções opostas. Mais americanos estão usando IA com mais frequência — e mais deles estão chegando a avaliações negativas do seu impacto.
Isso não é ignorância. É experiência.
As pessoas estão usando IA. Estão encontrando alucinações em pesquisas. Estão vendo outputs que parecem corretos mas não são confiáveis. Estão lidando com AI slop inundando a internet. Estão vendo deepfakes de pessoas que conhecem. Estão recebendo emails de “customer service” que são claramente bots mal disfarçados.
O ceticismo do público não vem da falta de informação. Vem do contato direto com as falhas do produto.
O Mito da Produtividade Corporativa
E no mundo corporativo, a história não é muito diferente. Empresas estão investindo bilhões, mas o retorno ainda é um ponto de interrogação enorme.
Uma pesquisa da Sonar com mais de 1.100 desenvolvedores encontrou que 96% não confiam totalmente que código gerado por IA é funcionalmente correto. 61% concordam que IA frequentemente produz código que “parece correto mas não é confiável”. E 45% dizem que debugar código de IA agora leva mais tempo do que escrevê-lo eles mesmos.
O dado que mais me impressionou: a pesquisa ADP com 39.000 trabalhadores (que eu mencionei no post sobre Ansiedade de Token) mostrou que usuários diários de IA têm 4 vezes mais chances de dizer que não estão sendo tão produtivos quanto poderiam. A IA automatizou as tarefas que faziam as pessoas sentirem-se produtivas — sem necessariamente torná-las mais produtivas.
O comparativo entre promessa e entrega é desconfortável. Confiança? O marketing promete “sua fonte de verdade”. A realidade entrega 76% de desconfiança pública. Produtividade? O marketing promete “economize 10 horas por semana”. A realidade mostra que muitas empresas ainda não viram ganho real. Natureza da IA? O marketing promete “inteligência lógica”. A realidade entrega comportamento não-determinístico e alucinações. Impacto ambiental? O marketing promete “solução para o clima”. A realidade entrega consumo energético recorde e crise hídrica.
O Que Está Realmente Acontecendo
Depois de pesquisar a fundo, acho que o paradoxo uso-confiança revela algo mais profundo do que qualquer enquete captura:
As pessoas não estão confusas. Estão resignadas. Usam IA porque é útil apesar de não ser confiável. Assim como usam redes sociais que sabem ser prejudiciais. Assim como entregam dados a empresas que sabem que vão abusar. É adoção pragmática sem aprovação moral.
A indústria confunde adoção com endosso. 900 milhões de usuários semanais do ChatGPT é impressionante. Mas se 76% deles não confiam no produto, isso é um teto de vidro para toda a indústria. Contratos enterprise, regulação favorável e expansão de mercado dependem de confiança — não apenas de uso.
O problema é de produto, não de marketing. Não existe rebranding para falta de confiança. Se a IA continua alucinando, se automatiza a mediocridade, se o custo social e ambiental é alto, nenhum anúncio brilhante vai mudar a percepção. Como a Quinnipiac notou: mais de 1.500 projetos de lei relacionados a IA foram introduzidos em legislaturas estaduais em 2026. A regulação está chegando — não porque políticos são anti-tecnologia, mas porque o público está pedindo.
A Parte Que Me Dá Esperança
Nem tudo é sombrio. A Anthropic, com $30 bilhões de receita enterprise, construiu confiança com transparência (system cards de 244 páginas, decisão de não lançar o Mythos). O C2PA está criando padrões de proveniência. Ferramentas de observabilidade estão melhorando. E a comunidade de desenvolvedores está se tornando mais madura sobre limitações.
A confiança se constrói com produto — não com promessas. Cada alucinação que é prevenida por um guardrail, cada citação obrigatória que ancora uma resposta em evidência, cada vez que o sistema diz “não sei” em vez de inventar — isso é o que constrói confiança. Tijolo por tijolo. Não com keynotes.
Conclusão: Adoção Sem Confiança É Um Castelo Na Areia
Sam Altman não é bobo. Ele sabe que o produto tem falhas. A questão é se ele realmente acredita que marketing vai consertar isso — ou se está esperando que nós, os usuários, simplesmente aceitemos o “novo normal”.
Eu me recuso a aceitar. Não porque sou anti-IA — sou claramente a favor, e este blog inteiro é evidência disso. Mas porque aceitar alucinações e desconfiança como normais é abaixar a barra para uma tecnologia que pode ser muito melhor.
A IA de 2026 é incrivelmente útil. E incrivelmente não-confiável. E a única forma de resolver isso não é marketing melhor. É produto melhor.
Compartilhe sua perspectiva:
- Email: fodra@fodra.com.br
- LinkedIn: linkedin.com/in/mauriciofodra
900 milhões usam. 76% não confiam. O paradoxo não é confusão — é experiência. E a experiência está dizendo algo que a indústria precisa ouvir.
Leia Também
- Alucinações de IA em 2026: Por Que Elas Ainda Existem — A razão #1 da desconfiança pública: a IA mente com convicção. E a prova matemática diz que não vai parar.
- AGI: A ‘Isca’ Bilionária do Vale do Silício — Se 76% não confiam no chatbot, imagine na promessa de “inteligência geral”.
- Ansiedade de Token: A Corrida Frenética Para Acompanhar a IA — O paradoxo invertido: os que mais usam IA são os que mais se sentem improdutivos.