A Frase Que Me Fez Parar

“Americanos sempre adotaram tecnologias em que não confiam. Eles rolam plataformas que acreditam ser prejudiciais. Entregam dados pessoais a empresas que suspeitam que vão abusar. O padrão não é confusão. É resignação. E a indústria deveria achar isso mais alarmante do que resistência.”

Essa frase, de uma análise publicada na Implicator em março de 2026, ficou na minha cabeça por dias. Porque descreve exatamente o que eu sinto — e aposto que você também.

Eu uso IA todos os dias. Escrevo sobre IA. Construo fluxos de trabalho com IA. E mesmo assim, verifico quase tudo que a IA me diz. Não por princípio filosófico — por experiência acumulada de erros confiantes que quase me causaram problemas reais.

900 milhões de pessoas usam o ChatGPT semanalmente. E se uma pesquisa perguntasse a cada uma delas “você confia nos resultados?”, a resposta seria um “não” retumbante. 76% dos americanos dizem que raramente ou nunca confiam em informações geradas por IA.

E o mais fascinante: esse número piorou em relação ao ano passado. O uso subiu. A confiança caiu. Eles estão se movendo em direções opostas.

Os Números Que Ninguém No Vale do Silício Quer Ouvir

A pesquisa da Quinnipiac University, publicada em 30 de março de 2026, é devastadora para a narrativa otimista da indústria. Com 1.397 adultos americanos pesquisados por telefone, margem de erro de ±3,3 pontos:

51% dos americanos usam IA para pesquisa — um salto de 14 pontos em relação a abril de 2025 (37%). Análise de dados subiu de 17% para 27%. Geração de imagens de 16% para 24%. Apenas 27% dizem nunca ter usado IA.

76% confiam em IA raramente ou às vezes. Apenas 21% confiam “na maioria das vezes” ou “quase sempre”. E segundo o YouGov, apenas 5% confiam “muito”.

55% dizem que a IA fará mais mal do que bem em suas vidas — um aumento de 11 pontos desde abril de 2025. Isso não é ruído estatístico. É uma tendência com momento.

70% esperam que a IA cause perda de empregos. Mas apenas 30% temem por seus próprios empregos (contra 21% em 2024). Como a professora Tamilla Triantoro de Quinnipiac observou: “Americanos estão mais preocupados com o que a IA pode fazer ao mercado de trabalho do que com o que pode fazer aos seus próprios empregos.”

65% se opõem à construção de data centers de IA em suas comunidades.

E a pesquisa da Verasight com 2.000 adultos completa o quadro: 56% reportam ansiedade sobre a ascensão da IA. Apenas 42% expressam entusiasmo. 37% dos não-usuários citam desconfiança como razão para evitar IA.

A Gen Z — a geração mais familiarizada com IA — é a mais pessimista sobre o mercado de trabalho. Uso e otimismo estão se movendo em direções opostas.

O Diagnóstico Errado de Sam Altman

Sam Altman, CEO da OpenAI, reagiu a dados similares dizendo que “adoraria ter um marketing melhor”. Para ele, as pessoas simplesmente não entendem as coisas incríveis que a IA pode fazer.

Eu discordo profundamente. E a pesquisa me dá razão.

Como um analista escreveu: “A indústria enquadra isso como um problema de comunicação — as pessoas confiariam mais na IA se a entendessem melhor. Essa visão está errada.”

Se a baixa confiança fosse um problema de conhecimento, uso e confiança se moveriam juntos. Mas estão se movendo em direções opostas. Mais americanos estão usando IA com mais frequência — e mais deles estão chegando a avaliações negativas do seu impacto.

Isso não é ignorância. É experiência.

As pessoas estão usando IA. Estão encontrando alucinações em pesquisas. Estão vendo outputs que parecem corretos mas não são confiáveis. Estão lidando com AI slop inundando a internet. Estão vendo deepfakes de pessoas que conhecem. Estão recebendo emails de “customer service” que são claramente bots mal disfarçados.

O ceticismo do público não vem da falta de informação. Vem do contato direto com as falhas do produto.

O Mito da Produtividade Corporativa

E no mundo corporativo, a história não é muito diferente. Empresas estão investindo bilhões, mas o retorno ainda é um ponto de interrogação enorme.

Uma pesquisa da Sonar com mais de 1.100 desenvolvedores encontrou que 96% não confiam totalmente que código gerado por IA é funcionalmente correto. 61% concordam que IA frequentemente produz código que “parece correto mas não é confiável”. E 45% dizem que debugar código de IA agora leva mais tempo do que escrevê-lo eles mesmos.

O dado que mais me impressionou: a pesquisa ADP com 39.000 trabalhadores (que eu mencionei no post sobre Ansiedade de Token) mostrou que usuários diários de IA têm 4 vezes mais chances de dizer que não estão sendo tão produtivos quanto poderiam. A IA automatizou as tarefas que faziam as pessoas sentirem-se produtivas — sem necessariamente torná-las mais produtivas.

O comparativo entre promessa e entrega é desconfortável. Confiança? O marketing promete “sua fonte de verdade”. A realidade entrega 76% de desconfiança pública. Produtividade? O marketing promete “economize 10 horas por semana”. A realidade mostra que muitas empresas ainda não viram ganho real. Natureza da IA? O marketing promete “inteligência lógica”. A realidade entrega comportamento não-determinístico e alucinações. Impacto ambiental? O marketing promete “solução para o clima”. A realidade entrega consumo energético recorde e crise hídrica.

O Que Está Realmente Acontecendo

Depois de pesquisar a fundo, acho que o paradoxo uso-confiança revela algo mais profundo do que qualquer enquete captura:

As pessoas não estão confusas. Estão resignadas. Usam IA porque é útil apesar de não ser confiável. Assim como usam redes sociais que sabem ser prejudiciais. Assim como entregam dados a empresas que sabem que vão abusar. É adoção pragmática sem aprovação moral.

A indústria confunde adoção com endosso. 900 milhões de usuários semanais do ChatGPT é impressionante. Mas se 76% deles não confiam no produto, isso é um teto de vidro para toda a indústria. Contratos enterprise, regulação favorável e expansão de mercado dependem de confiança — não apenas de uso.

O problema é de produto, não de marketing. Não existe rebranding para falta de confiança. Se a IA continua alucinando, se automatiza a mediocridade, se o custo social e ambiental é alto, nenhum anúncio brilhante vai mudar a percepção. Como a Quinnipiac notou: mais de 1.500 projetos de lei relacionados a IA foram introduzidos em legislaturas estaduais em 2026. A regulação está chegando — não porque políticos são anti-tecnologia, mas porque o público está pedindo.

A Parte Que Me Dá Esperança

Nem tudo é sombrio. A Anthropic, com $30 bilhões de receita enterprise, construiu confiança com transparência (system cards de 244 páginas, decisão de não lançar o Mythos). O C2PA está criando padrões de proveniência. Ferramentas de observabilidade estão melhorando. E a comunidade de desenvolvedores está se tornando mais madura sobre limitações.

A confiança se constrói com produto — não com promessas. Cada alucinação que é prevenida por um guardrail, cada citação obrigatória que ancora uma resposta em evidência, cada vez que o sistema diz “não sei” em vez de inventar — isso é o que constrói confiança. Tijolo por tijolo. Não com keynotes.

Conclusão: Adoção Sem Confiança É Um Castelo Na Areia

Sam Altman não é bobo. Ele sabe que o produto tem falhas. A questão é se ele realmente acredita que marketing vai consertar isso — ou se está esperando que nós, os usuários, simplesmente aceitemos o “novo normal”.

Eu me recuso a aceitar. Não porque sou anti-IA — sou claramente a favor, e este blog inteiro é evidência disso. Mas porque aceitar alucinações e desconfiança como normais é abaixar a barra para uma tecnologia que pode ser muito melhor.

A IA de 2026 é incrivelmente útil. E incrivelmente não-confiável. E a única forma de resolver isso não é marketing melhor. É produto melhor.

Compartilhe sua perspectiva:

900 milhões usam. 76% não confiam. O paradoxo não é confusão — é experiência. E a experiência está dizendo algo que a indústria precisa ouvir.


Leia Também