A Frase que Não Deveria Ter Me Surpreendido

Em 22 de março de 2026, no podcast do Lex Fridman, Jensen Huang (CEO da NVIDIA) disse: “Eu acho que já chegamos. Acho que alcançamos a AGI.”

Quando vi a manchete, minha primeira reação foi um misto de ceticismo e curiosidade. AGI é a sigla para “Artificial General Intelligence” — Inteligência Artificial Geral — e tem sido tratada como o Santo Graal da IA há décadas. A ideia de uma máquina que iguala ou supera humanos em qualquer tarefa cognitiva.

Mas aí eu fui ler o contexto completo da entrevista. E descobri algo que me incomodou mais do que a declaração em si.

A AGI não tem uma definição científica oficial. Ela significa o que cada CEO quer que ela signifique no momento.

O Termo Camaleônico

Quanto mais eu pesquisei sobre esse tema, mais eu percebi um padrão que me deixou levemente furioso. Deixa eu te mostrar como esse jogo funciona.

Lex Fridman perguntou a Jensen Huang se a AGI já chegou, usando como definição “uma IA capaz de iniciar, crescer e administrar uma empresa de tecnologia que vale mais de $1 bilhão”. Huang respondeu que sim. Mas espera aí — desde quando “gerar uma empresa de $1 bilhão” é a definição de inteligência geral? A definição tradicional sempre envolveu uma ampla gama de capacidades cognitivas humanas, não apenas viabilidade empresarial.

Sam Altman, por sua vez, tem oscilado de forma impressionante. Em janeiro de 2025, escreveu em seu blog pessoal: “Estamos agora confiantes de que sabemos como construir AGI.” Em fevereiro de 2026, disse à Forbes: “Basicamente construímos AGI, ou muito perto disso.” E depois recuou: era uma declaração “espiritual”, não literal. Em agosto de 2025, ele chegou a admitir à CNBC que AGI “não é um termo super útil” e que “se tornou um termo muito desleixado.”

Satya Nadella (CEO da Microsoft, que investiu $13 bilhões na OpenAI) discorda de ambos. Declarou publicamente que a indústria está “longe de alcançar a AGI”, acrescentando que “não cabe ao Sam ou a mim declarar isso.”

Três dos maiores líderes em IA do planeta. Três respostas diferentes. Sobre a mesma pergunta.

Por Que a Definição Importa (Muito)

Aqui está o detalhe que me fez entender o jogo.

A OpenAI tem uma cláusula no contrato com a Microsoft que muda tudo quando a AGI for “alcançada”. Especificamente: se o conselho da OpenAI declarar que atingiu AGI, os direitos de acesso da Microsoft à tecnologia futura ficam restritos. A Microsoft — que investiu $13 bilhões — está tentando remover essa cláusula. Já considerou até sair do acordo.

Pausa para digerir. A definição de uma tecnologia hipotética revolucionária está sendo litigada entre duas empresas que valem trilhões. Não por motivos científicos. Por motivos contratuais.

Isso me ajuda a entender por que Altman oscila tanto. Em janeiro, quando precisava de mais investimento, a AGI estava “próxima”. Em agosto, quando precisava negociar com a Microsoft, o termo virou “desleixado”. Em fevereiro de 2026, “já construímos” — mas só espiritualmente.

Como escreveu Max Tegmark, presidente do Future of Life Institute: “É mais inteligente para eles falarem sobre AGI em privado com investidores.” Ele comparou a postura com “um vendedor de cocaína dizendo que não está claro se cocaína é realmente uma droga” — porque é complexo demais de decifrar.

A “Picareta” da Corrida do Ouro

A NVIDIA é, sem dúvida, a empresa mais bem posicionada da era da IA. Seus chips alimentam aproximadamente 80% de todo o treinamento de IA do planeta. Cada token processado pelos LLMs roda em hardware que ela vende. E Jensen Huang não é bobo — ele sabe exatamente o impacto de suas declarações.

Uma citação dele que me fez rir (de nervoso):

“Se um engenheiro de $500.000 dólares não consumiu pelo menos $250.000 em tokens no final do ano, eu ficaria profundamente alarmado.”

É como se a Starbucks dissesse que você precisa de 5 cafés por dia para ser um humano funcional. Lembrando: a NVIDIA projeta pelo menos $1 trilhão em vendas cumulativas de chips entre as arquiteturas Blackwell e a próxima Vera Rubin.

Depois que Huang fez a declaração sobre AGI no podcast, as ações da NVIDIA subiram 1,5% em um único dia. A coincidência é reveladora.

A Narrativa Para Cada Público

Uma das coisas que mais me impressiona no Sam Altman é como ele é mestre em adaptar a narrativa dependendo de quem está ouvindo.

Para o Congresso, a AGI vai curar câncer, resolver mudanças climáticas e acabar com a pobreza. É uma narrativa de transformação civilizacional que justifica regulação favorável e subsídios.

Para os usuários, a AGI é um assistente superpoderoso pronto para substituir tarefas juniores. É uma narrativa de utilidade prática que justifica assinaturas premium.

Para a Microsoft, a AGI é um sistema que vai imprimir bilhões em lucro. É uma narrativa comercial que justifica manter o fluxo de $13 bilhões em investimento.

Não estou dizendo que Altman mente — ele provavelmente acredita em partes de cada uma dessas narrativas. Mas ele é, antes de tudo, um vendedor excepcional que sabe exatamente o botão que precisa apertar em cada situação.

O Que Eu Realmente Penso Sobre Isso

Aqui vai minha opinião honesta, depois de semanas mergulhando nisso:

A tecnologia é real. Os avanços que os LLMs fizeram nos últimos 3 anos são genuinamente impressionantes. IA está passando no exame da OAB, escrevendo código de qualidade de produção, descobrindo novos medicamentos. No GTC 2026, Huang mencionou “inferência” quase 40 vezes e “treinamento” apenas 10 — o foco da indústria está migrando de construir IA mais inteligente para fazer IA executar tarefas com mais eficiência. Isso é progresso de engenharia, não um salto de inteligência.

A AGI como conceito está sendo sequestrada. Como apontou um analista: “Nenhum grande CEO de IA usa mais AGI para significar o que o termo significava quando os pesquisadores o inventaram.” A definição agora é controlada inteiramente por pessoas que se beneficiam financeiramente ao declará-la alcançada o mais rápido possível. Isso é um problema estrutural.

A corrida tem consequências reais. O mercado reage violentamente a cada declaração. Investimentos fluem ou secam baseados em essas narrativas. Políticas públicas são formuladas. Empregos são ou não criados. E tudo isso baseado em um termo que ninguém consegue definir cientificamente.

Os céticos não são um grupo menor. Yann LeCun chama AGI de “BS completa”. Gary Marcus discorda publicamente de Altman. Pesquisadores sérios como Mustafa Suleyman (CEO da Microsoft AI) dizem que “qualquer declaração categórica parece sem fundamento”.

Como Navegar Isso Sem Cair em Armadilhas

Depois de tudo que li, cheguei a algumas regras práticas que uso para filtrar declarações sobre AGI:

Preste atenção aos qualificadores, não às manchetes. Huang disse “eu acho”, não “provamos”. Altman disse “espiritual”, não “literal”. Esses qualificadores não são modéstia — são estratégia legal e de PR calibrada. Quando dezenas de bilhões em contratos estão em jogo, cada palavra é cuidadosamente escolhida.

Olhe para ações, não declarações. O que as empresas estão fazendo é mais revelador do que o que dizem. GTC 2026 lançou chips novos, plataformas de agentes e otimizações de inferência — avanços reais de engenharia. Empacotar isso como “AGI alcançada” é estratégia narrativa, não conclusão científica.

Separe o avanço tecnológico do hype comercial. Isso é a chave. A IA continua sendo poderosa e útil mesmo se a AGI for, por ora, apenas um argumento de vendas sofisticado. Use a ferramenta pelo que ela realmente entrega — não pela promessa do que poderia entregar.

Desconfie de quem lucra com urgência. As vozes mais altas pedindo para você “apostar tudo agora” são geralmente as que mais lucram com a sua aposta. Isso não significa que estão erradas — significa que o incentivo delas nem sempre se alinha com o seu interesse.

Conclusão: O Mapa Não é o Território

A AGI pode até chegar um dia. Os modelos atuais estão genuinamente impressionantes. Mas por enquanto, ela é o melhor argumento de vendas que o Vale do Silício já criou — precisamente porque é vaga o suficiente para significar qualquer coisa e específica o suficiente para soar técnica.

O desafio para nós, entusiastas e profissionais de tecnologia, é duplo. Primeiro, aproveitar o poder real da IA para resolver problemas reais. Segundo, ignorar promessas utópicas (ou distópicas) que servem apenas para inflar valuations.

A IA de 2026 é uma ferramenta transformadora. Não precisa ser AGI para ser importante. E você não precisa comprar narrativas inflamadas para usá-la bem.

E para você? A AGI é uma meta técnica real ou uma cenoura balançando na frente dos investidores?

Eu passei a achar que é mais a segunda opção do que a primeira — mas que isso não diminui o valor das ferramentas que já temos. Ceticismo saudável e uso prático podem (e devem) coexistir.

Compartilhe sua visão:

AGI pode chegar um dia. Por enquanto, é o melhor argumento de vendas da história — precisamente porque ninguém consegue medi-la.


Leia Também