A Verdade Oculta do Claude Code: Por Que 98% da 'Inteligência' Não É Inteligência Artificial
O Dia Em Que a Caixa Preta Abriu
31 de março de 2026. Uma linha faltando em um arquivo de configuração. E 512.000 linhas de código proprietário da Anthropic foram para o mundo.
Não foi hack. Não foi brecha de segurança. Foi erro humano. A versão 2.1.88 do pacote npm do Claude Code incluiu acidentalmente um source map de 59,8 MB que apontava para um ZIP completo do código-fonte original, hospedado no Cloudflare R2 da Anthropic. O pesquisador de segurança Chaofan Shou descobriu. Postou no X. O post acumulou 28 milhões de visualizações. Em horas, o codebase inteiro — 1.906 arquivos de TypeScript não-obfuscados — foi espelhado no GitHub, forkado dezenas de milhares de vezes, e analisado por milhares de desenvolvedores.
E o que eles encontraram me fez repensar tudo que eu achava que sabia sobre “ferramentas de IA”.
A Revelação: 98% Não É IA
A análise da comunidade foi unânime: a parte de Inteligência Artificial no Claude Code — o mecanismo que toma decisões e processa linguagem — representa aproximadamente 1,6% do sistema. O restante — os outros 98,4% — é engenharia de software tradicional.
Essencialmente, a IA no Claude Code funciona como um loop while com uma função central: call_model. O modelo recebe o contexto, toma uma decisão, chama algumas ferramentas, e devolve o resultado. É isso. Essa é toda a “inteligência artificial” do Claude Code.
Tudo mais — e são 500.000 linhas de “tudo mais” — é o que chamamos de harness: a infraestrutura de orquestração que transforma essa função simples em uma ferramenta que parece mágica.
Quando eu li isso, minha primeira reação foi: “Então todo esse poder é… código normal?”. E a segunda: “Isso é a coisa mais brilhante que eu já vi em engenharia de software.”
O Que Compõe os 98%
Um artigo de um Ph.D. em Data Science que fez a análise arquitetural mais detalhada resumiu perfeitamente: “Todos analisaram as features. Ninguém analisou a arquitetura.” Vamos ao que está escondido sob o capô:
Sistema de permissões multi-modo. Sete camadas diferentes de checagem para garantir que a IA tenha acesso apenas ao que é permitido. O sistema de hooks permite auto-execução de comandos shell, integração com MCP, e gerenciamento de variáveis de ambiente — tudo com controle granular.
Pipeline de compressão de contexto. Um sistema de cinco camadas que “compacta” o histórico da conversa para que a IA não se perca em tarefas longas. Um bug report interno encontrado no código revela a escala: “1.279 sessões tiveram 50+ falhas consecutivas de compactação (até 3.272), desperdiçando ~250.000 chamadas de API por dia globalmente.” A correção? MAX_CONSECUTIVE_AUTOCOMPACT_FAILURES = 3. Três linhas de código para parar de queimar um quarto de milhão de chamadas por dia.
Arsenal de execução. 54 ferramentas específicas que realizam a execução real no terminal do desenvolvedor. Cada ferramenta é cuidadosamente isolada com políticas de segurança.
Sistemas de recuperação. Protocolos rígidos para quando as coisas quebram — e em programação, quebram o tempo todo. Retry logic, streaming, modos de revisão, coordenação multi-agente.
Anti-distilação. Um flag chamado ANTI_DISTILLATION_CC que, quando ativo, envia anti_distillation: ['fake_tools'] nas requisições de API — uma defesa para impedir que concorrentes “destilem” as capacidades do Claude Code treinando sobre suas saídas.
Undercover Mode. Um módulo que instrui o Claude Code a nunca mencionar codinomes internos (como “Capybara”, “Tengu”, “Fennec”) quando usado em repositórios externos. Há um hard-coded NO force-OFF — você pode forçar o modo undercover ligado, mas não pode forçá-lo desligado. A implicação: commits de IA feitos por funcionários da Anthropic em repos open source não terão nenhuma indicação de que uma IA os escreveu.
A IA Como “Consultora”
A analogia que melhor captura o que eu vi no código: a IA é como uma consultora sentada em uma sala. Ela só fala quando é questionada. Mas existe uma operação inteira ao redor dessa sala — segurança, logística, protocolos, sistemas de emergência — para garantir que o que ela diz seja executado corretamente e com segurança.
Muitas empresas estão correndo para tornar a IA “mais autônoma” e tirar humanos do loop. Mas o segredo do Claude Code prova que o sucesso não vem de uma IA mais livre, mas de uma IA mais bem orquestrada por código tradicional.
E aqui está a conexão com o paper de Stanford sobre Meta-Harness que eu discuti anteriormente: mudar o harness sem tocar no modelo gera variações de até 6x em performance. O Claude Code é a prova viva disso em produção.
O Que o Vazamento Também Revelou
Além da arquitetura, desenvolvedores encontraram easter eggs e features não lançadas:
KAIROS — um modo de agente autônomo (daemon) onde o Claude Code opera em background, fazendo “consolidação de memória noturna” (um /dream skill) enquanto o desenvolvedor dorme. É basicamente o Projeto Conway que discuti no post sobre o bloqueio do OpenClaw.
ULTRAPLAN — um sistema para offloading de tarefas complexas de planejamento para infraestrutura cloud.
BUDDY — um sistema Tamagotchi com 18 espécies, mecânicas de gacha e estatísticas. Provavelmente o April Fools do ano.
Codinomes internos: Capybara mapeia para uma variante do Claude 4.6, Fennec para uma variante do Opus 4.6.
O Novo Diferencial Competitivo
À medida que GPT, Claude e Gemini convergem em performance de modelo, o que separa vencedores de perdedores não é mais o modelo. É a infraestrutura ao redor dele.
A IA (o modelo) é commodity — cada vez mais similar entre os providers. Sua função é sugerir o caminho. Representa ~2% do código.
A infraestrutura (o harness) é diferencial competitivo. Sua função é garantir execução e segurança. Representa ~98% do código. É o que faz o Claude Code funcionar de forma que parece mágica enquanto outro agente usando o mesmo modelo falha miseravelmente.
O Que Eu Tirei Disso
Quando eu li a análise completa, três pensamentos ficaram:
Primeiro: engenharia de software nunca foi tão relevante. Se 98% da “ferramenta de IA mais popular de 2026” é código tradicional, a demanda por engenheiros que sabem escrever sistemas robustos, seguros e escaláveis não vai diminuir. Vai aumentar.
Segundo: o “moat” não está no modelo. Qualquer empresa pode usar o mesmo modelo via API. O moat está na camada de orquestração — permissões, compressão de contexto, ferramentas de execução, sistemas de recuperação. É isso que leva meses ou anos para construir e é impossível de replicar vendo apenas o output.
Terceiro: a Anthropic é melhor em engenharia do que em segurança de packaging. Esse foi o segundo vazamento significativo em cinco dias (o primeiro foi o system card do Mythos via CMS mal configurado). A engenharia do Claude Code é brilhante. A segurança operacional precisa melhorar.
Conclusão: Engenharia de Software Ainda é o Rei
Este vazamento é um lembrete vital: não abandone suas habilidades de engenharia tradicional. A IA é uma ferramenta poderosa, mas ela precisa de uma armadura de código sólido para ser útil em produção.
O futuro da tecnologia não é apenas sobre IA. É sobre como usamos a boa e velha programação para domar e direcionar essa inteligência. E as 512.000 linhas do Claude Code são a prova mais eloquente disso que eu já vi.
A IA é a consultora brilhante na sala. Mas a sala, as paredes, a segurança, os protocolos, o ar-condicionado e a porta com chave? Isso é engenharia. E sem ela, a consultora não serve para nada.
Compartilhe se isso mudou sua perspectiva:
- Email: fodra@fodra.com.br
- LinkedIn: linkedin.com/in/mauriciofodra
512.000 linhas de código. 1,6% de IA. 98,4% de engenharia. E essa proporção é exatamente o motivo pelo qual funciona.
Leia Também
- Não Culpe a IA: O Segredo Está no Harness — Stanford provou com 9.649 experimentos: o harness importa mais que o modelo. O vazamento do Claude Code confirma em produção.
- O Fim da ‘Farra’ no Claude: O Que É o Misterioso Conway — KAIROS no código vazado é o Conway que previmos: agente autônomo rodando em background.
- Claude Mythos: O Modelo Que ‘Escapou’ da Caixa — O Mythos é o modelo. O Claude Code é o harness. Juntos, são a combinação mais poderosa (e perigosa) da Anthropic.