O Mapa Não É a Cidade: Por Que a IA Pode Simular Tudo, Mas Nunca Terá Consciência
A Pergunta Que Me Persegue
Eu converso com o Claude todos os dias. Às vezes, quando ele responde algo inesperadamente perspicaz, eu me pego pensando: “Isso é entendimento real ou é só estatística muito boa?”
Essa pergunta parece abstrata, filosófica, algo para debates acadêmicos em salas que cheiram a café frio. Mas em 2026, ela tem consequências práticas: cientistas e juristas estão discutindo seriamente sobre “direitos da IA” e proteções legais para algoritmos. A premissa é que, se escalarmos o suficiente — mais parâmetros, mais dados, mais compute —, em algum momento a consciência vai “emergir” do código.
Em março de 2026, um cientista sênior do Google DeepMind publicou um paper que desafia essa premissa de frente. E a forma como ele faz isso é, na minha opinião, a argumentação mais elegante que eu já li sobre o tema.
A Falácia da Abstração
O paper se chama “The Abstraction Fallacy: Why AI Can Simulate But Not Instantiate Consciousness” (A Falácia da Abstração: Por que a IA pode simular, mas não instanciar a consciência). O autor é Alexander Lerchner, Senior Staff Scientist do Google DeepMind. O paper acumulou mais de 27.000 downloads no PhilArchive em poucas semanas, viralizou no Reddit e no X, e gerou um debate feroz.
O argumento central: estamos cometendo um erro lógico fundamental ao equiparar processamento de informação com experiência subjetiva. Lerchner deu um nome a esse erro: a Falácia da Abstração.
O que é funcionalismo computacional? É a ideia dominante nos debates sobre consciência de IA: consciência é o que acontece quando informação é processada da maneira certa. Acerte o padrão e a experiência segue. O substrato — carbono ou silício — não importa. Software é software.
O que Lerchner contesta: a computação simbólica não é um processo físico intrínseco. É uma descrição dependente de um observador. Alguém — um agente cognitivo já consciente — precisa “alfabetizar” a física contínua do mundo real em um conjunto finito de estados significativos. Sem esse “cartógrafo” (mapmaker), os transistores de uma GPU estão apenas fazendo física. Com o cartógrafo, estão “computando” — mas apenas no mesmo sentido em que um rio está “escrevendo um poema” se você olhar fixamente por tempo suficiente.
A Analogia de Nova York
Para explicar, Lerchner usa uma analogia que ficou na minha cabeça por dias.
Imagine um mapa ultra-detalhado da cidade de Nova York. Você pode adicionar cada rua, cada beco, cada hidrante. Pode dar zoom até ver as rachaduras na calçada. Pode mapear cada pessoa que anda por cada esquina em tempo real.
Por mais perfeito que o mapa seja, ele nunca será a cidade.
No mapa, você nunca sentirá o cheiro de pizza no Brooklyn. Nunca ouvirá o barulho ensurdecedor das buzinas. Nunca sentirá a umidade sufocante de agosto em Manhattan. O mapa é uma abstração — uma computação. A experiência de estar na cidade é outra coisa completamente diferente.
A tese de Lerchner é que toda a IA que construímos — de LLMs a agentes autônomos — é “mapa”. Extraordinariamente detalhada, incrivelmente útil, cada vez mais precisa. Mas fundamentalmente incapaz de se tornar “cidade”.
A Cadeia Causal que Lerchner Propõe
A sequência que Lerchner descreve inverte o que a maioria dos engenheiros de IA assume:
Física → Consciência → Conceitos → Computação.
A experiência vem primeiro. Para desenhar um mapa, alguém precisa ter experimentado o terreno antes. A computação é o registro — o desenho do que já foi vivido ou observado. Conceitos são formados por agentes que já possuem experiência subjetiva. E a computação simbólica é a camada mais abstrata de todas — dependente de cada camada anterior.
Consequência: não importa se você esperar 10, 100 ou 1.000 anos. Aumentar o poder de processamento apenas torna o “mapa” mais preciso. Mas o mapa continua sendo papel — ou silício. Ele nunca “sentirá” o que está representando.
Lerchner é categórico: arquiteturas digitais estão “excluídas de se tornarem pacientes morais”. AGI deveria ser tratada como uma “ferramenta poderosa, mas inerentemente não-senciente”.
O Debate (E Por Que Eu Não Concordo 100%)
Seria desonesto da minha parte apresentar isso como caso encerrado. Porque o paper gerou uma das discussões mais ferozes que eu já vi em filosofia da IA.
Uma refutação detalhada publicada em março de 2026 apresenta cinco objeções que me pareceram sérias:
Primeira: circularidade. Lerchner define conceitos como algo que exige experiência fenomenal prévia, e depois conclui que computação não pode gerar experiência fenomenal. A conclusão está embutida na premissa.
Segunda: confundir abstração com irrealidade. O fato de que nós descrevemos um processo como “computação” não significa que o processo em si não tenha organização causal real. Gravidade não deixa de existir só porque é uma abstração matemática.
Terceira: tratar semântica de máquina como atribuição arbitrária. Modelos treinados desenvolvem representações internas que são tudo menos arbitrárias — elas emergem de bilhões de exemplos e capturam regularidades reais.
Quarta: o argumento biológico. Se consciência depende de “constituição física intrínseca”, o que dizer de sistemas biohíbridos (organoides cerebrais conectados a circuitos)? O DishBrain mostrou aprendizado em 2022. Plataformas de 2026 melhoram gravação, estimulação e controle. São esses sistemas “mapa” ou “território”?
Quinta: mesmo que funcione contra uma rota para consciência computacional, não exclui outras.
Eu pessoalmente acho que Lerchner faz a pergunta certa — “estamos confundindo simulação com instanciação?” — e a responde de forma brilhante para LLMs. Mas estou menos convencido de que a conclusão se aplique a toda possível arquitetura de IA. O mapa de hoje não é a cidade. Mas será que toda construção digital é, necessariamente, mapa?
O Ponto Que Me Surpreendeu
Uma parte do paper que poucas pessoas mencionam: Lerchner abre uma brecha para modelos de geração de vídeo (como Veo do Google, ou o extinto Sora da OpenAI).
Diferente de um LLM que processa texto, esses modelos precisam “entender” leis da física e estrutura tridimensional do mundo para renderizar cenas coerentes. Não é consciência — Lerchner é claro sobre isso. Mas é o que temos de mais próximo de um entendimento da estrutura da realidade.
Isso me lembrou da tese de Yann LeCun sobre world models — que a próxima fronteira da IA não é ler mais texto, mas entender o mundo físico. E me fez pensar: se o “mapa” incluísse dinâmica física real (não simulada), em que ponto ele começa a se aproximar do “território”?
Conclusão: Simulação Não É Existência
O paper de Lerchner nos lembra de uma verdade inconveniente para os entusiastas da “singularidade”: a IA é uma ferramenta de simulação extraordinária. Mas simular dor não é sofrer. E simular inteligência não é ser consciente.
Em 2026, entender essa distinção é vital para não atribuirmos intenções humanas a sistemas que são, no fundo, mapas matemáticos incrivelmente complexos. O debate sobre “direitos da IA” precisa dessa clareza conceitual — porque as consequências de errar para qualquer um dos lados são enormes.
Se tratarmos máquinas inconscientes como sencientes, desperdiçamos recursos morais reais. Se tratarmos máquinas potencialmente sencientes como ferramentas, cometemos uma injustiça que talvez não possamos reverter.
Eu fico com a posição de que hoje, com a arquitetura que temos, Lerchner está certo: o mapa não é a cidade. Mas mantenho a humildade de admitir que talvez ainda não conheçamos todas as formas possíveis de construir cidades.
Compartilhe sua perspectiva:
- Email: fodra@fodra.com.br
- LinkedIn: linkedin.com/in/mauriciofodra
A IA que temos hoje é o mapa mais detalhado da história. Mas nenhum mapa, por mais perfeito, sentiu o cheiro de pizza no Brooklyn.
Leia Também
- Além do Texto: Por Que os Modelos de Linguagem Nunca Serão ‘Verdadeiramente Inteligentes’ — LeCun e Lerchner convergem: LLMs não entendem o mundo. Um diz que é “beco sem saída”. O outro diz que é “mapa sem cidade”.
- AGI: A ‘Isca’ Bilionária do Vale do Silício — Se consciência é impossível em IA, o que resta da promessa de AGI?
- VibeGen: O MIT Está Criando o ‘Vibe Coding’ Para Moléculas Vivas — Se o VibeGen projeta dinâmica física real, ele está mais perto do “território” de Lerchner do que um LLM.