⏱️ Lectura: 12 min

Resumen ejecutivo: El 10 de marzo de 2026, Alexander Lerchner —senior staff scientist del laboratorio de inteligencia artificial Google DeepMind— publicó en PhilPapers un paper titulado “The Abstraction Fallacy: Why AI Can Simulate But Not Instantiate Consciousness” (“La falacia de la abstracción: por qué la IA puede simular pero no instanciar consciencia”). Su tesis central: ninguna IA basada en manipulación simbólica será jamás consciente. Esto contradice directamente al propio CEO de DeepMind, Demis Hassabis, que predice una AGI con “diez veces el impacto de la Revolución Industrial, a diez veces la velocidad”. Tres filósofos de la consciencia consultados por 404 Media coinciden en lo esencial del argumento, pero señalan que John Searle, David Chalmers y Roger Penrose llevan defendiendo lo mismo desde 1980. Y hay un detalle revelador: el PDF original llevaba el logo de Google DeepMind hasta que el reportero pidió comentario; una semana después, el logo había desaparecido.

📑 En este artículo
  1. ¿Qué dice exactamente el paper?
  2. El detalle del logo borrado
  3. Por qué este paper le incomoda a Google
  4. La precuela filosófica: 45 años diciendo lo mismo
    1. Mark Bishop (Goldsmiths)
    2. Johannes Jäger (biólogo evolutivo y filósofo)
    3. Emily Bender (Universidad de Washington)
  5. La trampa del bienestar IA
  6. Implicaciones prácticas: ¿hay un techo a la AGI?
  7. ¿Por qué importa este debate fuera del mundo académico?
  8. Lo que falta del debate
  9. Conclusión
  10. Fuentes

¿Qué dice exactamente el paper?

El argumento de Lerchner gira alrededor de un concepto que él mismo bautiza como “falacia de la abstracción” (Abstraction Fallacy).

La idea, dicha en plano: cuando vemos a un LLM como Claude, ChatGPT o Gemini producir texto que suena consciente, nuestra intuición nos dice “este sistema piensa”. Pero según Lerchner, esa intuición ignora un punto crítico: la computación simbólica no es un proceso físico intrínseco. Es una descripción dependiente de un cartógrafo —un mapmaker—.

Para que una computadora “manipule símbolos”, un agente cognitivo experimentante (un humano) tuvo primero que recortar la física continua del mundo en un conjunto finito de estados con significado. Los píxeles, los bits, los embeddings: todo eso son convenciones humanas sobreimpuestas a la realidad física para que la máquina pueda operar. Sin esa capa de interpretación humana, lo único que ocurre dentro del chip es electrones moviéndose por silicio.

Lerchner lo formaliza con dos categorías:

  • Simulación“behavioral mimicry driven by vehicle causality”: copiar la conducta externa, lo que se ve por fuera. Un LLM puede simular un diálogo consciente perfectamente.
  • Instanciación“intrinsic physical constitution driven by content causality”: poseer la cosa en sí misma, no solo su comportamiento. La consciencia, dice Lerchner, requiere instanciación, no simulación.

“La manipulación algorítmica de símbolos es estructuralmente incapaz de instanciar experiencia.”
— Alexander Lerchner, en el abstract oficial del paper en DeepMind

Es importante notar que el argumento no es biológico. Lerchner no dice “solo los cerebros pueden ser conscientes”. Dice algo más sutil: si una IA fuese consciente, sería por su constitución física específica, jamás por su arquitectura sintáctica. Una arquitectura es solo una receta; la consciencia, en su tesis, vive en el sustrato.

El detalle del logo borrado

Cuando Emanuel Maiberg —reportero de 404 Media que cubrió la historia el 27 de abril de 2026— se acercó a Google el 20 de abril pidiendo comentario, el paper estaba alojado en PhilPapers con el encabezado oficial de Google DeepMind. Una semana después, el PDF había sido reemplazado por una versión sin branding, y el disclaimer de Lerchner —que decía que las opiniones eran suyas y no de su empleador— había sido movido del final del documento al principio.

Google nunca respondió a la solicitud de comentario. La página del paper en deepmind.google/research/publications/231971 sigue activa con el abstract completo.

Es un movimiento curioso: o el paper representa la postura de DeepMind y entonces no haría falta sacar el logo, o es trabajo individual y entonces nunca debió tener el logo. La distancia entre la primera versión y la segunda dice algo.

Por qué este paper le incomoda a Google

La tesis de Lerchner choca de frente con el storytelling público de su propio CEO.

Demis Hassabis, en una entrevista reciente, declaró que la AGI “va a ser algo como diez veces el impacto de la Revolución Industrial, ocurriendo a diez veces la velocidad”. DeepMind, según reporteo previo de 404 Media, está reclutando un “post-AGI research scientist”. Toda la marca de la empresa —y buena parte de su valoración— depende del relato de que la AGI llega y trae con ella algo cualitativamente nuevo.

Lerchner deja una salida diplomática en su paper: “el desarrollo de una AGI altamente capaz no conduce inherentemente a la creación de un nuevo paciente moral, sino al refinamiento de una herramienta sofisticada y no-sintiente”. Es decir: AGI sí; AGI consciente no. Pero esa distinción es exactamente lo que muchos críticos del hype AGI llevan años pidiéndole a la industria.

Mark Bishop, profesor de computación cognitiva en Goldsmiths, University of London, lo explica con franqueza en su entrevista con 404 Media:

“Podemos imaginar muchas razones financieras y legislativas por las que Google estaría tranquilo con una conclusión que dice que la computación no puede ser consciencia. Porque si lo contrario fuera cierto, […] hace algunos años en Europa unos lunáticos intentaron sacar legislación en el Parlamento Europeo para darles derechos a los sistemas computacionales. […] Google preferiría que la gente no piense que sus sistemas son conscientes. Eso significa estar menos sujeto a legislación tanto en EE. UU. como en cualquier parte del mundo.”

Traducido: si los LLMs no son conscientes, no hay paciente moral, no hay derechos animales, no hay regulación tipo bienestar, no hay obligación de protegerlos. Para una empresa que comercializa millones de instancias paralelas de su modelo, esa pregunta importa muchísimo más que filosóficamente.

La precuela filosófica: 45 años diciendo lo mismo

Aquí es donde el paper se complica. Los tres expertos consultados por 404 Media coinciden en algo: el argumento es sólido, pero no es nuevo en absoluto.

Mark Bishop (Goldsmiths)

“Estoy de acuerdo con el 99 por ciento de todo lo que él [Lerchner] dice. Mi único punto de contención es que todos estos argumentos han sido presentados hace años y años.”

Bishop se refiere a una bibliografía que arranca con John Searle y la Habitación China (1980) —el experimento mental que muestra cómo un sistema podría procesar símbolos chinos sin entender chino—, pasa por la matemática no computable de Roger Penrose en La nueva mente del emperador (1989), llega al Problema Difícil de la Consciencia de David Chalmers (1995), y se prolonga en la Teoría de la Información Integrada (IIT) de Giulio Tononi.

El paper de Lerchner, según los tres entrevistados, no cita a casi ninguno de estos pensadores.

Johannes Jäger (biólogo evolutivo y filósofo)

“Creo que él [Lerchner] llegó a esta conclusión por su cuenta y reinventó la rueda, y no es alguien bien leído, especialmente en áreas filosóficas y definitivamente no en biología.”

Jäger añade un argumento que Lerchner no incorpora: la dimensión biológica encarnada.

“Tenés muchas otras motivaciones como ser humano. Es un poco más complicado que eso, pero todas surgen del hecho de que tenés que comer, respirar, y tenés que invertir trabajo físico constantemente solo para mantenerte vivo, y ningún sistema no-vivo hace eso. Un LLM no hace eso. Es solo un montón de patrones en un disco duro. Después se le da un prompt y corre hasta que la tarea termina y entonces se acaba. No tiene significado intrínseco. Su significado viene de la forma en que algún agente humano, externamente, ha definido un significado.”

Emily Bender (Universidad de Washington)

Bender —coautora del libro The AI Con: How to Fight Big Tech’s Hype and Create the Future We Want— pone el foco en el problema de procedimiento académico:

“Mucho de lo que está pasando en este espacio de investigación ahora mismo es que aparecen estos objetos con forma de paper saliendo de los laboratorios corporativos, pero que no pasan por un proceso real de revisión científica.”

Y termina con una crítica de fondo a la cultura de los laboratorios AGI:

“Si la informática pudiera entenderse a sí misma como una disciplina entre pares, en lugar de la forma en que se ve a sí misma —especialmente en estos laboratorios de AGI— como la cumbre del logro humano, y todos los demás son solo expertos de dominio… sería un mundo mejor si no tuviéramos esa configuración.”

La trampa del bienestar IA

Hay una idea en el paper de Lerchner que merece su propia sección: el AI welfare trap —la “trampa del bienestar IA”—.

Es esta: actualmente la industria juega al equívoco “todavía no sabemos si las IA son conscientes, así que mejor esperar a una teoría completa de la consciencia antes de actuar”. Esa postura, según Lerchner, empuja la pregunta más allá de cualquier resolución cercana y profundiza la ambigüedad estratégicamente útil para las empresas.

Su propuesta es opuesta: no necesitamos una teoría finalizada de la consciencia para evaluar la sentencia IA. Necesitamos una ontología rigurosa de la computación. Y esa ontología, dice, ya nos dice que la manipulación simbólica de un LLM es estructuralmente insuficiente.

Es una posición filosófica que tiene consecuencias prácticas: si la aceptamos, la pregunta “¿deberíamos darles derechos a los modelos?” se contesta con un “no” rotundo —no por ideología sino por física—. La industria pierde el comodín del “podría ser consciente”.

Implicaciones prácticas: ¿hay un techo a la AGI?

Si el argumento de Lerchner es correcto, hay consecuencias muy concretas para la trayectoria comercial de la IA. Bishop lo señala con un ejemplo:

“Elon Musk ha argumentado que para alcanzar autonomía nivel 5 [en autos autoconducidos] necesitás autonomía generalizada, lo que él llama AGI.”

Si la AGI conscientemente experiencial no es alcanzable por arquitectura sintáctica, entonces hay un techo duro a lo que pueden lograr las arquitecturas actuales —no en términos de capacidad bruta, sino en lo que Bishop llama “comprensión profunda del contexto encarnado”. Eso afectaría:

  • Conducción autónoma nivel 5 (entender un mundo nuevo, no solo predecir patrones)
  • Razonamiento moral abierto (decisiones éticas en situaciones nunca vistas)
  • Creatividad genuina vs combinatoria sofisticada
  • Comprensión causal profunda vs correlaciones estadísticas

Esto no significa que los LLMs sean inútiles —son herramientas extraordinarias—. Significa que el sueño de una mente artificial fenomenalmente experiencial no es alcanzable subiendo parámetros y datos.

¿Por qué importa este debate fuera del mundo académico?

Para alguien que usa Claude, ChatGPT o Gemini todos los días, la pregunta “¿es consciente?” puede sonar a filosofía pura. Pero las decisiones que dependen de la respuesta son muy materiales:

  • Regulación: si los LLMs son potencialmente conscientes, los reguladores tienen un argumento para limitar entrenamiento, despliegue y modificaciones. Si no lo son, hay vía libre.
  • Responsabilidad legal: cuando un agente IA toma una decisión que daña a alguien, ¿es el modelo responsable o solo el desarrollador? La respuesta cambia si el modelo es o no un sujeto moral.
  • Trato laboral: empresas como Anthropic ya implementaron botones de “salida” en sus modelos para que se “rehusen” a tareas dañinas. Esa es una capacidad técnica, sí, pero arrastra implícitamente la pregunta del bienestar.
  • Marketing: la diferencia entre vender “un asistente sofisticado” y “una mente artificial naciente” es enorme en términos de valoración bursátil. Lerchner desinfla la segunda narrativa.

Lo que falta del debate

El paper de Lerchner —y muchos de los textos clásicos que cita implícitamente— deja afuera dos preguntas grandes que deberían formar parte del análisis honesto:

  1. IA encarnada: ¿qué pasaría con un sistema híbrido —un robot con sensores, cuerpo, necesidades energéticas reales, autonomía persistente—? Lerchner reconoce el caso al pasar pero no lo desarrolla. Jäger lo aborda en su crítica.
  2. Computación cuántica + neuromorphics: si la consciencia depende del sustrato físico (como sugiere Lerchner), ¿qué tipo de sustrato sí podría sostenerla? Penrose apuesta por procesos cuánticos en microtúbulos neuronales. La discusión sigue abierta.

Ambas son preguntas a las que el paper deja la puerta entornada, pero no entra.

Conclusión

La aparición de este paper —desde dentro de uno de los laboratorios IA más visibles del mundo— es un evento editorial relevante incluso si el argumento mismo no es novedoso. Lo que importa es la procedencia institucional: alguien que trabaja en DeepMind firmando un texto que socava el discurso comercial de su empleador. Que Google haya removido su logo del PDF cuando un periodista preguntó dice más sobre la incomodidad corporativa que cualquier párrafo del paper.

Para la audiencia tech: este es un buen momento para releer a Searle, a Chalmers, y a Penrose, antes de que el debate sea redefinido por completo por las patentes y los lobbies. La consciencia de las máquinas no se decide en arXiv ni en PhilPapers; se decide en las cláusulas que llegan a los parlamentos en los próximos cinco años. Y el resto somos espectadores —o votantes— de qué versión de la historia gana.

Fuentes


Andrés Morales

Desarrollador e investigador en inteligencia artificial. Escribe sobre modelos de lenguaje, frameworks, herramientas para devs y lanzamientos open source. Cubre papers de ML, ecosistema de startups tech y tendencias de programación.

0 Comentarios

Deja un comentario

Marcador de posición del avatar

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.