⏱️ Lectura: 11 min
Resumen ejecutivo: Liam Price, 23 años, sin formación matemática avanzada, abrió la web erdosproblems.com, eligió un problema al azar y lo pegó en ChatGPT. GPT-5.4 Pro trabajó unos 80 minutos y devolvió una solución a un problema abierto desde hace seis décadas: una conjetura de Paul Erdős, András Sárközy y Endre Szemerédi sobre conjuntos primitivos de números enteros. La prueba ya está verificada en Lean —el demostrador formal— en la página oficial del problema, registrada como Erdős Problem #1196. El detalle que casi todos los titulares omiten: Terence Tao explicó que el éxito no fue un acto de inteligencia superior, sino la consecuencia de no tener los prejuicios de la comunidad matemática. Esa frase tiene implicaciones profundas para cómo pensamos en el futuro de la investigación matemática asistida por IA.
📑 En este artículo
- Qué hizo exactamente Liam Price
- El problema #1196 explicado en términos humanos
- Lo que GPT-5.4 hizo distinto: la función de von Mangoldt
- El logro es real, pero hay matices que la prensa omite
- El escándalo Bubeck que precedió a esta historia
- “First Proof”: el experimento que muestra los límites reales
- La lectura de Tao sobre por qué este caso es especial
- ¿Qué significa esto para el resto de nosotros?
- Lo que viene
- Fuentes
Qué hizo exactamente Liam Price
La descripción del proceso —según el reporteo de Xataka firmado por Javier Pastor— es desconcertante por su simplicidad:
- Price abrió erdosproblems.com, una base de datos comunitaria con cientos de problemas que dejó abiertos Paul Erdős a lo largo del siglo XX.
- Eligió uno al azar. No conocía la historia del problema, no sabía quiénes habían intentado resolverlo, no tenía contexto de la dificultad.
- Lo pegó en ChatGPT —específicamente en GPT-5.4 Pro, la variante de OpenAI con mayor capacidad de razonamiento profundo.
- Esperó alrededor de 80 minutos mientras el modelo razonaba.
- La respuesta que recibió “parecía una solución correcta”, pero Price no estaba seguro porque no podía evaluarla.
- Le mostró la salida a un amigo que estudiaba matemáticas. Su amigo notó que podía ser algo serio.
- Contactaron al matemático de referencia. Terence Tao —ganador de la Medalla Fields, profesor en UCLA— confirmó la solución pocas horas después.
Tao mantiene en GitHub un repositorio comunitario que documenta cada intento serio de aplicar IA a problemas de Erdős. El 15 de abril de 2026, la página oficial del problema #1196 fue actualizada con el siguiente texto:
“Resuelto por GPT-5.4 Pro (prompteado por Price), que demostró que para cualquier conjunto primitivo A⊂ℕ, ∑(a∈A, a>x) 1/(a log a) ≤ 1 + O(1/log x).”
Y debajo, en la sección de agradecimientos: “Additional thanks to: Liam Price”.
El problema #1196 explicado en términos humanos
El enunciado original es técnico, pero la idea de fondo es asequible.
Un conjunto primitivo de números enteros es un conjunto donde ningún elemento divide a otro. Por ejemplo, {2, 3, 5, 7, 11} (los primeros primos) es primitivo: ningún primo divide a otro primo. {4, 6, 9} también lo es. Pero {2, 4, 6} no lo es, porque 2 divide a 4 y a 6.
La pregunta de Erdős, Sárközy y Szemerédi era: si tomás un conjunto primitivo A y sumás 1/(a · log a) para cada elemento, ¿qué tan grande puede crecer esa suma?
La conjetura propone que siempre es menor que 1 (con un pequeño error que tiende a cero cuando los números involucrados se hacen muy grandes). Es una afirmación intuitivamente extraña: la frase “1” no aparece de manera natural en el problema, y sin embargo la conjetura dice que es exactamente la cota.
La cota anterior —establecida en 2023 por Jared Lichtman, matemático de la Universidad Stanford— era:
∑ 1/(a log a) ≤ e^γ · π/4 + o(1) ≈ 1.399 + o(1)
Donde γ es la constante de Euler-Mascheroni. Lichtman dedicó años al problema y consiguió bajar la cota desde resultados previos a este 1.399. La conjetura “verdadera” decía que el límite era 1.
La cota que demostró GPT-5.4 Pro:
∑ 1/(a log a) ≤ 1 + O(1/log x)
Es decir: bajó la cota de 1.399 a 1 —resolviendo el problema afirmativamente—. La diferencia entre 1.399 y 1 es la diferencia entre “casi probado” y “probado” en el lenguaje matemático.
Lo que GPT-5.4 hizo distinto: la función de von Mangoldt
Aquí entra la parte más interesante.
Lichtman y todos los matemáticos anteriores partían de un mismo enfoque —el que la tradición consideraba “natural” para esta clase de problemas—. Tao explica que ese era el origen del bloqueo: cuando una comunidad acepta un punto de partida como obvio, gasta su esfuerzo refinando la trayectoria, no replanteándola.
GPT-5.4 Pro tomó otra ruta. Usó la función de von Mangoldt —una herramienta clásica de teoría de números, conocida sobre todo por sus conexiones con los números primos y la función zeta de Riemann—. Es como atacar la conjetura por un lado completamente distinto del que todos asumían correcto.
Lichtman lo describió tras leer la solución:
“El LLM tomó una ruta completamente diferente.”
— Jared Lichtman, Stanford
Y aquí viene la lectura de Terence Tao —la frase que da título a este artículo—:
“Hubo un bloqueo colectivo de la comunidad matemática, porque todos partieron del mismo origen porque era ‘el natural’, el que la tradición marcaba. La IA no sabía que esa era la forma ‘correcta’ de empezar, y esa ignorancia resultó ser una ventaja.”
No es que la IA fuera más inteligente. Es que no tenía prejuicios sobre cómo abordar el problema.
El logro es real, pero hay matices que la prensa omite
Antes de pintar la historia como una victoria limpia de la IA, vale la pena revisar tres detalles que la mayoría de los titulares borra.
1. La salida en bruto era “bastante pobre”
En palabras del propio Lichtman: la respuesta inicial de GPT-5.4 Pro era “rather poor” (bastante pobre). No era una demostración pulida y publicable. Fue necesario que Price, su amigo y luego Tao y otros expertos la interpretaran, la limpiaran y extrajeran la idea matemática que subyacía. La solución final está en un documento Overleaf que es resultado de ese trabajo colaborativo.
2. La verificación formal vino después
La página oficial marca el problema como “PROVED (LEAN)” —demostrado y verificado en Lean, el asistente de pruebas formales que descarta cualquier error humano—. La IA no entregó la prueba en Lean directamente. Lo que entregó fue una idea matemática que, traducida y formalizada por humanos, se convirtió en una prueba que Lean pudo verificar. La diferencia matters: una idea es el chispazo creativo, la formalización es el trabajo profesional.
3. El sesgo de selección
Tao y Nat Sothanaphan mantienen estadísticas en su repositorio. En la categoría más estricta —soluciones generadas por IA sin literatura previa conocida y con involucramiento humano “no significativo”— hay actualmente:
- 3 semáforos verdes (resolución completa, problema #1196 incluido)
- 14 semáforos amarillos (progreso parcial)
- 8 semáforos rojos (resultado incorrecto que pasó el filtro inicial)
Pero el repositorio incluye un disclaimer explícito y crucial:
“Quienes intentan usar la IA para resolver estos problemas y fracasan no suelen informar de ello, así que es probable que la IA haya sido aplicada ‘en silencio’ a un gran número de estos problemas sin éxito, y esos intentos no aparecen en ninguna tabla.”
Solo los éxitos generan titulares. Por cada Liam Price que llega a Tao, probablemente hay miles de intentos olvidados en chats de ChatGPT que produjeron ruido o errores.
El escándalo Bubeck que precedió a esta historia
Hace algunas semanas, Sebastien Bubeck —investigador estrella de OpenAI— publicó en X que GPT-5 había “resuelto” varios problemas de Erdős. El tweet superó las 100,000 visualizaciones.
La comunidad matemática descubrió rápidamente que el modelo había encontrado las soluciones en la web —los problemas ya estaban resueltos—. Demis Hassabis, CEO de Google DeepMind, calificó la afirmación de “vergonzosa”. Bubeck terminó borrando el tweet original y publicó retracciones.
Ese precedente es importante porque envenenó la confianza pública: cuando llega una historia genuina como la del problema #1196, la primera reacción razonable es “¿no será otro caso Bubeck?“. La diferencia es que el #1196 sí fue verificado independientemente por Tao y formalizado en Lean. No es marketing.
“First Proof”: el experimento que muestra los límites reales
En febrero de 2026, once matemáticos crearon una iniciativa llamada First Proof. El diseño es elegante:
- Cada matemático aportó un problema de su línea de investigación actual —es decir, problemas que nunca aparecieron en ningún conjunto de datos de entrenamiento de IA.
- Las respuestas correctas se subieron cifradas a un sitio de verificación pública.
- A los modelos de IA se les dieron diez problemas y una semana para intentar resolverlos.
Resultados preliminares: los modelos de IA no superan esa barrera de forma autónoma. Cuando el problema no tiene historial digital al que arrimarse, el desempeño cae drásticamente.
Combinado con el caso #1196, da una imagen más matizada: la IA puede ser útil cuando el problema tiene literatura adyacente que el modelo puede recombinar. Cuando el problema es completamente nuevo, sigue siendo trabajo humano.
La lectura de Tao sobre por qué este caso es especial
Terence Tao —que ha sido durante años una de las voces más equilibradas sobre el rol de la IA en matemáticas— ofreció una conclusión que vale la pena conservar literal:
No es que la IA fuera más inteligente. Es que no tuvo prejuicios sobre cómo abordar el problema.
Esta es la lectura no-utópica del caso. Lo que falló en 60 años no fue capacidad analítica —Lichtman, Erdős, Sárközy, Szemerédi son matemáticos extraordinarios—. Falló la creatividad de approach. La comunidad coordinó culturalmente alrededor de un punto de partida que parecía obvio, y nadie cuestionó esa elección por décadas.
GPT-5.4 Pro no sabía cuál era el approach “natural”. Tomó uno de los miles posibles, y resultó ser el correcto. Es serendipia computacional escalada.
¿Qué significa esto para el resto de nosotros?
Para alguien que no es matemático profesional —pero quizá usa ChatGPT para problemas técnicos en su trabajo— este caso ofrece tres lecciones aplicables.
Lección 1: La IA prospera donde hay bloqueos culturales
Si tu industria, tu equipo, o tu propia práctica tiene un “así es como se hace” establecido por años, la IA puede ser especialmente útil para encontrar caminos que nadie consideró. No porque “piense mejor”, sino porque no tiene la herencia conceptual.
Lección 2: La IA es generadora de ideas, no productora de soluciones
La salida cruda fue “bastante pobre”. Necesitó interpretación humana para convertirla en algo útil. Si esperás soluciones llave-en-mano, te vas a frustrar. Si la usás como socio de brainstorming agresivo y heterodoxo, es valiosa.
Lección 3: Verificá rigurosamente
La diferencia entre el caso Bubeck (humo) y el caso #1196 (real) es verificación independiente y formalización. Si algún output de IA “parece resolver” tu problema, buscá una segunda opinión y formalizá las afirmaciones críticas antes de actuar sobre ellas.
Lo que viene
Liam Price probablemente seguirá probando problemas de Erdős. Pero la pregunta interesante no es si otra solución llegará —llegarán más, casi seguramente—. La pregunta es si la comunidad matemática puede internalizar la lección de Tao: que su mayor enemigo no es la dificultad del problema, sino el consenso cultural sobre cómo atacarlo.
Si la respuesta es sí, los próximos años podrían traer una ola de problemas abiertos resueltos no por mejores modelos, sino por mejores prompts —humanos que aprenden a sortear sus propios prejuicios usando IA como espejo distorsionado y útil—. Si la respuesta es no, este caso se quedará como una anécdota.
De cualquier modo, el problema #1196 está cerrado. Llevaba abierto desde la generación de Erdős, Sárközy y Szemerédi. Lo cerró un chico de 23 años, una sesión de chat, y la voluntad de pegar texto en una caja sin saber qué esperaba encontrar.
Fuentes
- Erdős Problem #1196 — página oficial con prueba en Lean · erdosproblems.com · 15 abr 2026
- Solución completa en Overleaf
- AI contributions to Erdős problems · GitHub Wiki mantenido por Terence Tao y Nat Sothanaphan
- Disclaimers and caveats — sesgos de selección en la lista
- Javier Pastor · Un joven ha resuelto en 80 minutos un problema matemático que resistió 60 años · Xataka · 27 abr 2026
- Iniciativa First Proof · 11 matemáticos, febrero 2026
- Wikipedia: Función de von Mangoldt · contexto de la herramienta usada
- Wikipedia: Función zeta de Riemann
- Jared Lichtman · “On primitive sets with large counting functions” (2023) · prueba previa de la cota 1.399
- Lichtman et al. (Gorodetsky, Lichtman, Wong, 2024) · refinamientos posteriores
0 Comentarios