⏱️ Lectura: 15 min

El 14 de mayo de 2025, Google DeepMind anunció algo que no pasa todos los días: una inteligencia artificial llamada AlphaEvolve había descubierto un algoritmo nuevo para multiplicar matrices de tamaño 4×4 usando 48 multiplicaciones en lugar de las 49 que el matemático alemán Volker Strassen había establecido como mejor en 1969. Cincuenta y seis años de no encontrar nada mejor, y una IA lo logró revisando millones de variantes hasta dar con la correcta. Ese descubrimiento es solo uno de varios: AlphaEvolve también mejoró un problema matemático abierto sobre esferas en once dimensiones, optimizó el sistema interno con que Google asigna recursos a sus servidores —recuperando un 0.7 por ciento de toda la capacidad de cómputo de la empresa, lo que en una infraestructura del tamaño de Google se traduce en cientos de millones de dólares al año— y aceleró un componente clave del entrenamiento de su modelo Gemini en un 23 por ciento. Este artículo explica, sin asumir conocimiento previo de matemáticas avanzadas, qué hace AlphaEvolve, por qué este avance importa para todo el que usa una computadora, y cómo cualquier desarrollador puede experimentar con la versión open source que la comunidad ya construyó.

📑 En este artículo
  1. Primero, una imagen mental: qué es multiplicar matrices
  2. El truco de Strassen, 1969
  3. Cómo AlphaEvolve hizo lo que humanos no pudieron en 56 años
  4. El descubrimiento de las matrices: 48 multiplicaciones
  5. Más allá de las matrices: el problema del beso
  6. Donde el dinero está: el impacto interno en Google
  7. Cómo es esto distinto a lo que hace ChatGPT
  8. La versión open source: OpenEvolve
  9. Qué cambia para los desarrolladores
  10. El equipo y el contexto institucional
  11. Lo que queda
  12. Fuentes
    1. 📚 Artículos relacionados

Primero, una imagen mental: qué es multiplicar matrices

Multiplicar matrices suena académico, pero es una de las operaciones más cotidianas en computación moderna. La forma más fácil de imaginar lo que pasa es pensar en una lista de compras combinada con precios.

Imaginá que tenés una tabla con ítems —pan, leche, huevos— y otra tabla con precios en tres tiendas distintas. Si querés saber cuánto pagarías el carrito completo en cada tienda, tenés que recorrer todos los ítems, multiplicar cada cantidad por su precio en esa tienda, y sumar. Eso, repetido para tres tiendas, es exactamente una multiplicación de matrices: una tabla de números (cantidades) combinada con otra tabla (precios) para producir una tercera tabla (totales por tienda).

Lo cotidiano de esa operación esconde su importancia real. Cada vez que tu celular rota una foto, multiplica matrices. Cada vez que un videojuego renderiza una escena 3D, multiplica matrices. Cada palabra que ChatGPT genera, cada imagen que Stable Diffusion produce, cada predicción que hace Google Translate —todo eso son secuencias gigantescas de multiplicaciones de matrices, billones por segundo en grandes data centers. Si lográs hacer esa operación más rápida, literalmente acelerás la mitad del trabajo que hace una computadora moderna.

El truco de Strassen, 1969

La forma «obvia» de multiplicar dos matrices de 2×2 (cuatro números cada una) requiere ocho multiplicaciones. Eso se enseña en primer año de álgebra en la universidad. En 1969, Volker Strassen demostró algo asombroso: se puede hacer con solo siete multiplicaciones si reorganizás las cuentas con un truco ingenioso. El precio es que necesitás más sumas y restas, pero las multiplicaciones son la operación cara, así que la cuenta sale a favor.

Ese resultado, aplicado recursivamente —dividís matrices más grandes en bloques de 2×2, aplicás Strassen, y vas combinando— da una mejora teórica enorme. En matrices grandes, esa diferencia entre 8 vs 7 se compone exponencialmente y es la base de muchas implementaciones de bibliotecas como BLAS, LAPACK, NumPy y los kernels que usan los chips de Nvidia y los TPU de Google.

Para matrices 4×4, la versión recursiva de Strassen da 49 multiplicaciones. Y esa cifra parecía cerrada. Cincuenta y seis años pasaron sin que nadie publicara una mejora. Investigadores con doctorados en matemáticas y supercomputadoras intentaron, y fracasaron. Strassen había bajado el techo a 49 y nadie podía bajarlo más.

Cómo AlphaEvolve hizo lo que humanos no pudieron en 56 años

AlphaEvolve es lo que DeepMind llama un «agente de codificación evolutivo». Vale la pena desarmar el nombre porque cada palabra captura algo importante.

«Agente» significa que es un sistema autónomo: vos le decís qué problema querés resolver, le das una manera de medir si una solución es buena, y se queda corriendo solo. No le dictás los pasos.

«Codificación» significa que la salida no es texto, ni imágenes, ni respuestas como ChatGPT. La salida es código. Programas. Algoritmos.

«Evolutivo» es la palabra clave. AlphaEvolve no escribe una solución y la entrega. Trabaja como criadores de caballos de carrera: empieza con muchas variantes (a menudo malas), las hace competir bajo una métrica, deja que las mejores sobrevivan y las usa de «padres» para crear nuevas variantes. Ese ciclo se repite miles de veces.

Lo nuevo es cómo se generan esas variantes. Aquí entran dos modelos de inteligencia artificial trabajando en equipo: Gemini Flash y Gemini Pro.

Gemini Flash es el modelo rápido y creativo de Google. Su rol en AlphaEvolve es generar ideas locas en cantidad: muchas variantes diferentes, exploratorias, algunas absurdas, algunas brillantes. Es el rol del estudiante prolífico que llena la pizarra de propuestas sin filtrar.

Gemini Pro es el modelo más lento y reflexivo. Su rol es refinar las ideas que Flash propuso y filtrar las que tienen pinta de funcionar. Es el rol del editor meticuloso que toma los borradores del estudiante y los pule.

Encima de los dos, hay un evaluador automático que ejecuta cada variante propuesta, mide qué tan bien resuelve el problema, y descarta las que fracasan. Las que sobreviven se mezclan, mutan, y vuelven al ciclo. Tras cientos de miles de iteraciones, lo que queda es una solución que probablemente nadie había pensado.

El descubrimiento de las matrices: 48 multiplicaciones

Para el problema concreto de matrices 4×4 con números complejos, AlphaEvolve corrió este loop genético sobre el espacio de algoritmos posibles —y encontró uno que usa 48 multiplicaciones en lugar de 49. Una sola multiplicación menos. Suena pequeño, pero tiene tres consecuencias importantes.

Primera: rompe la cota teórica que llevaba 56 años en pie. Es la primera vez desde 1969 que alguien mejora el número de multiplicaciones para matrices 4×4 con coeficientes complejos. Cualquier libro de texto de álgebra computacional va a tener que actualizar su capítulo sobre Strassen.

Segunda: aplica a campos generales. Una versión anterior de DeepMind, AlphaTensor (octubre 2022), también había encontrado mejoras en multiplicación de matrices, pero solo funcionaban con matrices binarias —números que valen 0 o 1—. La mejora de AlphaEvolve aplica a números reales y complejos, lo que la vuelve usable en el mundo práctico.

Tercera: fue verificada por la comunidad. El desarrollador conocido como PhialsBasement publicó en GitHub un proyecto de verificación independiente en Python que reproduce el algoritmo y comprueba que da los resultados correctos a precisión de máquina (error del orden de 10⁻¹⁶, prácticamente indistinguible de cero por errores de coma flotante). Una de las prácticas más sanas de la ciencia abierta: la afirmación de DeepMind no quedó en su white paper, alguien externo la verificó.

Más allá de las matrices: el problema del beso

El descubrimiento de matmul es la parte que llamó la atención de los desarrolladores. Pero AlphaEvolve también atacó un problema clásico de la geometría llamado kissing number o «número de besos», que tiene una formulación encantadora.

Imaginá que tenés una naranja en el medio de una mesa. ¿Cuántas naranjas del mismo tamaño podés acomodar alrededor de la naranja central de modo que cada una toque —»bese»— a la del centro sin pisarse entre sí? En dos dimensiones, en un plano, la respuesta es 6 (visualícelo: una naranja rodeada por seis, formando un hexágono). En tres dimensiones, la respuesta es 12. En once dimensiones —que ningún humano puede visualizar pero los matemáticos manipulan con álgebra— la respuesta exacta no se conoce: se sabe que hay un número entre dos cotas, una inferior y una superior, y los matemáticos llevan décadas tratando de cerrar la brecha.

AlphaEvolve subió la cota inferior en dimensión 11 de 592 a 593. Suena trivial. No lo es. Es un avance pequeño pero genuino sobre un problema sobre el que matemáticos llevan 50 años trabajando, y la novedad es cómo se logró: una IA exploró configuraciones geométricas de 593 esferas en 11 dimensiones que ningún humano había considerado.

En total, DeepMind probó AlphaEvolve sobre 50 problemas matemáticos abiertos de geometría, teoría de números y optimización. En el 75 por ciento de los casos redescubrió la mejor solución conocida. En el 20 por ciento mejoró la mejor solución conocida. Esos 10 problemas mejorados —entre 50— son una tasa de descubrimiento que ningún equipo humano puede igualar a esa velocidad.

Donde el dinero está: el impacto interno en Google

La conversación pública se centra en los récords matemáticos, pero el impacto financiero más concreto está en aplicaciones internas. AlphaEvolve resolvió, entre otros, tres problemas que producen ahorros medibles cada día.

Borg, el sistema de orquestación de servidores. Google tiene millones de servidores en data centers en todo el mundo, organizados por un sistema interno llamado Borg (es básicamente Kubernetes, pero anterior y más potente; Kubernetes nació como una versión open source de Borg). La pregunta de cómo asignar trabajos a servidores es famosa por ser difícil: hay que considerar qué jobs caben juntos, cuáles son críticos, cuáles esperan, etc. AlphaEvolve descubrió heurísticas nuevas de scheduling que recuperaron 0.7 por ciento del cómputo mundial de Google, sostenidamente durante más de un año en producción. En una infraestructura del tamaño de la de Google, ese 0.7 por ciento equivale a cientos de millones de dólares anuales.

El kernel crítico de entrenamiento de Gemini. Cuando Google entrena un modelo grande, una pieza clave del software se ejecuta miles de millones de veces durante semanas. AlphaEvolve encontró una versión del kernel que es 23 por ciento más rápida. El efecto neto sobre el tiempo total de entrenamiento del modelo es de aproximadamente 1 por ciento menos. Suena modesto, pero entrenar un modelo grande de IA cuesta decenas de millones de dólares en electricidad y hardware; ese 1 por ciento es real.

FlashAttention, una optimización moderna usada en casi todos los LLM. AlphaEvolve produjo variantes con hasta 32.5 por ciento de speedup. Cualquiera que use atención rápida en sus modelos —que es prácticamente todo el campo de IA— puede beneficiarse.

Diseño de TPU. Google diseña sus propios chips de aceleración (los TPUs). AlphaEvolve sugirió modificaciones al circuito Verilog que se incluirán en futuros TPUs. Es la primera vez que se reporta una IA proponiendo cambios concretos al diseño de un chip que la propia IA ayuda a entrenar.

Cómo es esto distinto a lo que hace ChatGPT

Una pregunta razonable: ChatGPT también escribe código, ¿qué tiene de especial AlphaEvolve? La diferencia está en tres puntos.

Primero, AlphaEvolve no escribe código una vez y termina. Genera miles de versiones, las evalúa contra una métrica objetiva (no contra un humano que dice «se ve bien»), y itera. Es la diferencia entre «darle un problema a un programador» y «darle un problema a un equipo de mil programadores trabajando en paralelo durante un mes, donde cada uno aprende del trabajo de los demás».

Segundo, AlphaEvolve trabaja con problemas donde la respuesta correcta se puede comprobar. Si pedís un poema, no hay «correcto» que medir. Si pedís un algoritmo más rápido para multiplicar matrices, podés correr el algoritmo y medir velocidad. Esa medibilidad es lo que hace funcionar el ciclo evolutivo. AlphaEvolve es perfecto para problemas con función objetivo clara —optimización, algoritmos, diseño de chips— y mucho menos para problemas subjetivos.

Tercero, AlphaEvolve descubre cosas que humanos no encontraban. ChatGPT genera código que ya existe en su entrenamiento, recombinado. AlphaEvolve generó un algoritmo de matmul que no existía en ningún paper antes y una configuración geométrica de esferas en 11 dimensiones que nadie había publicado. Es descubrimiento, no recombinación.

La versión open source: OpenEvolve

DeepMind abrió un programa de acceso anticipado —vía formulario— para investigadores académicos que quieran usar AlphaEvolve, pero el código completo no está público. La comunidad respondió rápido. Un desarrollador conocido como codelion publicó en GitHub OpenEvolve, una implementación open source del paper de AlphaEvolve que cualquiera puede descargar y correr. Soporta algoritmos distribuidos, descubrimiento automático de kernels GPU, y se integra con varios modelos LLM —no solo Gemini—.

Las implementaciones de la comunidad no llegan al nivel de DeepMind en datos ni cómputo, pero son suficientes para experimentar. Si tenés un problema de optimización donde podés escribir un evaluador, podés probar OpenEvolve sobre él y ver si la maquinaria evolutiva encuentra algo. Varios proyectos académicos ya están publicando resultados aplicando OpenEvolve a problemas propios.

Para el verificador del descubrimiento de matrices, el proyecto AlphaEvolve-MatrixMul-Verification usa Python, valida con números aleatorios cuánticos del Quantum Random Number Generator de la Australian National University, y documenta cómo reproducir el resultado en una laptop común.

Qué cambia para los desarrolladores

Para alguien que escribe software día a día, AlphaEvolve no es una herramienta que vayas a usar mañana. Es un cambio en lo que la categoría «asistente de código IA» puede hacer. Tres implicaciones que vale la pena considerar.

Primera: las bibliotecas de cómputo numérico van a tener mejoras invisibles. En cuestión de meses, las versiones del kernel matmul que usen NumPy, PyTorch, JAX y los SDKs de los chips de IA van a incluir variantes descubiertas por AlphaEvolve o sucesores. No vas a tener que cambiar nada en tu código; tu programa va a correr más rápido cuando actualices la dependencia.

Segunda: los problemas con función objetivo medible son candidatos para AI-assisted discovery. Si trabajás en routing, scheduling, optimización de queries SQL, compilación, hyperparameter search, RL, o cualquier dominio donde podés medir «esta solución es mejor que aquella» automáticamente, vale la pena investigar OpenEvolve y herramientas similares. La barrera de entrada para usar evolutive coding agents acaba de bajar mucho.

Tercera: la frontera entre «AI escribe código» y «AI descubre matemáticas» se borra. AlphaEvolve es ambas cosas. El código y las matemáticas son la misma actividad cuando lo que importa es producir una secuencia formal que satisface una propiedad. Esa convergencia tiene implicaciones para la educación de devs, para la asignación de tareas en equipos de R&D, y para el rol que tendrán los humanos en proyectos donde la IA puede generar y verificar candidatos a la vez.

El equipo y el contexto institucional

El white paper de AlphaEvolve tiene 18 autores principales, encabezados por Matej Balog, Alexander Novikov y Ngân Vũ, todos del laboratorio de DeepMind en Londres y Mountain View. Construye sobre una línea de trabajo previa que incluye AlphaTensor (2022) —enfocado en multiplicación matricial sobre el campo binario—, FunSearch (2023) —que usaba LLMs y búsqueda evolutiva sobre problemas de combinatoria— y AlphaProof / AlphaGeometry (2024) —para razonamiento matemático formal—. AlphaEvolve es la generalización de todas esas líneas en un sistema de propósito amplio que no está atado a un solo dominio.

DeepMind ya integró AlphaEvolve en Google Cloud Early Access (programa de acceso anticipado para investigadores académicos), y los planes anunciados incluyen extender la plataforma para soportar problemas de ciencias naturales —descubrimiento de fármacos, materiales, química computacional— y posible integración con el llamado AI co-scientist de la propia DeepMind para hipótesis científicas de más alto nivel.

Lo que queda

AlphaEvolve no resuelve todo. Sus limitaciones son honestas: necesita una métrica clara de éxito, opera mejor en problemas donde la solución se puede verificar mecánicamente, y consume cantidades grandes de cómputo en cada iteración. No va a redactar tu próxima novela ni va a debuggear tu código de producción mañana.

Pero abre una categoría nueva: la categoría de IAs que descubren matemáticas y algoritmos que humanos no encontraron en décadas. Eso, después de cinco años de avances en LLMs que en su mayoría se quedaban en «imitar lo que ya existe», es el primer salto sólido a «crear lo que no existía».

La fecha del 14 de mayo de 2025 va a quedar como referencia en los próximos capítulos de la historia del software. No tanto por las 48 multiplicaciones —que son la anécdota memorable—, sino por la prueba operativa de que la inteligencia artificial moderna puede contribuir como co-investigadora científica, en lugar de solo asistente de código. Para quienes pasamos los días resolviendo problemas técnicos, esa es la noticia que más vale la pena seguir.

Fuentes


Andrés Morales

Desarrollador e investigador en inteligencia artificial. Escribe sobre modelos de lenguaje, frameworks, herramientas para devs y lanzamientos open source. Cubre papers de ML, ecosistema de startups tech y tendencias de programación.

0 Comentarios

Deja un comentario

Marcador de posición del avatar

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.