⏱️ Lectura: 10 min
Introducción
Revisar la literatura científica dejó de ser una tarea lineal hace años. Entre arXiv publicando miles de papers por semana, repositorios que acompañan cada preprint, benchmarks que cambian mes a mes y discusiones que suceden en Hacker News, Twitter y blogs técnicos, el investigador moderno pasa más tiempo navegando que leyendo. El flujo típico —abrir diez pestañas, copiar citas a un documento, buscar el código en GitHub, comparar resultados con tablas de otros papers— consume horas antes de producir una sola conclusión útil.
📑 En este artículo
En ese contexto aparece Feynman CLI, un proyecto open source publicado por getcompanion-ai que lleva la investigación académica a la línea de comandos. En lugar de un chat genérico, Feynman se posiciona como un agente especializado en búsqueda bibliográfica, revisión por pares simulada, auditoría de reproducibilidad y replicación de experimentos. Con 5.707 estrellas y 707 forks al momento de escribir este artículo, ya cuenta con tracción suficiente para tomarlo en serio.
Este tutorial recorre qué resuelve Feynman, cómo instalarlo en Windows, macOS y Linux, ejemplos de uso real, integraciones típicas y en qué casos conviene (o no) adoptarlo frente a alternativas como Claude Code, Aider o los agentes de investigación más generales.
Qué es Feynman
Feynman es un agente CLI de investigación escrito en TypeScript y distribuido bajo licencia MIT. Se ejecuta desde la terminal, se apoya en el runtime Pi (de badlogic/pi-mono) para orquestar la lógica del agente, y usa alphaXiv como motor de búsqueda y análisis de papers. Las capacidades se entregan como Pi skills: archivos Markdown con instrucciones que el agente sincroniza al iniciar desde ~/.feynman/agent/skills/.
La propuesta tiene tres rasgos claros que lo diferencian de un asistente de chat convencional:
- Enfocado en investigación — no es un copilot generalista; cada comando está pensado para un paso concreto del proceso académico: revisar literatura, auditar papers, replicar experimentos.
- Source-grounded — toda afirmación del agente incluye enlaces a la fuente (paper, documento, repositorio). No hay texto sin cita verificable.
- Ejecución real — integra Docker para correr experimentos en contenedores aislados, y Modal o RunPod para ejecutar en GPU serverless o persistente.
Los cuatro agentes internos que Feynman despacha automáticamente son: Researcher (recolecta evidencia), Reviewer (revisión por pares simulada con severidad), Writer (drafts estructurados) y Verifier (verifica URLs de citas y limpia enlaces rotos).
Instalación
Feynman se distribuye como un bundle nativo autocontenido que incluye su propio runtime de Node.js. No hace falta tener Node instalado para usar la aplicación; eso sí, si vas a contribuir al proyecto necesitarás Node con la versión que indique .nvmrc.
Linux
curl -fsSL https://feynman.is/install | bash
Para anclar una versión específica en lugar de usar la última:
curl -fsSL https://feynman.is/install | bash -s -- 0.2.35
macOS
curl -fsSL https://feynman.is/install | bash
El instalador descarga el bundle nativo de macOS y crea el launcher automáticamente. Si preferís pinchar a una versión concreta, el flag -s -- <version> funciona igual que en Linux.
Windows (PowerShell)
irm https://feynman.is/install.ps1 | iex
En Windows el instalador es un script de PowerShell que resuelve los artefactos correctos para tu arquitectura. Para actualizar la aplicación más adelante, basta con volver a ejecutar el instalador; feynman update solo actualiza los paquetes Pi dentro del entorno, no el runtime autocontenido.
Solo las skills (sin la app completa)
Si ya usás otro agente CLI como Codex y solo querés aprovechar las skills de investigación de Feynman, existe un instalador alternativo que deja los archivos en ~/.codex/skills/feynman:
# Linux / macOS
curl -fsSL https://feynman.is/install-skills | bash
# Windows (PowerShell)
irm https://feynman.is/install-skills.ps1 | iex
Para una instalación local al repositorio actual (en .agents/skills/feynman):
# Linux / macOS
curl -fsSL https://feynman.is/install-skills | bash -s -- --repo
# Windows (PowerShell)
& ([scriptblock]::Create((irm https://feynman.is/install-skills.ps1))) -Scope Repo
Uso básico
La forma más directa de usar Feynman es pasarle una pregunta en lenguaje natural. El agente decide qué skill y qué fuentes usar según la intención detectada.
feynman "what do we know about scaling laws"
Al ejecutar este comando, Feynman arranca el agente Researcher, busca en arXiv y la web, contrasta fuentes y genera un research brief con citas. Cada afirmación viene acompañada de su URL de origen para que puedas abrir el paper y verificar.
Los comandos slash funcionan como atajos para flujos específicos. Son equivalentes a lanzar la misma pregunta con contexto explícito, pero más cómodos de tipear:
feynman deepresearch "mechanistic interpretability"
feynman lit "RLHF alternatives"
feynman audit 2401.12345
feynman replicate "chain-of-thought improves math"
Vale la pena detenerse en qué hace cada uno:
/deepresearch— investigación multi-agente con investigadores paralelos, síntesis y verificación. Pensado para temas amplios donde necesitás cubrir varios ángulos./lit— revisión de literatura tradicional: consensos, desacuerdos y preguntas abiertas./audit 2401.12345— toma un ID de arXiv y compara las afirmaciones del paper contra el código público asociado. Útil para detectar overclaims./replicate— intenta replicar experimentos descritos en un paper, ejecutándolos local o en GPU cloud./compare— genera una matriz de comparación entre fuentes sobre un mismo tema./draft— produce un borrador con formato académico a partir de los hallazgos.
El primer arranque dispara feynman setup, donde se configuran las credenciales del modelo (Anthropic, OpenAI, modelos locales con LM Studio, LiteLLM, Ollama o vLLM) y las integraciones opcionales como Modal o RunPod.
Integración en proyectos reales
La cualidad más interesante de Feynman aparece cuando lo combinás con otras herramientas. Al ser un CLI, es trivial encadenarlo en scripts, pipelines de CI o integrarlo como paso previo a la escritura de un paper.
Ejemplo 1 — Watch recurrente sobre un tema. Si seguís un área activa (por ejemplo, interpretabilidad mecanicista), el comando /watch programa una vigilancia periódica que te alerta cuando aparecen papers nuevos relevantes:
feynman /watch "mechanistic interpretability" --interval weekly
El agente guarda el estado en ~/.feynman/sessions/ y reutiliza el índice de sesiones anteriores para evitar avisarte sobre papers ya procesados.
Ejemplo 2 — Auditoría de papers antes de citarlos. Antes de citar un paper en tu propio trabajo, podés auditar si las afirmaciones se sostienen contra el código público:
feynman audit 2403.09629 --output audit-report.md
El Reviewer simulará una revisión por pares con severidad graduada (minor, major, blocking) y generará un reporte que identifica discrepancias entre texto y repositorio.
Ejemplo 3 — Replicación automatizada en GPU cloud. Si el experimento no cabe en tu máquina, Feynman puede apoyarse en Modal para GPU serverless o RunPod para pods persistentes con SSH. Un flujo típico:
# 1. Investigación del tema
feynman lit "chain of thought vs tree of thought"
# 2. Seleccionar paper y replicar
feynman replicate 2305.10601 --backend modal --gpu a100
# 3. Exportar artefactos
feynman /outputs --export pdf
El agente empaqueta el código del repositorio asociado, resuelve dependencias dentro de un contenedor Docker aislado y lanza la ejecución en el backend elegido. Los outputs quedan indexados en la sesión y son consultables posteriormente.
Ejemplo 4 — Integración con modelos locales. Para quienes prefieren no enviar datos a proveedores externos, Feynman soporta LM Studio, LiteLLM Proxy, Ollama y vLLM. En el setup basta con elegir Custom provider, indicar openai-completions y apuntar al endpoint local /v1. Con esto, todo el pipeline de investigación corre contra un modelo bajo tu control.
Cuándo usarlo y cuándo no
Ninguna herramienta es bala de plata. Feynman brilla en contextos concretos y pierde sentido en otros.
Cuándo conviene:
- Investigación académica o técnica seria donde necesitás trazabilidad de fuentes y verificación de citas.
- Revisiones de literatura periódicas en un área activa, donde el costo de estar al día es alto.
- Auditoría de reproducibilidad antes de citar o apoyarse en resultados ajenos.
- Equipos pequeños de ML/IA que necesitan lanzar experimentos en GPU cloud sin montar infraestructura propia.
Cuándo no conviene:
- Programación general — no es un asistente de código. Para escribir o refactorizar aplicaciones hay agentes más especializados.
- Preguntas simples — si solo necesitás una respuesta rápida, un chat con un modelo basta. El overhead del agente multi-paso no se justifica.
- Entornos sin acceso a red — aunque podés usar modelos locales, la búsqueda en alphaXiv y la verificación de fuentes requieren internet.
- Datos estrictamente confidenciales — salvo que uses modelos locales, el contenido de tus prompts pasa por el proveedor del LLM. Revisá la política antes de alimentarlo con información sensible.
Alternativas
El ecosistema de agentes CLI creció mucho en el último año. Tres herramientas con enfoques distintos vale la pena conocer:
- Claude Code de Anthropic — agente CLI generalista con foco en programación. Excelente para editar código, resolver bugs y recorrer repos, pero no está pensado para revisión de literatura académica ni para ejecutar experimentos en GPU.
- Aider — agente open source orientado a pair programming con LLMs. Permite editar archivos por turnos con diff automático. Sobresale en mantenimiento de codebases, no en investigación.
- Elicit — asistente de investigación con interfaz web (no CLI), bueno para extracción de datos desde papers. Menos integrado con ejecución de código y reproducibilidad que Feynman.
La diferencia principal es el scope: Feynman se especializa en el ciclo completo buscar → revisar → auditar → replicar → redactar sobre material académico, mientras que los otros tres cubren segmentos distintos (programación, mantenimiento, extracción).
Conclusión
Feynman CLI es una de las propuestas más sólidas para quienes hacen investigación técnica desde la terminal. Su decisión de apoyarse en Pi para la orquestación, alphaXiv para papers y skills Markdown sincronizables lo hace extensible sin volverse un monolito, y la licencia MIT deja la puerta abierta a forks y adaptaciones.
Si trabajás en ML, seguridad, sistemas distribuidos o cualquier campo con producción activa de papers, vale la pena al menos probarlo una tarde: instalarlo, hacer feynman lit sobre un tema que conozcas bien y evaluar si las fuentes que devuelve son las que esperás. Esa prueba suele ser el mejor indicador de si la herramienta encaja en tu flujo.
El código completo y la documentación están disponibles en el Repositorio oficial en GitHub, y el sitio del proyecto feynman.is mantiene la guía de instalación y docs actualizadas.
📱 ¿Te gusta este contenido? Únete a nuestro canal de Telegram @programacion donde publicamos a diario lo más relevante de tecnología, IA y desarrollo. Resúmenes rápidos, contenido fresco todos los días.
0 Comentarios