Según el monitoreo de 1M AI News, el cofundador de OpenAI, Andrej Karpathy, compartió en X un hallazgo reciente: construir una base de conocimiento personal con LLM es más valioso que usarlo para escribir código. En la actualidad, la mayor parte de su consumo de tokens ha pasado de operar código a operar conocimiento.
El flujo de trabajo completo se divide en cinco pasos:
- Ingesta de datos: indexar documentos fuente como artículos, artículos académicos, repositorios de código, conjuntos de datos, imágenes, etc. en el directorio raw/, y «compilar» de forma incremental con LLM en un wiki en markdown, que incluya resúmenes, enlaces inversos, clasificación por conceptos e interconexión entre artículos
- Interfaz de navegación: usar Obsidian como frontend para ver los datos originales, el wiki compilado y las visualizaciones derivadas; el contenido del wiki es mantenido íntegramente por LLM, y la persona casi no edita directamente
- Consultas de preguntas y respuestas: cuando el wiki alcanza cierto tamaño (su línea de investigación ya tiene alrededor de 100 artículos y 400.000 palabras), se pueden plantear a LLM preguntas complejas, y el LLM recupera por sí mismo el contenido del wiki para responder. Él creía que necesitaba RAG, pero los archivos de índice mantenidos automáticamente por LLM y los resúmenes ya son suficientes en esta escala
- Reflujo de salida: los resultados de la consulta se generan en forma de markdown, diapositivas de Marp o gráficos de matplotlib; al visualizarlos en Obsidian se archivan de vuelta en el wiki, para que la exploración personal siga acumulando conocimiento
- Inspección de calidad: usar LLM de forma periódica para hacer una «revisión de salud» del wiki, detectando inconsistencias de datos, completando información faltante, y extrayendo relaciones entre conceptos; así se mejora de manera incremental la integridad de los datos
Karpathy afirma que además desarrolló algunas herramientas, como un sencillo motor de búsqueda de wiki, que puede usarse tanto desde una interfaz web propia como entregarse al LLM como herramienta de línea de comandos para manejar consultas más grandes. Considera que este flujo de trabajo todavía es, por ahora, solo una «combinación de una pila de scripts», pero que en el fondo hay una oportunidad de «un producto nuevo e increíble». Un concepto todavía más lejano es: para cada pregunta planteada a un modelo de vanguardia, se puede desplegar un conjunto de LLM para construir automáticamente un wiki temporal, hacer una revisión de calidad, iterar durante varias rondas, y finalmente producir un informe completo, «muy por encima de una única .decode()».
Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el
Aviso legal.