Según la monitorización de 1M AI News, Cursor publicó el informe técnico de Composer 2, revelando por primera vez el plan completo de entrenamiento. La base Kimi K2.5 utiliza una arquitectura MoE, con un total de 1.04 billones de parámetros y 32 mil millones de parámetros activos. El entrenamiento se realiza en dos fases: primero, preentrenamiento en datos de código para fortalecer el conocimiento de codificación, y luego, mejora de la capacidad de codificación de extremo a extremo mediante aprendizaje por refuerzo a gran escala. El entorno de RL simula completamente escenarios reales de uso de Cursor, incluyendo edición de archivos, operaciones en terminal, búsqueda de código y llamadas a herramientas, permitiendo que el modelo aprenda en condiciones cercanas a un entorno de producción.
El informe también presenta la construcción del benchmark propio CursorBench: se recopilan tareas a partir de sesiones reales de codificación del equipo de ingeniería, en lugar de datos artificiales. La base Kimi K2.5 obtuvo solo 36.0 puntos en este benchmark, pero tras las dos fases de entrenamiento, Composer 2 alcanzó 61.3 puntos, un aumento del 70%. Cursor afirma que su coste de inferencia es significativamente menor que el de modelos de vanguardia como GPT-5.4 y Claude Opus 4.6, logrando un equilibrio óptimo entre precisión y coste.