Al realizar un análisis inverso de Claude Code, se han descubierto dos errores de caché que pueden aumentar silenciosamente el costo de la API entre 10 y 20 veces

BlockBeatNews

Según el monitoreo de 1M AI News, un desarrollador desensambló mediante ingeniería inversa la versión instalable independiente del binario de 228MB de Claude Code usando Ghidra, un proxy MITM y radare2. Descubrió dos errores de caché independientes que pueden aumentar el costo de la API entre 10 y 20 veces sin que el usuario lo sepa. El análisis relacionado se envió a GitHub (issue #40524), donde Anthropic lo marcó como un bug regresivo y le asignó manejo.

El primer bug está en el runtime Bun personalizado que usa la versión instalable independiente. En cada solicitud a la API, el runtime busca un identificador de facturación dentro del cuerpo de la solicitud y lo reemplaza, pero la lógica de reemplazo coincide con la primera coincidencia dentro del cuerpo de la solicitud. Si el historial de la conversación contiene exactamente esa cadena (por ejemplo, si se discutió el mecanismo interno de facturación de Claude Code), el reemplazo coincide con el contenido del mensaje en lugar del prompt del sistema, lo que hace que cada solicitud dispare la reconstrucción completa de la caché. La forma de evitación temporal es cambiar a ejecutar npx @anthropic-ai/claude-code; la versión del paquete npm no incluye esa lógica de reemplazo.

El segundo bug afecta a todos los usuarios que restauran conversaciones usando --resume o --continue, y se introdujo desde v2.1.69. Al restaurar la conversación, la posición donde se inyecta la información adicional del sistema es diferente a la de cuando se crea una nueva sesión, lo que provoca que el prefijo de caché no coincida por completo: todo el historial de la conversación deja de leerse desde la caché y pasa a reescribirse por completo. Las siguientes rondas se restauran con normalidad, pero la operación de restauración en sí ya ha generado un gran gasto adicional; actualmente no hay una solución de evitación externa.

El desarrollador estima que, para una conversación larga de unos 500 mil tokens, el bug 1 consume alrededor de 0.04 dólares adicionales por solicitud, y el bug 2 consume alrededor de 0.15 dólares adicionales por cada restauración. Sumados, el costo de una solicitud puede superar 0.20 dólares. Anteriormente, la ingeniera de Anthropic Lydia Hallie ya había confirmado que la velocidad con la que los usuarios alcanzan los límites de uso es «mucho más rápida de lo esperado»; en el área de comentarios de Reddit, varios usuarios creen que estos dos bugs de caché podrían ser una de las razones fundamentales del consumo anómalo de uso.

Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.
Comentar
0/400
Sin comentarios