La auditoría de IA entra en la fase práctica, OpenAI lanza EVMbench, fortaleciendo la evaluación de seguridad de contratos inteligentes

ETH-3,01%
WELL-4,58%

OpenAI junto con Paradigm lanzan EVMbench, una evaluación práctica de la capacidad de los agentes de IA en la defensa y ataque de contratos inteligentes en EVM, revelando preocupaciones sobre la fortaleza de los ataques frente a las defensas débiles.

Enfocándose en pruebas en entornos económicos reales, OpenAI y Paradigm fortalecen la evaluación de seguridad en la cadena

El líder en inteligencia artificial, OpenAI, anunció su colaboración con la reconocida firma de inversión en criptomonedas y riesgos, Paradigm, junto con la empresa de seguridad OtterSec, para lanzar EVMbench, una herramienta de referencia diseñada específicamente para evaluar el rendimiento de los agentes de IA (AI Agents) en la seguridad de contratos inteligentes en la máquina virtual de Ethereum (EVM).

Con la integración profunda de IA y tecnología criptográfica, los contratos inteligentes se han convertido en la infraestructura central para gestionar más de 100 mil millones en activos criptográficos de código abierto. La aparición de esta herramienta simboliza que la industria comienza a tomar en serio la capacidad práctica de la IA en entornos con importancia económica.

El equipo de OpenAI señala que, con los avances en la escritura y planificación de código por parte de los agentes de IA, en el futuro estos modelos jugarán un papel transformador en las áreas de ataque y defensa en blockchain, por lo que establecer un marco de evaluación estandarizado será crucial para monitorear el progreso de la IA.

Tres modos de prueba en profundidad, 120 vulnerabilidades reales de auditoría como piedra de toque para la IA

El diseño central de EVMbench gira en torno a 120 vulnerabilidades de alto riesgo extraídas de 40 informes de auditoría especializados, con datos provenientes de competiciones públicas de auditoría como Code4rena, asegurando que los escenarios de prueba reflejen la complejidad del mundo real. La evaluación coloca a los agentes de IA en tres modos de operación diferentes:

Fuente: Diseño central de EVMbench de OpenAI, que evalúa a los agentes de IA en tres modos diferentes

  • El primero es el “Modo de detección (Detect)”, donde la IA audita el código del contrato y detecta vulnerabilidades conocidas, asignando una puntuación según la gravedad de los problemas encontrados;
  • El segundo es el “Modo de reparación (Patch)”, que desafía a la IA a eliminar vulnerabilidades explotables y reparar el código sin alterar las funciones originales;
  • Finalmente, el “Modo de explotación (Exploit)”, en el que la IA debe ejecutar ataques de robo de fondos de extremo a extremo en un entorno de blockchain sandboxed.

Para garantizar la rigurosidad y repetibilidad de las pruebas, el equipo desarrolló una arquitectura de pruebas basada en Rust, utilizando técnicas de reproducción de transacciones deterministas para verificar si los ataques o reparaciones de la IA tienen éxito.

Tendencia de ataque y defensa claramente marcada, GPT-5.3-Codex muestra un crecimiento sorprendente en capacidades de ataque

En los primeros resultados publicados, se observa una diferencia significativa en el rendimiento de la IA en distintas tareas. La última generación, GPT-5.3-Codex, destaca en el modo de explotación (Exploit Mode), con una puntuación de 72.2 %, en comparación con solo 31.9 % de GPT-5, lanzado hace apenas seis meses, demostrando un crecimiento asombroso en sus capacidades.

Fuente: Resumen de puntuaciones de diversos modelos de IA de OpenAI en los tres modos

Esto indica que, cuando el objetivo es “vaciar fondos”, la IA posee una capacidad de planificación y ejecución iterativa muy potente. Sin embargo, en aspectos defensivos, su rendimiento es relativamente débil: en modo de detección, a menudo se detiene tras encontrar un solo error, y al reparar lógica compleja, suele tener dificultades para corregir vulnerabilidades sin afectar la operación normal del contrato. Los expertos en seguridad expresan preocupación, señalando que la IA podría reducir drásticamente el tiempo desde la detección de vulnerabilidades hasta el desarrollo de ataques, lo que exige una mayor velocidad de defensa en proyectos DeFi.

Contratación de talento y subsidios para defensa, OpenAI apuesta por la seguridad del ecosistema de agentes de IA

Además del desarrollo de herramientas, OpenAI también realiza movimientos en la contratación de talento y en la protección del ecosistema. Recientemente, contrató a Peter Steinberger, fundador del proyecto de código abierto de agentes de IA OpenClaw, para liderar el desarrollo de la próxima generación de agentes personalizados, transformando dicho proyecto en un fondo de apoyo respaldado por OpenAI.

Para hacer frente a los riesgos de ciberseguridad que la IA podría traer, OpenAI se compromete a destinar 10 millones de dólares en subsidios a través de su programa de apoyo en seguridad de redes, para apoyar investigaciones en herramientas de defensa de código abierto y en infraestructura crítica. Esta iniciativa resulta especialmente oportuna tras el reciente incidente con el protocolo Moonwell, donde un error en el código compartido por IA provocó pérdidas por aproximadamente 1.78 millones de dólares.

Lecturas relacionadas
Rechazo a la oferta de Meta por miles de millones, creadores de OpenClaw se unen a la competencia por talento con OpenAI, ¿todo por Vibe Coding? Predicción fallida de Moonwell, ¿quién pagará los 1.78 millones en pérdidas?

De cara al futuro, a medida que más agentes de pago con stablecoins asistidos por IA y billeteras automáticas se integren en el ecosistema, la capacidad de herramientas como EVMbench para distinguir entre modelos que solo describen vulnerabilidades y aquellos que pueden ofrecer soluciones de defensa confiables será un punto de inflexión clave en la seguridad blockchain.

Ver originales
Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.

Artículos relacionados

BTQ Implementa Primera Red de Prueba Bitcoin Quantum Con BIP-360

_BTQ lanza la red de prueba Bitcoin Quantum con BIP 360, introduciendo Pay to Merkle Root y permitiendo pruebas de transacciones resistentes a cuántica._ Las tecnologías de BTQ han lanzado un nuevo paso en la investigación enfocada en Bitcoin con un entorno de prueba cuántico funcional. La empresa confirmó que implementó Bitcoin I

LiveBTCNewshace2h

Bounce lanza Bounce Predict, su producto de mercado de predicción, con el primer caso de uso en la subasta de Sotheby's

Gate News informa que, el 22 de marzo, Bounce lanzó oficialmente su nuevo producto ecológico Bounce Predict. Este producto está diseñado como una plataforma de mercado predictivo para escenarios de subastas, y actualmente ha abierto el mercado de predicciones para la próxima subasta de Sotheby's, permitiendo a los usuarios predecir los precios de los resultados de la subasta utilizando USDT.

GateNewshace3h

Visa lanza herramienta CLI para ayudar a los agentes de IA a realizar pagos con tarjeta más seguros

Visa Crypto Labs ha lanzado una herramienta CLI que permite a los agentes de IA realizar pagos con tarjeta segura sin necesidad de claves API, reduciendo el riesgo de transacciones no autorizadas y protegiendo las finanzas de los usuarios. La herramienta se encuentra en fase de prueba y refleja el compromiso de Visa en el desarrollo de pagos digitales en la era de la IA.

TapChiBitcoinhace4h

Resolv Labs pausa el protocolo después de que el exploit $23M desencadena el desunión del stablecoin USR

Resolv Labs detuvo su protocolo de finanzas descentralizadas ( DeFi) en la madrugada del domingo después de que un exploit permitiera a un atacante acuñar decenas de millones de stablecoins USR sin respaldo, enviando el token bruscamente fuera de su paridad con el dólar. ¿Qué Causó el Hack de Resolv Labs y el Depeg de USR? El incidente golpeó a Resol

Coinpediahace6h

GMX Labs Recruitamiento Público de CEO, Salario Anual Integral Máximo Aproximadamente $700,000

GMX Labs aprobó la propuesta de actualización de la estructura de liderazgo mediante votación en DAO el 22 de marzo, con un apoyo del 96,42%. La propuesta tiene como objetivo hacer frente a la expansión del equipo y a la competencia del mercado, acelerando la transición hacia una estructura de liderazgo tradicional. Se planea realizar una contratación pública de un CEO, responsable de la formulación de estrategias y relaciones de colaboración, con una remuneración de entre 150,000 y 200,000 dólares, vinculada a incentivos por rendimiento y tarifas de protocolo. Durante el período de transición, un comité de liderazgo temporal se encargará de mantener las operaciones.

GateNewshace6h
Comentar
0/400
Sin comentarios