La mayor parte de la investigación sobre alineación de IA se centra en alinear las IA con sus desplegadores humanos: enseñar a los agentes a inferir, seguir o deferir a nuestras preferencias. Pero a medida que la adopción de IA crece, estamos entrando en un escenario diferente: redes de agentes que actúan en nombre de personas y organizaciones, pujando, pronosticando, programando, negociando y compitiendo entre sí.
Resumen
La alineación de IA está cambiando de enseñar a modelos individuales a seguir las preferencias humanas hacia la gestión de redes de agentes que actúan, negocian y compiten en nombre de humanos y organizaciones.
El verdadero desafío es coordinar agentes parcialmente confiables bajo presiones del mundo real como la colusión y el aprovechamiento gratuito. Las herramientas probadas en Web3 — staking, subastas, pruebas de fraude y diseño de incentivos — ofrecen plantillas prácticas para resolver estos problemas de coordinación.
Alinear futuros sistemas de IA significa diseñar estructuras de incentivos, no modelos perfectos. Al incorporar verificación y recompensas directamente en las interacciones de los agentes, la cooperación y la honestidad pueden surgir de manera natural — una lección extraída de los entornos adversariales de Web3.
Ese cambio introduce un problema tan difícil como la alineación clásica: alinear estos agentes entre sí y con el bien colectivo. Este es el dominio de la IA cooperativa: lograr que agentes heterogéneos y parcialmente confiables se coordinen en condiciones de escasez, incertidumbre y la constante tentación de defectuar.
Esto no es un desafío teórico. En el momento en que los agentes se ponen a trabajar en actividades económicamente valiosas, se convierten en partes de sistemas donde el aprovechamiento gratuito, la colusión y la opacidad estratégica son rentables. Tratar la coordinación como una consideración secundaria en la gobernanza es cómo se acumulan los riesgos sistémicos.
La comunidad de Web3 ha dedicado una década a estudiar precisamente esta clase de problemas. Asumen que, por defecto, el mundo está lleno de adversarios creativos dispuestos a socavar el sistema para obtener beneficios. La respuesta en Web3 a esta amenaza es el diseño de mecanismos: staking, subastas, compromisos y revelaciones, pruebas de fraude y puntos de Schelling.
Es hora de que la comunidad de IA y los constructores de Web3 colaboren. Si la IA cooperativa se aplica al diseño de mecanismos, entonces las primitivas probadas en Web3 son las herramientas ideales para coordinar grandes redes de agentes. El objetivo no es combinar cripto y IA por la novedad, sino hacer que los incentivos y la verificación sean la norma en las interacciones de los agentes.
El verdadero riesgo no es la IA descontrolada, sino una falla en la coordinación
Cuando las IA interactúan, el escenario catastrófico parece menos un modelo desbocado y más fallas de coordinación que deberían ser familiares para cualquier investigador de Web3: aprovechadores que consumen recursos compartidos, colusión silenciosa entre miembros, ruido que ahoga señales útiles y comportamientos maliciosos cuando los incentivos se desvían. Nada de esto es cinematográfico. Todo es costoso.
Desde el punto de vista de la investigación en IA, estos problemas son difíciles de resolver en el laboratorio. Es realmente difícil simular comportamientos interesados en entornos controlados: humanos y IA son impredecibles, las preferencias cambian y los agentes en sandbox suelen ser demasiado cooperativos para poner a prueba el sistema.
Por el contrario, los mecanismos de Web3 han sido probados con adversarios reales y dinero real. Los constructores que implementan en cadena piensan en términos de compromisos, colaterales y verificabilidad porque asumen una línea base más dura que la IA cooperativa: los participantes son tramposos con incentivos para extraer valor a expensas de otros. Tal vez una visión pesimista, pero muy útil, especialmente al desplegar agentes en el mundo real. Toma cualquier protocolo de Web3, reemplaza “validador”, “nodo” o “adversario” por “agente de IA”, y gran parte del razonamiento se mantiene.
Un ejemplo concreto: emisiones que hacen legible la visión
Por ejemplo, en mi trabajo de investigación, estoy construyendo una subred Torus para realizar pronósticos perspicaces, es decir, pronósticos de eventos incluyendo el razonamiento y las hipótesis detrás de la predicción. Para lograr esto, varios agentes deben proporcionar datos, extraer características, procesar señales y realizar el análisis final. Sin embargo, para saber qué componentes del sistema priorizar, necesitaba resolver el problema de asignación de crédito, un problema de gobernanza muy difícil en IA cooperativa: ¿quién contribuyó más a una predicción dada?
La solución, que puede parecer obvia para los nativos de Web3, fue hacer que la asignación de crédito formara parte del trabajo de los agentes. Los agentes de alto nivel, responsables de hacer la predicción final, son recompensados en función de una puntuación basada en Kelly (en términos sencillos, una forma de medir la precisión de una predicción). Estos agentes reciben emisiones de tokens según su rendimiento, con mejores pronósticos que generan más emisiones. Lo crucial es que los agentes de alto nivel son responsables de redistribuir sus emisiones a otros agentes a cambio de señales útiles. Estos agentes intermedios pueden distribuir aún más las emisiones a otros que aportan información útil, y así sucesivamente.
La incentivación emergente es clara. Un agente de alto nivel no gana nada coludiendo; cada unidad mal asignada diluye el rendimiento futuro y, por tanto, las emisiones futuras. La única estrategia ganadora es cultivar contribuyentes genuinamente informativos y recompensarlos.
Lo que hace poderosa esta aproximación es que garantizar la alineación de agentes individuales ya no es una preocupación; recompensar el buen comportamiento pasa a formar parte del mecanismo.
Una agenda concreta para Web3 × IA
Lo que describí arriba es solo una de las muchas intersecciones posibles entre IA y diseño de mecanismos. Para acelerar la interacción entre los campos de IA cooperativa y Web3, necesitamos aumentar la frecuencia con la que sus miembros interactúan. Las comunidades que rodean los estándares de agentes compatibles con Web3 (por ejemplo, ERC-8004 y x402) son excelentes puntos de partida, que deben ser fomentados y apoyados. Sin embargo, solo son atractivos para investigadores que ya están familiarizados con ambos campos y conscientes del potencial de IA y descentralización. La oferta de investigadores interdisciplinarios de calidad está limitada por cuántos investigadores están expuestos a estas ideas desde el principio.
La mejor manera de llegar a estas personas es encontrarlas donde están. Por ejemplo, las organizaciones de Web3 pueden proponer talleres a las grandes organizaciones de aprendizaje automático (NeurIPS, ICML, ICLR), y las organizaciones de IA pueden organizar hackatones en Devconnect, ETHDenver, SBC u otras conferencias de Web3.
La conclusión
No alinearemos el futuro creando modelos individuales perfectos; lo alinearemos alineando las redes de las que forman parte. La IA cooperativa es un diseño de mecanismos aplicado, y Web3 ya ha demostrado, bajo presión adversarial real, cómo recompensar la verdad, castigar el engaño y mantener la coordinación a escala.
El progreso será más rápido en entornos compartidos, conscientes de incentivos, construidos sobre primitivas interoperables que puedan abarcar cadenas y laboratorios, y en una cultura que normalice la colaboración entre constructores de cripto y académicos de IA. El camino hacia la alineación requiere aplicar estos conceptos en la práctica, incluso si eso significa asociarse con aliados improbables.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
El diseño de mecanismos es el puente que falta entre la IA y web3
La mayor parte de la investigación sobre alineación de IA se centra en alinear las IA con sus desplegadores humanos: enseñar a los agentes a inferir, seguir o deferir a nuestras preferencias. Pero a medida que la adopción de IA crece, estamos entrando en un escenario diferente: redes de agentes que actúan en nombre de personas y organizaciones, pujando, pronosticando, programando, negociando y compitiendo entre sí.
Resumen
Ese cambio introduce un problema tan difícil como la alineación clásica: alinear estos agentes entre sí y con el bien colectivo. Este es el dominio de la IA cooperativa: lograr que agentes heterogéneos y parcialmente confiables se coordinen en condiciones de escasez, incertidumbre y la constante tentación de defectuar.
Esto no es un desafío teórico. En el momento en que los agentes se ponen a trabajar en actividades económicamente valiosas, se convierten en partes de sistemas donde el aprovechamiento gratuito, la colusión y la opacidad estratégica son rentables. Tratar la coordinación como una consideración secundaria en la gobernanza es cómo se acumulan los riesgos sistémicos.
La comunidad de Web3 ha dedicado una década a estudiar precisamente esta clase de problemas. Asumen que, por defecto, el mundo está lleno de adversarios creativos dispuestos a socavar el sistema para obtener beneficios. La respuesta en Web3 a esta amenaza es el diseño de mecanismos: staking, subastas, compromisos y revelaciones, pruebas de fraude y puntos de Schelling.
Es hora de que la comunidad de IA y los constructores de Web3 colaboren. Si la IA cooperativa se aplica al diseño de mecanismos, entonces las primitivas probadas en Web3 son las herramientas ideales para coordinar grandes redes de agentes. El objetivo no es combinar cripto y IA por la novedad, sino hacer que los incentivos y la verificación sean la norma en las interacciones de los agentes.
El verdadero riesgo no es la IA descontrolada, sino una falla en la coordinación
Cuando las IA interactúan, el escenario catastrófico parece menos un modelo desbocado y más fallas de coordinación que deberían ser familiares para cualquier investigador de Web3: aprovechadores que consumen recursos compartidos, colusión silenciosa entre miembros, ruido que ahoga señales útiles y comportamientos maliciosos cuando los incentivos se desvían. Nada de esto es cinematográfico. Todo es costoso.
Desde el punto de vista de la investigación en IA, estos problemas son difíciles de resolver en el laboratorio. Es realmente difícil simular comportamientos interesados en entornos controlados: humanos y IA son impredecibles, las preferencias cambian y los agentes en sandbox suelen ser demasiado cooperativos para poner a prueba el sistema.
Por el contrario, los mecanismos de Web3 han sido probados con adversarios reales y dinero real. Los constructores que implementan en cadena piensan en términos de compromisos, colaterales y verificabilidad porque asumen una línea base más dura que la IA cooperativa: los participantes son tramposos con incentivos para extraer valor a expensas de otros. Tal vez una visión pesimista, pero muy útil, especialmente al desplegar agentes en el mundo real. Toma cualquier protocolo de Web3, reemplaza “validador”, “nodo” o “adversario” por “agente de IA”, y gran parte del razonamiento se mantiene.
Un ejemplo concreto: emisiones que hacen legible la visión
Por ejemplo, en mi trabajo de investigación, estoy construyendo una subred Torus para realizar pronósticos perspicaces, es decir, pronósticos de eventos incluyendo el razonamiento y las hipótesis detrás de la predicción. Para lograr esto, varios agentes deben proporcionar datos, extraer características, procesar señales y realizar el análisis final. Sin embargo, para saber qué componentes del sistema priorizar, necesitaba resolver el problema de asignación de crédito, un problema de gobernanza muy difícil en IA cooperativa: ¿quién contribuyó más a una predicción dada?
La solución, que puede parecer obvia para los nativos de Web3, fue hacer que la asignación de crédito formara parte del trabajo de los agentes. Los agentes de alto nivel, responsables de hacer la predicción final, son recompensados en función de una puntuación basada en Kelly (en términos sencillos, una forma de medir la precisión de una predicción). Estos agentes reciben emisiones de tokens según su rendimiento, con mejores pronósticos que generan más emisiones. Lo crucial es que los agentes de alto nivel son responsables de redistribuir sus emisiones a otros agentes a cambio de señales útiles. Estos agentes intermedios pueden distribuir aún más las emisiones a otros que aportan información útil, y así sucesivamente.
La incentivación emergente es clara. Un agente de alto nivel no gana nada coludiendo; cada unidad mal asignada diluye el rendimiento futuro y, por tanto, las emisiones futuras. La única estrategia ganadora es cultivar contribuyentes genuinamente informativos y recompensarlos.
Lo que hace poderosa esta aproximación es que garantizar la alineación de agentes individuales ya no es una preocupación; recompensar el buen comportamiento pasa a formar parte del mecanismo.
Una agenda concreta para Web3 × IA
Lo que describí arriba es solo una de las muchas intersecciones posibles entre IA y diseño de mecanismos. Para acelerar la interacción entre los campos de IA cooperativa y Web3, necesitamos aumentar la frecuencia con la que sus miembros interactúan. Las comunidades que rodean los estándares de agentes compatibles con Web3 (por ejemplo, ERC-8004 y x402) son excelentes puntos de partida, que deben ser fomentados y apoyados. Sin embargo, solo son atractivos para investigadores que ya están familiarizados con ambos campos y conscientes del potencial de IA y descentralización. La oferta de investigadores interdisciplinarios de calidad está limitada por cuántos investigadores están expuestos a estas ideas desde el principio.
La mejor manera de llegar a estas personas es encontrarlas donde están. Por ejemplo, las organizaciones de Web3 pueden proponer talleres a las grandes organizaciones de aprendizaje automático (NeurIPS, ICML, ICLR), y las organizaciones de IA pueden organizar hackatones en Devconnect, ETHDenver, SBC u otras conferencias de Web3.
La conclusión
No alinearemos el futuro creando modelos individuales perfectos; lo alinearemos alineando las redes de las que forman parte. La IA cooperativa es un diseño de mecanismos aplicado, y Web3 ya ha demostrado, bajo presión adversarial real, cómo recompensar la verdad, castigar el engaño y mantener la coordinación a escala.
El progreso será más rápido en entornos compartidos, conscientes de incentivos, construidos sobre primitivas interoperables que puedan abarcar cadenas y laboratorios, y en una cultura que normalice la colaboración entre constructores de cripto y académicos de IA. El camino hacia la alineación requiere aplicar estos conceptos en la práctica, incluso si eso significa asociarse con aliados improbables.