Las redes sociales están llenas de contenido basura de IA, y la voluntad de los usuarios reales de compartir está disminuyendo. La firma de capital riesgo a16z propone el concepto de medios en staking, que mediante mecanismos de staking de activos criptográficos, filtra el ruido de IA con dinero real, y mediante compromisos verificables reconstruye la confianza en el contenido.
(Resumen previo: Animal Crossing se une a LLM de IA, “aumenta exponencialmente la jugabilidad”, streamer prueba: conversaciones interminables sin repetirse)
(Información adicional: ¿El juego generado por IA es una copia de Pokémon? ¡Lanzamiento en Steam de “Fantasmas de la Bestia” con ventas de 2 millones de unidades, ¿Nintendo va a demandar?)
Índice del artículo
Cuando la IA comienza a autoreplicarse, la red se inunda de “contenido predefinido”
En la era de la proliferación de IA, construyendo confianza en los medios con dinero real
Usando mecanismos de staking para elevar los costos de falsificación, recomendando la introducción de doble verificación de contenido
Las redes sociales actuales parecen estar llenas de actividad, pero la “sensación de vida” se va desvaneciendo poco a poco. Cuando una gran cantidad de basura generada por IA (AI slop) invade las principales plataformas, la proliferación de contenido falso y de clickbait se vuelve inmanejable, y cada vez más usuarios reales pierden el deseo de compartir, e incluso comienzan a abandonar.
Frente a la proliferación de basura de IA, la simple revisión algorítmica ya no es suficiente. Recientemente, la firma de capital riesgo a16z propuso el concepto de medios en staking (Staked Media), filtrando el ruido de IA con dinero real, lo que ha generado atención en el mercado.
Cuando la IA comienza a autoreplicarse, la red se inunda de “contenido predefinido”
“La IA ha empezado a imitar a la IA.”
Recientemente, los moderadores de Reddit en EE. UU. están en crisis, luchando contra una avalancha de contenido generado por IA. En el subreddit r/AmItheAsshole, con 24 millones de usuarios, los moderadores se quejan de que más de la mitad del contenido es generado por IA.
Solo en la primera mitad de 2025, Reddit eliminó más de 40 millones de publicaciones basura y falsas. Este fenómeno se ha extendido como un virus a plataformas como Facebook, Instagram, X, YouTube, Xiaohongshu y TikTok.
En una era donde la información parece explotar en cantidad, pero las voces auténticas escasean cada vez más, el contenido basura producido por IA casi impregna toda la red, infiltrándose silenciosamente en las mentes de las personas. De hecho, con la popularización de herramientas generativas como ChatGPT y Gemini, la creación manual de contenido está siendo reemplazada por IA, convirtiéndose en una especie de “fábrica en línea”.
Según un estudio reciente de la empresa de SEO Graphite, desde que ChatGPT fue lanzado a finales de 2022, la proporción de artículos generados por IA ha aumentado rápidamente, pasando de aproximadamente el 10% en ese entonces a más del 40% en 2024. Hasta mayo de este año, esa proporción alcanzó el 52%.
Sin embargo, la mayoría de estos contenidos generados por IA son como “platos precocinados”, con recetas y procesos estandarizados, pero sin alma, y resultan insípidos. Además, la IA actual ya no es torpe; puede imitar el tono humano e incluso replicar emociones. Desde guías de viaje hasta conflictos sentimentales, e incluso para manipular la opinión pública con contenido sensacionalista, la IA puede hacerlo con facilidad.
Lo que es aún más peligroso es que, cuando la IA genera alucinaciones, habla con total seriedad, diciendo tonterías, creando basura informativa y desencadenando crisis de confianza.
En la era de la proliferación de IA, construyendo confianza en los medios con dinero real
Frente a la avalancha de contenido basura de IA en línea, incluso con actualizaciones en los mecanismos de revisión y la incorporación de IA asistida, la efectividad de la regulación sigue siendo limitada. En el informe anual de a16z crypto, Robert Hackett propuso el concepto de medios en staking.
El informe señala que, aunque los medios tradicionales se jactan de objetividad, sus fallas ya son evidentes. La red permite que todos tengan canales para expresarse, y cada vez más profesionales, practicantes y constructores transmiten sus puntos de vista directamente al público, reflejando sus intereses en el mundo. Paradójicamente, la audiencia respeta a estos actores no porque “tengan intereses”, sino precisamente “porque tienen intereses”.
Este cambio de tendencia no proviene del auge de las redes sociales, sino de la aparición de herramientas criptográficas que permiten hacer compromisos verificables públicamente. Con la IA reduciendo drásticamente los costos y facilitando la generación de contenido en masa (basado en cualquier perspectiva o identidad, verificable o no), las declaraciones solo humanas (o robotizadas) ya no son suficientes para convencer. La tokenización de activos, los contratos programables, los mercados de predicción y los registros en cadena ofrecen una base más sólida para la confianza: los comentaristas pueden demostrar coherencia entre sus palabras y acciones (respaldando sus opiniones con fondos); los podcasters pueden bloquear tokens para demostrar que no cambiarán de postura o manipularán la salida; los analistas pueden vincular sus predicciones a mercados de liquidación pública, creando registros auditables.
Este es el temprano concepto de “medios en staking”: estos medios no solo comparten intereses relacionados, sino que también ofrecen formas verificables de prueba. En este modelo, la credibilidad no proviene de pretender ser neutrales ni de afirmaciones sin fundamento, sino de compromisos de intereses públicos, transparentes y verificables. Los medios en staking no reemplazarán otros formatos, sino que complementarán el ecosistema mediático actual. Envía una señal clara: ya no se trata de “créeme, soy neutral”, sino de “esto es un riesgo que asumo, y esta es la forma en que puedes verificar que no miento”.
Hackett prevé que este campo seguirá creciendo, igual que los medios masivos del siglo XX, que para adaptarse a las tecnologías y mecanismos de incentivos de su tiempo (atraer audiencias y anunciantes), buscaban la “objetividad” y la “neutralidad”. Hoy, la IA hace que crear o falsificar cualquier contenido sea muy fácil, pero lo que realmente escasea son las pruebas; los creadores que puedan hacer compromisos verificables y respaldar sus afirmaciones tendrán ventaja.
Usando mecanismos de staking para elevar los costos de falsificación, recomendando la introducción de doble verificación de contenido
Y esta innovación también ha sido respaldada por profesionales de las criptomonedas, quienes han hecho sugerencias.
El analista cripto Chen Jian afirmó que, desde los grandes medios hasta los medios independientes, las noticias falsas proliferan sin cesar, y un mismo evento puede ser reportado con múltiples versiones. La causa principal es que los costos de falsificación son bajos y las ganancias altas. Si consideramos cada difusor de información como un nodo, ¿por qué no usar un mecanismo económico de consenso en blockchain POS (Prueba de Participación) para resolver esto? Sugiere, por ejemplo, que cada nodo deba hacer un staking de fondos antes de emitir una opinión; cuanto más stake, mayor confianza. Otros pueden recopilar evidencia para desafiarlo, y si la disputa tiene éxito, el sistema confiscara el stake y recompensará al desafiante. Por supuesto, esto también involucra cuestiones de privacidad y eficiencia, y existen soluciones como Swarm Network que combinan ZK y IA, protegiendo la privacidad de los participantes y usando análisis de múltiples modelos para verificar, similar a la función de verificación de verdad en Grok en Twitter.
El influencer cripto Lan Hu también cree que, mediante tecnologías criptográficas como las pruebas de conocimiento cero (zk), los medios o individuos pueden demostrar en línea su credibilidad, como una “firma digital” en la web, que no puede ser alterada en la cadena. Pero solo tener evidencia escrita no basta; también se necesita hacer un “staking” de ciertos activos como garantía, por ejemplo ETH, USDC u otros tokens criptográficos.
El mecanismo de staking es muy simple: si el contenido publicado se demuestra como falso, el stake será confiscado; si es veraz y confiable, el stake será devuelto tras un período, e incluso puede obtener recompensas adicionales (como tokens emitidos por medios en staking o una parte de los fondos confiscados a falsificadores). Este mecanismo crea un entorno que fomenta decir la verdad. Para los medios, el staking aumenta los costos de fondos, pero a cambio obtiene confianza real del público, algo especialmente importante en tiempos de proliferación de noticias falsas.
Por ejemplo, un creador de contenido en YouTube que recomienda un producto debe hacer un “firmar en la cadena” en Ethereum y hacer staking de ETH o USDC. Si el contenido es falso, el stake será confiscado, y los espectadores podrán confiar en la veracidad del contenido. Si un influencer recomienda un teléfono móvil, puede hacer un staking de 100 dólares en ETH y declarar: “si la función de belleza no cumple con las expectativas, me compensarán”. Al ver que el creador ha hecho staking, los espectadores confiarán más. Si el contenido es generado por IA, el creador perderá su stake.
Para determinar la veracidad del contenido, Lan Hu sugiere un mecanismo de doble verificación: “comunidad + algoritmo”. En la comunidad, usuarios con derecho a votar (que deben hacer staking de criptomonedas) votan en cadena; si más del 60% vota que es falso, se considera falso. En el lado del algoritmo, se usan análisis de datos para verificar los resultados de la votación. En el arbitraje, si el creador no está de acuerdo con la decisión, puede solicitar una revisión por un comité de expertos; si se detecta manipulación maliciosa, se confiscan los activos del votante. Tanto los votantes como los expertos reciben recompensas, provenientes de las multas y de los tokens de los medios. Además, los creadores pueden usar pruebas de conocimiento cero para demostrar la autenticidad de su contenido desde la fuente, como la procedencia real de un video.
Para quienes intentan aprovechar el mecanismo de staking para falsificar, Lan Hu recomienda aumentar los costos a largo plazo, no solo en fondos, sino también en tiempo, registros históricos, reputación y responsabilidad legal. Por ejemplo, las cuentas sancionadas serán marcadas, y para publicar contenido en adelante, deberán hacer un stake mayor; si una cuenta es sancionada varias veces, su credibilidad se reducirá drásticamente; en casos graves, incluso enfrentará responsabilidades legales.
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Artículo a16: Cuando la IA conquista plataformas de contenido, ¿cómo recuperar la confianza en el staking de criptomonedas?
Las redes sociales están llenas de contenido basura de IA, y la voluntad de los usuarios reales de compartir está disminuyendo. La firma de capital riesgo a16z propone el concepto de medios en staking, que mediante mecanismos de staking de activos criptográficos, filtra el ruido de IA con dinero real, y mediante compromisos verificables reconstruye la confianza en el contenido.
(Resumen previo: Animal Crossing se une a LLM de IA, “aumenta exponencialmente la jugabilidad”, streamer prueba: conversaciones interminables sin repetirse)
(Información adicional: ¿El juego generado por IA es una copia de Pokémon? ¡Lanzamiento en Steam de “Fantasmas de la Bestia” con ventas de 2 millones de unidades, ¿Nintendo va a demandar?)
Índice del artículo
Las redes sociales actuales parecen estar llenas de actividad, pero la “sensación de vida” se va desvaneciendo poco a poco. Cuando una gran cantidad de basura generada por IA (AI slop) invade las principales plataformas, la proliferación de contenido falso y de clickbait se vuelve inmanejable, y cada vez más usuarios reales pierden el deseo de compartir, e incluso comienzan a abandonar.
Frente a la proliferación de basura de IA, la simple revisión algorítmica ya no es suficiente. Recientemente, la firma de capital riesgo a16z propuso el concepto de medios en staking (Staked Media), filtrando el ruido de IA con dinero real, lo que ha generado atención en el mercado.
Cuando la IA comienza a autoreplicarse, la red se inunda de “contenido predefinido”
“La IA ha empezado a imitar a la IA.”
Recientemente, los moderadores de Reddit en EE. UU. están en crisis, luchando contra una avalancha de contenido generado por IA. En el subreddit r/AmItheAsshole, con 24 millones de usuarios, los moderadores se quejan de que más de la mitad del contenido es generado por IA.
Solo en la primera mitad de 2025, Reddit eliminó más de 40 millones de publicaciones basura y falsas. Este fenómeno se ha extendido como un virus a plataformas como Facebook, Instagram, X, YouTube, Xiaohongshu y TikTok.
En una era donde la información parece explotar en cantidad, pero las voces auténticas escasean cada vez más, el contenido basura producido por IA casi impregna toda la red, infiltrándose silenciosamente en las mentes de las personas. De hecho, con la popularización de herramientas generativas como ChatGPT y Gemini, la creación manual de contenido está siendo reemplazada por IA, convirtiéndose en una especie de “fábrica en línea”.
Según un estudio reciente de la empresa de SEO Graphite, desde que ChatGPT fue lanzado a finales de 2022, la proporción de artículos generados por IA ha aumentado rápidamente, pasando de aproximadamente el 10% en ese entonces a más del 40% en 2024. Hasta mayo de este año, esa proporción alcanzó el 52%.
Sin embargo, la mayoría de estos contenidos generados por IA son como “platos precocinados”, con recetas y procesos estandarizados, pero sin alma, y resultan insípidos. Además, la IA actual ya no es torpe; puede imitar el tono humano e incluso replicar emociones. Desde guías de viaje hasta conflictos sentimentales, e incluso para manipular la opinión pública con contenido sensacionalista, la IA puede hacerlo con facilidad.
Lo que es aún más peligroso es que, cuando la IA genera alucinaciones, habla con total seriedad, diciendo tonterías, creando basura informativa y desencadenando crisis de confianza.
En la era de la proliferación de IA, construyendo confianza en los medios con dinero real
Frente a la avalancha de contenido basura de IA en línea, incluso con actualizaciones en los mecanismos de revisión y la incorporación de IA asistida, la efectividad de la regulación sigue siendo limitada. En el informe anual de a16z crypto, Robert Hackett propuso el concepto de medios en staking.
El informe señala que, aunque los medios tradicionales se jactan de objetividad, sus fallas ya son evidentes. La red permite que todos tengan canales para expresarse, y cada vez más profesionales, practicantes y constructores transmiten sus puntos de vista directamente al público, reflejando sus intereses en el mundo. Paradójicamente, la audiencia respeta a estos actores no porque “tengan intereses”, sino precisamente “porque tienen intereses”.
Este cambio de tendencia no proviene del auge de las redes sociales, sino de la aparición de herramientas criptográficas que permiten hacer compromisos verificables públicamente. Con la IA reduciendo drásticamente los costos y facilitando la generación de contenido en masa (basado en cualquier perspectiva o identidad, verificable o no), las declaraciones solo humanas (o robotizadas) ya no son suficientes para convencer. La tokenización de activos, los contratos programables, los mercados de predicción y los registros en cadena ofrecen una base más sólida para la confianza: los comentaristas pueden demostrar coherencia entre sus palabras y acciones (respaldando sus opiniones con fondos); los podcasters pueden bloquear tokens para demostrar que no cambiarán de postura o manipularán la salida; los analistas pueden vincular sus predicciones a mercados de liquidación pública, creando registros auditables.
Este es el temprano concepto de “medios en staking”: estos medios no solo comparten intereses relacionados, sino que también ofrecen formas verificables de prueba. En este modelo, la credibilidad no proviene de pretender ser neutrales ni de afirmaciones sin fundamento, sino de compromisos de intereses públicos, transparentes y verificables. Los medios en staking no reemplazarán otros formatos, sino que complementarán el ecosistema mediático actual. Envía una señal clara: ya no se trata de “créeme, soy neutral”, sino de “esto es un riesgo que asumo, y esta es la forma en que puedes verificar que no miento”.
Hackett prevé que este campo seguirá creciendo, igual que los medios masivos del siglo XX, que para adaptarse a las tecnologías y mecanismos de incentivos de su tiempo (atraer audiencias y anunciantes), buscaban la “objetividad” y la “neutralidad”. Hoy, la IA hace que crear o falsificar cualquier contenido sea muy fácil, pero lo que realmente escasea son las pruebas; los creadores que puedan hacer compromisos verificables y respaldar sus afirmaciones tendrán ventaja.
Usando mecanismos de staking para elevar los costos de falsificación, recomendando la introducción de doble verificación de contenido
Y esta innovación también ha sido respaldada por profesionales de las criptomonedas, quienes han hecho sugerencias.
El analista cripto Chen Jian afirmó que, desde los grandes medios hasta los medios independientes, las noticias falsas proliferan sin cesar, y un mismo evento puede ser reportado con múltiples versiones. La causa principal es que los costos de falsificación son bajos y las ganancias altas. Si consideramos cada difusor de información como un nodo, ¿por qué no usar un mecanismo económico de consenso en blockchain POS (Prueba de Participación) para resolver esto? Sugiere, por ejemplo, que cada nodo deba hacer un staking de fondos antes de emitir una opinión; cuanto más stake, mayor confianza. Otros pueden recopilar evidencia para desafiarlo, y si la disputa tiene éxito, el sistema confiscara el stake y recompensará al desafiante. Por supuesto, esto también involucra cuestiones de privacidad y eficiencia, y existen soluciones como Swarm Network que combinan ZK y IA, protegiendo la privacidad de los participantes y usando análisis de múltiples modelos para verificar, similar a la función de verificación de verdad en Grok en Twitter.
El influencer cripto Lan Hu también cree que, mediante tecnologías criptográficas como las pruebas de conocimiento cero (zk), los medios o individuos pueden demostrar en línea su credibilidad, como una “firma digital” en la web, que no puede ser alterada en la cadena. Pero solo tener evidencia escrita no basta; también se necesita hacer un “staking” de ciertos activos como garantía, por ejemplo ETH, USDC u otros tokens criptográficos.
El mecanismo de staking es muy simple: si el contenido publicado se demuestra como falso, el stake será confiscado; si es veraz y confiable, el stake será devuelto tras un período, e incluso puede obtener recompensas adicionales (como tokens emitidos por medios en staking o una parte de los fondos confiscados a falsificadores). Este mecanismo crea un entorno que fomenta decir la verdad. Para los medios, el staking aumenta los costos de fondos, pero a cambio obtiene confianza real del público, algo especialmente importante en tiempos de proliferación de noticias falsas.
Por ejemplo, un creador de contenido en YouTube que recomienda un producto debe hacer un “firmar en la cadena” en Ethereum y hacer staking de ETH o USDC. Si el contenido es falso, el stake será confiscado, y los espectadores podrán confiar en la veracidad del contenido. Si un influencer recomienda un teléfono móvil, puede hacer un staking de 100 dólares en ETH y declarar: “si la función de belleza no cumple con las expectativas, me compensarán”. Al ver que el creador ha hecho staking, los espectadores confiarán más. Si el contenido es generado por IA, el creador perderá su stake.
Para determinar la veracidad del contenido, Lan Hu sugiere un mecanismo de doble verificación: “comunidad + algoritmo”. En la comunidad, usuarios con derecho a votar (que deben hacer staking de criptomonedas) votan en cadena; si más del 60% vota que es falso, se considera falso. En el lado del algoritmo, se usan análisis de datos para verificar los resultados de la votación. En el arbitraje, si el creador no está de acuerdo con la decisión, puede solicitar una revisión por un comité de expertos; si se detecta manipulación maliciosa, se confiscan los activos del votante. Tanto los votantes como los expertos reciben recompensas, provenientes de las multas y de los tokens de los medios. Además, los creadores pueden usar pruebas de conocimiento cero para demostrar la autenticidad de su contenido desde la fuente, como la procedencia real de un video.
Para quienes intentan aprovechar el mecanismo de staking para falsificar, Lan Hu recomienda aumentar los costos a largo plazo, no solo en fondos, sino también en tiempo, registros históricos, reputación y responsabilidad legal. Por ejemplo, las cuentas sancionadas serán marcadas, y para publicar contenido en adelante, deberán hacer un stake mayor; si una cuenta es sancionada varias veces, su credibilidad se reducirá drásticamente; en casos graves, incluso enfrentará responsabilidades legales.