Ahora, en las redes sociales, parece que todo sigue siendo bullicioso, pero la “sensación de vida” se está desvaneciendo gradualmente. Cuando una gran cantidad de basura de IA (AI slop) invade las principales plataformas, la falsificación y el contenido para obtener tráfico se han convertido en una plaga, y cada vez más usuarios reales pierden el deseo de compartir e incluso comienzan a huir.
Frente a la proliferación de basura de IA, la simple revisión algorítmica ya no es suficiente. Recientemente, la firma de capital riesgo a16z propuso el concepto de Medios en Participación (Staked Media), que utiliza dinero real para filtrar el ruido de IA, generando interés en el mercado.
Cuando la IA comienza a autoreplicarse, Internet se está inundando de “contenido predefinido”
“La IA empieza a imitar a la IA.”
Recientemente, los moderadores del “foro estadounidense” Reddit han estado en crisis, luchando contra una gran cantidad de contenido generado por IA. La sección r/AmItheAsshole, con 24 millones de usuarios, ha visto que más de la mitad del contenido es generado por IA, según quejas de los moderadores.
Solo en la primera mitad de 2025, Reddit eliminó más de 40 millones de publicaciones basura y falsas. Y este fenómeno se ha extendido como un virus a plataformas como Facebook, Instagram, X, YouTube, Xiaohongshu y TikTok.
En una era en la que la información parece explotar, pero las voces auténticas son cada vez menos, el contenido basura producido por IA casi impregna toda Internet, erosionando silenciosamente el pensamiento de las personas. En realidad, con la popularización de herramientas generativas como ChatGPT y Gemini, la creación manual de contenido está siendo reemplazada por IA, convirtiéndose en una “fábrica en línea”.
Según un estudio reciente de la empresa de SEO Graphite, desde que ChatGPT fue lanzado a finales de 2022, la proporción de artículos generados por IA ha aumentado drásticamente, pasando de aproximadamente el 10% en ese momento a más del 40% en 2024. Hasta mayo de este año, esa proporción alcanzó el 52%.
Sin embargo, la mayoría de estos contenidos generados por IA son como “platos precocinados”, con recetas fijas y procesos estandarizados, pero carecen de alma y resultan insípidos. Además, la IA actual ya no es torpe; puede imitar el tono humano e incluso reproducir emociones. Desde guías de viaje hasta conflictos sentimentales, e incluso para generar controversia social con fines de tráfico, la IA puede hacer todo esto con facilidad.
Lo que es aún más peligroso es que, cuando la IA tiene alucinaciones, habla con seriedad y sin sentido, creando basura informativa y generando una crisis de confianza.
En la era de la proliferación de IA, construir confianza en los medios con dinero real
Frente a la proliferación de contenido basura de IA en Internet, incluso con la actualización de mecanismos de revisión y la incorporación de IA asistida, la efectividad de la regulación sigue siendo limitada. En el informe anual de a16z crypto, Robert Hackett propuso el concepto de Medios en Participación (Staked Media). (Leer más: a16z: 17 nuevas direcciones en criptomonedas que entusiasmarán en 2026)
El informe señala que, aunque los medios tradicionales se jactan de objetividad, sus fallas ya son evidentes. Internet ha permitido que todos tengan un canal para expresarse; cada vez más profesionales, practicantes y constructores transmiten sus puntos de vista directamente al público, reflejando sus intereses en el mundo. Paradójicamente, la audiencia respeta a estos actores no porque “tengan intereses”, sino “precisamente porque tienen intereses”.
Este cambio de tendencia no se debe al auge de las redes sociales, sino a la “aparición de herramientas de cifrado”, que permiten a las personas hacer compromisos verificables públicamente. Con la reducción de costos y la mayor facilidad para generar grandes volúmenes de contenido mediante IA (que puede basarse en cualquier perspectiva o identidad para determinar su veracidad), las declaraciones humanas (o de robots) ya no son suficientes para convencer. La tokenización de activos, los contratos programables, los mercados de predicción y los registros en cadena ofrecen una base más sólida para la confianza: los comentaristas pueden demostrar coherencia en sus palabras y acciones (respaldando sus opiniones con fondos); los podcasters pueden bloquear tokens para demostrar que no cambiarán de postura o manipularán el mercado; los analistas pueden vincular predicciones a mercados de liquidación pública, creando registros auditables.
Esto es precisamente la forma inicial de los “Medios en Participación”: medios que no solo comparten intereses, sino que también ofrecen formas verificables de prueba. En este modelo, la credibilidad no proviene de pretender ser neutrales ni de afirmaciones sin fundamento, sino de compromisos de interés transparentes y verificables públicamente. Los Medios en Participación no reemplazarán otros formatos, sino que complementarán el ecosistema mediático existente. Transmiten una nueva señal: ya no “confía en mí, soy neutral”, sino “esto es el riesgo que asumo, y esta es la forma en que puedes verificar que no miento”.
Hackett prevé que este campo seguirá creciendo, al igual que los medios masivos del siglo XX, que buscaban adaptarse a las tecnologías y mecanismos de incentivos de su época (atraer audiencias y anunciantes), persiguiendo superficialmente la “objetividad” y la “neutralidad”. Hoy, la IA hace que crear o falsificar cualquier contenido sea muy fácil, pero lo que realmente escasea son las pruebas; los creadores que puedan hacer compromisos verificables y respaldar sus afirmaciones tendrán ventaja.
Utilizar mecanismos de participación para elevar los costos de falsificación, proponiendo un doble mecanismo de verificación de contenido
Y esta innovación también ha sido respaldada y recomendada por profesionales del sector cripto.
El analista cripto Chen Jian afirmó que, desde los grandes medios hasta los medios independientes, proliferan las noticias falsas, y un mismo evento puede ser reportado con múltiples giros y reversiones. La causa principal es que falsificar tiene bajos costos y altos beneficios. Si consideramos a cada difusor de información como un nodo, ¿por qué no usar el mecanismo económico de prueba de participación (PoS) en blockchain para resolver esto? Sugiere, por ejemplo, que cada nodo deba hacer un depósito de fondos antes de emitir una opinión; cuanto mayor sea la participación, mayor será la confianza. Otros pueden recopilar evidencia para desafiar esa opinión; si la desafían con éxito, el sistema confiscara la participación y recompensará al desafiante. Por supuesto, esto implica cuestiones de privacidad y eficiencia, pero existen soluciones como Swarm Network, que combina ZK y IA, protegiendo la privacidad y usando análisis de múltiples modelos para ayudar en la verificación, similar a la función de verificación de la verdad en Grok en Twitter.
El influencer cripto Blue Fox también cree que, mediante tecnologías criptográficas como las pruebas de conocimiento cero (zk), los medios o individuos pueden demostrar en línea su credibilidad, como dejar constancia en línea, y que esta información no pueda ser alterada en la cadena. Pero solo tener constancias no basta; también se necesita “depósito” de ciertos activos como garantía, por ejemplo ETH, USDC u otros tokens.
El mecanismo de participación es muy simple: si el contenido publicado se demuestra como falso, el activo depositado será confiscado; si el contenido es veraz, el activo será devuelto tras un período, e incluso puede obtener recompensas adicionales (como tokens emitidos por los Medios en Participación o una parte de los fondos confiscados a los falsificadores). Este mecanismo crea un entorno que fomenta decir la verdad. Para los medios, el depósito aumenta el costo financiero, pero a cambio obtiene la confianza real del público, especialmente importante en tiempos de proliferación de noticias falsas.
Por ejemplo, un creador de contenido en YouTube que recomiende un producto debe dejar constancia en la cadena de Ethereum y hacer un depósito en ETH o USDC. Si el contenido es falso, el depósito será confiscado; los espectadores podrán confiar en la veracidad del video. Si un influencer recomienda un teléfono móvil, debe hacer un depósito de 100 dólares en ETH y declarar: “si la función de belleza no cumple con las expectativas, me compensarán”. Al ver el creador que ha depositado fondos, los espectadores confiarán más. Si el contenido es generado por IA, el creador perderá el depósito.
Para determinar la veracidad del contenido, Blue Fox sugiere un mecanismo de doble verificación: “comunidad + algoritmo”. La comunidad, compuesta por usuarios con derecho a votar (que deben hacer un depósito en criptomonedas), vota en la cadena; si más del 60% vota que es falso, se considera falso. En cuanto al algoritmo, se puede usar análisis de datos para apoyar la decisión. En el arbitraje, si el creador no está de acuerdo con la decisión, puede solicitar una revisión por un comité de expertos; si se detecta manipulación por parte de los votantes, se confiscarán sus fondos. Los participantes en la votación y los expertos reciben recompensas, que provienen de las multas y los tokens de los medios. Además, los creadores pueden usar pruebas de conocimiento cero para generar una prueba de autenticidad desde el origen del contenido, como verificar la fuente real de un video.
Para quienes intentan aprovechar la participación para crear falsificaciones, Blue Fox recomienda aumentar los costos a largo plazo, no solo en fondos, sino también en tiempo, registros históricos, sistemas de reputación y responsabilidad legal. Por ejemplo, las cuentas sancionadas serán marcadas, y para publicar contenido deberán hacer depósitos mayores; si una cuenta es sancionada varias veces, su credibilidad se reducirá drásticamente; en casos graves, incluso enfrentará responsabilidades legales.
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Cuando la IA conquista plataformas de contenido, ¿cómo introducir el staking criptográfico para recuperar la confianza?
Autor: Nancy, PANews
Ahora, en las redes sociales, parece que todo sigue siendo bullicioso, pero la “sensación de vida” se está desvaneciendo gradualmente. Cuando una gran cantidad de basura de IA (AI slop) invade las principales plataformas, la falsificación y el contenido para obtener tráfico se han convertido en una plaga, y cada vez más usuarios reales pierden el deseo de compartir e incluso comienzan a huir.
Frente a la proliferación de basura de IA, la simple revisión algorítmica ya no es suficiente. Recientemente, la firma de capital riesgo a16z propuso el concepto de Medios en Participación (Staked Media), que utiliza dinero real para filtrar el ruido de IA, generando interés en el mercado.
Cuando la IA comienza a autoreplicarse, Internet se está inundando de “contenido predefinido”
“La IA empieza a imitar a la IA.”
Recientemente, los moderadores del “foro estadounidense” Reddit han estado en crisis, luchando contra una gran cantidad de contenido generado por IA. La sección r/AmItheAsshole, con 24 millones de usuarios, ha visto que más de la mitad del contenido es generado por IA, según quejas de los moderadores.
Solo en la primera mitad de 2025, Reddit eliminó más de 40 millones de publicaciones basura y falsas. Y este fenómeno se ha extendido como un virus a plataformas como Facebook, Instagram, X, YouTube, Xiaohongshu y TikTok.
En una era en la que la información parece explotar, pero las voces auténticas son cada vez menos, el contenido basura producido por IA casi impregna toda Internet, erosionando silenciosamente el pensamiento de las personas. En realidad, con la popularización de herramientas generativas como ChatGPT y Gemini, la creación manual de contenido está siendo reemplazada por IA, convirtiéndose en una “fábrica en línea”.
Según un estudio reciente de la empresa de SEO Graphite, desde que ChatGPT fue lanzado a finales de 2022, la proporción de artículos generados por IA ha aumentado drásticamente, pasando de aproximadamente el 10% en ese momento a más del 40% en 2024. Hasta mayo de este año, esa proporción alcanzó el 52%.
Sin embargo, la mayoría de estos contenidos generados por IA son como “platos precocinados”, con recetas fijas y procesos estandarizados, pero carecen de alma y resultan insípidos. Además, la IA actual ya no es torpe; puede imitar el tono humano e incluso reproducir emociones. Desde guías de viaje hasta conflictos sentimentales, e incluso para generar controversia social con fines de tráfico, la IA puede hacer todo esto con facilidad.
Lo que es aún más peligroso es que, cuando la IA tiene alucinaciones, habla con seriedad y sin sentido, creando basura informativa y generando una crisis de confianza.
En la era de la proliferación de IA, construir confianza en los medios con dinero real
Frente a la proliferación de contenido basura de IA en Internet, incluso con la actualización de mecanismos de revisión y la incorporación de IA asistida, la efectividad de la regulación sigue siendo limitada. En el informe anual de a16z crypto, Robert Hackett propuso el concepto de Medios en Participación (Staked Media). (Leer más: a16z: 17 nuevas direcciones en criptomonedas que entusiasmarán en 2026)
El informe señala que, aunque los medios tradicionales se jactan de objetividad, sus fallas ya son evidentes. Internet ha permitido que todos tengan un canal para expresarse; cada vez más profesionales, practicantes y constructores transmiten sus puntos de vista directamente al público, reflejando sus intereses en el mundo. Paradójicamente, la audiencia respeta a estos actores no porque “tengan intereses”, sino “precisamente porque tienen intereses”.
Este cambio de tendencia no se debe al auge de las redes sociales, sino a la “aparición de herramientas de cifrado”, que permiten a las personas hacer compromisos verificables públicamente. Con la reducción de costos y la mayor facilidad para generar grandes volúmenes de contenido mediante IA (que puede basarse en cualquier perspectiva o identidad para determinar su veracidad), las declaraciones humanas (o de robots) ya no son suficientes para convencer. La tokenización de activos, los contratos programables, los mercados de predicción y los registros en cadena ofrecen una base más sólida para la confianza: los comentaristas pueden demostrar coherencia en sus palabras y acciones (respaldando sus opiniones con fondos); los podcasters pueden bloquear tokens para demostrar que no cambiarán de postura o manipularán el mercado; los analistas pueden vincular predicciones a mercados de liquidación pública, creando registros auditables.
Esto es precisamente la forma inicial de los “Medios en Participación”: medios que no solo comparten intereses, sino que también ofrecen formas verificables de prueba. En este modelo, la credibilidad no proviene de pretender ser neutrales ni de afirmaciones sin fundamento, sino de compromisos de interés transparentes y verificables públicamente. Los Medios en Participación no reemplazarán otros formatos, sino que complementarán el ecosistema mediático existente. Transmiten una nueva señal: ya no “confía en mí, soy neutral”, sino “esto es el riesgo que asumo, y esta es la forma en que puedes verificar que no miento”.
Hackett prevé que este campo seguirá creciendo, al igual que los medios masivos del siglo XX, que buscaban adaptarse a las tecnologías y mecanismos de incentivos de su época (atraer audiencias y anunciantes), persiguiendo superficialmente la “objetividad” y la “neutralidad”. Hoy, la IA hace que crear o falsificar cualquier contenido sea muy fácil, pero lo que realmente escasea son las pruebas; los creadores que puedan hacer compromisos verificables y respaldar sus afirmaciones tendrán ventaja.
Utilizar mecanismos de participación para elevar los costos de falsificación, proponiendo un doble mecanismo de verificación de contenido
Y esta innovación también ha sido respaldada y recomendada por profesionales del sector cripto.
El analista cripto Chen Jian afirmó que, desde los grandes medios hasta los medios independientes, proliferan las noticias falsas, y un mismo evento puede ser reportado con múltiples giros y reversiones. La causa principal es que falsificar tiene bajos costos y altos beneficios. Si consideramos a cada difusor de información como un nodo, ¿por qué no usar el mecanismo económico de prueba de participación (PoS) en blockchain para resolver esto? Sugiere, por ejemplo, que cada nodo deba hacer un depósito de fondos antes de emitir una opinión; cuanto mayor sea la participación, mayor será la confianza. Otros pueden recopilar evidencia para desafiar esa opinión; si la desafían con éxito, el sistema confiscara la participación y recompensará al desafiante. Por supuesto, esto implica cuestiones de privacidad y eficiencia, pero existen soluciones como Swarm Network, que combina ZK y IA, protegiendo la privacidad y usando análisis de múltiples modelos para ayudar en la verificación, similar a la función de verificación de la verdad en Grok en Twitter.
El influencer cripto Blue Fox también cree que, mediante tecnologías criptográficas como las pruebas de conocimiento cero (zk), los medios o individuos pueden demostrar en línea su credibilidad, como dejar constancia en línea, y que esta información no pueda ser alterada en la cadena. Pero solo tener constancias no basta; también se necesita “depósito” de ciertos activos como garantía, por ejemplo ETH, USDC u otros tokens.
El mecanismo de participación es muy simple: si el contenido publicado se demuestra como falso, el activo depositado será confiscado; si el contenido es veraz, el activo será devuelto tras un período, e incluso puede obtener recompensas adicionales (como tokens emitidos por los Medios en Participación o una parte de los fondos confiscados a los falsificadores). Este mecanismo crea un entorno que fomenta decir la verdad. Para los medios, el depósito aumenta el costo financiero, pero a cambio obtiene la confianza real del público, especialmente importante en tiempos de proliferación de noticias falsas.
Por ejemplo, un creador de contenido en YouTube que recomiende un producto debe dejar constancia en la cadena de Ethereum y hacer un depósito en ETH o USDC. Si el contenido es falso, el depósito será confiscado; los espectadores podrán confiar en la veracidad del video. Si un influencer recomienda un teléfono móvil, debe hacer un depósito de 100 dólares en ETH y declarar: “si la función de belleza no cumple con las expectativas, me compensarán”. Al ver el creador que ha depositado fondos, los espectadores confiarán más. Si el contenido es generado por IA, el creador perderá el depósito.
Para determinar la veracidad del contenido, Blue Fox sugiere un mecanismo de doble verificación: “comunidad + algoritmo”. La comunidad, compuesta por usuarios con derecho a votar (que deben hacer un depósito en criptomonedas), vota en la cadena; si más del 60% vota que es falso, se considera falso. En cuanto al algoritmo, se puede usar análisis de datos para apoyar la decisión. En el arbitraje, si el creador no está de acuerdo con la decisión, puede solicitar una revisión por un comité de expertos; si se detecta manipulación por parte de los votantes, se confiscarán sus fondos. Los participantes en la votación y los expertos reciben recompensas, que provienen de las multas y los tokens de los medios. Además, los creadores pueden usar pruebas de conocimiento cero para generar una prueba de autenticidad desde el origen del contenido, como verificar la fuente real de un video.
Para quienes intentan aprovechar la participación para crear falsificaciones, Blue Fox recomienda aumentar los costos a largo plazo, no solo en fondos, sino también en tiempo, registros históricos, sistemas de reputación y responsabilidad legal. Por ejemplo, las cuentas sancionadas serán marcadas, y para publicar contenido deberán hacer depósitos mayores; si una cuenta es sancionada varias veces, su credibilidad se reducirá drásticamente; en casos graves, incluso enfrentará responsabilidades legales.