Agora as redes sociais parecem estar sempre animadas, mas a “sensação de vida” está a desaparecer gradualmente. Quando uma quantidade massiva de lixo de IA (AI slop) invade as principais plataformas, conteúdos falsificados e de manipulação de tráfego proliferam, e cada vez mais utilizadores reais perdem o desejo de partilhar, chegando mesmo a fugir.
Diante da enxurrada de lixo de IA, a simples moderação algorítmica já mostra-se insuficiente. Recentemente, a principal firma de capital de risco a16z propôs o conceito de Mídia Embaralhada (Staked Media), usando dinheiro de verdade para filtrar o ruído de IA, o que despertou interesse no mercado.
Quando a IA começa a copiar-se a si mesma, a internet está a ser inundada por “conteúdo pré-fabricado”
“IA começou a imitar IA.”
Recentemente, os moderadores do “fórum americano” Reddit enfrentaram um colapso, lutando contra uma quantidade enorme de conteúdo gerado por IA. No subreddit r/AmItheAsshole, com 24 milhões de utilizadores, os moderadores reclamam que mais da metade do conteúdo é gerado por IA.
Só no primeiro semestre de 2025, o Reddit removeu mais de 40 milhões de posts de lixo e falsos. E esse fenômeno espalhou-se como um vírus para plataformas como Facebook, Instagram, X, YouTube, Xiaohongshu e TikTok.
Hoje, num tempo em que a informação parece explodir, mas as vozes autênticas escasseiam, o lixo de conteúdo produzido por IA quase permeia toda a internet, infiltrando-se silenciosamente no pensamento das pessoas. Na verdade, com a popularização de ferramentas generativas como ChatGPT e Gemini, a criação manual de conteúdo está a ser substituída por IA, transformando-se numa “fábrica em linha”.
De acordo com a mais recente pesquisa da empresa de SEO Graphite, desde o lançamento do ChatGPT no final de 2022, a proporção de artigos gerados por IA aumentou drasticamente, passando de cerca de 10% naquele ano para mais de 40% em 2024. Até maio deste ano, essa proporção subiu para 52%.
No entanto, grande parte desse conteúdo gerado por IA é como “prato pré-cozido”, com receitas fixas e processos padronizados, mas sem alma, tornando-se monótono de ler. Além disso, a IA de hoje já não é ingênua; ela consegue imitar o tom humano e até reproduzir emoções. Desde guias de viagem até conflitos sentimentais, e até mesmo provocações sociais feitas para atrair tráfego, a IA consegue criar tudo com facilidade.
Mais grave ainda, quando a IA tem alucinações, ela fala com toda a seriedade, produzindo lixo de informação e desencadeando crises de confiança.
Na era da proliferação de IA, usar dinheiro de verdade para construir confiança na mídia
Diante da disseminação de conteúdo falso na internet, mesmo com atualizações nos mecanismos de moderação e a introdução de IA assistida, os resultados de controle continuam limitados. No importante relatório anual da a16z crypto, Robert Hackett propôs o conceito de Mídia Embaralhada. (Leitura adicional: a16z: 17 novas direções em criptomoedas que vão entusiasmar em 2026)
O relatório aponta que, embora o modelo tradicional de mídia valorize a objetividade, suas fraquezas já se mostram evidentes. A internet deu a cada um a possibilidade de se expressar; hoje, cada vez mais profissionais, praticantes e construtores transmitem suas opiniões diretamente ao público, refletindo seus interesses no mundo. Ironia: o público respeita esses indivíduos não porque “têm interesses”, mas “exatamente por terem interesses”.
Essa mudança de tendência não é devido ao surgimento das redes sociais, mas sim ao “aparecimento de ferramentas de criptografia”, que permitem às pessoas fazer compromissos verificáveis publicamente. Com a IA reduzindo drasticamente o custo de gerar conteúdo em massa e tornando o processo mais acessível (criando conteúdo baseado em qualquer perspectiva ou identidade, com veracidade verificável), depender apenas da fala humana (ou de robôs) já não convence. Em contrapartida, ativos tokenizados, contratos inteligentes, mercados preditivos e registros on-chain oferecem uma base mais sólida de confiança: ao emitir opiniões, os comentaristas podem provar que suas ações e palavras são consistentes (com fundos que respaldam suas opiniões); os criadores de podcasts podem bloquear tokens para provar que não mudam de posição de forma oportunista; analistas podem vincular previsões a mercados de liquidação pública, criando registros auditáveis.
Essa é a forma inicial do que chamamos de “Mídia Embaralhada”: esses meios não apenas compartilham interesses comuns, mas também oferecem uma forma de mídia com provas concretas. Nesse modelo, a credibilidade não vem de uma suposta neutralidade ou de alegações infundadas, mas de compromissos de interesses transparentes e verificáveis. A Mídia Embaralhada não substituirá outros formatos de mídia, mas complementará o ecossistema atual. Ela envia um novo sinal: não é mais “confie em mim, sou neutro”, mas “assumi esse risco, e essa é a forma de você verificar que minhas palavras não são falsas”.
Robert Hackett prevê que esse campo continuará a crescer, assim como os meios de comunicação de massa do século XX, que, para se adaptar às tecnologias e incentivos da época (atraindo público e anunciantes), buscavam “objetividade” e “neutralidade”. Hoje, a IA torna fácil criar ou falsificar qualquer conteúdo, mas o que realmente escasseia são as provas — aqueles que podem fazer compromissos verificáveis e realmente sustentar suas posições terão vantagem.
Usar mecanismos de embaralhamento para aumentar o custo de falsificação, sugerindo a introdução de dupla validação de conteúdo
Essa inovação também recebeu apoio de profissionais de criptografia, que fizeram recomendações.
O analista de criptografia Chen Jian afirmou que, de grandes meios a auto-meios, há uma proliferação de notícias falsas, com um evento sendo reportado de forma invertida várias vezes. A causa principal é o baixo custo e alto retorno da falsificação. Se considerarmos cada disseminador de informação como um nó, por que não usar o mecanismo econômico de prova de participação (PoS) do blockchain para resolver esse problema? Ele sugere que, por exemplo, cada nó deva fazer uma aposta de fundos antes de emitir uma opinião; quanto maior a aposta, maior a confiança. Outros podem coletar evidências para desafiar essa opinião; se o desafio for bem-sucedido, o sistema penaliza e confisca a aposta, recompensando o desafiante. Claro que esse processo envolve questões de privacidade e eficiência. Existem soluções atuais, como a Swarm Network, que combina ZK (prova de conhecimento zero) e IA, protegendo a privacidade dos participantes e usando análise de múltiplos modelos de dados para auxiliar na verificação, semelhante à função de verificação de verdade do Grok no Twitter.
O influenciador de criptografia Blue Fox também acredita que, por meio de tecnologias de criptografia como provas de conhecimento zero (zk), é possível que meios ou indivíduos provem sua credibilidade online, como uma “declaração de compromisso” na internet, que não pode ser alterada na cadeia. Mas só a declaração não basta; é preciso “embarrar” uma certa quantidade de ativos como garantia, como ETH, USDC ou outros tokens criptográficos.
O mecanismo de embaralhamento é bastante direto: se o conteúdo publicado for provado como falso, o ativo apostado será confiscado; se for verdadeiro, o ativo será devolvido após um período, ou até mesmo poderá receber recompensas adicionais (como tokens emitidos pela mídia embaralhada ou uma parte dos fundos confiscados de falsificadores). Esse mecanismo cria um ambiente que incentiva a honestidade. Para os meios, o embaralhamento aumenta o custo financeiro, mas garante a confiança do público — especialmente importante na era de fake news.
Por exemplo, um YouTuber que recomenda um produto precisa “assinar um compromisso” na blockchain Ethereum e fazer uma aposta de ETH ou USDC. Se o conteúdo for falso, o valor apostado será confiscado; os espectadores podem confiar na veracidade do vídeo. Se o criador recomenda um smartphone, deve apostar 100 dólares em ETH e declarar: “Se a câmera de beleza do telefone não atingir o efeito esperado, eu pagarei uma compensação.” Ao ver a aposta, os espectadores se sentem mais confiantes. Se o conteúdo for uma falsificação por IA, o criador perderá a aposta.
Para avaliar a veracidade do conteúdo, Blue Fox sugere uma validação dupla: “comunidade + algoritmo”. Quanto à comunidade, usuários com direito a voto (que precisam apostar criptomoedas) votam na cadeia; se mais de 60% votarem por falso, o conteúdo é considerado falso. Quanto ao algoritmo, análises de dados auxiliam na validação do resultado da votação. Para arbitrar, quem criar conteúdo pode solicitar uma mediação a um conselho de especialistas; se os votantes manipularem maliciosamente, suas apostas podem ser confiscadas. Participantes e especialistas recebem recompensas, provenientes de multas e tokens de mídia. Além disso, os criadores podem usar provas de conhecimento zero para gerar uma prova de autenticidade desde a origem do conteúdo, como uma fonte real de um vídeo.
Para quem tenta usar mecanismos de embaralhamento para criar falsificações com recursos financeiros, Blue Fox recomenda aumentar o custo de falsificação a longo prazo, incluindo não só dinheiro, mas também tempo, registros históricos, sistemas de reputação e responsabilidade legal. Por exemplo, contas penalizadas podem ser marcadas; ao publicar conteúdo, precisarão apostar mais fundos; contas punidas várias vezes terão sua credibilidade drasticamente reduzida; em casos graves, podem até enfrentar responsabilização legal.
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
Quando a IA conquista plataformas de conteúdo, como introduzir o staking de criptomoedas para recuperar a confiança?
作者:Nancy,PANews
Agora as redes sociais parecem estar sempre animadas, mas a “sensação de vida” está a desaparecer gradualmente. Quando uma quantidade massiva de lixo de IA (AI slop) invade as principais plataformas, conteúdos falsificados e de manipulação de tráfego proliferam, e cada vez mais utilizadores reais perdem o desejo de partilhar, chegando mesmo a fugir.
Diante da enxurrada de lixo de IA, a simples moderação algorítmica já mostra-se insuficiente. Recentemente, a principal firma de capital de risco a16z propôs o conceito de Mídia Embaralhada (Staked Media), usando dinheiro de verdade para filtrar o ruído de IA, o que despertou interesse no mercado.
Quando a IA começa a copiar-se a si mesma, a internet está a ser inundada por “conteúdo pré-fabricado”
“IA começou a imitar IA.”
Recentemente, os moderadores do “fórum americano” Reddit enfrentaram um colapso, lutando contra uma quantidade enorme de conteúdo gerado por IA. No subreddit r/AmItheAsshole, com 24 milhões de utilizadores, os moderadores reclamam que mais da metade do conteúdo é gerado por IA.
Só no primeiro semestre de 2025, o Reddit removeu mais de 40 milhões de posts de lixo e falsos. E esse fenômeno espalhou-se como um vírus para plataformas como Facebook, Instagram, X, YouTube, Xiaohongshu e TikTok.
Hoje, num tempo em que a informação parece explodir, mas as vozes autênticas escasseiam, o lixo de conteúdo produzido por IA quase permeia toda a internet, infiltrando-se silenciosamente no pensamento das pessoas. Na verdade, com a popularização de ferramentas generativas como ChatGPT e Gemini, a criação manual de conteúdo está a ser substituída por IA, transformando-se numa “fábrica em linha”.
De acordo com a mais recente pesquisa da empresa de SEO Graphite, desde o lançamento do ChatGPT no final de 2022, a proporção de artigos gerados por IA aumentou drasticamente, passando de cerca de 10% naquele ano para mais de 40% em 2024. Até maio deste ano, essa proporção subiu para 52%.
No entanto, grande parte desse conteúdo gerado por IA é como “prato pré-cozido”, com receitas fixas e processos padronizados, mas sem alma, tornando-se monótono de ler. Além disso, a IA de hoje já não é ingênua; ela consegue imitar o tom humano e até reproduzir emoções. Desde guias de viagem até conflitos sentimentais, e até mesmo provocações sociais feitas para atrair tráfego, a IA consegue criar tudo com facilidade.
Mais grave ainda, quando a IA tem alucinações, ela fala com toda a seriedade, produzindo lixo de informação e desencadeando crises de confiança.
Na era da proliferação de IA, usar dinheiro de verdade para construir confiança na mídia
Diante da disseminação de conteúdo falso na internet, mesmo com atualizações nos mecanismos de moderação e a introdução de IA assistida, os resultados de controle continuam limitados. No importante relatório anual da a16z crypto, Robert Hackett propôs o conceito de Mídia Embaralhada. (Leitura adicional: a16z: 17 novas direções em criptomoedas que vão entusiasmar em 2026)
O relatório aponta que, embora o modelo tradicional de mídia valorize a objetividade, suas fraquezas já se mostram evidentes. A internet deu a cada um a possibilidade de se expressar; hoje, cada vez mais profissionais, praticantes e construtores transmitem suas opiniões diretamente ao público, refletindo seus interesses no mundo. Ironia: o público respeita esses indivíduos não porque “têm interesses”, mas “exatamente por terem interesses”.
Essa mudança de tendência não é devido ao surgimento das redes sociais, mas sim ao “aparecimento de ferramentas de criptografia”, que permitem às pessoas fazer compromissos verificáveis publicamente. Com a IA reduzindo drasticamente o custo de gerar conteúdo em massa e tornando o processo mais acessível (criando conteúdo baseado em qualquer perspectiva ou identidade, com veracidade verificável), depender apenas da fala humana (ou de robôs) já não convence. Em contrapartida, ativos tokenizados, contratos inteligentes, mercados preditivos e registros on-chain oferecem uma base mais sólida de confiança: ao emitir opiniões, os comentaristas podem provar que suas ações e palavras são consistentes (com fundos que respaldam suas opiniões); os criadores de podcasts podem bloquear tokens para provar que não mudam de posição de forma oportunista; analistas podem vincular previsões a mercados de liquidação pública, criando registros auditáveis.
Essa é a forma inicial do que chamamos de “Mídia Embaralhada”: esses meios não apenas compartilham interesses comuns, mas também oferecem uma forma de mídia com provas concretas. Nesse modelo, a credibilidade não vem de uma suposta neutralidade ou de alegações infundadas, mas de compromissos de interesses transparentes e verificáveis. A Mídia Embaralhada não substituirá outros formatos de mídia, mas complementará o ecossistema atual. Ela envia um novo sinal: não é mais “confie em mim, sou neutro”, mas “assumi esse risco, e essa é a forma de você verificar que minhas palavras não são falsas”.
Robert Hackett prevê que esse campo continuará a crescer, assim como os meios de comunicação de massa do século XX, que, para se adaptar às tecnologias e incentivos da época (atraindo público e anunciantes), buscavam “objetividade” e “neutralidade”. Hoje, a IA torna fácil criar ou falsificar qualquer conteúdo, mas o que realmente escasseia são as provas — aqueles que podem fazer compromissos verificáveis e realmente sustentar suas posições terão vantagem.
Usar mecanismos de embaralhamento para aumentar o custo de falsificação, sugerindo a introdução de dupla validação de conteúdo
Essa inovação também recebeu apoio de profissionais de criptografia, que fizeram recomendações.
O analista de criptografia Chen Jian afirmou que, de grandes meios a auto-meios, há uma proliferação de notícias falsas, com um evento sendo reportado de forma invertida várias vezes. A causa principal é o baixo custo e alto retorno da falsificação. Se considerarmos cada disseminador de informação como um nó, por que não usar o mecanismo econômico de prova de participação (PoS) do blockchain para resolver esse problema? Ele sugere que, por exemplo, cada nó deva fazer uma aposta de fundos antes de emitir uma opinião; quanto maior a aposta, maior a confiança. Outros podem coletar evidências para desafiar essa opinião; se o desafio for bem-sucedido, o sistema penaliza e confisca a aposta, recompensando o desafiante. Claro que esse processo envolve questões de privacidade e eficiência. Existem soluções atuais, como a Swarm Network, que combina ZK (prova de conhecimento zero) e IA, protegendo a privacidade dos participantes e usando análise de múltiplos modelos de dados para auxiliar na verificação, semelhante à função de verificação de verdade do Grok no Twitter.
O influenciador de criptografia Blue Fox também acredita que, por meio de tecnologias de criptografia como provas de conhecimento zero (zk), é possível que meios ou indivíduos provem sua credibilidade online, como uma “declaração de compromisso” na internet, que não pode ser alterada na cadeia. Mas só a declaração não basta; é preciso “embarrar” uma certa quantidade de ativos como garantia, como ETH, USDC ou outros tokens criptográficos.
O mecanismo de embaralhamento é bastante direto: se o conteúdo publicado for provado como falso, o ativo apostado será confiscado; se for verdadeiro, o ativo será devolvido após um período, ou até mesmo poderá receber recompensas adicionais (como tokens emitidos pela mídia embaralhada ou uma parte dos fundos confiscados de falsificadores). Esse mecanismo cria um ambiente que incentiva a honestidade. Para os meios, o embaralhamento aumenta o custo financeiro, mas garante a confiança do público — especialmente importante na era de fake news.
Por exemplo, um YouTuber que recomenda um produto precisa “assinar um compromisso” na blockchain Ethereum e fazer uma aposta de ETH ou USDC. Se o conteúdo for falso, o valor apostado será confiscado; os espectadores podem confiar na veracidade do vídeo. Se o criador recomenda um smartphone, deve apostar 100 dólares em ETH e declarar: “Se a câmera de beleza do telefone não atingir o efeito esperado, eu pagarei uma compensação.” Ao ver a aposta, os espectadores se sentem mais confiantes. Se o conteúdo for uma falsificação por IA, o criador perderá a aposta.
Para avaliar a veracidade do conteúdo, Blue Fox sugere uma validação dupla: “comunidade + algoritmo”. Quanto à comunidade, usuários com direito a voto (que precisam apostar criptomoedas) votam na cadeia; se mais de 60% votarem por falso, o conteúdo é considerado falso. Quanto ao algoritmo, análises de dados auxiliam na validação do resultado da votação. Para arbitrar, quem criar conteúdo pode solicitar uma mediação a um conselho de especialistas; se os votantes manipularem maliciosamente, suas apostas podem ser confiscadas. Participantes e especialistas recebem recompensas, provenientes de multas e tokens de mídia. Além disso, os criadores podem usar provas de conhecimento zero para gerar uma prova de autenticidade desde a origem do conteúdo, como uma fonte real de um vídeo.
Para quem tenta usar mecanismos de embaralhamento para criar falsificações com recursos financeiros, Blue Fox recomenda aumentar o custo de falsificação a longo prazo, incluindo não só dinheiro, mas também tempo, registros históricos, sistemas de reputação e responsabilidade legal. Por exemplo, contas penalizadas podem ser marcadas; ao publicar conteúdo, precisarão apostar mais fundos; contas punidas várias vezes terão sua credibilidade drasticamente reduzida; em casos graves, podem até enfrentar responsabilização legal.