As redes sociais estão cheias de conteúdo lixo de IA, e a vontade de utilizadores reais de partilhar está a diminuir. A top venture capital a16z propôs o conceito de mídia em staking, usando mecanismos de staking de ativos criptográficos para filtrar o ruído de IA com dinheiro de verdade, e reconstruir a confiança no conteúdo através de compromissos verificáveis.
(Resumindo: Animal Crossing com IA LLM “aumenta a jogabilidade explosivamente”, streamer testa: conversa para a vida toda sem repetir)
(Complemento de contexto: Jogos gerados por IA suspeitos de plágio de Pokémon! “幻獸帕魯” lançado na Steam, vendeu 2 milhões de cópias, a Nintendo pode processar?)
Índice do artigo
Quando a IA começa a se auto-replicar, a internet está a ser inundada por “conteúdo pré-fabricado”
Na era da proliferação de IA, usando dinheiro de verdade para construir confiança na mídia
Aproveitando mecanismos de staking para aumentar o custo de falsificação, sugerindo a introdução de um mecanismo de dupla verificação de conteúdo
As redes sociais atuais parecem ainda animadas, mas o “sentimento de vida” está a desaparecer gradualmente. Quando uma quantidade massiva de lixo de IA (AI slop) invade as principais plataformas, com conteúdos falsificados e de clickbait, cada vez mais utilizadores reais perdem o desejo de partilhar, e até começam a fugir.
Diante da proliferação de lixo de IA, a simples moderação algorítmica já não é suficiente. Recentemente, a venture capital de topo a16z propôs o conceito de mídia em staking (Staked Media), usando dinheiro de verdade para filtrar o ruído de IA, atraindo atenção do mercado.
Quando a IA começa a se auto-replicar, a internet está a ser inundada por “conteúdo pré-fabricado”
“IA começou a imitar IA.”
Recentemente, os moderadores do Reddit “美国贴吧” (Reddit) entraram em colapso, lutando contra uma quantidade enorme de conteúdo gerado por IA. O subreddit r/AmItheAsshole, com 24 milhões de utilizadores, queixou-se que mais da metade do conteúdo é gerado por IA.
Só na primeira metade de 2025, o Reddit removeu mais de 40 milhões de conteúdos lixo e falsos. Este fenómeno espalhou-se como um vírus para plataformas como Facebook, Instagram, X, YouTube, 小红书 e TikTok.
Hoje, numa era de aparente explosão de informação, mas com cada vez menos vozes reais, o lixo de conteúdo produzido por IA quase permeia toda a internet, infiltrando-se silenciosamente no pensamento das pessoas. Na verdade, com a popularização de ferramentas generativas como ChatGPT e Gemini, a criação manual de conteúdo está a ser substituída por IA, transformando-se numa espécie de “fábrica em linha”.
De acordo com uma pesquisa recente da empresa de SEO Graphite, desde o lançamento do ChatGPT no final de 2022, a proporção de artigos gerados por IA aumentou drasticamente, de cerca de 10% naquele ano para mais de 40% em 2024. Até maio deste ano, essa proporção subiu para 52%.
No entanto, grande parte do conteúdo gerado por IA é como “prato pré-fabricado”, com receitas fixas e processos padronizados, mas sem alma, tornando-se monótono e sem sabor. Além disso, a IA de hoje já não é ingênua; ela consegue imitar o tom humano e até reproduzir emoções. Desde guias de viagem até conflitos emocionais, e até mesmo para gerar controvérsia social intencionalmente para ganhar cliques, a IA consegue fazer tudo com facilidade.
Mais perigosamente, quando a IA gera alucinações, ela fala com toda a seriedade, produzindo lixo de informação e desencadeando crises de confiança.
Na era da proliferação de IA, usando dinheiro de verdade para construir confiança na mídia
Diante do caos de conteúdo lixo de IA na internet, mesmo com atualizações nos mecanismos de moderação e a introdução de IA assistida, a eficácia da governança ainda é limitada. No relatório anual de destaque da a16z crypto, Robert Hackett propôs o conceito de mídia em staking.
O relatório aponta que o modelo tradicional de mídia, que preza pela objetividade, já mostrou suas limitações. A internet permite que qualquer pessoa tenha um canal de voz, e cada vez mais profissionais, praticantes e construtores transmitem suas opiniões diretamente ao público, refletindo seus interesses no mundo. Ironia: eles são respeitados pelo audiência não apesar de seus interesses, mas por causa deles.
Essa mudança de tendência não é apenas o surgimento das redes sociais, mas a “aparição de ferramentas de criptografia”, que permitem às pessoas fazer compromissos verificáveis publicamente. Com IA reduzindo drasticamente o custo e facilitando a geração de conteúdo em massa (com qualquer perspectiva ou identidade, verificável ou não), confiar apenas na palavra de humanos (ou robôs) já não é suficiente.
Tokens, ativos tokenizáveis, contratos programáveis, mercados preditivos e registros on-chain fornecem uma base mais sólida de confiança: os comentaristas podem provar que suas opiniões e ações são consistentes (através de fundos que respaldam suas opiniões); os podcasters podem bloquear tokens para provar que não vão mudar de posição ou manipular o mercado; analistas podem vincular previsões a mercados de liquidação pública, criando registros auditáveis.
Este é o início do que chamamos de “mídia em staking”: esses meios não apenas compartilham interesses relacionados, mas também oferecem formas concretas de prova. Nesse modelo, a credibilidade não vem de uma fachada de neutralidade ou de alegações infundadas, mas de compromissos de interesses públicos, transparentes e verificáveis. A mídia em staking não substituirá outros formatos de mídia, mas complementará o ecossistema atual. Ela transmite uma nova mensagem: não é mais “acredite em mim, sou neutro”, mas “estou disposto a assumir riscos, e esta é a forma de você verificar que minhas palavras são verdadeiras”.
Robert Hackett prevê que esse campo continuará a crescer, assim como os meios de comunicação de massa do século XX, que, para se adaptar às tecnologias e incentivos da época (atraindo audiências e anunciantes), buscavam “objetividade” e “neutralidade”. Hoje, com IA facilitando a criação ou falsificação de qualquer conteúdo, o que realmente escasseia são as provas — aqueles que podem fazer compromissos verificáveis e apoiar suas afirmações terão vantagem.
Aproveitando mecanismos de staking para aumentar o custo de falsificação, sugerindo a introdução de um mecanismo de dupla verificação de conteúdo
Essa inovação também foi apoiada por profissionais de criptografia, que fizeram recomendações.
O analista de criptografia Chen Jian afirmou que, de grandes meios a auto-meios, as fake news proliferam, com uma história sendo reportada de várias formas. A causa principal é o baixo custo e alto retorno da falsificação.
Se considerarmos cada disseminador de informação como um nó, por que não usar um mecanismo econômico de prova de participação (PoS) baseado em blockchain para resolver esse problema? Ele sugeriu que cada nó deveria precisar fazer um staking de fundos antes de emitir uma opinião; quanto mais stake, maior a confiança. Outros poderiam coletar evidências para desafiar essa opinião; se o desafio for bem-sucedido, o sistema penaliza o stake e recompensa o desafiador.
Claro, esse processo envolve questões de privacidade e eficiência. Existem soluções atuais, como a Swarm Network, que combina ZK (zero-knowledge) com IA, protegendo a privacidade dos participantes e usando análises de múltiplos modelos para auxiliar na verificação, similar à função de verificação de verdades do Grok no Twitter.
O influenciador de criptografia Lan Hu também acredita que, usando tecnologias de prova de conhecimento zero (zk), os meios de comunicação ou indivíduos podem provar sua credibilidade online, como uma “declaração escrita” na rede, que não pode ser alterada ao ser registrada na blockchain. Mas apenas uma declaração não basta; é preciso “fazer staking” de ativos como ETH, USDC ou outros tokens criptográficos como garantia.
A lógica do mecanismo de staking é bastante direta: se o conteúdo for provado falso, o stake será confiscado; se for verdadeiro e confiável, o stake será devolvido após um período, ou até mesmo poderá receber recompensas adicionais (como tokens emitidos pela mídia em staking ou uma parte dos fundos confiscados de falsificadores).
Esse mecanismo cria um ambiente que incentiva a falar a verdade. Para os meios de comunicação, o staking realmente aumenta o custo financeiro, mas traz confiança real do público, especialmente em tempos de proliferação de notícias falsas.
Por exemplo, um YouTuber que recomenda um produto precisa fazer uma declaração na blockchain Ethereum e fazer staking de ETH ou USDC. Se o conteúdo for falso, o stake será confiscado; se for verdadeiro, o público pode confiar mais na veracidade do vídeo.
Se um criador de conteúdo recomenda um smartphone, ele pode fazer um staking de 100 dólares em ETH e declarar: “Se a câmera de beleza do telefone não atingir o efeito esperado, eu compensarei.” Ao ver o criador fazer o stake, os espectadores se sentem mais confiantes. Se o conteúdo for gerado por IA falsamente, o criador perderá o stake.
Para julgar a veracidade do conteúdo, Lan Hu sugere um mecanismo de dupla verificação: uma combinação de “comunidade + algoritmo”.
Na comunidade, usuários com direito a voto (que precisam fazer staking de ativos criptográficos) votam na cadeia; se mais de uma certa porcentagem (por exemplo, 60%) votar que é falso, o conteúdo é considerado falso.
Algoritmos auxiliam na análise de dados para validar os resultados das votações.
No mecanismo de arbitragem, se o criador discordar da decisão, pode solicitar uma arbitragem a um conselho de especialistas; se os votantes manipularem maliciosamente, seus ativos podem ser confiscados.
Tanto os votantes quanto os especialistas recebem recompensas, provenientes de multas e tokens de mídia.
Além disso, os criadores podem usar provas de conhecimento zero para gerar evidências de autenticidade desde a origem do conteúdo, como uma prova de origem real de um vídeo.
Para pessoas com recursos financeiros tentando usar o mecanismo de staking para falsificar, Lan Hu recomenda aumentar o custo de falsificação a longo prazo, incluindo não só fundos, mas também tempo, registros históricos, reputação e responsabilidade legal.
Por exemplo, contas que forem penalizadas serão marcadas; ao publicar conteúdo, precisarão fazer staking de mais fundos; se uma conta for penalizada várias vezes, sua credibilidade cairá drasticamente; em casos graves, podem até enfrentar ações legais.
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
a16 artigo especializado: Quando a IA conquista plataformas de conteúdo, como recuperar a confiança na staking de criptomoeda?
As redes sociais estão cheias de conteúdo lixo de IA, e a vontade de utilizadores reais de partilhar está a diminuir. A top venture capital a16z propôs o conceito de mídia em staking, usando mecanismos de staking de ativos criptográficos para filtrar o ruído de IA com dinheiro de verdade, e reconstruir a confiança no conteúdo através de compromissos verificáveis.
(Resumindo: Animal Crossing com IA LLM “aumenta a jogabilidade explosivamente”, streamer testa: conversa para a vida toda sem repetir)
(Complemento de contexto: Jogos gerados por IA suspeitos de plágio de Pokémon! “幻獸帕魯” lançado na Steam, vendeu 2 milhões de cópias, a Nintendo pode processar?)
Índice do artigo
As redes sociais atuais parecem ainda animadas, mas o “sentimento de vida” está a desaparecer gradualmente. Quando uma quantidade massiva de lixo de IA (AI slop) invade as principais plataformas, com conteúdos falsificados e de clickbait, cada vez mais utilizadores reais perdem o desejo de partilhar, e até começam a fugir.
Diante da proliferação de lixo de IA, a simples moderação algorítmica já não é suficiente. Recentemente, a venture capital de topo a16z propôs o conceito de mídia em staking (Staked Media), usando dinheiro de verdade para filtrar o ruído de IA, atraindo atenção do mercado.
Quando a IA começa a se auto-replicar, a internet está a ser inundada por “conteúdo pré-fabricado”
“IA começou a imitar IA.”
Recentemente, os moderadores do Reddit “美国贴吧” (Reddit) entraram em colapso, lutando contra uma quantidade enorme de conteúdo gerado por IA. O subreddit r/AmItheAsshole, com 24 milhões de utilizadores, queixou-se que mais da metade do conteúdo é gerado por IA.
Só na primeira metade de 2025, o Reddit removeu mais de 40 milhões de conteúdos lixo e falsos. Este fenómeno espalhou-se como um vírus para plataformas como Facebook, Instagram, X, YouTube, 小红书 e TikTok.
Hoje, numa era de aparente explosão de informação, mas com cada vez menos vozes reais, o lixo de conteúdo produzido por IA quase permeia toda a internet, infiltrando-se silenciosamente no pensamento das pessoas. Na verdade, com a popularização de ferramentas generativas como ChatGPT e Gemini, a criação manual de conteúdo está a ser substituída por IA, transformando-se numa espécie de “fábrica em linha”.
De acordo com uma pesquisa recente da empresa de SEO Graphite, desde o lançamento do ChatGPT no final de 2022, a proporção de artigos gerados por IA aumentou drasticamente, de cerca de 10% naquele ano para mais de 40% em 2024. Até maio deste ano, essa proporção subiu para 52%.
No entanto, grande parte do conteúdo gerado por IA é como “prato pré-fabricado”, com receitas fixas e processos padronizados, mas sem alma, tornando-se monótono e sem sabor. Além disso, a IA de hoje já não é ingênua; ela consegue imitar o tom humano e até reproduzir emoções. Desde guias de viagem até conflitos emocionais, e até mesmo para gerar controvérsia social intencionalmente para ganhar cliques, a IA consegue fazer tudo com facilidade.
Mais perigosamente, quando a IA gera alucinações, ela fala com toda a seriedade, produzindo lixo de informação e desencadeando crises de confiança.
Na era da proliferação de IA, usando dinheiro de verdade para construir confiança na mídia
Diante do caos de conteúdo lixo de IA na internet, mesmo com atualizações nos mecanismos de moderação e a introdução de IA assistida, a eficácia da governança ainda é limitada. No relatório anual de destaque da a16z crypto, Robert Hackett propôs o conceito de mídia em staking.
O relatório aponta que o modelo tradicional de mídia, que preza pela objetividade, já mostrou suas limitações. A internet permite que qualquer pessoa tenha um canal de voz, e cada vez mais profissionais, praticantes e construtores transmitem suas opiniões diretamente ao público, refletindo seus interesses no mundo. Ironia: eles são respeitados pelo audiência não apesar de seus interesses, mas por causa deles.
Essa mudança de tendência não é apenas o surgimento das redes sociais, mas a “aparição de ferramentas de criptografia”, que permitem às pessoas fazer compromissos verificáveis publicamente. Com IA reduzindo drasticamente o custo e facilitando a geração de conteúdo em massa (com qualquer perspectiva ou identidade, verificável ou não), confiar apenas na palavra de humanos (ou robôs) já não é suficiente.
Tokens, ativos tokenizáveis, contratos programáveis, mercados preditivos e registros on-chain fornecem uma base mais sólida de confiança: os comentaristas podem provar que suas opiniões e ações são consistentes (através de fundos que respaldam suas opiniões); os podcasters podem bloquear tokens para provar que não vão mudar de posição ou manipular o mercado; analistas podem vincular previsões a mercados de liquidação pública, criando registros auditáveis.
Este é o início do que chamamos de “mídia em staking”: esses meios não apenas compartilham interesses relacionados, mas também oferecem formas concretas de prova. Nesse modelo, a credibilidade não vem de uma fachada de neutralidade ou de alegações infundadas, mas de compromissos de interesses públicos, transparentes e verificáveis. A mídia em staking não substituirá outros formatos de mídia, mas complementará o ecossistema atual. Ela transmite uma nova mensagem: não é mais “acredite em mim, sou neutro”, mas “estou disposto a assumir riscos, e esta é a forma de você verificar que minhas palavras são verdadeiras”.
Robert Hackett prevê que esse campo continuará a crescer, assim como os meios de comunicação de massa do século XX, que, para se adaptar às tecnologias e incentivos da época (atraindo audiências e anunciantes), buscavam “objetividade” e “neutralidade”. Hoje, com IA facilitando a criação ou falsificação de qualquer conteúdo, o que realmente escasseia são as provas — aqueles que podem fazer compromissos verificáveis e apoiar suas afirmações terão vantagem.
Aproveitando mecanismos de staking para aumentar o custo de falsificação, sugerindo a introdução de um mecanismo de dupla verificação de conteúdo
Essa inovação também foi apoiada por profissionais de criptografia, que fizeram recomendações.
O analista de criptografia Chen Jian afirmou que, de grandes meios a auto-meios, as fake news proliferam, com uma história sendo reportada de várias formas. A causa principal é o baixo custo e alto retorno da falsificação.
Se considerarmos cada disseminador de informação como um nó, por que não usar um mecanismo econômico de prova de participação (PoS) baseado em blockchain para resolver esse problema? Ele sugeriu que cada nó deveria precisar fazer um staking de fundos antes de emitir uma opinião; quanto mais stake, maior a confiança. Outros poderiam coletar evidências para desafiar essa opinião; se o desafio for bem-sucedido, o sistema penaliza o stake e recompensa o desafiador.
Claro, esse processo envolve questões de privacidade e eficiência. Existem soluções atuais, como a Swarm Network, que combina ZK (zero-knowledge) com IA, protegendo a privacidade dos participantes e usando análises de múltiplos modelos para auxiliar na verificação, similar à função de verificação de verdades do Grok no Twitter.
O influenciador de criptografia Lan Hu também acredita que, usando tecnologias de prova de conhecimento zero (zk), os meios de comunicação ou indivíduos podem provar sua credibilidade online, como uma “declaração escrita” na rede, que não pode ser alterada ao ser registrada na blockchain. Mas apenas uma declaração não basta; é preciso “fazer staking” de ativos como ETH, USDC ou outros tokens criptográficos como garantia.
A lógica do mecanismo de staking é bastante direta: se o conteúdo for provado falso, o stake será confiscado; se for verdadeiro e confiável, o stake será devolvido após um período, ou até mesmo poderá receber recompensas adicionais (como tokens emitidos pela mídia em staking ou uma parte dos fundos confiscados de falsificadores).
Esse mecanismo cria um ambiente que incentiva a falar a verdade. Para os meios de comunicação, o staking realmente aumenta o custo financeiro, mas traz confiança real do público, especialmente em tempos de proliferação de notícias falsas.
Por exemplo, um YouTuber que recomenda um produto precisa fazer uma declaração na blockchain Ethereum e fazer staking de ETH ou USDC. Se o conteúdo for falso, o stake será confiscado; se for verdadeiro, o público pode confiar mais na veracidade do vídeo.
Se um criador de conteúdo recomenda um smartphone, ele pode fazer um staking de 100 dólares em ETH e declarar: “Se a câmera de beleza do telefone não atingir o efeito esperado, eu compensarei.” Ao ver o criador fazer o stake, os espectadores se sentem mais confiantes. Se o conteúdo for gerado por IA falsamente, o criador perderá o stake.
Para julgar a veracidade do conteúdo, Lan Hu sugere um mecanismo de dupla verificação: uma combinação de “comunidade + algoritmo”.
Na comunidade, usuários com direito a voto (que precisam fazer staking de ativos criptográficos) votam na cadeia; se mais de uma certa porcentagem (por exemplo, 60%) votar que é falso, o conteúdo é considerado falso.
Algoritmos auxiliam na análise de dados para validar os resultados das votações.
No mecanismo de arbitragem, se o criador discordar da decisão, pode solicitar uma arbitragem a um conselho de especialistas; se os votantes manipularem maliciosamente, seus ativos podem ser confiscados.
Tanto os votantes quanto os especialistas recebem recompensas, provenientes de multas e tokens de mídia.
Além disso, os criadores podem usar provas de conhecimento zero para gerar evidências de autenticidade desde a origem do conteúdo, como uma prova de origem real de um vídeo.
Para pessoas com recursos financeiros tentando usar o mecanismo de staking para falsificar, Lan Hu recomenda aumentar o custo de falsificação a longo prazo, incluindo não só fundos, mas também tempo, registros históricos, reputação e responsabilidade legal.
Por exemplo, contas que forem penalizadas serão marcadas; ao publicar conteúdo, precisarão fazer staking de mais fundos; se uma conta for penalizada várias vezes, sua credibilidade cairá drasticamente; em casos graves, podem até enfrentar ações legais.