a16статья: Когда ИИ захватывает платформы контента, как вернуть доверие к криптовалютным залогам?

Социальные медиа заполнены AI-спамом, реальным пользователям всё труднее делиться своим мнением. Ведущие венчурные фонды a16z предложили концепцию “заставленных медиа” (Staked Media), которая с помощью механизма залога криптоактивов фильтрует AI-шум, используя проверяемые обещания для восстановления доверия к контенту.
(Предыстория: Animal Crossing добавила AI LLM «повышение играбельности», стримеры тестируют: бесконечные диалоги без повторений)
(Дополнительный фон: AI-генерированные игры подозревают в плагиате Pokémon! В Steam вышла «幻獸帕魯», продано более 2 миллионов копий, Nintendo собирается подать в суд?)

Содержание статьи

  • Когда AI начинает самовоспроизводиться, сеть заливает «предварительно подготовленным контентом»
  • В эпоху AI-изобилия — строим доверие к медиа с помощью реальных средств
  • Использование механизма залога для повышения стоимости фальсификаций, предложение внедрить двойную проверку контента

Современные социальные медиа кажутся оживлёнными, но «человеческое ощущение» постепенно исчезает. Когда огромные потоки AI-спама (AI slop) заполняют основные платформы, контент, созданный для фальсификации и привлечения трафика, становится повсеместным, всё больше реальных пользователей теряют желание делиться и даже начинают уходить.

В условиях распространения AI-спама простых алгоритмических проверок уже недостаточно. Недавно ведущий венчурный фонд a16z предложил концепцию “заставленных медиа” (Staked Media), которая с помощью реальных средств фильтрует AI-шум, привлекая внимание рынка.

Когда AI начинает самовоспроизводиться, сеть заливает «предварительно подготовленным контентом»

«AI начал имитировать AI.»

Недавно модераторы Reddit, платформы «Американский форум», оказались в кризисе, борясь с огромным количеством AI-генерированного контента. В разделе r/AmItheAsshole, где 24 миллиона пользователей, модераторы жалуются, что более половины контента создаётся AI.

Только в первой половине 2025 года Reddit удалил более 40 миллионов мусорных и фальшивых постов. Этот феномен распространяется как вирус и на Facebook, Instagram, X, YouTube, 小红书 и TikTok.

В эпоху, когда информация кажется взрывной, а реальные голоса всё реже, AI-генерируемый мусор проникает во все уголки интернета, тихо разрушая мышление людей. На самом деле, с распространением генеративных инструментов вроде ChatGPT и Gemini, ручное создание контента всё больше уступает место AI, превращаясь в «конвейерную линию».

По последним исследованиям компании Graphite по SEO, с момента публичного запуска ChatGPT в конце 2022 года доля AI-генерируемых статей резко выросла с примерно 10% до более 40% в 2024 году. К маю этого года этот показатель достиг 52%.

Однако большинство AI-генерируемого контента похоже на «предварительно приготовленные блюда»: с фиксированными рецептами и стандартными процессами, но без души, скучно и безжизненно. Более того, современные AI уже не так примитивны: они могут имитировать человеческий тон, даже воспроизводить эмоции. От туристических гидов до социальных конфликтов, даже для привлечения трафика и провокации общественных противоречий — AI легко справляется.

Что ещё опаснее, когда AI «выдумывает» факты, он делает это серьёзно, не стесняясь, создавая информационный мусор и вызывая кризис доверия.

В эпоху AI-изобилия — строим доверие к медиа с помощью реальных средств

Несмотря на обновление механизмов цензуры и внедрение AI-помощников, борьба с AI-спамом остаётся сложной. В своём важном ежегодном отчёте a16z crypto Роберт Хакетт предложил концепцию «заставленных медиа».

Отчёт отмечает, что традиционные медиа ориентированы на объективность, но их недостатки давно очевидны. Интернет дал каждому возможность высказаться, и всё больше профессионалов, практиков и создателей напрямую обращаются к публике, отражая свои интересы и взгляды. Иронично, что аудитория уважает их не несмотря на их заинтересованность, а именно потому, что они заинтересованы.

Эта тенденция связана не с ростом соцсетей, а с появлением «криптоинструментов», позволяющих делать публичные, проверяемые обещания. С понижением стоимости и упрощением генерации огромных объёмов контента с помощью AI (на основе любых точек зрения, любой личности, любой правды или лжи), доверие к человеческим (или машинным) заявлениям уже недостаточно. Токенизированные активы, программируемые залоги, предиктивные рынки и on-chain история создают более прочную основу для доверия: авторы могут подтвердить свою последовательность и честность (поддерживая свои мнения средствами), подкастеры могут заложить токены, чтобы доказать, что не меняют позицию ради выгоды, аналитики — связать свои прогнозы с публичными рынками, создавая аудитируемые записи.

Это и есть ранняя форма «заставленных медиа»: такие медиа не только разделяют интересы, но и предоставляют конкретные доказательства. В этой модели доверие строится не на притворной нейтральности или необоснованных заявлениях, а на публичных, прозрачных и проверяемых обещаниях. Заставленные медиа не заменяют другие формы медиа, а дополняют существующую медиаэкосистему. Они посылают новый сигнал: «Не верьте мне просто потому, что я нейтрален», а «Это риск, который я готов нести, и способ, которым вы можете проверить мои слова».

Роберт Хакетт прогнозирует, что эта сфера будет расти, подобно тому, как в 20 веке массовые медиа, чтобы соответствовать технологиям и мотивациям (привлечь аудиторию и рекламодателей), стремились к «объективности» и «нейтралитету». Сегодня AI делает создание или фальсификацию любого контента очень простым, а ценность — в доказательствах. Те создатели, которые смогут делать проверяемые обещания и подкреплять свои заявления, окажутся в более выгодной позиции.

Использование механизма залога для повышения стоимости фальсификаций, предложение внедрить двойную проверку контента

Это нововведение также поддерживается криптоэкспертами, которые предлагают свои идеи.

Криптоаналитик Чэнь Цзянь отметил, что от крупных медиа до индивидуальных блогеров — фейковых новостей и дезинформации становится всё больше, одни и те же события пересказываются с разных сторон. Основная причина — низкая стоимость и высокая прибыльность фальсификаций. Почему бы не использовать блокчейн POS (Proof of Stake) и экономические механизмы для решения этой проблемы? Он предлагает, например, чтобы каждый участник перед публикацией делал залог средств: чем больше залог, тем выше доверие; другие участники могут собирать доказательства и оспаривать, а при успешной оспаривании система конфискует залог и наградит оспаривающего. Конечно, этот процесс связан с вопросами приватности и эффективности, но есть решения, например, Swarm Network, объединяющая ZK и AI, чтобы защищать приватность участников и использовать многомодельный анализ данных для помощи в проверке, подобно функции проверки правды в Twitter Grok.

Крипто-лидер Ланьху также считает, что с помощью технологий нулевого знания (zk) можно доказать доверие онлайн, подобно «подписанию» в сети, и закрепить это на блокчейне, чтобы невозможно было подделать. Но одних подписей недостаточно — нужно залоговое обеспечение, например ETH, USDC или другие криптоактивы.

Механизм залога очень прост: если опубликованный контент признан ложным, залоговые активы конфискуются; если же он достоверен — активы возвращаются через определённое время или даже с дополнительной наградой (например, токенами за заставленные медиа или долей из конфискованных средств). Такой механизм создаёт среду, поощряющую говорить правду. Для медиа залог увеличивает издержки, но взамен даёт реальное доверие аудитории, что особенно важно в эпоху распространения фейковых новостей.

Например, YouTube-блогер публикует видео о новом гаджете, делая «подписку» на Ethereum и залог ETH или USDC. Если видео ложное, залог конфискуется, зрители могут спокойно доверять содержанию. Или, например, он рекомендует смартфон, заложив 100 долларов в ETH и заявляя: «Если этот телефон не даст желаемого эффекта, я компенсирую». Видя залог, зрители считают его более надёжным. Если же контент AI-генерированный, блогер потеряет залог.

Для оценки правдивости контента можно использовать «двойную проверку» — «сообщество + алгоритм». В сообществе, где участники с залогом криптоактивов голосуют, если более 60% проголосуют за ложь, контент считается фальшивым. Алгоритмы помогают дополнительно анализировать результаты голосования. В случае оспаривания, эксперты могут инициировать арбитраж; если обнаружится злоупотребление голосами, активы голосующих конфискуются. За участие в голосовании и арбитраже предусмотрены награды, финансируемые за счёт конфискованных средств и медиа-токенов. Также создатели контента могут использовать zk-технологии для доказательства подлинности источника, например, подтверждая происхождение видео.

Для тех, кто пытается использовать залог для фальсификаций, Ланьху советует повысить долгосрочные издержки: не только деньги, но и время, исторические записи, репутацию и юридическую ответственность. Например, аккаунты, уличённые во фальсификациях, будут помечены, и для публикации потребуется залог большего объёма средств; повторные нарушения снизят доверие к аккаунту, а серьёзные — могут привести к юридским последствиям.

ETH0.9%
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить