a16стаття: Коли AI захоплює контент-платформи, як повернути довіру до крипто-застави?

Соціальні мережі заповнені AI-шкідним контентом, реальні користувачі все менше бажають ділитися. Провідний венчурний фонд a16z запропонував концепцію стейкінгу медіа, використовуючи механізм залучення криптоактивів для фільтрації AI-шуму за допомогою реальних коштів, щоб відновити довіру до контенту через підтверджувані зобов’язання.
(Попередній огляд: Animal Crossing додав AI LLM «збільшення іграбельності», стрімери тестують: бесіда без повторів протягом усього життя)
(Додатковий фон: AI-генеровані ігри підозрюють у плагіаті Pokémon! Вийшли на Steam «幻獸帕魯» з продажами понад 2 мільйони копій, юридичні дії Nintendo?)

Зміст статті

  • Коли AI починає самовідтворюватися, мережа заповнюється «префабрикованим контентом»
  • У часи AI-навали — створюємо медіа-довіру за допомогою реальних коштів
  • Використання механізму стейкінгу для підвищення вартості фальсифікацій, пропозиція впровадити двоєчну верифікацію контенту

Зараз у соціальних мережах здається, що все ще гаряче, але «відчуття живої людини» поступово зникає. Коли масовий потік AI-шкідливого контенту (AI slop) заповнює основні платформи, фальсифікації та контент для залучення трафіку стають повсюдними, все більше реальних користувачів втрачають бажання ділитися, а деякі навіть починають тікати.

У відповідь на поширення AI-шуму простий алгоритмічний контроль вже не справляється. Нещодавно провідний венчурний фонд a16z запропонував концепцію стейкінгу медіа (Staked Media), використовуючи реальні кошти для фільтрації AI-шуму, що привернуло увагу ринку.

Коли AI починає самовідтворюватися, мережа заповнюється «префабрикованим контентом»

«AI починає імітувати AI.»

Останнім часом модератори Reddit, американської платформи, переживають криза, борючись із масовим AI-генерованим контентом. У розділі r/AmItheAsshole, що має 24 мільйони користувачів, модератори скаржаться, що понад половина контенту створена AI.

Лише у першій половині 2025 року Reddit видалив понад 40 мільйонів спамових і фальшивих повідомлень. Ця тенденція поширюється і на Facebook, Instagram, X, YouTube, Xiaohongshu і TikTok.

Зараз, у часі, коли інформація здається вибуховою, але справжніх голосів все менше, AI-створений контент-шум майже пронизує весь інтернет, тихо руйнуючи думки людей. Насправді, із поширенням інструментів генерації, таких як ChatGPT і Gemini, ручне створення контенту поступово замінюється AI, перетворюючись у «конвеєрне виробництво».

За останніми дослідженнями компанії Graphite з SEO, з кінця 2022 року, коли ChatGPT став доступним, частка AI-генерованих статей стрімко зросла з приблизно 10% до понад 40% у 2024 році. До травня цього року цей показник сягнув 52%.

Проте більшість AI-генерованого контенту схожі на «префабриковані страви», з фіксованими рецептами та стандартними процесами виробництва, але без душі, і читаються нудно. Більше того, сучасний AI вже не є примітивним — він може імітувати людські тональності, навіть відтворювати емоції. Від туристичних путівників до соціальних конфліктів, навіть до навмисного підбурювання соціальної поляризації для залучення трафіку — AI може легко це зробити.

Ще більш руйнівним є те, що коли AI створює ілюзії, він робить це серйозно, без натяку на жарт, створюючи інформаційний шум і викликаючи кризу довіри.

У часи AI-навали — створюємо медіа-довіру за допомогою реальних коштів

У відповідь на поширення AI-шкідливого контенту на мережі, навіть оновлення механізмів модерації та залучення AI-помічників не дають значних результатів. У своєму важливому щорічному звіті компанія a16z crypto представила концепцію «стейкінгу медіа».

Звіт зазначає, що традиційна модель медіа позиціонує себе як об’єктивна, але її недоліки вже очевидні. Інтернет дав кожному можливість висловлюватися, і тепер все більше фахівців, практиків і творців безпосередньо звертаються до публіки, їхні точки зору відображають їхні інтереси у світі. Іронічно, що аудиторія цінує їх не «незважаючи на їхні інтереси», а «через їхні інтереси».

Ця нова тенденція зумовлена не стільки розвитком соцмереж, скільки появою «криптоінструментів», що дозволяють робити публічно підтверджені зобов’язання. Зі зростанням AI, що знижує вартість і спрощує процес генерації масового контенту (на основі будь-якої точки зору, будь-якої особистості, для підтвердження правдивості або хибності), довіру вже не можна базувати лише на людських (або роботизованих) висловлюваннях. Токенізовані активи, програмовані замки, прогнози ринків, блокчейн-історія — створюють міцну основу для довіри: коментатори можуть підтвердити свою послідовність слів і дій (з використанням капіталу для підтримки своїх поглядів); подкастери можуть закріпити свої токени, доводячи, що не змінюють позицію для спекуляцій або підвищення цін; аналітики можуть прив’язати свої прогнози до відкритих ринків, створюючи аудитуємі записи.

Це і є рання форма «стейкінгу медіа»: такі медіа не лише підтримують інтереси, а й можуть надавати конкретні підтвердження. У цій моделі довіра не базується на імітації нейтральності або безпідставних твердженнях, а на відкритих, прозорих і підтверджуваних зобов’язаннях. Стейкінг медіа не замінює інші форми медіа, а доповнює існуючу медіасферу. Він посилає новий сигнал: «Не вір мені, я нейтральний», а «Це ризик, який я готовий нести, і спосіб, яким ти можеш перевірити мої слова».

Роберт Хакетт прогнозує, що ця сфера зростатиме, подібно до мас-медіа 20 століття, яке, щоб відповідати технологічним і мотиваційним змінам (залученню масової аудиторії та рекламодавців), прагнуло до «об’єктивності» і «нейтральності». Зараз AI робить створення або підробку будь-якого контенту надзвичайно легким, тоді як справжнім дефіцитом є докази — ті, хто може зробити підтверджувані зобов’язання і справді підтримати свої твердження, матимуть перевагу.

Використання механізму стейкінгу для підвищення вартості фальсифікацій, пропозиція впровадити двоєчну верифікацію контенту

Ця ідея також отримала підтримку крипто-спільноти, яка запропонувала свої рекомендації.

Крипто-аналітик Чень Цзянь зазначає, що від великих медіа до самостійних блогів — фейкові новини з’являються безперервно, одна подія може бути висвітлена з різних точок зору. Основна причина — низька вартість і високий дохід від фальсифікацій. Якщо розглядати кожного поширювача інформації як вузол, чому б не застосувати економічний механізм POS (Proof of Stake) на базі блокчейну для вирішення цієї проблеми? Він пропонує, наприклад, щоб кожен вузол перед публікацією зобов’язувався внести стейк у вигляді криптоактивів, чим більше — тим вищий рівень довіри; інші учасники можуть збирати докази і кидати виклики, і якщо виклик буде успішним, система конфіскує стейк і винагородить викликавших. Звісно, цей процес має питання конфіденційності та ефективності, але вже існують рішення, наприклад, Swarm Network, що поєднує ZK і AI для захисту приватності і допомоги у верифікації через багатомодельний аналіз даних, подібно до функції правдивої перевірки у Grok на Twitter.

Крипто-лідер Blue Fox також вважає, що за допомогою технологій нульових знань (zk) можна дозволити медіа або особам підтверджувати свою довіру онлайн, подібно до «підпису» в інтернеті, і зберігати цю інформацію у блокчейні, щоб її не можна було підробити. Але одних підписів недостатньо — потрібно «застейкати» певний актив, наприклад ETH, USDC або інший криптоактив, як гарантію.

Логіка механізму стейкінгу дуже проста: якщо опублікований контент виявиться фальшивкою, активи будуть конфісковані; якщо ж він правдивий — активи повернуться через певний час або навіть отримають додаткову винагороду (наприклад, токени стейкінгу медіа або частину з конфіскованих коштів фальсифікаторів). Такий механізм створює середовище, що заохочує говорити правду. Для медіа стейкінг справді підвищує вартість, але водночас дає справжню довіру аудиторії, що особливо важливо у часи поширення фейкових новин.

Наприклад, YouTuber, який рекомендує продукт, може «застейкати» ETH або USDC на Ethereum і підтвердити, що його відео правдиве. Якщо контент неправдивий, стейк буде конфісковано, і глядачі зможуть довіряти інформації. Якщо він рекомендує смартфон і заявляє: «Якщо цей телефон не дасть бажаного ефекту, я виплачу компенсацію», — бачачи, що блогер має стейк, глядачі вважають його більш надійним. Якщо ж AI створює фальшивий контент, блогер втратить стейк.

Щодо визначення правдивості контенту, Blue Fox пропонує використовувати «подвійну верифікацію» — «спільнота + алгоритм». У спільноті користувачі з правом голосу (які мають стейк криптоактивів) голосують у блокчейні, і якщо понад 60% голосів підтверджують фальсифікацію, контент визнається фейком; алгоритми допомагають аналізом даних підтвердити результати голосування. У разі оскарження, автор може ініціювати арбітраж у спеціальній комісії; якщо виявиться, що голосуючі зловживають, їх активи конфіскують. За участь у голосуванні та арбітражі учасники отримують нагороди, що походять із конфіскованих коштів і медіа-токенів. Крім того, автори контенту можуть використовувати технології нульових знань для підтвердження автентичності своїх матеріалів, наприклад, створюючи доказ походження відео.

Щоб запобігти зловживанням з боку тих, хто має фінансові ресурси і намагається створювати фальшивий контент через механізм стейкінгу, Blue Fox пропонує підвищити довгострокові витрати на фальсифікацію, враховуючи не лише гроші, а й час, історію, репутацію і юридичну відповідальність. Наприклад, аккаунт, який був конфіскований, буде позначений, і для публікації нових матеріалів потрібно буде внести більший стейк; якщо аккаунт кілька разів конфісковують, довіра до його контенту зменшується, а у разі серйозних порушень — можливе юридичне переслідування.

ETH1.12%
USDC-0.02%
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити