現在的 соціальні мережі, здається, залишаються яскравими та активними, але «відчуття живої присутності» поступово зникає. Коли масово з’являються AI-спам (AI slop) на провідних платформах, фальсифікації та контент, що привертає трафік, стають повсюдними, все більше справжніх користувачів втрачають бажання ділитися та навіть починають тікати.
Зі зростанням AI-спаму простий алгоритмічний контроль вже не справляється. Нещодавно провідний венчурний фонд a16z запропонував концепцію «Заставлених медіа» (Staked Media), яка використовує реальні кошти для фільтрації AI-шуму, що привернуло увагу ринку.
Коли AI починає самовідтворюватися, інтернет засмічується «завчасним контентом»
«AI починає імітувати AI.»
Нещодавно модератори Reddit, американського форуму, опинилися у кризі, борючись із масовим AI-згенерованим контентом. У розділі r/AmItheAsshole, що має 24 мільйони користувачів, модератори скаржаться, що понад половина контенту створена AI.
Лише у першій половині 2025 року Reddit видалив понад 40 мільйонів спамових та фальшивих повідомлень. Ця тенденція поширюється і на платформи Facebook, Instagram, X, YouTube, Xiaohongshu та TikTok.
Зараз, у час, коли інформація здається вибуховою, але справжніх голосів все менше, AI-створений сміттєвий контент майже пронизує весь інтернет, тихо руйнуючи думки людей. Насправді, з поширенням генеративних інструментів, таких як ChatGPT і Gemini, ручне створення контенту поступово замінюється AI, перетворюючись у «конвеєрне виробництво».
Згідно з останнім дослідженням компанії Graphite, що займається SEO, з моменту відкриття ChatGPT наприкінці 2022 року, частка AI-генерованих статей стрімко зросла з приблизно 10% до понад 40% у 2024 році. Станом на травень цього року цей показник сягнув 52%.
Однак більшість AI-генерованого контенту схожий на «завчасно приготовану їжу»: має фіксований рецепт і стандартизований процес виробництва, але позбавлений душі, і читати його нудно. Більше того, сучасний AI вже не є примітивним; він може імітувати людський тон, навіть відтворювати емоції. Від туристичних путівників до особистих конфліктів, і навіть для привернення трафіку шляхом навмисного розпалювання соціальних протистоянь — AI може легко це зробити.
Ще більш руйнівним є те, що, коли AI створює галюцинації, воно робить це серйозно, без усмішки, створюючи інформаційний сміття і викликаючи кризу довіри.
У часи AI-навали, використання реальних коштів для побудови довіри до медіа
Зі зростанням кількості AI-спаму в інтернеті, навіть оновлення механізмів модерації та залучення AI-помічників не дає значних результатів. У важливому щорічному звіті від a16z crypto Роберт Хакетт запропонував концепцію «Заставлених медіа» (Staked Media). (Детальніше: a16z: 17 нових напрямків у крипто до 2026 року, що викликають захоплення)
Звіт зазначає, що традиційна модель медіа позиціонує себе як об’єктивна, але її недоліки вже очевидні. Інтернет дав кожному можливість висловлюватися, і тепер все більше фахівців, практиків і творців безпосередньо передають свої погляди публіці, відображаючи свої інтереси у світі. Іронічно, що аудиторія поважає їх не «через їхні інтереси», а «саме тому, що вони мають інтереси».
Ця нова тенденція не пов’язана з появою соціальних мереж, а з «з’явленням криптографічних інструментів», які дозволяють людям робити публічно підтверджені зобов’язання. Зі зростанням AI, що знижує вартість і спрощує процес створення масового контенту (можливість генерувати будь-який контент з будь-якої точки зору, будь-якої особи), довіру вже не можна базувати лише на людських (або роботизованих) висловлюваннях. Токенізовані активи, програмовані замки, ринки прогнозів і історія на блокчейні створюють міцну основу для довіри: коментатори можуть підтвердити свою послідовність слів і дій (застосовуючи фінанси для підтвердження), подкастери можуть закріпити свої токени, щоб довести, що вони не змінюють позицію для спекуляцій, а аналітики можуть прив’язати свої прогнози до відкритих ринків, створюючи аудитуємі записи.
Це і є рання форма «Заставлених медіа»: такі медіа не лише поділяють інтереси, а й можуть надавати конкретні підтвердження своєї позиції. У цій моделі довіра базується не на імітації нейтральності або безпідставних твердженнях, а на відкритих, прозорих і підтверджуваних зобов’язаннях щодо інтересів. Заставлені медіа не замінюють інші форми медіа, а доповнюють існуючу медіасферу. Вони передають новий сигнал: «Не вірте мені на слово, я нейтральний», а «Це ризик, який я готовий нести, і це спосіб, яким ви можете перевірити мої слова».
Роберт Хакетт прогнозує, що ця сфера буде зростати, подібно до того, як масові медіа 20-го століття, щоб відповідати технологіям і стимулюючим механізмам (залучення масової аудиторії та рекламодавців), прагнули «об’єктивності» і «нейтральності». Зараз AI робить створення або підробку будь-якого контенту надзвичайно легким, а справжньою цінністю стають докази — ті, хто здатен зробити підтверджені зобов’язання і справді підтримати свої твердження, мають перевагу.
Використання заставних механізмів для підвищення вартості фальсифікацій, пропозиція запровадити двоетапну перевірку контенту
Ця інноваційна ідея також отримала підтримку крипто-спільноти та рекомендації.
Крипто-аналітик Чен Цзянь зазначає, що від великих медіа до самостійних авторів — фейкові новини з’являються безперервно, одна й та сама подія може бути висвітлена з різних точок зору. Основна причина — низька вартість і високий прибуток від фальсифікацій. Якщо розглядати кожного поширювача інформації як вузол, чому б не застосувати економічний механізм POS (Proof of Stake) блокчейна для вирішення цієї проблеми? Він пропонує, наприклад, щоб кожен вузол перед публікацією висловлювання робив заставу у вигляді коштів, і чим більше застави — тим вищий рівень довіри; інші користувачі можуть збирати докази і кидати виклик, і якщо виклик буде успішним, система конфіскує заставу і нагородить викликавшого. Звісно, цей процес має питання конфіденційності та ефективності, але вже існують рішення, наприклад Swarm Network, що поєднує ZK (Zero Knowledge) і AI для захисту приватності учасників і допомоги у верифікації через багатомодельний аналіз даних, подібно до функції перевірки правди у Grok на Twitter.
Крипто-лідер Ланху вважає, що за допомогою технологій нульових знань (zk) можна онлайн довести свою довіру, подібно до «підпису» в інтернеті, і ця інформація буде незмінною на ланцюгу. Але одних підписів недостатньо — потрібно «заставляти» певний актив, наприклад ETH, USDC або інший крипто-актив, як гарантію.
Логіка застави дуже проста: якщо опублікований контент виявиться фальшивкою, заставні активи будуть конфісковані; якщо ж він справжній і достовірний — активи повернуться через певний час або навіть отримають додаткову винагороду (наприклад, токени, випущені заставленими медіа, або частину з конфіскованих коштів за фальшивий контент). Така система створює стимул говорити правду. Для медіа застави — це додаткові витрати, але вони окупаються довірою справжньої аудиторії, що особливо важливо у часи поширення фейкових новин.
Наприклад, YouTube-відеоблогер, який рекомендує певний продукт, може «підписатися» на Ethereum-блокчейні і зробити заставу ETH або USDC. Якщо відео неправдиве, заставні кошти будуть конфісковані, і глядачі зможуть довіряти його словам. Якщо він рекомендує телефон і робить заставу у 100 доларів ETH і заявляє: «Якщо цей телефон не відповідатиме очікуванням щодо функції краси, я виплачую компенсацію», — побачивши заставу, аудиторія буде більш довірливою. Якщо ж контент створений AI і є фальшивим, блогер втратить заставу.
Щодо визначення правдивості контенту, Ланху пропонує використовувати «спільнота + алгоритм» двоетапну перевірку. У спільноті користувачі з правом голосу (які зробили заставу у криптоактивах) голосують у ланцюгу, і якщо понад 60% голосів підтверджують фальшивку — контент визнається фейком; алгоритми допомагають аналізом даних підтвердити результати голосування; у разі оскарження, автор може подати апеляцію до експертної комісії, а якщо виявиться, що голосуючі зловживають, їх активи будуть конфісковані. Учасники голосування і експертна рада отримують нагороди, що походять із конфіскованих коштів і токенів медіа. Крім того, автори контенту можуть використовувати технології нульових знань для створення доказів автентичності контенту з самого початку, наприклад, підтверджуючи справжнє походження відео.
Щоб запобігти зловживанням з боку тих, хто має фінансові ресурси і намагається створювати фальшивий контент за допомогою заставних механізмів, Ланху пропонує підвищити довгострокові витрати на фальсифікацію, враховуючи не лише кошти, а й час, історію, репутацію і юридичну відповідальність. Наприклад, аккаунт, який був конфіскований, буде позначений, і для публікації нового контенту потрібно буде робити більшу заставу; якщо аккаунт кілька разів конфісковують, довіра до його контенту зменшується, а у разі серйозних порушень — можливе юридичне переслідування.
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
Коли ШІ захопить платформу контенту, як впровадити криптовалютне залучення для відновлення довіри?
作者:Nancy,PANews
現在的 соціальні мережі, здається, залишаються яскравими та активними, але «відчуття живої присутності» поступово зникає. Коли масово з’являються AI-спам (AI slop) на провідних платформах, фальсифікації та контент, що привертає трафік, стають повсюдними, все більше справжніх користувачів втрачають бажання ділитися та навіть починають тікати.
Зі зростанням AI-спаму простий алгоритмічний контроль вже не справляється. Нещодавно провідний венчурний фонд a16z запропонував концепцію «Заставлених медіа» (Staked Media), яка використовує реальні кошти для фільтрації AI-шуму, що привернуло увагу ринку.
Коли AI починає самовідтворюватися, інтернет засмічується «завчасним контентом»
«AI починає імітувати AI.»
Нещодавно модератори Reddit, американського форуму, опинилися у кризі, борючись із масовим AI-згенерованим контентом. У розділі r/AmItheAsshole, що має 24 мільйони користувачів, модератори скаржаться, що понад половина контенту створена AI.
Лише у першій половині 2025 року Reddit видалив понад 40 мільйонів спамових та фальшивих повідомлень. Ця тенденція поширюється і на платформи Facebook, Instagram, X, YouTube, Xiaohongshu та TikTok.
Зараз, у час, коли інформація здається вибуховою, але справжніх голосів все менше, AI-створений сміттєвий контент майже пронизує весь інтернет, тихо руйнуючи думки людей. Насправді, з поширенням генеративних інструментів, таких як ChatGPT і Gemini, ручне створення контенту поступово замінюється AI, перетворюючись у «конвеєрне виробництво».
Згідно з останнім дослідженням компанії Graphite, що займається SEO, з моменту відкриття ChatGPT наприкінці 2022 року, частка AI-генерованих статей стрімко зросла з приблизно 10% до понад 40% у 2024 році. Станом на травень цього року цей показник сягнув 52%.
Однак більшість AI-генерованого контенту схожий на «завчасно приготовану їжу»: має фіксований рецепт і стандартизований процес виробництва, але позбавлений душі, і читати його нудно. Більше того, сучасний AI вже не є примітивним; він може імітувати людський тон, навіть відтворювати емоції. Від туристичних путівників до особистих конфліктів, і навіть для привернення трафіку шляхом навмисного розпалювання соціальних протистоянь — AI може легко це зробити.
Ще більш руйнівним є те, що, коли AI створює галюцинації, воно робить це серйозно, без усмішки, створюючи інформаційний сміття і викликаючи кризу довіри.
У часи AI-навали, використання реальних коштів для побудови довіри до медіа
Зі зростанням кількості AI-спаму в інтернеті, навіть оновлення механізмів модерації та залучення AI-помічників не дає значних результатів. У важливому щорічному звіті від a16z crypto Роберт Хакетт запропонував концепцію «Заставлених медіа» (Staked Media). (Детальніше: a16z: 17 нових напрямків у крипто до 2026 року, що викликають захоплення)
Звіт зазначає, що традиційна модель медіа позиціонує себе як об’єктивна, але її недоліки вже очевидні. Інтернет дав кожному можливість висловлюватися, і тепер все більше фахівців, практиків і творців безпосередньо передають свої погляди публіці, відображаючи свої інтереси у світі. Іронічно, що аудиторія поважає їх не «через їхні інтереси», а «саме тому, що вони мають інтереси».
Ця нова тенденція не пов’язана з появою соціальних мереж, а з «з’явленням криптографічних інструментів», які дозволяють людям робити публічно підтверджені зобов’язання. Зі зростанням AI, що знижує вартість і спрощує процес створення масового контенту (можливість генерувати будь-який контент з будь-якої точки зору, будь-якої особи), довіру вже не можна базувати лише на людських (або роботизованих) висловлюваннях. Токенізовані активи, програмовані замки, ринки прогнозів і історія на блокчейні створюють міцну основу для довіри: коментатори можуть підтвердити свою послідовність слів і дій (застосовуючи фінанси для підтвердження), подкастери можуть закріпити свої токени, щоб довести, що вони не змінюють позицію для спекуляцій, а аналітики можуть прив’язати свої прогнози до відкритих ринків, створюючи аудитуємі записи.
Це і є рання форма «Заставлених медіа»: такі медіа не лише поділяють інтереси, а й можуть надавати конкретні підтвердження своєї позиції. У цій моделі довіра базується не на імітації нейтральності або безпідставних твердженнях, а на відкритих, прозорих і підтверджуваних зобов’язаннях щодо інтересів. Заставлені медіа не замінюють інші форми медіа, а доповнюють існуючу медіасферу. Вони передають новий сигнал: «Не вірте мені на слово, я нейтральний», а «Це ризик, який я готовий нести, і це спосіб, яким ви можете перевірити мої слова».
Роберт Хакетт прогнозує, що ця сфера буде зростати, подібно до того, як масові медіа 20-го століття, щоб відповідати технологіям і стимулюючим механізмам (залучення масової аудиторії та рекламодавців), прагнули «об’єктивності» і «нейтральності». Зараз AI робить створення або підробку будь-якого контенту надзвичайно легким, а справжньою цінністю стають докази — ті, хто здатен зробити підтверджені зобов’язання і справді підтримати свої твердження, мають перевагу.
Використання заставних механізмів для підвищення вартості фальсифікацій, пропозиція запровадити двоетапну перевірку контенту
Ця інноваційна ідея також отримала підтримку крипто-спільноти та рекомендації.
Крипто-аналітик Чен Цзянь зазначає, що від великих медіа до самостійних авторів — фейкові новини з’являються безперервно, одна й та сама подія може бути висвітлена з різних точок зору. Основна причина — низька вартість і високий прибуток від фальсифікацій. Якщо розглядати кожного поширювача інформації як вузол, чому б не застосувати економічний механізм POS (Proof of Stake) блокчейна для вирішення цієї проблеми? Він пропонує, наприклад, щоб кожен вузол перед публікацією висловлювання робив заставу у вигляді коштів, і чим більше застави — тим вищий рівень довіри; інші користувачі можуть збирати докази і кидати виклик, і якщо виклик буде успішним, система конфіскує заставу і нагородить викликавшого. Звісно, цей процес має питання конфіденційності та ефективності, але вже існують рішення, наприклад Swarm Network, що поєднує ZK (Zero Knowledge) і AI для захисту приватності учасників і допомоги у верифікації через багатомодельний аналіз даних, подібно до функції перевірки правди у Grok на Twitter.
Крипто-лідер Ланху вважає, що за допомогою технологій нульових знань (zk) можна онлайн довести свою довіру, подібно до «підпису» в інтернеті, і ця інформація буде незмінною на ланцюгу. Але одних підписів недостатньо — потрібно «заставляти» певний актив, наприклад ETH, USDC або інший крипто-актив, як гарантію.
Логіка застави дуже проста: якщо опублікований контент виявиться фальшивкою, заставні активи будуть конфісковані; якщо ж він справжній і достовірний — активи повернуться через певний час або навіть отримають додаткову винагороду (наприклад, токени, випущені заставленими медіа, або частину з конфіскованих коштів за фальшивий контент). Така система створює стимул говорити правду. Для медіа застави — це додаткові витрати, але вони окупаються довірою справжньої аудиторії, що особливо важливо у часи поширення фейкових новин.
Наприклад, YouTube-відеоблогер, який рекомендує певний продукт, може «підписатися» на Ethereum-блокчейні і зробити заставу ETH або USDC. Якщо відео неправдиве, заставні кошти будуть конфісковані, і глядачі зможуть довіряти його словам. Якщо він рекомендує телефон і робить заставу у 100 доларів ETH і заявляє: «Якщо цей телефон не відповідатиме очікуванням щодо функції краси, я виплачую компенсацію», — побачивши заставу, аудиторія буде більш довірливою. Якщо ж контент створений AI і є фальшивим, блогер втратить заставу.
Щодо визначення правдивості контенту, Ланху пропонує використовувати «спільнота + алгоритм» двоетапну перевірку. У спільноті користувачі з правом голосу (які зробили заставу у криптоактивах) голосують у ланцюгу, і якщо понад 60% голосів підтверджують фальшивку — контент визнається фейком; алгоритми допомагають аналізом даних підтвердити результати голосування; у разі оскарження, автор може подати апеляцію до експертної комісії, а якщо виявиться, що голосуючі зловживають, їх активи будуть конфісковані. Учасники голосування і експертна рада отримують нагороди, що походять із конфіскованих коштів і токенів медіа. Крім того, автори контенту можуть використовувати технології нульових знань для створення доказів автентичності контенту з самого початку, наприклад, підтверджуючи справжнє походження відео.
Щоб запобігти зловживанням з боку тих, хто має фінансові ресурси і намагається створювати фальшивий контент за допомогою заставних механізмів, Ланху пропонує підвищити довгострокові витрати на фальсифікацію, враховуючи не лише кошти, а й час, історію, репутацію і юридичну відповідальність. Наприклад, аккаунт, який був конфіскований, буде позначений, і для публікації нового контенту потрібно буде робити більшу заставу; якщо аккаунт кілька разів конфісковують, довіра до його контенту зменшується, а у разі серйозних порушень — можливе юридичне переслідування.