Media sosial dipenuhi konten sampah AI, keinginan pengguna nyata untuk berbagi semakin menurun. Modal ventura terkemuka a16z mengusulkan konsep media yang dipertaruhkan, menggunakan mekanisme pertaruhan aset kripto untuk menyaring noise AI dengan uang asli, dan membangun kembali kepercayaan konten melalui janji yang dapat diverifikasi.
(Latar belakang: Animal Crossing menambahkan AI LLM “peningkatan permainan yang luar biasa”, streamer mencoba: ngobrol seumur hidup tanpa pengulangan)
(Tambahan latar belakang: game yang dihasilkan AI diduga meniru Pokémon! Steam merilis 《幻獸帕魯》 dengan penjualan 2 juta unit, apakah Nintendo akan menuntut? )
Daftar isi artikel
Ketika AI mulai menyalin diri sendiri, internet dibanjiri oleh “konten pra-buat”
Di era melimpahnya AI, membangun kepercayaan media dengan uang asli
Menggunakan mekanisme pertaruhan untuk meningkatkan biaya pembuatan palsu, usulkan pengenalan mekanisme verifikasi konten ganda
Media sosial saat ini tampak ramai, tetapi “perasaan hidup” perlahan menghilang. Ketika gelombang besar konten sampah AI (AI slop) mengalir ke platform utama, konten palsu dan clickbait merajalela, semakin banyak pengguna nyata kehilangan keinginan berbagi, bahkan mulai meninggalkan.
Menghadapi meluasnya konten sampah AI, hanya mengandalkan algoritma moderasi saja sudah tidak cukup. Baru-baru ini, modal ventura terkemuka a16z mengusulkan konsep media yang dipertaruhkan (Staked Media), menggunakan uang asli untuk menyaring noise AI dan menarik perhatian pasar.
Ketika AI mulai menyalin diri sendiri, internet dibanjiri oleh “konten pra-buat”
“AI mulai meniru AI.”
Baru-baru ini, moderator Reddit dari “Reddit” mengalami keruntuhan, mereka berjuang melawan gelombang besar konten yang dihasilkan AI. Subreddit r/AmItheAsshole dengan 24 juta pengguna, bahkan mengeluh bahwa lebih dari separuh konten dihasilkan oleh AI.
Hanya di semester pertama 2025, Reddit menghapus lebih dari 40 juta konten sampah dan palsu. Fenomena ini juga menyebar seperti virus ke platform lain seperti Facebook, Instagram, X, YouTube, Xiaohongshu, dan TikTok.
Saat ini, di era di mana informasi tampaknya meledak, tetapi suara nyata semakin jarang, konten sampah yang dihasilkan AI hampir merusak seluruh jaringan, secara diam-diam menggerogoti pikiran orang. Faktanya, seiring meluasnya penggunaan alat generatif seperti ChatGPT dan Gemini, pembuatan konten manual mulai digantikan AI, menjadi seperti “pabrik lini produksi”.
Menurut studi terbaru dari perusahaan SEO Graphite, sejak ChatGPT dirilis akhir 2022, proporsi artikel yang dihasilkan AI meningkat tajam, dari sekitar 10% pada tahun itu menjadi lebih dari 40% pada 2024. Hingga Mei tahun ini, angka ini naik menjadi 52%.
Namun, sebagian besar konten AI ini seperti “makanan pra-buat”, memiliki resep tetap dan proses produksi standar, tetapi kehilangan jiwa, terasa hambar saat dibaca. Tidak hanya itu, AI saat ini tidak lagi ceroboh; mereka tidak hanya mampu meniru nada manusia, bahkan menyalin emosi. Dari panduan perjalanan hingga konflik emosional, bahkan hingga memancing konflik sosial demi mendapatkan traffic, AI bisa dengan mudah melakukannya.
Lebih mematikan lagi, ketika AI menghasilkan ilusi, mereka akan berbicara dengan sangat serius dan ngawur, tidak hanya menciptakan sampah informasi, tetapi juga memicu krisis kepercayaan.
Di era melimpahnya AI, membangun kepercayaan media dengan uang asli
Menghadapi maraknya konten sampah AI di internet, meskipun platform besar memperbarui mekanisme moderasi dan memperkenalkan AI sebagai bantuan, efektivitas pengelolaan tetap terbatas. Dalam laporan tahunan penting dari a16z crypto, Robert Hackett mengusulkan konsep “media yang dipertaruhkan”.
Laporan tersebut menunjukkan bahwa model media tradisional menekankan objektivitas, tetapi kelemahannya sudah terlihat. Internet memberi setiap orang saluran untuk bersuara, dan semakin banyak profesional, praktisi, serta pembangun langsung menyampaikan pandangan mereka kepada publik, sudut pandang mereka mencerminkan kepentingan mereka di dunia. Ironisnya, audiens menghormati mereka bukan karena “mereka memiliki kepentingan”, tetapi “karena mereka memiliki kepentingan”.
Perubahan tren ini bukan karena munculnya media sosial, melainkan karena “kemunculan alat kripto”, yang memungkinkan orang membuat janji yang dapat diverifikasi secara publik. Dengan AI yang menurunkan biaya dan mempermudah proses menghasilkan konten dalam jumlah besar (berbasis sudut pandang dan identitas apa pun, keaslian dapat dipertanyakan), hanya mengandalkan ucapan manusia (atau robot) tidak lagi cukup meyakinkan. Tokenisasi aset, penguncian yang dapat diprogram, pasar prediksi, dan catatan sejarah di blockchain memberikan fondasi kepercayaan yang lebih kokoh: komentator dapat membuktikan konsistensi ucapan dan tindakan mereka (dengan dana sebagai jaminan); podcaster dapat mengunci token, membuktikan mereka tidak akan berpindah posisi secara spekulatif atau melakukan dump; analis dapat mengikat prediksi mereka ke pasar yang dapat diaudit, membentuk catatan yang dapat diverifikasi.
Ini adalah bentuk awal dari “media yang dipertaruhkan”: media semacam ini tidak hanya menyetujui ide yang berkaitan dengan kepentingan, tetapi juga menyediakan bentuk media yang dapat dibuktikan secara nyata. Dalam model ini, kepercayaan tidak berasal dari kesan netral, atau klaim tanpa dasar, melainkan dari janji kepentingan yang dapat dipublikasikan dan diverifikasi. Media yang dipertaruhkan tidak akan menggantikan bentuk media lain, melainkan melengkapi ekosistem media yang ada. Ia menyampaikan sinyal baru: bukan “Percayalah padaku, aku netral”, tetapi “Ini adalah risiko yang aku tanggung, dan ini adalah cara kamu memverifikasi bahwa aku tidak berbohong.”
Robert Hackett memperkirakan bahwa bidang ini akan terus berkembang, seperti media massa abad ke-20 yang beradaptasi dengan teknologi dan insentif saat itu (menarik audiens dan pengiklan), secara permukaan mengejar “objektivitas” dan “netralitas”. Kini, AI memudahkan pembuatan atau pemalsuan konten apa pun, tetapi yang benar-benar langka adalah bukti; mereka yang mampu membuat janji yang dapat diverifikasi dan benar-benar mendukung klaim mereka akan memiliki keunggulan.
Menggunakan mekanisme pertaruhan untuk meningkatkan biaya pembuatan palsu, usulkan pengenalan mekanisme verifikasi konten ganda
Ide inovatif ini juga mendapatkan pengakuan dari pelaku industri kripto dan mendapatkan saran.
Analis kripto Chen Jian menyatakan, dari media besar hingga media mandiri, berbagai berita palsu bermunculan, satu peristiwa bisa dilaporkan berulang kali. Penyebab utamanya adalah biaya pembuatan palsu yang rendah dan keuntungan tinggi. Jika setiap penyebar informasi dipandang sebagai sebuah node, mengapa tidak menggunakan mekanisme ekonomi POS (Proof of Stake) dari blockchain untuk menyelesaikan masalah ini? Dia menyarankan, misalnya, setiap node harus mempertaruhkan dana sebelum mengeluarkan pandangan, semakin banyak yang dipertaruhkan, semakin tinggi kepercayaannya; orang lain dapat mengumpulkan bukti untuk menantang, jika tantangan berhasil, sistem akan menyita dana pertaruhan dan memberi penghargaan kepada penantang. Tentu saja, proses ini juga melibatkan masalah privasi dan efisiensi, saat ini ada solusi seperti Swarm Network yang menggabungkan ZK dan AI, melindungi privasi peserta sekaligus menggunakan analisis data multi-model untuk membantu verifikasi, mirip fungsi verifikasi kebenaran di Twitter oleh Grok.
KOL kripto Blue Fox juga percaya bahwa melalui teknologi kriptografi seperti zero-knowledge proof (zk), media atau individu dapat membuktikan kepercayaan diri mereka secara online, mirip “membuat dokumen tertulis” di internet, dan data tersebut tidak dapat diubah di blockchain. Tetapi, hanya dokumen saja tidak cukup, perlu juga “pertaruhan” sejumlah aset sebagai jaminan, seperti ETH, USDC, atau token kripto lainnya.
Logika mekanisme pertaruhan sangat sederhana: jika konten yang dipublikasikan terbukti palsu, aset yang dipertaruhkan akan disita; jika konten benar dan dapat dipercaya, aset tersebut akan dikembalikan setelah waktu tertentu, bahkan mungkin mendapatkan bonus tambahan (seperti token media yang diterbitkan atau bagian dari dana yang disita dari pelaku palsu). Mekanisme ini menciptakan lingkungan yang mendorong kejujuran. Bagi media, pertaruhan memang meningkatkan biaya dana, tetapi mereka mendapatkan kepercayaan audiens yang nyata, yang sangat penting di era berita palsu yang meluas.
Contohnya, seorang YouTuber mengunggah video rekomendasi produk, harus “membuat dokumen tertulis” di Ethereum dan mempertaruhkan ETH atau USDC. Jika konten tidak benar, dana pertaruhan akan disita, dan penonton bisa yakin bahwa isi video tersebut asli; jika merekomendasikan ponsel, harus mempertaruhkan 100 dolar ETH dan menyatakan: “Jika fitur AI beautify ponsel ini tidak memenuhi harapan, saya akan mengganti kerugian.” Melihat si pembuat konten mempertaruhkan dana, penonton akan merasa lebih percaya. Jika konten tersebut palsu AI, si pembuat akan kehilangan dana pertaruhan.
Dalam menilai keaslian konten, Blue Fox menyarankan penggunaan mekanisme verifikasi ganda “komunitas + algoritma”. Dari sisi komunitas, pengguna yang memiliki hak voting (harus mempertaruhkan aset kripto) melakukan voting di blockchain, jika lebih dari 60% setuju, dianggap palsu; dari sisi algoritma, menggunakan analisis data untuk membantu verifikasi hasil voting; mekanisme arbitrase, jika pembuat konten tidak puas dengan hasil, dapat mengajukan arbitrase ke dewan ahli; jika ditemukan bahwa pemilih melakukan manipulasi, aset mereka disita; peserta voting dan dewan ahli mendapatkan reward, sumber reward termasuk dana yang disita dan token media. Selain itu, pembuat konten dapat menggunakan teknologi zero-knowledge proof untuk menghasilkan bukti keaslian konten dari sumbernya, seperti membuktikan asal-usul video.
Bagi mereka yang memiliki kekuatan dana dan berusaha memanfaatkan mekanisme pertaruhan untuk membuat palsu, Blue Fox menyarankan meningkatkan biaya jangka panjang pembuatan palsu, tidak hanya dari segi dana, tetapi juga waktu, catatan sejarah, sistem reputasi, dan tanggung jawab hukum. Misalnya, akun yang disita akan diberi tanda, dan konten yang dipublikasikan kemudian harus mempertaruhkan lebih banyak dana; jika akun sering disita, kepercayaan terhadap konten mereka akan menurun secara signifikan; bahkan bisa menghadapi tanggung jawab hukum.
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
a16 artikel khusus: Ketika AI Menguasai Platform Konten, Bagaimana Pledge Kripto Mengembalikan Kepercayaan?
Media sosial dipenuhi konten sampah AI, keinginan pengguna nyata untuk berbagi semakin menurun. Modal ventura terkemuka a16z mengusulkan konsep media yang dipertaruhkan, menggunakan mekanisme pertaruhan aset kripto untuk menyaring noise AI dengan uang asli, dan membangun kembali kepercayaan konten melalui janji yang dapat diverifikasi.
(Latar belakang: Animal Crossing menambahkan AI LLM “peningkatan permainan yang luar biasa”, streamer mencoba: ngobrol seumur hidup tanpa pengulangan)
(Tambahan latar belakang: game yang dihasilkan AI diduga meniru Pokémon! Steam merilis 《幻獸帕魯》 dengan penjualan 2 juta unit, apakah Nintendo akan menuntut? )
Daftar isi artikel
Media sosial saat ini tampak ramai, tetapi “perasaan hidup” perlahan menghilang. Ketika gelombang besar konten sampah AI (AI slop) mengalir ke platform utama, konten palsu dan clickbait merajalela, semakin banyak pengguna nyata kehilangan keinginan berbagi, bahkan mulai meninggalkan.
Menghadapi meluasnya konten sampah AI, hanya mengandalkan algoritma moderasi saja sudah tidak cukup. Baru-baru ini, modal ventura terkemuka a16z mengusulkan konsep media yang dipertaruhkan (Staked Media), menggunakan uang asli untuk menyaring noise AI dan menarik perhatian pasar.
Ketika AI mulai menyalin diri sendiri, internet dibanjiri oleh “konten pra-buat”
“AI mulai meniru AI.”
Baru-baru ini, moderator Reddit dari “Reddit” mengalami keruntuhan, mereka berjuang melawan gelombang besar konten yang dihasilkan AI. Subreddit r/AmItheAsshole dengan 24 juta pengguna, bahkan mengeluh bahwa lebih dari separuh konten dihasilkan oleh AI.
Hanya di semester pertama 2025, Reddit menghapus lebih dari 40 juta konten sampah dan palsu. Fenomena ini juga menyebar seperti virus ke platform lain seperti Facebook, Instagram, X, YouTube, Xiaohongshu, dan TikTok.
Saat ini, di era di mana informasi tampaknya meledak, tetapi suara nyata semakin jarang, konten sampah yang dihasilkan AI hampir merusak seluruh jaringan, secara diam-diam menggerogoti pikiran orang. Faktanya, seiring meluasnya penggunaan alat generatif seperti ChatGPT dan Gemini, pembuatan konten manual mulai digantikan AI, menjadi seperti “pabrik lini produksi”.
Menurut studi terbaru dari perusahaan SEO Graphite, sejak ChatGPT dirilis akhir 2022, proporsi artikel yang dihasilkan AI meningkat tajam, dari sekitar 10% pada tahun itu menjadi lebih dari 40% pada 2024. Hingga Mei tahun ini, angka ini naik menjadi 52%.
Namun, sebagian besar konten AI ini seperti “makanan pra-buat”, memiliki resep tetap dan proses produksi standar, tetapi kehilangan jiwa, terasa hambar saat dibaca. Tidak hanya itu, AI saat ini tidak lagi ceroboh; mereka tidak hanya mampu meniru nada manusia, bahkan menyalin emosi. Dari panduan perjalanan hingga konflik emosional, bahkan hingga memancing konflik sosial demi mendapatkan traffic, AI bisa dengan mudah melakukannya.
Lebih mematikan lagi, ketika AI menghasilkan ilusi, mereka akan berbicara dengan sangat serius dan ngawur, tidak hanya menciptakan sampah informasi, tetapi juga memicu krisis kepercayaan.
Di era melimpahnya AI, membangun kepercayaan media dengan uang asli
Menghadapi maraknya konten sampah AI di internet, meskipun platform besar memperbarui mekanisme moderasi dan memperkenalkan AI sebagai bantuan, efektivitas pengelolaan tetap terbatas. Dalam laporan tahunan penting dari a16z crypto, Robert Hackett mengusulkan konsep “media yang dipertaruhkan”.
Laporan tersebut menunjukkan bahwa model media tradisional menekankan objektivitas, tetapi kelemahannya sudah terlihat. Internet memberi setiap orang saluran untuk bersuara, dan semakin banyak profesional, praktisi, serta pembangun langsung menyampaikan pandangan mereka kepada publik, sudut pandang mereka mencerminkan kepentingan mereka di dunia. Ironisnya, audiens menghormati mereka bukan karena “mereka memiliki kepentingan”, tetapi “karena mereka memiliki kepentingan”.
Perubahan tren ini bukan karena munculnya media sosial, melainkan karena “kemunculan alat kripto”, yang memungkinkan orang membuat janji yang dapat diverifikasi secara publik. Dengan AI yang menurunkan biaya dan mempermudah proses menghasilkan konten dalam jumlah besar (berbasis sudut pandang dan identitas apa pun, keaslian dapat dipertanyakan), hanya mengandalkan ucapan manusia (atau robot) tidak lagi cukup meyakinkan. Tokenisasi aset, penguncian yang dapat diprogram, pasar prediksi, dan catatan sejarah di blockchain memberikan fondasi kepercayaan yang lebih kokoh: komentator dapat membuktikan konsistensi ucapan dan tindakan mereka (dengan dana sebagai jaminan); podcaster dapat mengunci token, membuktikan mereka tidak akan berpindah posisi secara spekulatif atau melakukan dump; analis dapat mengikat prediksi mereka ke pasar yang dapat diaudit, membentuk catatan yang dapat diverifikasi.
Ini adalah bentuk awal dari “media yang dipertaruhkan”: media semacam ini tidak hanya menyetujui ide yang berkaitan dengan kepentingan, tetapi juga menyediakan bentuk media yang dapat dibuktikan secara nyata. Dalam model ini, kepercayaan tidak berasal dari kesan netral, atau klaim tanpa dasar, melainkan dari janji kepentingan yang dapat dipublikasikan dan diverifikasi. Media yang dipertaruhkan tidak akan menggantikan bentuk media lain, melainkan melengkapi ekosistem media yang ada. Ia menyampaikan sinyal baru: bukan “Percayalah padaku, aku netral”, tetapi “Ini adalah risiko yang aku tanggung, dan ini adalah cara kamu memverifikasi bahwa aku tidak berbohong.”
Robert Hackett memperkirakan bahwa bidang ini akan terus berkembang, seperti media massa abad ke-20 yang beradaptasi dengan teknologi dan insentif saat itu (menarik audiens dan pengiklan), secara permukaan mengejar “objektivitas” dan “netralitas”. Kini, AI memudahkan pembuatan atau pemalsuan konten apa pun, tetapi yang benar-benar langka adalah bukti; mereka yang mampu membuat janji yang dapat diverifikasi dan benar-benar mendukung klaim mereka akan memiliki keunggulan.
Menggunakan mekanisme pertaruhan untuk meningkatkan biaya pembuatan palsu, usulkan pengenalan mekanisme verifikasi konten ganda
Ide inovatif ini juga mendapatkan pengakuan dari pelaku industri kripto dan mendapatkan saran.
Analis kripto Chen Jian menyatakan, dari media besar hingga media mandiri, berbagai berita palsu bermunculan, satu peristiwa bisa dilaporkan berulang kali. Penyebab utamanya adalah biaya pembuatan palsu yang rendah dan keuntungan tinggi. Jika setiap penyebar informasi dipandang sebagai sebuah node, mengapa tidak menggunakan mekanisme ekonomi POS (Proof of Stake) dari blockchain untuk menyelesaikan masalah ini? Dia menyarankan, misalnya, setiap node harus mempertaruhkan dana sebelum mengeluarkan pandangan, semakin banyak yang dipertaruhkan, semakin tinggi kepercayaannya; orang lain dapat mengumpulkan bukti untuk menantang, jika tantangan berhasil, sistem akan menyita dana pertaruhan dan memberi penghargaan kepada penantang. Tentu saja, proses ini juga melibatkan masalah privasi dan efisiensi, saat ini ada solusi seperti Swarm Network yang menggabungkan ZK dan AI, melindungi privasi peserta sekaligus menggunakan analisis data multi-model untuk membantu verifikasi, mirip fungsi verifikasi kebenaran di Twitter oleh Grok.
KOL kripto Blue Fox juga percaya bahwa melalui teknologi kriptografi seperti zero-knowledge proof (zk), media atau individu dapat membuktikan kepercayaan diri mereka secara online, mirip “membuat dokumen tertulis” di internet, dan data tersebut tidak dapat diubah di blockchain. Tetapi, hanya dokumen saja tidak cukup, perlu juga “pertaruhan” sejumlah aset sebagai jaminan, seperti ETH, USDC, atau token kripto lainnya.
Logika mekanisme pertaruhan sangat sederhana: jika konten yang dipublikasikan terbukti palsu, aset yang dipertaruhkan akan disita; jika konten benar dan dapat dipercaya, aset tersebut akan dikembalikan setelah waktu tertentu, bahkan mungkin mendapatkan bonus tambahan (seperti token media yang diterbitkan atau bagian dari dana yang disita dari pelaku palsu). Mekanisme ini menciptakan lingkungan yang mendorong kejujuran. Bagi media, pertaruhan memang meningkatkan biaya dana, tetapi mereka mendapatkan kepercayaan audiens yang nyata, yang sangat penting di era berita palsu yang meluas.
Contohnya, seorang YouTuber mengunggah video rekomendasi produk, harus “membuat dokumen tertulis” di Ethereum dan mempertaruhkan ETH atau USDC. Jika konten tidak benar, dana pertaruhan akan disita, dan penonton bisa yakin bahwa isi video tersebut asli; jika merekomendasikan ponsel, harus mempertaruhkan 100 dolar ETH dan menyatakan: “Jika fitur AI beautify ponsel ini tidak memenuhi harapan, saya akan mengganti kerugian.” Melihat si pembuat konten mempertaruhkan dana, penonton akan merasa lebih percaya. Jika konten tersebut palsu AI, si pembuat akan kehilangan dana pertaruhan.
Dalam menilai keaslian konten, Blue Fox menyarankan penggunaan mekanisme verifikasi ganda “komunitas + algoritma”. Dari sisi komunitas, pengguna yang memiliki hak voting (harus mempertaruhkan aset kripto) melakukan voting di blockchain, jika lebih dari 60% setuju, dianggap palsu; dari sisi algoritma, menggunakan analisis data untuk membantu verifikasi hasil voting; mekanisme arbitrase, jika pembuat konten tidak puas dengan hasil, dapat mengajukan arbitrase ke dewan ahli; jika ditemukan bahwa pemilih melakukan manipulasi, aset mereka disita; peserta voting dan dewan ahli mendapatkan reward, sumber reward termasuk dana yang disita dan token media. Selain itu, pembuat konten dapat menggunakan teknologi zero-knowledge proof untuk menghasilkan bukti keaslian konten dari sumbernya, seperti membuktikan asal-usul video.
Bagi mereka yang memiliki kekuatan dana dan berusaha memanfaatkan mekanisme pertaruhan untuk membuat palsu, Blue Fox menyarankan meningkatkan biaya jangka panjang pembuatan palsu, tidak hanya dari segi dana, tetapi juga waktu, catatan sejarah, sistem reputasi, dan tanggung jawab hukum. Misalnya, akun yang disita akan diberi tanda, dan konten yang dipublikasikan kemudian harus mempertaruhkan lebih banyak dana; jika akun sering disita, kepercayaan terhadap konten mereka akan menurun secara signifikan; bahkan bisa menghadapi tanggung jawab hukum.