Hiện tại mạng xã hội có vẻ vẫn sôi động, nhưng “cảm giác người sống” đang dần biến mất. Khi hàng loạt AI rác (AI slop) tràn vào các nền tảng chính thống, nội dung giả mạo, câu view tràn lan, ngày càng nhiều người dùng thật mất hứng chia sẻ, thậm chí bắt đầu rút lui.
Trước tình trạng AI rác tràn lan, việc kiểm duyệt dựa trên thuật toán đơn thuần đã tỏ ra bất lực. Gần đây, quỹ đầu tư mạo hiểm hàng đầu a16z đã đề xuất khái niệm “Truyền thông cầm cố” (Staked Media), dùng tiền thật để lọc bỏ tiếng ồn AI, gây chú ý trên thị trường.
Khi AI bắt đầu tự sao chép, internet đang bị “nội dung chế” tràn ngập
“AI bắt đầu bắt chước AI rồi.”
Gần đây, các quản trị viên của Reddit – diễn đàn lớn của Mỹ – rơi vào khủng hoảng, họ đang chiến đấu với lượng lớn nội dung do AI tạo ra. Trong diễn đàn r/AmItheAsshole với 24 triệu người dùng, các quản trị viên than phiền hơn một nửa nội dung đều do AI sinh ra.
Chỉ trong nửa đầu năm 2025, Reddit đã xóa hơn 40 triệu bài rác và nội dung giả mạo. Hiện tượng này cũng lan rộng như virus sang Facebook, Instagram, X, YouTube, 小红书 và TikTok.
Trong thời đại thông tin dường như bùng nổ nhưng tiếng nói thật ngày càng ít, nội dung rác do AI sản xuất gần như tràn ngập toàn bộ internet, âm thầm xâm lấn tư duy người dùng. Thực tế, cùng với sự phổ biến của các công cụ sinh nội dung như ChatGPT và Gemini, việc sáng tạo nội dung thủ công đang bị AI thay thế, biến thành một “nhà máy dây chuyền”.
Theo nghiên cứu mới nhất của công ty tối ưu hóa tìm kiếm Graphite, kể từ khi ChatGPT công khai cuối năm 2022, tỷ lệ bài viết do AI tạo ra tăng vọt, từ khoảng 10% năm đó lên hơn 40% năm 2024. Tính đến tháng 5 năm nay, tỷ lệ này đã lên tới 52%.
Tuy nhiên, phần lớn nội dung do AI tạo ra giống như “đồ ăn chế sẵn”, có công thức cố định và quy trình chuẩn hóa, nhưng thiếu linh hồn, đọc vào cảm giác nhạt nhẽo. Hơn nữa, AI ngày nay không còn vụng về nữa, chúng có thể bắt chước giọng điệu con người, thậm chí tái tạo cảm xúc. Từ các bài hướng dẫn du lịch đến tranh cãi tình cảm, thậm chí là kích động mâu thuẫn xã hội để câu view, AI đều có thể dễ dàng làm được.
Điều nguy hiểm hơn là khi AI sinh ra ảo giác, nó sẽ nói chuyện như đúng rồi, không chỉ tạo ra rác thông tin mà còn gây ra khủng hoảng niềm tin.
Trong thời đại AI tràn lan, dùng tiền thật xây dựng niềm tin truyền thông
Trước sự hoành hành của nội dung rác AI trên internet, dù các nền tảng cập nhật cơ chế kiểm duyệt, đưa AI hỗ trợ, hiệu quả quản lý vẫn còn hạn chế. Trong báo cáo hàng năm quan trọng của a16z crypto, Robert Hackett đã đề xuất khái niệm “Truyền thông cầm cố” (Staked Media). (Xem thêm: a16z: 17 xu hướng tiền mã hóa khiến giới đầu tư phấn khích năm 2026)
Báo cáo chỉ ra rằng, mô hình truyền thông truyền thống đề cao tính khách quan, nhưng đã lộ rõ nhược điểm. Internet giúp mọi người có kênh phát ngôn, ngày nay ngày càng nhiều nhà hoạt động, thực hành và nhà xây dựng truyền đạt quan điểm trực tiếp tới công chúng, góc nhìn của họ phản ánh lợi ích của chính họ trong thế giới này. Thật trớ trêu, khán giả tôn trọng họ không phải vì “dù họ có liên quan lợi ích”, mà là “chính vì họ có lợi ích”.
Xu hướng mới này không phải do sự nổi lên của mạng xã hội, mà là “sự xuất hiện của các công cụ mã hóa”, giúp mọi người có thể đưa ra cam kết có thể xác minh công khai. Khi AI làm giảm đáng kể chi phí tạo ra lượng lớn nội dung, quá trình trở nên tiện lợi hơn (có thể dựa trên bất kỳ góc nhìn, danh tính nào để xác thực nội dung), chỉ dựa vào lời nói của con người (hoặc robot) đã không còn đủ thuyết phục. Thay vào đó, token hóa tài sản, khóa hợp đồng có thể lập trình, thị trường dự đoán, lịch sử chuỗi đều cung cấp nền tảng vững chắc hơn cho niềm tin: bình luận viên khi phát biểu ý kiến có thể chứng minh lời nói hành động nhất quán (bằng cách dùng tiền để bảo chứng cho quan điểm); chủ podcast có thể khóa token, chứng minh họ không đổi lập trường hoặc thao túng thị trường; nhà phân tích có thể liên kết dự đoán với thị trường công khai, tạo thành hồ sơ có thể kiểm toán.
Đây chính là dạng sơ khai của “truyền thông cầm cố”: loại truyền thông này không chỉ đồng tình với lợi ích liên quan, mà còn có thể cung cấp hình thức truyền thông có thể chứng minh rõ ràng. Trong mô hình này, độ tin cậy không đến từ việc giả vờ trung lập, hay từ các luận điểm vô căn cứ, mà đến từ cam kết lợi ích rõ ràng, minh bạch và có thể xác minh. Truyền thông cầm cố không thay thế các hình thức truyền thông khác, mà bổ sung vào hệ sinh thái truyền thông hiện có. Nó gửi đi tín hiệu mới: không còn là “tin tôi đi, tôi trung lập”, mà là “đây là rủi ro tôi sẵn sàng chịu, đây là cách bạn có thể xác minh tôi nói thật hay không”.
Robert Hackett dự đoán, lĩnh vực này sẽ tiếp tục phát triển, giống như các phương tiện truyền thông đại chúng thế kỷ 20 để thích nghi với công nghệ và cơ chế khuyến khích thời đó (thu hút khán giả đại chúng và nhà quảng cáo), theo đuổi “khách quan” và “trung lập” về bề mặt. Hiện nay, AI khiến việc tạo hoặc giả mạo bất kỳ nội dung nào trở nên dễ dàng, nhưng thứ thực sự khan hiếm lại chính là bằng chứng, những người có thể đưa ra cam kết xác thực và thực sự hỗ trợ quan điểm của mình sẽ có lợi thế hơn.
Sử dụng cơ chế cầm cố để nâng cao chi phí làm giả, đề xuất đưa cơ chế xác thực nội dung kép
Ý tưởng đổi mới này cũng nhận được sự đồng thuận và đề xuất từ các chuyên gia trong lĩnh vực mã hóa.
Nhà phân tích mã hóa Chen Jian cho biết, từ các phương tiện truyền thông lớn đến tự phát, các tin giả tràn lan, một sự kiện có thể bị đưa tin đảo chiều nhiều lần. Nguyên nhân chính là do chi phí làm giả thấp, lợi nhuận cao. Nếu xem mỗi người truyền tải thông tin như một nút mạng, tại sao không dùng cơ chế kinh tế của POS (bằng chứng cổ phần) của blockchain để giải quyết vấn đề này? Ông đề xuất, ví dụ, cho phép mỗi nút mạng phải cầm cố một khoản tiền trước khi phát biểu ý kiến, cầm cố càng nhiều, độ tin cậy càng cao; người khác có thể thu thập chứng cứ để thách thức, nếu thách thức thành công, hệ thống sẽ phạt và thưởng cho người thách thức. Tất nhiên, quá trình này cũng liên quan đến vấn đề riêng tư và hiệu quả, hiện có các giải pháp như Swarm Network kết hợp ZK và AI, vừa bảo vệ quyền riêng tư của người tham gia, vừa dùng phân tích đa mô hình để hỗ trợ xác minh, tương tự chức năng xác thực sự thật của Grok trên Twitter.
KOL mã hóa Blue Fox cũng cho rằng, có thể dùng công nghệ chứng minh không kiến (zk) để giúp truyền thông hoặc cá nhân chứng minh độ tin cậy trực tuyến, giống như “đặt chữ ký” trên mạng, và không thể sửa đổi trên chuỗi. Nhưng chỉ có chữ ký chưa đủ, còn cần “cầm cố” một lượng tài sản làm đảm bảo, như ETH, USDC hoặc các token mã hóa khác.
Cơ chế cầm cố rất đơn giản: nếu nội dung đăng tải bị chứng minh là giả, tài sản cầm cố sẽ bị phạt; nếu nội dung xác thực, tài sản cầm cố sẽ được hoàn trả sau một thời gian, thậm chí còn có thể nhận phần thưởng bổ sung (như token phát hành của truyền thông cầm cố hoặc chia sẻ từ số tiền phạt của kẻ làm giả). Cơ chế này tạo ra môi trường khuyến khích nói thật. Đối với truyền thông, cầm cố thực sự tăng chi phí vốn, nhưng đổi lại là niềm tin của khán giả thật, điều này đặc biệt quan trọng trong thời đại tràn lan tin giả.
Ví dụ, một YouTuber đăng video giới thiệu sản phẩm, cần “đặt chữ ký” trên chuỗi Ethereum và cầm cố ETH hoặc USDC. Nếu nội dung không đúng sự thật, tiền cầm cố sẽ bị tịch thu, khán giả có thể yên tâm tin vào nội dung video; nếu người sáng tạo giới thiệu điện thoại, cần cầm cố 100 USD ETH và tuyên bố: “Nếu điện thoại này không đạt hiệu quả làm đẹp, tôi sẽ đền bù.” Khi thấy người sáng tạo cầm cố tiền, khán giả tự nhiên cảm thấy đáng tin cậy hơn. Nếu nội dung là giả mạo AI, người sáng tạo sẽ mất tiền cầm cố.
Về việc phân định đúng sai của nội dung, Blue Fox đề xuất có thể dùng cơ chế “xác thực cộng đồng + thuật toán” để kiểm tra kép. Về cộng đồng, người dùng có quyền bỏ phiếu (cần cầm cố tài sản mã hóa), với tỷ lệ bỏ phiếu vượt quá một ngưỡng (ví dụ 60%) sẽ kết luận là giả; về thuật toán, dùng phân tích dữ liệu để hỗ trợ xác minh kết quả bỏ phiếu; về trọng tài, nếu người đăng nội dung không đồng ý với kết quả, có thể khởi kiện lên hội đồng chuyên gia; nếu phát hiện người bỏ phiếu cố ý thao túng, sẽ bị phạt và tịch thu tài sản bỏ phiếu; người tham gia bỏ phiếu và hội đồng chuyên gia đều có phần thưởng, nguồn thưởng gồm tiền phạt và token truyền thông. Ngoài ra, người sáng tạo nội dung có thể dùng công nghệ chứng minh không kiến để tạo chứng cứ xác thực nguồn gốc nội dung, ví dụ như xác thực nguồn gốc video.
Đối với những người có năng lực tài chính muốn lợi dụng cơ chế cầm cố để làm giả, Blue Fox đề xuất nâng cao chi phí làm giả dài hạn, không chỉ về tiền, mà còn về thời gian, hồ sơ lịch sử, hệ thống uy tín và trách nhiệm pháp lý. Ví dụ, tài khoản bị phạt sẽ bị đánh dấu, sau đó nội dung đăng tải phải cầm cố nhiều tiền hơn; nếu nhiều lần bị phạt, độ tin cậy của nội dung sẽ giảm mạnh; nghiêm trọng hơn, có thể đối mặt với trách nhiệm pháp lý.
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
Khi AI chiếm lĩnh các nền tảng nội dung, làm thế nào để giới thiệu việc staking mã hóa để lấy lại cảm giác tin tưởng?
作者:Nancy,PANews
Hiện tại mạng xã hội có vẻ vẫn sôi động, nhưng “cảm giác người sống” đang dần biến mất. Khi hàng loạt AI rác (AI slop) tràn vào các nền tảng chính thống, nội dung giả mạo, câu view tràn lan, ngày càng nhiều người dùng thật mất hứng chia sẻ, thậm chí bắt đầu rút lui.
Trước tình trạng AI rác tràn lan, việc kiểm duyệt dựa trên thuật toán đơn thuần đã tỏ ra bất lực. Gần đây, quỹ đầu tư mạo hiểm hàng đầu a16z đã đề xuất khái niệm “Truyền thông cầm cố” (Staked Media), dùng tiền thật để lọc bỏ tiếng ồn AI, gây chú ý trên thị trường.
Khi AI bắt đầu tự sao chép, internet đang bị “nội dung chế” tràn ngập
“AI bắt đầu bắt chước AI rồi.”
Gần đây, các quản trị viên của Reddit – diễn đàn lớn của Mỹ – rơi vào khủng hoảng, họ đang chiến đấu với lượng lớn nội dung do AI tạo ra. Trong diễn đàn r/AmItheAsshole với 24 triệu người dùng, các quản trị viên than phiền hơn một nửa nội dung đều do AI sinh ra.
Chỉ trong nửa đầu năm 2025, Reddit đã xóa hơn 40 triệu bài rác và nội dung giả mạo. Hiện tượng này cũng lan rộng như virus sang Facebook, Instagram, X, YouTube, 小红书 và TikTok.
Trong thời đại thông tin dường như bùng nổ nhưng tiếng nói thật ngày càng ít, nội dung rác do AI sản xuất gần như tràn ngập toàn bộ internet, âm thầm xâm lấn tư duy người dùng. Thực tế, cùng với sự phổ biến của các công cụ sinh nội dung như ChatGPT và Gemini, việc sáng tạo nội dung thủ công đang bị AI thay thế, biến thành một “nhà máy dây chuyền”.
Theo nghiên cứu mới nhất của công ty tối ưu hóa tìm kiếm Graphite, kể từ khi ChatGPT công khai cuối năm 2022, tỷ lệ bài viết do AI tạo ra tăng vọt, từ khoảng 10% năm đó lên hơn 40% năm 2024. Tính đến tháng 5 năm nay, tỷ lệ này đã lên tới 52%.
Tuy nhiên, phần lớn nội dung do AI tạo ra giống như “đồ ăn chế sẵn”, có công thức cố định và quy trình chuẩn hóa, nhưng thiếu linh hồn, đọc vào cảm giác nhạt nhẽo. Hơn nữa, AI ngày nay không còn vụng về nữa, chúng có thể bắt chước giọng điệu con người, thậm chí tái tạo cảm xúc. Từ các bài hướng dẫn du lịch đến tranh cãi tình cảm, thậm chí là kích động mâu thuẫn xã hội để câu view, AI đều có thể dễ dàng làm được.
Điều nguy hiểm hơn là khi AI sinh ra ảo giác, nó sẽ nói chuyện như đúng rồi, không chỉ tạo ra rác thông tin mà còn gây ra khủng hoảng niềm tin.
Trong thời đại AI tràn lan, dùng tiền thật xây dựng niềm tin truyền thông
Trước sự hoành hành của nội dung rác AI trên internet, dù các nền tảng cập nhật cơ chế kiểm duyệt, đưa AI hỗ trợ, hiệu quả quản lý vẫn còn hạn chế. Trong báo cáo hàng năm quan trọng của a16z crypto, Robert Hackett đã đề xuất khái niệm “Truyền thông cầm cố” (Staked Media). (Xem thêm: a16z: 17 xu hướng tiền mã hóa khiến giới đầu tư phấn khích năm 2026)
Báo cáo chỉ ra rằng, mô hình truyền thông truyền thống đề cao tính khách quan, nhưng đã lộ rõ nhược điểm. Internet giúp mọi người có kênh phát ngôn, ngày nay ngày càng nhiều nhà hoạt động, thực hành và nhà xây dựng truyền đạt quan điểm trực tiếp tới công chúng, góc nhìn của họ phản ánh lợi ích của chính họ trong thế giới này. Thật trớ trêu, khán giả tôn trọng họ không phải vì “dù họ có liên quan lợi ích”, mà là “chính vì họ có lợi ích”.
Xu hướng mới này không phải do sự nổi lên của mạng xã hội, mà là “sự xuất hiện của các công cụ mã hóa”, giúp mọi người có thể đưa ra cam kết có thể xác minh công khai. Khi AI làm giảm đáng kể chi phí tạo ra lượng lớn nội dung, quá trình trở nên tiện lợi hơn (có thể dựa trên bất kỳ góc nhìn, danh tính nào để xác thực nội dung), chỉ dựa vào lời nói của con người (hoặc robot) đã không còn đủ thuyết phục. Thay vào đó, token hóa tài sản, khóa hợp đồng có thể lập trình, thị trường dự đoán, lịch sử chuỗi đều cung cấp nền tảng vững chắc hơn cho niềm tin: bình luận viên khi phát biểu ý kiến có thể chứng minh lời nói hành động nhất quán (bằng cách dùng tiền để bảo chứng cho quan điểm); chủ podcast có thể khóa token, chứng minh họ không đổi lập trường hoặc thao túng thị trường; nhà phân tích có thể liên kết dự đoán với thị trường công khai, tạo thành hồ sơ có thể kiểm toán.
Đây chính là dạng sơ khai của “truyền thông cầm cố”: loại truyền thông này không chỉ đồng tình với lợi ích liên quan, mà còn có thể cung cấp hình thức truyền thông có thể chứng minh rõ ràng. Trong mô hình này, độ tin cậy không đến từ việc giả vờ trung lập, hay từ các luận điểm vô căn cứ, mà đến từ cam kết lợi ích rõ ràng, minh bạch và có thể xác minh. Truyền thông cầm cố không thay thế các hình thức truyền thông khác, mà bổ sung vào hệ sinh thái truyền thông hiện có. Nó gửi đi tín hiệu mới: không còn là “tin tôi đi, tôi trung lập”, mà là “đây là rủi ro tôi sẵn sàng chịu, đây là cách bạn có thể xác minh tôi nói thật hay không”.
Robert Hackett dự đoán, lĩnh vực này sẽ tiếp tục phát triển, giống như các phương tiện truyền thông đại chúng thế kỷ 20 để thích nghi với công nghệ và cơ chế khuyến khích thời đó (thu hút khán giả đại chúng và nhà quảng cáo), theo đuổi “khách quan” và “trung lập” về bề mặt. Hiện nay, AI khiến việc tạo hoặc giả mạo bất kỳ nội dung nào trở nên dễ dàng, nhưng thứ thực sự khan hiếm lại chính là bằng chứng, những người có thể đưa ra cam kết xác thực và thực sự hỗ trợ quan điểm của mình sẽ có lợi thế hơn.
Sử dụng cơ chế cầm cố để nâng cao chi phí làm giả, đề xuất đưa cơ chế xác thực nội dung kép
Ý tưởng đổi mới này cũng nhận được sự đồng thuận và đề xuất từ các chuyên gia trong lĩnh vực mã hóa.
Nhà phân tích mã hóa Chen Jian cho biết, từ các phương tiện truyền thông lớn đến tự phát, các tin giả tràn lan, một sự kiện có thể bị đưa tin đảo chiều nhiều lần. Nguyên nhân chính là do chi phí làm giả thấp, lợi nhuận cao. Nếu xem mỗi người truyền tải thông tin như một nút mạng, tại sao không dùng cơ chế kinh tế của POS (bằng chứng cổ phần) của blockchain để giải quyết vấn đề này? Ông đề xuất, ví dụ, cho phép mỗi nút mạng phải cầm cố một khoản tiền trước khi phát biểu ý kiến, cầm cố càng nhiều, độ tin cậy càng cao; người khác có thể thu thập chứng cứ để thách thức, nếu thách thức thành công, hệ thống sẽ phạt và thưởng cho người thách thức. Tất nhiên, quá trình này cũng liên quan đến vấn đề riêng tư và hiệu quả, hiện có các giải pháp như Swarm Network kết hợp ZK và AI, vừa bảo vệ quyền riêng tư của người tham gia, vừa dùng phân tích đa mô hình để hỗ trợ xác minh, tương tự chức năng xác thực sự thật của Grok trên Twitter.
KOL mã hóa Blue Fox cũng cho rằng, có thể dùng công nghệ chứng minh không kiến (zk) để giúp truyền thông hoặc cá nhân chứng minh độ tin cậy trực tuyến, giống như “đặt chữ ký” trên mạng, và không thể sửa đổi trên chuỗi. Nhưng chỉ có chữ ký chưa đủ, còn cần “cầm cố” một lượng tài sản làm đảm bảo, như ETH, USDC hoặc các token mã hóa khác.
Cơ chế cầm cố rất đơn giản: nếu nội dung đăng tải bị chứng minh là giả, tài sản cầm cố sẽ bị phạt; nếu nội dung xác thực, tài sản cầm cố sẽ được hoàn trả sau một thời gian, thậm chí còn có thể nhận phần thưởng bổ sung (như token phát hành của truyền thông cầm cố hoặc chia sẻ từ số tiền phạt của kẻ làm giả). Cơ chế này tạo ra môi trường khuyến khích nói thật. Đối với truyền thông, cầm cố thực sự tăng chi phí vốn, nhưng đổi lại là niềm tin của khán giả thật, điều này đặc biệt quan trọng trong thời đại tràn lan tin giả.
Ví dụ, một YouTuber đăng video giới thiệu sản phẩm, cần “đặt chữ ký” trên chuỗi Ethereum và cầm cố ETH hoặc USDC. Nếu nội dung không đúng sự thật, tiền cầm cố sẽ bị tịch thu, khán giả có thể yên tâm tin vào nội dung video; nếu người sáng tạo giới thiệu điện thoại, cần cầm cố 100 USD ETH và tuyên bố: “Nếu điện thoại này không đạt hiệu quả làm đẹp, tôi sẽ đền bù.” Khi thấy người sáng tạo cầm cố tiền, khán giả tự nhiên cảm thấy đáng tin cậy hơn. Nếu nội dung là giả mạo AI, người sáng tạo sẽ mất tiền cầm cố.
Về việc phân định đúng sai của nội dung, Blue Fox đề xuất có thể dùng cơ chế “xác thực cộng đồng + thuật toán” để kiểm tra kép. Về cộng đồng, người dùng có quyền bỏ phiếu (cần cầm cố tài sản mã hóa), với tỷ lệ bỏ phiếu vượt quá một ngưỡng (ví dụ 60%) sẽ kết luận là giả; về thuật toán, dùng phân tích dữ liệu để hỗ trợ xác minh kết quả bỏ phiếu; về trọng tài, nếu người đăng nội dung không đồng ý với kết quả, có thể khởi kiện lên hội đồng chuyên gia; nếu phát hiện người bỏ phiếu cố ý thao túng, sẽ bị phạt và tịch thu tài sản bỏ phiếu; người tham gia bỏ phiếu và hội đồng chuyên gia đều có phần thưởng, nguồn thưởng gồm tiền phạt và token truyền thông. Ngoài ra, người sáng tạo nội dung có thể dùng công nghệ chứng minh không kiến để tạo chứng cứ xác thực nguồn gốc nội dung, ví dụ như xác thực nguồn gốc video.
Đối với những người có năng lực tài chính muốn lợi dụng cơ chế cầm cố để làm giả, Blue Fox đề xuất nâng cao chi phí làm giả dài hạn, không chỉ về tiền, mà còn về thời gian, hồ sơ lịch sử, hệ thống uy tín và trách nhiệm pháp lý. Ví dụ, tài khoản bị phạt sẽ bị đánh dấu, sau đó nội dung đăng tải phải cầm cố nhiều tiền hơn; nếu nhiều lần bị phạt, độ tin cậy của nội dung sẽ giảm mạnh; nghiêm trọng hơn, có thể đối mặt với trách nhiệm pháp lý.