Học tăng cường định hình lại AI phi tập trung: Từ mạng lưới tính toán đến tiến trình thông minh

Hiện tại, sự phát triển của AI đang ở một bước ngoặt quan trọng. Các mô hình lớn đã từ việc chỉ đơn thuần “hợp lý hóa mô hình” tiến tới “suy luận có cấu trúc”, và trung tâm thúc đẩy sự biến đổi này chính là công nghệ học tăng cường. Sự xuất hiện của DeepSeek-R1 đánh dấu sự trưởng thành của bước chuyển này — học tăng cường không còn chỉ là công cụ tinh chỉnh nhỏ nữa, mà đã trở thành con đường chính để nâng cao khả năng suy luận của hệ thống. Đồng thời, Web3 đã tái cấu trúc quan hệ sản xuất AI thông qua mạng lưới tính toán phi tập trung và hệ thống khuyến khích mã hóa. Sự va chạm của hai lực lượng này đã tạo ra phản ứng hóa học bất ngờ: nhu cầu của học tăng cường về phân mẫu phân phối, tín hiệu thưởng và huấn luyện có thể xác minh, hoàn toàn phù hợp với khả năng hợp tác phi tập trung của blockchain, phân phối khuyến khích và thực thi có thể kiểm chứng.

Bài viết này sẽ bắt đầu từ nguyên lý kỹ thuật của học tăng cường, tiết lộ logic sâu hơn về sự bổ sung cấu trúc giữa nó và Web3, và qua các ví dụ thực tiễn từ các dự án tiên phong như Prime Intellect, Gensyn, Nous Research, sẽ trình bày khả năng và triển vọng của mạng lưới học tăng cường phi tập trung.

Cấu trúc ba lớp của học tăng cường: Từ lý thuyết đến ứng dụng

Cơ sở lý thuyết: Học tăng cường thúc đẩy tiến trình AI như thế nào

Học tăng cường về bản chất là một dạng “tối ưu hóa thử sai”. Thông qua vòng lặp “tương tác với môi trường → nhận thưởng → điều chỉnh chiến lược”, mô hình ngày càng trở nên thông minh hơn qua từng vòng lặp. Điều này khác hoàn toàn phương pháp học có giám sát truyền thống dựa vào dữ liệu gán nhãn — học tăng cường giúp AI tự học hỏi và cải thiện dựa trên kinh nghiệm.

Một hệ thống học tăng cường đầy đủ gồm ba vai trò cốt lõi:

  • Mạng chiến lược (Policy Network): bộ não ra quyết định, dựa vào trạng thái môi trường để sinh ra hành động
  • Mẫu dữ liệu trải nghiệm (Rollout): người thực thi tương tác với môi trường, tạo ra dữ liệu huấn luyện
  • Học viên (Learner): xử lý tất cả dữ liệu mẫu, tính đạo hàm cập nhật, tối ưu hóa chiến lược

Điều quan trọng nhất là: quá trình lấy mẫu có thể hoàn toàn song song, trong khi cập nhật tham số cần đồng bộ tập trung. Tính năng này mở ra cánh cửa cho huấn luyện phi tập trung.

Tổng quan về huấn luyện LLM hiện đại: Khung ba giai đoạn

Ngày nay, việc huấn luyện các mô hình ngôn ngữ lớn (LLM) được chia thành ba giai đoạn tiến dần, mỗi giai đoạn đảm nhận nhiệm vụ khác nhau:

Tiền huấn luyện (Pre-training) — Xây dựng mô hình thế giới Học tự giám sát trên dữ liệu hàng nghìn tỷ câu, xây dựng nền tảng khả năng chung của mô hình. Giai đoạn này đòi hỏi hàng nghìn GPU tập trung, chi phí lớn, chiếm 80-95% ngân sách, và dựa vào các nhà cung cấp đám mây tập trung cao.

Tinh chỉnh (Supervised Fine-tuning) — Tiêm khả năng nhiệm vụ cụ thể Dùng dữ liệu nhỏ hơn để bổ sung khả năng cho các nhiệm vụ đặc thù, chi phí chiếm 5-15%. Dù hỗ trợ phân tán, nhưng việc đồng bộ gradient vẫn cần phối hợp tập trung, hạn chế tiềm năng phi tập trung.

Sau huấn luyện (Post-training) — Định hình suy luận và giá trị Là sân khấu của học tăng cường. Bao gồm RLHF (học tăng cường dựa trên phản hồi của con người), RLAIF (học tăng cường dựa trên phản hồi của AI), GRPO (tối ưu chiến lược nhóm tương đối) và các phương pháp khác. Chi phí chỉ chiếm 5-10%, nhưng có thể nâng cao rõ rệt khả năng suy luận, an toàn và phù hợp của mô hình. Điểm mạnh chính là giai đoạn này tự nhiên hỗ trợ thực thi phân tán bất đồng bộ, các nút không cần giữ toàn bộ trọng số, và kết hợp tính toán có thể xác minh cùng cơ chế khuyến khích trên chuỗi, hình thành mạng huấn luyện phi tập trung mở.

Tại sao giai đoạn sau huấn luyện phù hợp nhất với Web3? Bởi vì nhu cầu lấy mẫu (Rollout) của học tăng cường là “vô hạn” — sinh ra nhiều hơn các quỹ đạo suy luận, luôn làm cho mô hình thông minh hơn. Và việc lấy mẫu này lại dễ phân tán toàn cầu, ít cần giao tiếp liên tục giữa các nút.

Tiến trình công nghệ của học tăng cường: Từ RLHF đến GRPO

Quy trình năm giai đoạn của học tăng cường

Giai đoạn 1: Tạo dữ liệu (Policy Exploration) Mô hình chiến lược sinh ra nhiều chuỗi suy luận dựa trên prompt, làm nền tảng cho việc đánh giá sở thích sau này. Độ rộng của bước này quyết định sự đa dạng của khám phá mô hình.

Giai đoạn 2: Phản hồi sở thích (RLHF / RLAIF)

  • RLHF: con người so sánh các đầu ra của mô hình, chọn câu trả lời tốt hơn. Đây là bước then chốt giúp GPT-3.5 nâng cấp thành GPT-4, nhưng chi phí cao và khó mở rộng.
  • RLAIF: thay thế con người bằng AI đánh giá hoặc quy tắc định sẵn, tự động hóa và mở rộng quy mô. Các công ty như OpenAI, Anthropic, DeepSeek đã áp dụng mô hình này.

Giai đoạn 3: Mô hình thưởng (Reward Modeling)

  • RM: chỉ đánh giá chất lượng câu trả lời cuối cùng, cho điểm.
  • PRM: là đổi mới then chốt của OpenAI o1 và DeepSeek-R1, không chỉ chấm điểm kết quả mà còn chấm điểm từng bước suy luận, từng token, từng đoạn logic — về bản chất là “dạy mô hình cách suy nghĩ đúng đắn”.

Giai đoạn 4: Xác minh thưởng (Reward Verifiability) Trong môi trường phân tán, tín hiệu thưởng phải đến từ các quy tắc, sự kiện hoặc đồng thuận có thể tái tạo. Các bằng chứng không kiến thức (ZK) và chứng minh khả năng học (PoL) cung cấp đảm bảo mật mã, khiến thưởng không thể bị sửa đổi và có thể kiểm chứng.

Giai đoạn 5: Tối ưu hóa chiến lược (Policy Optimization) Dựa trên tín hiệu thưởng, cập nhật tham số mô hình. Phương pháp tranh luận lớn nhất:

  • PPO: phương pháp truyền thống, ổn định nhưng chậm hội tụ.
  • GRPO: đổi mới cốt lõi của DeepSeek-R1, mô hình hóa lợi thế tương đối trong nhóm thay vì xếp hạng đơn thuần, phù hợp với nhiệm vụ suy luận, huấn luyện ổn định hơn.
  • DPO: không tạo ra quỹ đạo, không xây dựng mô hình thưởng, tối ưu trực tiếp dựa trên sở thích, chi phí thấp nhưng không nâng cao khả năng suy luận.

Mối quan hệ tự nhiên giữa học tăng cường và Web3

Tách biệt vật lý giữa suy luận và huấn luyện

Quá trình huấn luyện học tăng cường có thể rõ ràng phân chia:

  • Rollout (lấy mẫu): sinh dữ liệu lớn, tính toán nặng nhưng giao tiếp ít, có thể song song trên GPU tiêu chuẩn
  • Cập nhật (Update): tính đạo hàm và đồng bộ tham số, cần băng thông cao, tập trung

Điều này chính là hình thái tự nhiên của mạng lưới phi tập trung Web3: giao phó việc lấy mẫu cho GPU toàn cầu, tính toán dựa trên đóng góp và trả thưởng bằng token; giữ cập nhật tham số tại các nút trung tâm để đảm bảo hội tụ ổn định.

Tính xác minh và niềm tin

Trong mạng không cần phép, “trung thực” phải được bắt buộc. Các bằng chứng không kiến thức và chứng minh khả năng học cung cấp đảm bảo mật mã: người xác nhận có thể kiểm tra ngẫu nhiên xem quá trình suy luận có thực sự được thực thi, tín hiệu thưởng có thể tái tạo, trọng số mô hình có bị thay đổi hay không. Điều này biến học tăng cường phi tập trung từ vấn đề “tin tưởng” thành vấn đề “toán học”.

Cơ chế tạo phản hồi dựa trên token

Hệ sinh thái token của Web3 biến mô hình thưởng truyền thống thành thị trường tự điều chỉnh:

  • Người tham gia được thưởng vì đóng góp quỹ đạo suy luận, phản hồi chất lượng cao
  • Cơ chế đặt cược bắt buộc người tham gia “dám bỏ tiền thật” để đảm bảo chất lượng
  • Cơ chế trừng phạt (Slashing): phát hiện gian lận, trừ tiền đặt cọc
  • Toàn bộ hệ sinh thái tự điều chỉnh theo lợi ích, không cần quản lý trung ương

Môi trường thử nghiệm tự nhiên của đa tác nhân học tăng cường

Blockchain vốn dĩ là môi trường đa tác nhân công khai, minh bạch, liên tục tiến hóa. Tài khoản, hợp đồng và đại lý liên tục điều chỉnh chiến lược dựa trên khuyến khích. Đây là nơi lý tưởng để thử nghiệm quy mô lớn học tăng cường đa tác nhân (MARL).

Thực hành tiên phong về học tăng cường phi tập trung

Prime Intellect: đột phá kỹ thuật về học tăng cường bất đồng bộ

Prime Intellect xây dựng thị trường tính toán mở toàn cầu, và qua framework prime-rl đã thực hiện thành công học tăng cường phân tán quy mô lớn bất đồng bộ.

Đổi mới cốt lõi là hoàn toàn tách rời: Người thực thi (Rollout Workers) và người học (Trainer) không còn cần đồng bộ chặn đứng. Rollout Workers liên tục tạo quỹ đạo suy luận và tải lên, Trainer lấy dữ liệu từ bộ đệm chung để cập nhật đạo hàm. Bất kỳ GPU nào cũng có thể tham gia hoặc rút lui bất cứ lúc nào, không cần chờ đợi.

Điểm sáng công nghệ:

  • Tích hợp engine vLLM, dùngPagedAttention và xử lý theo lô liên tục để đạt tốc độ lấy mẫu cực cao
  • Sử dụng phân mảnh tham số FSDP2 và MoE kích hoạt thưa thớt, vận hành mô hình tỷ tỷ tham số hiệu quả
  • Thuật toán GRPO+ giảm thiểu chi phí mạng Critic, phù hợp với môi trường bất đồng bộ, độ trễ cao
  • Giao thức truyền thông OpenDiLoCo giảm hàng trăm lần lượng truyền dữ liệu xuyên vùng địa lý

Thành tích: Các mô hình INTELLECT trong mạng lưới phân tán đa châu lục đạt 98% hiệu suất sử dụng tính toán, tỷ lệ truyền thông chỉ 2%. INTELLECT-3 (106B MoE) dù dùng kích hoạt thưa thớt (chỉ 12B tham số hoạt động), nhưng hiệu năng suy luận đã gần hoặc vượt các mô hình lớn hơn, kín nguồn.

Gensyn: từ cộng tác bầy đàn đến AI có thể xác minh

Gensyn qua RL Swarm biến học tăng cường phi tập trung thành một “bầy đàn”: không cần điều phối trung tâm, các nút tự tạo thành vòng lặp sinh → đánh giá → cập nhật.

Ba loại tham gia:

  • Solver: mô hình tại chỗ sinh suy luận và tạo quỹ đạo, hỗ trợ GPU đa dạng
  • Proposer: tạo nhiệm vụ (ví dụ: bài toán toán, mã code), hỗ trợ độ khó tự thích nghi
  • Evaluator: dùng mô hình “trọng tài” hoặc quy tắc để chấm điểm quỹ đạo, tạo thưởng có thể kiểm chứng

Thuật toán chủ đạo SAPO: dựa trên “chia sẻ quỹ đạo và lọc” thay vì “chia sẻ đạo hàm”, qua lấy mẫu phân tán quy mô lớn trong môi trường độ trễ cao, duy trì hội tụ ổn định. So với PPO dựa vào Critic hoặc GRPO dựa trên ước lượng nhóm, SAPO sử dụng băng thông cực thấp để GPU tiêu chuẩn cũng tham gia hiệu quả.

Hệ thống xác minh: kết hợp PoL và cơ chế xác minh Verde, đảm bảo tính xác thực của từng quỹ đạo suy luận, cung cấp nền tảng cho huấn luyện mô hình tỷ tỷ tham số mà không phụ thuộc vào các tập đoàn công nghệ lớn.

Nous Research: từ mô hình đến hệ sinh thái AI vòng kín

Nous Research qua dòng Hermes và khung Atropos thể hiện một hệ thống tự tiến hóa hoàn chỉnh.

Tiến trình phát triển mô hình:

  • Hermes 1-3: dựa vào DPO giá rẻ để đạt được phù hợp chỉ thị
  • Hermes 4 / DeepHermes: dùng chuỗi suy nghĩ để thực hiện System-2, kết hợp từ chối lấy mẫu + xác minh Atropos để xây dựng dữ liệu suy luận cao tinh khiết
  • Thay thế PPO bằng GRPO, giúp học tăng cường suy luận chạy trên mạng GPU phi tập trung Psyche

Vai trò của Atropos: đóng vai trò “trọng tài” chuẩn hóa môi trường học tăng cường, đóng gói prompt, gọi công cụ, thực thi mã, đa vòng tương tác thành môi trường huấn luyện chuẩn hóa, có thể xác minh chính xác đầu ra, cung cấp tín hiệu thưởng xác định. Trong mạng huấn luyện phi tập trung Psyche, Atropos xác nhận xem các nút có thực sự nâng cao chiến lược hay không, hỗ trợ chứng minh khả năng học có thể kiểm chứng.

DisTrO: dùng nén đạo hàm để giảm hàng trăm lần chi phí truyền thông của RL, giúp các gia đình có băng thông thấp vẫn chạy được mô hình lớn. Đây là “giảm chiều” đối với giới hạn vật lý.

Trong hệ thống của Nous, Atropos xác minh chuỗi suy luận, DisTrO nén truyền thông, Psyche vận hành vòng lặp học tăng cường, Hermes ghi nhận tất cả các cập nhật vào trọng số. Học tăng cường không chỉ là giai đoạn huấn luyện mà còn trở thành giao thức chính kết nối dữ liệu, môi trường, mô hình và hạ tầng.

Gradient Network: Giao thức trong kiến trúc AI

Gradient qua “giao thức mở” định nghĩa kiến trúc tính toán AI thế hệ tiếp theo. Framework Echo là bộ tối ưu riêng cho học tăng cường.

Thiết kế chính của Echo: tách rời suy luận, huấn luyện và dữ liệu, mở rộng độc lập trong môi trường hỗn hợp:

  • Nhóm suy luận: GPU tiêu chuẩn, thiết bị biên, dùng Parallax pipeline để lấy mẫu song song cao
  • Nhóm huấn luyện: GPU phân tán hoặc toàn cầu, cập nhật đạo hàm và đồng bộ tham số

Giao thức đồng bộ:

  • Chế độ kéo theo thứ tự: ưu tiên độ chính xác, phía huấn luyện bắt buộc làm mới mô hình của các nút suy luận
  • Chế độ bất đồng bộ kéo và đẩy: ưu tiên hiệu quả, các nút suy luận liên tục sinh quỹ đạo có nhãn phiên bản, huấn luyện tự tiêu thụ

Thiết kế này duy trì sự ổn định của huấn luyện học tăng cường trong mạng lưới có độ trễ cao, tối đa hóa hiệu suất sử dụng thiết bị.

Hệ sinh thái Grail của Bittensor: xác minh mật mã của học tăng cường

Bittensor qua cơ chế đồng thuận Yuma tạo ra một mạng thưởng không ổn định, phi tĩnh lớn. Covenant AI với mạng con SN81 Grail là động cơ học tăng cường trong hệ sinh thái này.

Đổi mới chính của Grail: chứng minh bằng mật mã tính xác thực của từng quỹ đạo học tăng cường (rollout) và liên kết với danh tính mô hình. Ba lớp cơ chế xây dựng chuỗi niềm tin:

  1. Tạo thử thách xác định: dùng drand và băm khối để tạo nhiệm vụ không thể dự đoán trước nhưng có thể tái tạo (ví dụ: SAT, suy luận toán), ngăn gian lận dự đoán trước
  2. Xác minh nhẹ: dùng PRF và sketch commitments để người xác nhận kiểm tra ngẫu nhiên token logprob và chuỗi suy luận, xác nhận quỹ đạo do mô hình thực thi
  3. Liên kết danh tính mô hình: gắn chuỗi suy luận với dấu vân tay trọng số mô hình và cấu trúc phân phối token, bất kỳ thay đổi nào đều bị phát hiện

Kết quả xác minh: Grail thực thi quy trình huấn luyện có thể xác minh, miner tạo nhiều quỹ đạo cho cùng một nhiệm vụ, người xác nhận dựa trên độ chính xác, chất lượng chuỗi suy luận, độ thỏa mãn SAT, rồi ghi kết quả chuẩn hóa lên chuỗi như trọng số TAO. Thí nghiệm công khai cho thấy, hệ thống này nâng tỷ lệ chính xác của Qwen2.5-1.5B về toán từ 12.7% lên 47.6%, ngăn chặn gian lận, đồng thời nâng cao năng lực mô hình rõ rệt.

Fraction AI: cạnh tranh thúc đẩy học tăng cường

Fraction AI dựa trên học tăng cường cạnh tranh (RLFC) và thiết kế game hóa để biến phần thưởng tĩnh của RLHF thành đối kháng đa tác nhân động.

Cơ chế chính:

  • Agents: đơn vị chiến lược nhẹ dựa trên LLM mã nguồn mở, cập nhật QLoRA chi phí thấp
  • Spaces: miền nhiệm vụ cô lập, agent trả phí tham gia, thắng thua nhận thưởng
  • AI Judges: đánh giá tức thì qua RLAIF
  • PoL: xác minh cập nhật chiến lược dựa trên kết quả cạnh tranh

Bản chất: để các agent cạnh tranh tự sinh ra dữ liệu sở thích chất lượng cao, người dùng qua kỹ thuật prompt và siêu tham số hướng dẫn khám phá. Điều này biến việc tinh chỉnh không tin tưởng thành vòng khép kín tự sinh lợi, dữ liệu sở thích trở thành tài sản có thể quản lý và phân phối trên chuỗi.

Mô hình chung và con đường riêng của học tăng cường phi tập trung

Hội tụ kiến trúc: ba tầng thiết kế chung

Dù các dự án khác nhau về điểm xuất phát, khi kết hợp học tăng cường với Web3, các logic kiến trúc cơ bản thể hiện theo mô hình “tách rời- xác minh- khuyến khích” rất cao:

Tầng 1: Tách biệt vật lý giữa lấy mẫu và huấn luyện

  • Giao phó lấy mẫu (Rollout) cho GPU tiêu chuẩn toàn cầu, tính toán song song, ít giao tiếp
  • Đồng bộ cập nhật đạo hàm và tham số tại các nút trung tâm, băng thông cao

Điều này chính là hình thái tự nhiên của mạng lưới phi tập trung Web3: phân phối lấy mẫu cho GPU toàn cầu, tính toán dựa trên đóng góp, trả thưởng bằng token; giữ cập nhật tại các nút trung tâm để đảm bảo hội tụ.

Tầng 2: Xác minh và niềm tin

  • Trong mạng không phép, tính xác thực phải qua các cơ chế toán học và hệ thống
  • Các ví dụ tiêu biểu: PoL của Gensyn, TopLoc của Prime Intellect, xác minh mật mã của Grail

Tầng 3: Khuyến khích token

  • Thị trường tự điều chỉnh dựa trên thưởng, phần thưởng cho tính toán, tạo dữ liệu, xác minh, phân phối thưởng
  • Tham gia dựa trên phần thưởng, trừng phạt gian lận, duy trì sự ổn định và tiến bộ của mạng

Các điểm khác biệt chính

Đột phá thuật toán (Nous Research)

  • Tập trung giải quyết mâu thuẫn căn bản của huấn luyện phân tán — giới hạn băng thông. DisTrO nhằm nén truyền đạo hàm hàng nghìn lần, cho phép gia đình dùng internet phổ thông chạy mô hình lớn.

Hệ thống kỹ thuật (Prime Intellect, Gensyn, Gradient)

  • Xây dựng hệ thống vận hành AI thế hệ mới. Prime Intellect với ShardCast, Gensyn với RL Swarm, Gradient với Parallax đều nhằm tối đa hóa hiệu suất trong điều kiện mạng hỗn hợp.

Thị trường và phần thưởng (Grail, Fraction AI)

  • Tập trung vào thiết kế phần thưởng tinh vi, thúc đẩy các nút tự tìm ra chiến lược tối ưu, thúc đẩy trí tuệ xuất hiện nhanh hơn. Grail xác minh mật mã, Fraction AI dùng cạnh tranh để kích hoạt học tăng cường.

Cơ hội và thách thức: Triển vọng của học tăng cường phi tập trung

Ưu điểm hệ thống

Chi phí được viết lại Nhu cầu lấy mẫu của học tăng cường là vô hạn. Web3 có thể huy động GPU toàn cầu với chi phí cực thấp — đây là lợi thế mà các nhà cung cấp đám mây tập trung khó bắt kịp. Dự kiến, chi phí học tăng cường phi tập trung giảm 50-80%.

Chủ quyền giá trị (Sovereign Alignment) Phá vỡ độc quyền của các tập đoàn lớn trong việc định hướng AI. Cộng đồng có thể dùng token để bỏ phiếu quyết định “đáp án đúng” của mô hình, thúc đẩy dân chủ hóa quản trị AI. Học tăng cường trở thành cầu nối giữa công nghệ và cộng đồng.

Hạn chế cấu trúc

Vách băng thông (Bandwidth Wall) Dù có các sáng kiến như DisTrO, độ trễ vật lý vẫn giới hạn khả năng huấn luyện toàn bộ tham số lớn (>70B). Hiện tại, Web3 AI tập trung nhiều hơn vào tinh chỉnh và suy luận.

Nguy cơ “Reward Hacking” (Lách thưởng) Trong mạng có nhiều phần thưởng, các nút dễ “tối ưu hóa quá mức” phần thưởng hơn là thực sự nâng cao trí tuệ. Thiết kế phần thưởng chống gian lận và bền vững là cuộc chơi kỹ thuật và cơ chế lâu dài.

Tấn công Byzantine (Byzantine nodes) Các nút có thể cố ý thao túng tín hiệu huấn luyện hoặc tấn công phá hoại hội tụ. Cần liên tục đổi mới phần thưởng và cơ chế chống tấn công.

Triển vọng: Viết lại quan hệ sản xuất trí tuệ

Sự kết hợp giữa học tăng cường và Web3 về bản chất là viết lại “cách AI được sản xuất, phù hợp và phân phối giá trị”. Các hướng phát triển bổ sung gồm:

Mạng lưới huấn luyện phi tập trung Từ các máy đào mỏ tính toán đến mạng chiến lược, phân phối lấy mẫu có thể xác minh cho GPU toàn cầu. Ngắn hạn, tập trung vào thị trường suy luận có thể xác minh; trung hạn, hình thành các mạng con học tăng cường theo nhiệm vụ.

Chuyển đổi sở thích và phần thưởng thành tài sản Từ lao động gán nhãn dữ liệu đến cổ phần dữ liệu, biến phản hồi và mô hình thưởng thành tài sản có thể quản lý và phân phối trên chuỗi, nâng cao chất lượng phản hồi.

Tiến hóa “nhỏ mà mạnh” trong lĩnh vực chuyên biệt Trong các lĩnh vực có thể xác minh kết quả, có thể đo lường lợi ích, phát triển các đại lý học tăng cường nhỏ, mạnh như chiến lược DeFi, sinh mã, giúp chiến lược cải tiến và khai thác giá trị trực tiếp, có khả năng vượt qua các mô hình đóng nguồn mở lớn.

Thực sự cơ hội không phải là sao chép một OpenAI phi tập trung, mà là viết lại luật chơi: biến quá trình huấn luyện thành thị trường mở, phần thưởng và sở thích thành tài sản trên chuỗi, và phân phối công bằng giá trị sáng tạo trí tuệ giữa người huấn luyện, người phù hợp và người sử dụng. Đây chính là ý nghĩa sâu sắc nhất của sự kết hợp giữa học tăng cường và Web3.

PRIME3,74%
TOKEN-2,87%
POL3,62%
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
0/400
Không có bình luận
  • Ghim