大家早安 ☀️


當黃仁勳提到去中心化的AI訓練時,大家的注意力立即轉向了Bittensor。
但這在那之前已經被充分探索過了。
在2025年6月,@0G_labs 在arXiv上發布了DiLoCoX論文,展示了在去中心化節點上進行大規模模型訓練的效率遠高於傳統方法。
他們證明了在普通硬體和典型網路環境下,進行超過1000億參數的訓練,同時將通信效率提升了357倍。
還有一個經常被忽略的關鍵差異。Bittensor專注於特定的訓練網絡,而DiLoCoX則被設計為一個可以用來訓練任何模型的框架。
它也是一個更廣泛堆疊的一部分,結合了計算、存儲、數據可用性和鏈。
下一站:2025年4月1日的EthCC Cannes 📍
0G-5.67%
查看原文
post-image
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 打賞
  • 留言
  • 轉發
  • 分享
留言
請輸入留言內容
請輸入留言內容
暫無留言