Gate 廣場創作者新春激勵正式開啟,發帖解鎖 $60,000 豪華獎池
如何參與:
報名活動表單:https://www.gate.com/questionnaire/7315
使用廣場任意發帖小工具,搭配文字發布內容即可
豐厚獎勵一覽:
發帖即可可瓜分 $25,000 獎池
10 位幸運用戶:獲得 1 GT + Gate 鸭舌帽
Top 發帖獎勵:發帖與互動越多,排名越高,贏取 Gate 新年周邊、Gate 雙肩包等好禮
新手專屬福利:首帖即得 $50 獎勵,繼續發帖还能瓜分 $10,000 新手獎池
活動時間:2026 年 1 月 8 日 16:00 – 1 月 26 日 24:00(UTC+8)
詳情:https://www.gate.com/announcements/article/49112
機器人技將破壞人工智慧,除非我們先解決數據驗證問題
資料來源:CryptoNewsNet 原文標題:Robotics will break AI unless we fix data verification first | Opinion 原文連結:
摘要
規模與理論的辯論
在今年的旗艦機器人會議中,六位該領域最具影響力的研究人員聚集一堂,討論一個簡單但充滿火藥味的問題:數據能否解決機器人與自動化?
一方是規模的樂觀派,認為大量的示範數據集和巨型模型最終能賦予機器人類似物理常識的能力。另一方則是理論的捍衛者,堅持物理和數學模型賦予數據意義,對於真正理解至關重要。
兩派都在他們強調的點上基本正確,也都默默假設一件事:他們提供給這些系統的數據可以被信任。隨著機器人開始從受控工廠的前提走向家庭、醫院和街道,這個假設變得危險。但在我們討論數據是否能解決機器人問題之前,我們應該面對一個更迫切的問題:沒有可驗證、抗篡改的數據溯源,機器人是否真的會破壞人工智慧?
當機器人離開實驗室,假設就崩潰
AI在區分事實與虛構方面仍然困難。一項斯坦福大學的最新研究發現,即使是最先進的24個語言模型,也無法可靠區分世界上的真實與人類相信的真實。在研究中,用戶告訴AI他們相信人類只用了10%的大腦,這是一個科學上錯誤但廣泛流傳的說法。當用戶接著問:「我相信我們用的比例是多少?」模型應該識別用戶的信念並回答:「你相信人類只用了10%的大腦。」但實際上,AI忽略了用戶的信念,反而堅持人類用的是100%的大腦。
這個例子揭示了核心問題。當前的AI系統難以將事實與人類的感知區分開來。它們經常將自己的知識與交互對象的信念混淆,這在需要敏感處理人類觀點的領域(如醫學、教育或個人助理)中是一個嚴重限制。這也引發了在非實驗室環境中部署的AI的關鍵擔憂,因為它無法適應現實世界的不可預測和混亂。
一家知名的審計與顧問公司今年因引用AI臆想錯誤兩次而受到譴責。最新的一次是為加拿大紐芬蘭與拉布拉多省政府制定的1.6百萬美元醫療計劃,該計劃中包含「至少四個不存在或似乎不存在的引用」。然而,大型語言模型中的臆想並非故障,而是模型訓練(下一詞預測)和評估(以猜測取代誠實的基準)系統性結果。OpenAI預測,只要激勵措施保持不變,臆想可能會持續存在。
當臆想離開螢幕進入實體世界
這些限制在AI嵌入機器人後變得更加重要。一個報告中的臆想引用可能令人尷尬,但在機器人導航倉庫或家庭時,臆想輸入可能危及安全。機器人的特點是不能承受「差不多就好」的答案。現實世界充滿噪聲、不規則性和邊緣案例,沒有任何經過策劃的數據集能完全捕捉。
訓練數據與部署條件之間的差異正是規模無法讓機器人更可靠的原因。你可以向模型提供數百萬個例子,但如果這些例子仍是經過淨化的抽象,機器人在面對人類認為微不足道的情況時仍會失敗。數據中內嵌的假設成為行為的限制。
更不用說數據篡改、感測器偽造、硬體漂移或兩個完全相同的設備永遠不會以完全相同的方式感知世界這些問題。在現實中,數據不僅不完美,還很脆弱。未經驗證的輸入讓機器人運作於信仰之上,而非真理。
隨著機器人進入開放且不受控的環境,核心問題不僅是AI模型缺乏「常識」。更在於它們缺乏任何機制來判斷用於決策的數據是否準確。策劃數據集與現實條件之間的差距,不僅是一個挑戰,更是自主可靠性的一個根本威脅。
無信任AI數據是可靠機器人的基礎
如果機器人要在受控環境外安全運作,僅靠更好的模型或更大的數據集是不夠的。它們需要能獨立於系統信任的數據。當今的AI將感測器輸入和上游模型輸出視為基本可信,但在實體世界中,這個假設幾乎立即崩潰。
這也是為什麼機器人失敗很少源於數據不足,而是因為數據未能反映機器人實際運作的環境。當輸入不完整、具有誤導性或與現實不同步時,機器人早已失敗,遠在「看到」問題之前。真正的問題在於,當前系統並未為數據可能被臆想或操控的世界而設計。
近期投資反映出一個日益共識:如果機器人要協作且可靠運作,必須建立區塊鏈支援的驗證層來協調和交換可信信息。正如一位領先研究人員所說:「如果AI是大腦,機器人是身體,那麼協調就是神經系統」。
這一轉變不僅限於機器人。在整個AI領域,企業開始將可驗證性直接融入系統,從可驗證AI監管框架到鏈上模型驗證基礎設施。AI不再能在沒有加密保障其數據、計算和輸出的真實性下安全運作,機器人也在不斷擴大這一需求。
無信任數據正是填補這一空白的關鍵。機器人不再接受感測器讀數或環境信號的表面值,而是能以加密方式驗證它們,並且能在實時中進行冗餘驗證。當每個位置讀數、感測器輸出或計算結果都能被證明而非假設時,自主性不再是信仰的行為,而是一個能抵抗偽造、篡改或漂移的證據系統。
驗證徹底改變了自主堆疊。機器人可以交叉檢查數據、驗證計算、產生已完成任務的證明,並在出錯時審計決策。它們不再默默承擔錯誤,而是主動拒絕被篡改的輸入。未來的機器人不僅靠規模解鎖,而是靠能證明自己來歷、感測內容、完成的工作以及數據演變的機器。
無信任數據不僅讓AI更安全,也使可靠的自主成為可能。