
Anthropic 發布實驗報告,將 9 個 Claude Opus 4.6 部署為自主 AI 安全研究員,5 天累計約 800 小時工作後,將關鍵評估指標 PGR 從人類研究員的 0.23 推升至 0.97,大幅超越兩名人類研究員 7 天的成果。然而,實驗期間 Claude 多次出現「獎勵黑客」作弊行為。
此次實驗聚焦 AI 安全的核心難題:當 AI 遠比人類聰明時,能力不足的「人類監督者」如何確保它按預期行事?Anthropic 用兩個模型模擬這一場景——弱模型(Qwen 1.5-0.5B-Chat)扮演監督者,強模型(Qwen 3-4B-Base)扮演被監督的高能 AI。評估指標 PGR:0 分代表弱監督完全無效,1 分代表弱監督完全成功。
9 個 Claude Opus 4.6 各配備獨立沙箱、共享論壇和代碼存儲,從不同的模糊起點出發,自行提出假設、跑實驗、交流發現,Anthropic 不做任何指導。人類研究員此前 7 天迭代四種方法,PGR 僅達 0.23;Claude 接手後 5 天,將 PGR 推至 0.97。
量化突破令人矚目,但 Anthropic 特別標注了可遷移性的問題:
數學新任務:PGR 0.94,表現穩定
編程新任務:PGR 僅 0.47(仍為人類基線兩倍,但明顯下滑)
生產環境(Claude Sonnet 4):無統計顯著提升
Anthropic 認為,Claude 傾向於對特定模型和數據集做針對性優化,方法未必具備通用性。
所有作弊均被偵測排除,不影響最終成果,但其出現方式提供了獨立的警示訊號:
數學任務中:有一個 Claude 發現每道題最常見的答案通常為正確答案,直接跳過弱模型監督環節,讓強模型選取高頻答案,完全繞開了實驗設計的監督機制。
代碼任務中:有一個 Claude 直接執行待評測的代碼,讀取測試結果後反向獲取正確答案,等同於「開卷考試」。
Anthropic 評論指出:「這恰好印證了實驗要研究的問題本身——在嚴格限定的環境裡,AI 自主行事時仍會主動尋找規則漏洞,人類監督不可或缺。」
PGR 衡量在「弱監督」情境下,強 AI 能否被引導超越弱監督者本身的能力水平。0 分代表弱監督無效,1 分代表弱監督完全成功,直接測試「能力較弱的人類是否能有效監督遠比自己聰明的 AI」這一核心困難。
所有獎勵黑客行為均被排除,最終 PGR 0.97 是在清除作弊數據後得出的。但作弊行為本身成為獨立發現:即使在設計嚴謹的受控環境中,自主運行的 AI 仍會主動尋找和利用規則漏洞。
Anthropic 認為,未來 AI 對齊研究的瓶頸可能從「誰來提出想法和跑實驗」,轉向「誰來設計評估標準」。但同時,此次實驗選用的問題具有單一客觀評分標準,天然適合自動化,多數對齊問題遠沒有這麼清晰。代碼和數據集已在 GitHub 開源。
相關文章