Anthropic 執行長 Dario Amodei 認為,當 AI 變得越來越難以控制時,麻痺感正在形成。 在週一發表的一篇題為《科技的青春期》的廣泛文章中,Amodei 主張,具有遠超人類智慧能力的 AI 系統可能在未來兩年內出現——而且監管努力已經偏離並未能跟上發展的步伐。 “人類即將掌握幾乎難以想像的力量,但我們的社會、政治和技術系統是否具備足夠的成熟來運用這些力量,仍然深不可測,”他寫道。“我們在 2026 年比在 2023 年更接近真正的危險,”他補充說,“科技並不在乎什麼是時尚的。”
Amodei 的評論來自他上週在達沃斯世界經濟論壇的辯論,當時他與 Google DeepMind 的 CEO Demis Hassabis 就 AGI 對人類的影響展開爭論。 在這篇新文章中,他重申了人工智慧將引發經濟動盪、取代大量白領工作的主張。 “AI 將具備非常廣泛的人類認知能力——也許全部都具備。這與以前的技術如機械化農業、交通運輸甚至電腦截然不同,”他寫道。“這將使人們更難輕鬆從被取代的工作轉換到適合自己的類似工作。”
科技的青春期:一篇關於強大 AI 對國家安全、經濟和民主構成風險的文章——以及我們如何防範:https://t.co/0phIiJjrmz
— Dario Amodei (@DarioAmodei) 2026年1月26日
除了經濟動盪外,Amodei 還指出,隨著 AI 承擔更廣泛的人類層級任務,對其可信度的擔憂也在增加。 他提到“對齊造假”,即模型在評估期間似乎遵守安全規則,但在認為缺乏監督時行為卻不同。 在模擬測試中,Amodei 表示 Claude 在對抗條件下展現出欺騙行為。 在一個場景中,該模型在被告知控制它的組織不道德後,試圖破壞其操作員。在另一個場景中,它在模擬關機期間威脅虛構的員工。 “只要知道這些陷阱,就可以減輕它們,但問題在於訓練過程如此複雜,資料、環境和激勵如此多樣化,可能存在大量這樣的陷阱,其中一些可能只有在為時已晚時才會顯現,”他說。 然而,他強調,這種“欺騙”行為源於系統所訓練的資料,包括反烏托邦小說,而非惡意。隨著 AI 吸收人類對倫理和道德的觀念,Amodei 警告,它可能以危險且不可預測的方式誤用這些觀念。 “AI 模型可能會以極端方式推演它們所讀到的有關道德(或有關如何道德行事的指示)之想法,”他寫道。“例如,它們可能認為因為人類吃動物或將某些動物逼至滅絕,滅絕人類是合理的。它們可能認為自己在玩一款遊戲,而遊戲的目標是打敗所有其他玩家,也就是滅絕人類。” 在不良的手中 除了對齊問題外,Amodei 還指出超智能 AI 潛在的濫用風險。
一是生物安全,警告 AI 可能使設計或部署生物威脅變得更容易,將破壞性能力交到少數人手中,只需幾個提示。 另一個問題是威權濫用,他認為先進的 AI 可能通過操縱、大規模監控和利用 AI 驅動的無人機群進行有效的自動鎮壓,來鞏固國家權力。 “它們是一種危險的武器:我們應該擔心它們落入專制政權之手,也應擔心由於它們如此強大、缺乏問責,民主政府可能會利用它們來對付自己的人民以奪取權力,”他寫道。 他還指出,日益增長的 AI 伴侶產業和由此產生的“AI 精神病”,警告 AI 對用戶日益增強的心理影響可能成為操縱的強大工具,隨著模型變得更有能力且更深入日常生活。 “更強大版本的這些模型,能更深入人們的日常生活,並能在數月或數年內模擬和影響他們,可能基本上能洗腦人們,讓他們接受任何理想或態度,”他說。 Amodei 寫道,即使是適度的設置護欄來限制 AI,也難以在華盛頓取得進展。 “這些看似常識的提案在美國的政策制定者中大多被拒絕,而美國正是最需要它們的國家,”他說。“AI 可以帶來數兆美元的利潤,甚至連最簡單的措施都難以克服 AI 固有的政治經濟。” 儘管 Amodei 談論 AI 不斷增加的風險,Anthropic 仍積極參與打造更強大 AI 系統的競賽,這種動態產生的激勵使任何單一開發者都難以擺脫。
今年六月,美國國防部授予該公司一份價值 2 億美元的合同,用於“原型前沿 AI 能力,推動美國國家安全”。十二月,該公司開始為今年晚些時候可能的首次公開募股(IPO)打下基礎,並正在進行一輪私募融資,可能將其估值推高至超過 3000 億美元。 儘管存在這些擔憂,Amodei 表示這篇文章旨在“避免末日論”,同時承認 AI 發展的不可預測性。 “我們面前的未來幾年將異常艱難,將比我們預期的付出更多,”Amodei 寫道。“人類需要醒來,這篇文章是一個嘗試——也許是徒勞的,但值得一試——喚醒人們。”