我們來了!第一個由人工智慧開發的已知零日漏洞剛被谷歌抓到。


有人用大型語言模型(LLM)發現了一個開源管理工具中的缺陷。然後讓模型寫了一個繞過雙重驗證的Python腳本。接著開始在真實目標上使用它。
我們怎麼知道這是AI?到處都是乾淨的註解。模型字面上幻想出來的CVSS嚴重性分數。沒有人在凌晨3點追蹤漏洞時會寫得這麼整潔的Python。
漏洞本身是一個邏輯缺陷,一個開發者多年前硬編碼的信任假設。這種錯誤是LLMs擅長捕捉的類型。
多年前的問題是「AI能幫助攻擊者嗎?」充滿猶豫。 「理論上可以。」 「終究可以。」 「只要有足夠的支架。」
這場辯論已經結束。
現在的新問題是「從‘漏洞存在於你的堆疊中的某處’到‘漏洞被大規模利用’的時間差有多快。」以前是幾個月。現在是幾天。
查看原文
post-image
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 打賞
  • 回覆
  • 轉發
  • 分享
回覆
請輸入回覆內容
請輸入回覆內容
暫無回覆