AI 网络安全:OpenAI 与 Anthropic 竞赛

人工智能网络安全现在已成为OpenAI与Anthropic之间的正式竞争前线,OpenAI正为有限合作伙伴发布一款先进的安全产品,而Anthropic则在进行一项名为Project Glasswing的严格控制项目,旨在在攻击者之前发现关键软件漏洞。

摘要

  • OpenAI正在完善一款AI网络安全产品,首先向有限合作伙伴发布。
  • Anthropic的Project Glasswing是一项专注于主动寻找关键软件漏洞的受控行动。
  • 两者都提出了关于谁控制AI攻防工具以及出现问题时谁应负责的根本性问题。

人工智能已从帮助防御者理解威胁的工具,转变为能够自主发现和利用漏洞的系统。OpenAI和Anthropic正直接进入这一领域,对政府、企业以及支撑全球金融基础设施的数百万软件系统都具有深远影响。

OpenAI完成安全产品,Anthropic推进Glasswing

据Tech Startups报道,OpenAI正在完善一款具有先进能力的AI网络安全产品,计划首先向有限合作伙伴群体发布。与此同时,Anthropic内部也在进行一项名为Project Glasswing的并行努力,这是一项受控的行动,旨在在恶意行为者之前主动发现关键软件漏洞。

这两项公告标志着两大领先AI实验室在定位策略上的转变。它们都正从通用AI转向具有直接攻防能力的安全专用产品。问题不再是AI在网络安全中能做什么,而是谁控制它,以及出现故障时谁应承担责任。

Anthropic的业绩表现

Anthropic已展示了AI安全工具的潜力。据crypto.news报道,该公司在早期测试中发现其Claude Mythos Preview模型能够发现数千个广泛使用软件环境中的关键漏洞,包括OpenBSD中的27年前的漏洞和FreeBSD中的16年前的远程执行漏洞。Anthropic表示:“鉴于AI发展的速度,这类能力很快就会普及,甚至可能超出那些致力于安全部署的行为者。”

Anthropic引用的行业数据显示,AI驱动的网络攻击同比增长72%,2025年全球87%的组织报告遭遇了AI驱动的事件。Project Glasswing被定位为Anthropic用以保持领先的受控努力。

双重用途AI安全工具的风险

对监管机构和行业而言,更深层次的问题在于,用于防御发现漏洞的同一AI工具,也可以用于攻击。正如crypto.news指出,Anthropic与MATS Fellows联合研究发现,Claude Sonnet和GPT-5在测试中能够对价值460万美元的以太坊智能合约产生模拟利用,并在近3000个近期部署的合约中发现了两个新型的零日漏洞。

这种双重用途的现实使得两家公司正在采取的受控推广策略变得至关重要。但是否有限访问就足以防止扩散的问题,仍未有任何实验室给出完整答案。

查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
请输入评论内容
请输入评论内容
暂无评论