✍️ Gate 广场「创作者认证激励计划」进行中!
我们欢迎优质创作者积极创作,申请认证
赢取豪华代币奖池、Gate 精美周边、流量曝光等超 $10,000+ 丰厚奖励!
立即报名 👉 https://www.gate.com/questionnaire/7159
📕 认证申请步骤:
1️⃣ App 首页底部进入【广场】 → 点击右上角头像进入个人主页
2️⃣ 点击头像右下角【申请认证】进入认证页面,等待审核
让优质内容被更多人看到,一起共建创作者社区!
活动详情:https://www.gate.com/announcements/article/47889
AI 网络安全:OpenAI 与 Anthropic 竞赛
人工智能网络安全现在已成为OpenAI与Anthropic之间的正式竞争前线,OpenAI正为有限合作伙伴发布一款先进的安全产品,而Anthropic则在进行一项名为Project Glasswing的严格控制项目,旨在在攻击者之前发现关键软件漏洞。
摘要
人工智能已从帮助防御者理解威胁的工具,转变为能够自主发现和利用漏洞的系统。OpenAI和Anthropic正直接进入这一领域,对政府、企业以及支撑全球金融基础设施的数百万软件系统都具有深远影响。
OpenAI完成安全产品,Anthropic推进Glasswing
据Tech Startups报道,OpenAI正在完善一款具有先进能力的AI网络安全产品,计划首先向有限合作伙伴群体发布。与此同时,Anthropic内部也在进行一项名为Project Glasswing的并行努力,这是一项受控的行动,旨在在恶意行为者之前主动发现关键软件漏洞。
这两项公告标志着两大领先AI实验室在定位策略上的转变。它们都正从通用AI转向具有直接攻防能力的安全专用产品。问题不再是AI在网络安全中能做什么,而是谁控制它,以及出现故障时谁应承担责任。
Anthropic的业绩表现
Anthropic已展示了AI安全工具的潜力。据crypto.news报道,该公司在早期测试中发现其Claude Mythos Preview模型能够发现数千个广泛使用软件环境中的关键漏洞,包括OpenBSD中的27年前的漏洞和FreeBSD中的16年前的远程执行漏洞。Anthropic表示:“鉴于AI发展的速度,这类能力很快就会普及,甚至可能超出那些致力于安全部署的行为者。”
Anthropic引用的行业数据显示,AI驱动的网络攻击同比增长72%,2025年全球87%的组织报告遭遇了AI驱动的事件。Project Glasswing被定位为Anthropic用以保持领先的受控努力。
双重用途AI安全工具的风险
对监管机构和行业而言,更深层次的问题在于,用于防御发现漏洞的同一AI工具,也可以用于攻击。正如crypto.news指出,Anthropic与MATS Fellows联合研究发现,Claude Sonnet和GPT-5在测试中能够对价值460万美元的以太坊智能合约产生模拟利用,并在近3000个近期部署的合约中发现了两个新型的零日漏洞。
这种双重用途的现实使得两家公司正在采取的受控推广策略变得至关重要。但是否有限访问就足以防止扩散的问题,仍未有任何实验室给出完整答案。