本周来自 OpenAI 的 AI 新闻有着尖锐的一面:该公司推出一项付费的安全研究员(Safety Fellowship),向外部研究人员提供每周 3,850 美元的津贴,以研究先进 AI 可能出什么问题 — 而这一消息是在《纽约客》(The New Yorker)的一项调查披露称 OpenAI 已解散其内部安全团队,并在其 IRS(美国国税局)任务声明中悄悄移除了“safely(安全地)”这一词之后的数小时内宣布的。
摘要
OpenAI 于 4 月 6 日宣布该奖学金,称其“是一项试点项目,用于支持独立的安全与对齐(alignment)研究,并培养新一代人才”。该项目每周支付 3,850 美元,年化超过 200,000 美元,同时还提供每月约 15,000 美元的计算资源,以及来自 OpenAI 研究人员的指导与辅导。研究员可以在 Constellation 的伯克利(Berkeley)工作区工作,也可以远程工作;申请于 5 月 3 日截止。该奖学金并不限于 AI 专家 — OpenAI 正在从网络安全、社会科学以及人机交互(human-computer interaction)领域招募,除计算机科学之外也同样如此。
时间点才是关键。《纽约客》当天发表的 Ronan Farrow 调查报道称,在 22 个月内,OpenAI 已解散了三家连续的内部安全组织。超对齐团队在 2024 年 5 月被叫停,当时联合负责人 Ilya Sutskever 和 Jan Leike 离开。Leike 在离开时写道:“安全文化与流程已经退居幕后,转而把重点放在那些闪亮的产品上。”AGI Readiness 团队随后在 2024 年 10 月跟进解散。Mission Alignment 团队在 2026 年 2 月被解散,此前仅维持了 16 个月。《纽约客》还报道称,当一名记者请求与 OpenAI 的存在性安全研究人员对话时,一名公司代表回应道:“你说的存在性安全是什么意思?这又不是,就像一回事。”
该研究员奖学金明确不会取代内部基础设施。研究员将获得 API 额度和计算资源,但不会获得系统访问权限,因此该项目被定位为一种“外包式”的研究资助,而不是对已解散团队的重建。
研究议程覆盖七个优先领域:安全评估、伦理、鲁棒性、可扩展的缓解措施、隐私保护的安全方法、代理监管以及高严重度滥用领域。到 2027 年 2 月项目结束时,每位研究员都必须产出实质性成果 — 一篇论文、一个基准(benchmark),或一个数据集。并不要求特定的学术资历;OpenAI 表示其将优先考虑研究能力、技术判断力以及执行能力。
正如 crypto.news 所报道的,对前沿 AI 公司所作安全承诺的信心,是一种市场信号,会影响资本在 AI 基础设施、AI 代币,以及位于加密与人工智能交叉地带的 DePIN 和 AI 代理协议之间的配置。正如 crypto.news 所指出的,投资者在评估 AI 基础设施领域时,会密切跟踪 OpenAI 的支出轨迹以及其运营优先事项的可信度 — 这是一个与区块链体系重叠程度不断加深的领域。在没有内部访问权限的情况下,外部研究员能否在实质上影响模型开发?这是问题,而第一批研究员的研究将在 2027 年初开始给出答案。