Gate 广场「创作者认证激励计划」开启:入驻广场,瓜分每月 $10,000 创作奖励!
无论你是广场内容达人,还是来自其他平台的优质创作者,只要积极创作,就有机会赢取豪华代币奖池、Gate 精美周边、流量曝光等超 $10,000+ 丰厚奖励!
参与资格:
满足以下任一条件即可报名👇
1️⃣ 其他平台已认证创作者
2️⃣ 单一平台粉丝 ≥ 1000(不可多平台叠加)
3️⃣ Gate 广场内符合粉丝与互动条件的认证创作者
立即填写表单报名 👉 https://www.gate.com/questionnaire/7159
✍️ 丰厚创作奖励等你拿:
🎁 奖励一:新入驻创作者专属 $5,000 奖池
成功入驻即可获认证徽章。
首月发首帖(≥ 50 字或图文帖)即可得 $50 仓位体验券(限前100名)。
🎁 奖励二:专属创作者月度奖池 $1,500 USDT
每月发 ≥ 30 篇原创优质内容,根据发帖量、活跃天数、互动量、内容质量综合评分瓜分奖励。
🎁 奖励三:连续活跃创作福利
连续 3 个月活跃(每月 ≥ 30 篇内容)可获 Gate 精美周边礼包!
🎁 奖励四:专属推广名额
认证创作者每月可优先获得 1 次官方项目合作推广机会。
🎁 奖励五:Gate 广场四千万级流量曝光
【推荐关注】资源位、“优质认证创作者榜”展示、每周精选内容推荐及额外精选帖激励,多重曝光助你轻
美丽国的开源AI策略:两个实验室,一个问题——美丽国能否竞争?
!image
资料来源:CryptoNewsNet 原始标题:美国的开放源代码人工智能策略:两个实验室,一个问题——美国能否竞争? 原链接: 本周,两家美国人工智能实验室发布了开源模型,各自采用截然不同的方法来应对同一个问题:如何与中国在公共可访问人工智能系统中的主导地位竞争。
Deep Cogito 发布了 Cogito v2.1,这是一个庞大的6710亿参数模型,其创始人 Drishan Arora 称其为 “美国公司中最好的开源权重 LLM”。
别急,艾伦人工智能研究所反击道,他们刚刚推出了Olmo 3,并称其为“最佳完全开放的基础模型”。Olmo 3 拥有完全的透明度,包括其训练数据和代码。
具有讽刺意味的是,Deep Cognito 的旗舰模型建立在一个中国基础上。Arora 承认,Cogito v2.1 “是基于 2024 年 11 月的开放许可 Deepseek 基础模型进行的分叉。”
这引发了一些批评和争论,关于对中国模型进行微调是否算作美国人工智能的进步,或者这是否仅仅证明了美国实验室落后了多少。
无论如何,Cogito 相较于 DeepSeek 的效率提升是显而易见的。
Deep Cognito 声称 Cogito v2.1 产生的推理链比 DeepSeek R1 短 60%,同时保持竞争力的性能。
通过阿罗拉所称的“迭代蒸馏和放大”—教导模型通过自我改进循环来发展更好的直觉—该初创公司在RunPod和Nebius的基础设施上,仅用75天就训练了其模型。
如果基准测试是真实的,这将是目前由美国团队维护的最强大的开源LLM。
为什么重要
到目前为止,中国在开源人工智能方面一直引领着潮流,而美国公司越来越依赖——无论是默默地还是公开地——中国的基础模型以保持竞争力。
这种动态是有风险的。如果中国实验室成为全球开放AI的默认基础设施,美国初创企业将失去技术独立性、议价能力和塑造行业标准的能力。
开放权重的人工智能决定了谁控制着每个下游产品所依赖的原始模型。
现在,中国的开源模型(DeepSeek、Qwen、Kimi、MiniMax)在全球采用中占据主导地位,因为它们便宜、快速、高效,并且不断更新。
许多美国初创企业已经在这些平台上构建,即使他们公开避免承认这一点。
这意味着美国公司正在建立基于外国知识产权、外国培训渠道和外国硬件优化的业务。从战略上讲,这使得美国处于与过去在半导体制造方面面临的相同境地:越来越依赖于其他人的供应链。
Deep Cogito的做法—从DeepSeek分叉开始—展示了向上的(快速迭代)和向下的(依赖性)。
艾伦研究所的方法——以完全透明的方式构建 Olmo 3——展示了另一种选择:如果美国希望在人工智能领域保持领导地位,就必须从数据到训练配方再到检查点,重新构建整个技术栈。这是一个劳动密集型且缓慢的过程,但它保留了对基础技术的主权。
理论上,如果您已经喜欢DeepSeek并在线使用它,Cogito大多数时候会给您更好的答案。如果您通过API使用它,您会更加满意,因为感谢它的效率提升,您将花费更少的钱来生成良好的回复。
艾伦研究所采取了相反的策略。整个 Olmo 3 模型系列与 Dolma 3 一起推出,这是一个从零开始构建的 5.9 万亿代币训练数据集,此外还有完整的代码、配方和每个训练阶段的检查点。
该非营利组织发布了三种模型变体——基础版、思考版和指导版——具有70亿和320亿个参数。
“在人工智能领域,真正的开放不仅仅是关于访问——而是关于信任、问责和共同进步,” 该机构写道。
Olmo 3-Think 32B 是首个在该规模下完全开放推理的模型,训练使用的标记大约是与 Qwen 3 等可比模型的六分之一,同时实现了竞争力性能。
Deep Cognito 在8月份获得了由Benchmark领投的$13 百万种子融资。该初创公司计划推出前沿模型,参数数量高达6710亿,这些模型将在“显著更多的计算资源和更好的数据集”上进行训练。
与此同时,Nvidia 支持 Olmo 3 的开发,副总裁 Kari Briski 称其对 “开发人员利用开放的、美国制造的模型来扩展 AI” 至关重要。
该机构在Google Cloud的H100 GPU集群上进行训练,计算需求比Meta的Llama 3.1 8B减少了2.5倍。
Cogito v2.1 现已上线供免费在线测试。该模型可以下载,但请注意:它需要一张非常强大的显卡才能运行。
Olmo可以进行测试。模型可以下载。根据您选择的不同,这些模型更适合消费者。