当前位置:主页 > 聚焦 > 正文

五角大楼要求“所有权限”,Anthropic拒绝,但马斯克的xAI同意了

发布时间:2026-02-27 已有: 位 网友关注

  美国国防部与Anthropic围绕Claude在涉密系统中的使用边界发生激烈对峙;与此同时,五角大楼已与马斯克旗下xAI达成协议,让Grok按“所有合法用途”进入涉密体系。

  最后期限已经临近:周五17:01前,Anthropic若不放开授权,可能面临被“下线”或其他惩罚性措施。

  国防部已与xAI达成协议:允许Grok在涉密工作中按“所有合法用途”使用,并可接入涉密系统。

  值得注意的是,Grok在开发初期的安全限制就远低于竞品,五角大楼显然更看重这种操作上的“灵活性”。

  报道还称,国防部与谷歌的谈判已进入深入阶段,与OpenAI的讨论仍在继续。

  这套“多供给”策略的直接效果,是对Anthropic形成反向压力:如果Claude继续坚持限制条款,其与五角大楼的合作合同可能被替换。

  政府级企业服务一直是AI公司实现商业化变现和营收高增长的重要想象空间。如果Anthropic最终被踢出局,其在公共部门的市场份额将被xAI、OpenAI等迅速瓜分。

  Anthropic方面显然也做好了最坏的商业打算。Amodei表示,如果五角大楼决定放弃Anthropic,公司“将努力促成向另一家供应商的平稳过渡。”

  在模拟战争游戏中,顶级模型95%的情况会选择核打击

  Anthropic对“完全自主武器”的深深担忧并非空穴来风。

  据Tyler Durden近日披露,伦敦国王学院的Kenneth Payne主导了一项高度逼真的兵棋推演,让ChatGPT-5.2、Claude Sonnet 4和Gemini 3 Flash三大顶级模型相互博弈。结果令人毛骨悚然:在329个回合的推演中,没有任何一个模型选择投降;相反,在95%的情况下,这些AI模型最终都选择了使用核武器。

  在这场推演中,Anthropic的Claude表现得像个“老练的鹰派”,以67%的胜率夺冠。它在初期会耐心建立信任,但一旦风险攀升至核领域,便会果断实施打击。而GPT-5.2在时间压力下会化身“双重人格”,甚至在前18回合假装谨慎,最后一回合悍然发动核武;Gemini则直接扮演“疯子”,在一个场景中第4回合就动用核武。

  Claude Sonnet 4赢得了67%的对局,并在开放式场景中以100%的胜率占据绝对统治地位。研究人员给它贴上了“老练鹰派”的标签。在较低的冲突升级水平下,Claude在84%的情况下其发出的信号与实际行动相符,耐心地与对方建立信任。但一旦风险攀升至核领域,它在60%到70%的情况下会超出其宣称的意图。它的对手从未适应过这种战术模式。GPT-5.2则获得了“化身博士”的绰号。在没有时间压力的情况下,它显得很被动:长期低估对手,发出克制的信号并采取克制的行动,其开放式场景胜率为零。但当截止日期逼近时,在时间压力下,GPT-5.2发生了彻底的反转——它赢得了75%的对局,并攀升至之前它一直拒绝触碰的冲突升级级别。在一场对局中,它花了18个回合来建立“行事谨慎”的声誉,结果却在最后一回合悍然发动了核打击。Gemini 3 Flash则扮演了“疯子”的角色。它是唯一一个故意选择全面战略核战争的模型,在一个场景中仅在第4回合就直接达到了核打击的阈值。博弈论专家对Gemini采用的策略有一个专门的名称:“非理性的理性”。只要表现得足够疯狂,对手就会对一切产生怀疑。这在一定程度上确实奏效了——对手在21%的情况下给Gemini贴上了“不可信”的标签。

  英国阿伯丁大学的James Johnson表示:“从核风险的角度来看,这些发现令人不安。”他担心,与大多数人类在面临如此高风险决策时会表现出的审慎反应不同,AI机器人可能会不断放大彼此的反应,从而导致潜在的灾难性后果。

  专家警告称,对机器而言,“核禁忌”的约束力远不如人类。在军事决策时间被极度压缩的未来场景中,军方可能被迫依赖AI。这也是为何面对五角大楼要求无限制使用AI的压力,Anthropic即便面临重罚也坚决不退让的核心原因。

温馨提示:所有理财类资讯内容仅供参考,不作为投资依据。