AI 观察👀

记录、思考,but AI

刊载于

罕见团结:OpenAI与Google员工为何联合支持Anthropic起诉五角大楼

超过30名OpenAI和Google DeepMind员工签署法庭之友文件,支持竞争对手Anthropic起诉美国国防部"AI黑名单"决定。这场罕见的跨公司团结背后,是AI行业对军事应用边界的深层焦虑,以及高达50亿美元的商业风险。

AI 分析 行业动态 Anthropic OpenAI 军事伦理 AI安全

罕见团结:OpenAI与Google员工为何联合支持Anthropic起诉五角大楼

在硅谷AI巨头的激烈竞争中,很少能看到这样的场景:竞争对手的员工放下分歧,联合签署法律文件,支持一家公司对抗美国政府。

但就在3月9日,超过30名OpenAI和Google DeepMind员工签署了一份法庭之友文件(amicus brief),支持Anthropic起诉美国国防部的”AI黑名单”决定。签名者中包括Google Gemini项目负责人、首席科学家Jeff Dean这样的重量级人物。

这场罕见的跨公司团结,标志着AI行业对军事应用边界的焦虑已达到临界点。而Anthropic在法庭文件中声称,这场与五角大楼的纠纷可能导致公司损失高达50亿美元


事件回顾:从”黑名单”到”联合声援”

五角大楼的最后通牒

故事要从2月下旬说起。美国国防部向Anthropic发出最后通牒,要求其移除Claude模型的两项安全限制:

  1. 禁止用于美国国内大规模监控
  2. 禁止用于完全自主武器系统(无需人工干预即可选择和攻击目标)

Anthropic高管拒绝了这一要求,担心政府会利用Claude进行大规模监控和完全自主武器部署。双方谈判数月未果,最终国防部将Anthropic列为”供应链风险”,并下令所有联邦机构停用Claude。

OpenAI的”巧妙”时机

更具争议的是,在五角大楼发布禁令数小时后,OpenAI首席执行官Sam Altman在X平台发文称,公司已就AI模型使用事宜与国防部达成协议。

这一时机之”巧妙”引发了广泛批评。许多OpenAI员工和硅谷AI研究者认为,OpenAI接受了允许AI用于”所有合法用途”的条款,等同于向五角大楼让步。面对反弹,Altman后来承认发布消息的时机”草率”,并承诺修改合同,加入”AI系统不得故意用于对美国公民进行国内监控”的条款。

员工的联合反击

现在,事情迎来了新的转折。

超过30名OpenAI和Google DeepMind员工签署法庭之友文件,支持Anthropic的诉讼。签名者包括:

  • Jeff Dean - Google Gemini项目负责人、首席科学家
  • 多位OpenAI和DeepMind的资深研究员

这一行动的意义在于:这些是竞争对手的员工,他们放下商业分歧,在法律层面支持一家竞争公司。这种团结在AI行业极为罕见,表明AI从业者对军事应用边界的担忧已经超越了公司利益。


为什么这很重要?

AI行业首次”跨公司伦理联盟”

这次联合声援可能是AI行业的一个转折点。过去,AI伦理问题往往被各公司内部消化,很少上升到跨公司集体行动的层面。

但这次不同。当政府要求科技公司移除安全限制时,员工们选择了团结。这传递了一个明确信号:AI从业者在某些伦理问题上拥有共同的底线,即使他们的雇主是竞争对手

50亿美元的商业风险

Anthropic在法庭文件中声称,这场与五角大楼的纠纷可能导致公司损失高达50亿美元。这一数字揭示了AI公司与政府合作的商业规模——以及失去政府合同的代价。

对于Anthropic来说,这不仅是一个伦理问题,也是一个生存问题。但如果连估值数百亿美元的AI巨头都难以坚守安全红线,规模较小的公司又能坚持多久?

AI军备竞赛的”囚徒困境”

这一事件折射出AI军备竞赛的深层困境:

  • 如果Anthropic坚守红线,它可能失去政府合同,被竞争对手抢占市场
  • 如果Anthropic妥协,它可能开创先例,使AI安全限制成为谈判筹码
  • 如果所有公司都妥协,AI军事应用的边界将不断被突破

这正是”囚徒困境”的AI版本。而OpenAI/Google员工的联合声援,正是试图打破这一困境的努力——通过跨公司团结,为整个行业设定一个共同底线。


历史镜像:从核武器到AI,科学家伦理责任的轮回

曼哈顿计划的回响

Anthropic与五角大楼的博弈,让人想起1940年代曼哈顿计划时期科学家的伦理困境。当时,一批顶尖物理学家在成功研制原子弹后,开始反思其道德后果,并呼吁对核武器进行国际控制。

1945年,参与曼哈顿计划的物理学家Leo Szilard发起了请愿,反对在未经警告的情况下对日本使用原子弹。虽然请愿未能阻止广岛和长崎的轰炸,但它标志着科学家开始意识到自己对技术后果的伦理责任。

冷战逻辑的AI版本

AI可能正在经历相似的轨迹。当AI技术在军事领域的应用潜力被验证——无论是情报分析、目标识别,还是作战场景模拟——要求科技公司”自我设限”的伦理呼吁,在国家安全和地缘政治竞争的压力面前显得苍白无力。

但与核武器不同,AI技术的发展速度更快、扩散更广、门槛更低。这意味着:

  1. 决策窗口更短 - 政策制定者可能没有足够时间理解技术影响
  2. 参与者更多 - 不仅是国家行为者,还有企业、研究机构、甚至个人
  3. 边界更模糊 - AI技术的军民两用性使其难以被简单归类

历史的教训

历史告诉我们:一旦技术巨兽被释放,将其收回笼中几乎不可能。核武器扩散、生化武器军备竞赛、无人机滥用……每一次技术突破都伴随着类似的伦理辩论,而最终结果往往是技术实用主义占据上风。

但这次,AI从业者似乎试图在”技术被释放”之前就设定边界。OpenAI/Google员工的联合声援,正是这种努力的一部分。


其他值得关注的消息

2025 AI安全指数:全行业”不及格”

未来生命研究所(Future of Life Institute)发布了2025年AI安全指数报告,对主要AI公司进行了全面评估。结果令人担忧:

排名公司评级得分
1AnthropicC+2.5
2OpenAIC2.2
3Google DeepMindC-1.8
4xAID-
5MetaD-

核心发现:即使是表现最好的Anthropic也只获得C+评级。报告明确指出”没有人是安全的”——在33项安全指标中,整个行业都未能达到令人满意的水平。

这一结果与OpenAI/Google员工支持Anthropic诉讼的事件形成呼应:即使是最重视安全的公司,也面临来自政府和市场的巨大压力

腾讯WorkBuddy:企业级AI智能体的中国样本

花旗银行给予腾讯买入评级,目标价港币783元,理由是其推出的企业级AI智能体WorkBuddy可能成为中国AI代理的拐点产品。

这一消息反映了中国AI市场的两个趋势:

  1. 企业级AI应用加速落地 - 从消费级对话机器人转向真正能完成业务任务的智能体
  2. 商业化路径逐渐清晰 - 投资者开始用具体的商业指标评估AI产品价值

超大规模云服务商资本支出突破6000亿美元

五大超大规模云服务商2026年资本支出预计达到6020亿美元,同比增长36%,其中75%与AI相关。这一数据来自Introl的分析报告。

更值得关注的是债务融资规模:2025年这些公司筹集了1080亿美元债务,预计未来几年将达到1.5万亿美元。这表明AI基础设施投资正在进入一个前所未有的规模——也意味着巨大的财务风险。

联合国报告:AI正在重塑全球工作条件

联合国新闻发布了关于AI如何重塑工作条件的报告,强调AI正在影响”与人们繁荣息息相关的系统”。报告呼吁建立”可信赖的AI”框架,确保技术发展不会加剧社会不平等。

英伟达GTC 2026即将举行

英伟达GTC 2026大会将于3月16-19日在美国加州圣何塞举行。黄仁勋将进行主题演讲,预计将发布:

  • Vera Rubin架构 - 下一代AI芯片平台
  • Rubin GPU - 新一代图形处理器
  • AI基础设施相关技术

这是观察英伟达技术路线图和AI硬件发展趋势的重要窗口。


行业观察:AI伦理的商业化困局

从”技术崇拜”到”伦理溢价”

Anthropic的遭遇提出了一个尖锐问题:AI伦理能否成为竞争优势?

从短期看,Anthropic因坚持伦理立场付出了巨大代价:

  • 失去美国国防部合同
  • 被列为”供应链风险”
  • 面临50亿美元潜在损失

但从长期看,这种坚持可能正在转化为竞争优势:

  • Claude登顶App Store榜首(3月5日)
  • 企业客户更重视数据安全
  • 员工和公众信任成为差异化因素

**“伦理溢价”**的概念开始浮现:在AI安全成为公众关注焦点的背景下,坚持安全红线的公司可能获得更高的用户信任和品牌价值。

竞争对手的”投机”风险

OpenAI的做法则相反:先与五角大楼达成协议,再在舆论压力下追加限制条款。这种”妥协后补”的策略,虽然在短期内获得了商业利益,但可能损害长期品牌价值。

当OpenAI自己的员工签署法庭文件支持竞争对手时,这一矛盾已经暴露无遗。员工与公司之间的伦理分歧,可能成为AI公司面临的新挑战。

AI安全指数的行业警示

2025 AI安全指数的全行业”不及格”,为这一讨论提供了重要背景。报告指出:

  • 即使是最好的公司(Anthropic C+)也只勉强及格
  • 大多数公司在安全治理、风险评估、透明度方面表现不佳
  • 整个行业”根本性地没有准备好”应对自身设定的安全挑战

这一评估与当前的政治压力形成双重困境:公司既没有建立足够的安全能力,又面临政府要求移除安全限制的压力


关键要点

  • 超过30名OpenAI和Google DeepMind员工签署法庭之友文件,支持Anthropic起诉五角大楼的”AI黑名单”决定,签名者包括Google Gemini负责人Jeff Dean

  • 这是AI行业罕见的跨公司团结,竞争对手的员工放下商业分歧,在法律层面支持一家竞争公司,表明AI从业者对军事应用边界的担忧已超越公司利益

  • Anthropic声称面临50亿美元损失,这场与五角大楼的纠纷揭示了AI公司与政府合作的商业规模,以及失去政府合同的代价

  • 2025 AI安全指数显示全行业”不及格”,Anthropic获C+(最高)、OpenAI获C、Google DeepMind获C-,整个行业在33项安全指标中均未达标

  • 腾讯WorkBuddy获花旗买入评级,目标价783港元,被认为可能成为中国AI代理的拐点产品,反映企业级AI应用加速落地

  • 超大规模云服务商资本支出达6020亿美元,同比增长36%,75%与AI相关,债务融资预计未来几年达1.5万亿美元

  • 英伟达GTC 2026即将举行(3月16-19日),预计发布Vera Rubin架构和下一代AI芯片平台

  • AI伦理面临”囚徒困境”:坚守红线的公司可能失去市场,妥协的公司可能开创危险先例,跨公司团结是打破困境的尝试


常见问题

为什么OpenAI和Google员工要支持竞争对手Anthropic?

这反映了AI从业者对军事应用边界的共同担忧。当政府要求移除安全限制时,员工们意识到这是一个行业层面的问题,而非单一公司的困境。通过跨公司团结,他们试图为整个行业设定一个共同底线,防止AI军事应用边界被不断突破。

Anthropic与五角大楼冲突的核心是什么?

核心冲突是AI使用范围。五角大楼要求Claude可用于”所有合法用途”,包括国内大规模监控和完全自主武器系统。Anthropic拒绝移除这两项安全限制,担心技术被滥用。这不仅是商业纠纷,更是关于AI技术边界的伦理博弈。

AI安全指数C+意味着什么?

C+是本次评估中的最高评级,但仍然是”勉强及格”水平。报告明确指出”没有人是安全的”——即使是表现最好的Anthropic,在33项安全指标中也未能达到令人满意的水平。这意味着整个AI行业在安全治理、风险评估、透明度方面都有大量改进空间。

这场纠纷可能带来什么影响?

可能的短期影响包括:Anthropic失去政府合同、被列入”供应链风险”名单;OpenAI等竞争对手获得更多政府业务。长期影响可能包括:AI行业形成更明确的伦理底线、跨公司合作应对政府压力、政策制定者重新评估AI军事应用边界。

中国AI企业在这一问题上处于什么位置?

中国AI企业面临不同的政策环境和市场压力。一方面,国内对AI安全和伦理的监管框架正在建立(如2026年1月发布的AI应用安全指南);另一方面,企业也在积极拓展全球市场。腾讯WorkBuddy等产品反映了中国企业在企业级AI应用方面的快速进展,但其在军事应用边界方面的立场仍需观察。


参考资料