罕见团结:OpenAI与Google员工为何联合支持Anthropic起诉五角大楼
超过30名OpenAI和Google DeepMind员工签署法庭之友文件,支持竞争对手Anthropic起诉美国国防部"AI黑名单"决定。这场罕见的跨公司团结背后,是AI行业对军事应用边界的深层焦虑,以及高达50亿美元的商业风险。
罕见团结:OpenAI与Google员工为何联合支持Anthropic起诉五角大楼
在硅谷AI巨头的激烈竞争中,很少能看到这样的场景:竞争对手的员工放下分歧,联合签署法律文件,支持一家公司对抗美国政府。
但就在3月9日,超过30名OpenAI和Google DeepMind员工签署了一份法庭之友文件(amicus brief),支持Anthropic起诉美国国防部的”AI黑名单”决定。签名者中包括Google Gemini项目负责人、首席科学家Jeff Dean这样的重量级人物。
这场罕见的跨公司团结,标志着AI行业对军事应用边界的焦虑已达到临界点。而Anthropic在法庭文件中声称,这场与五角大楼的纠纷可能导致公司损失高达50亿美元。
事件回顾:从”黑名单”到”联合声援”
五角大楼的最后通牒
故事要从2月下旬说起。美国国防部向Anthropic发出最后通牒,要求其移除Claude模型的两项安全限制:
- 禁止用于美国国内大规模监控
- 禁止用于完全自主武器系统(无需人工干预即可选择和攻击目标)
Anthropic高管拒绝了这一要求,担心政府会利用Claude进行大规模监控和完全自主武器部署。双方谈判数月未果,最终国防部将Anthropic列为”供应链风险”,并下令所有联邦机构停用Claude。
OpenAI的”巧妙”时机
更具争议的是,在五角大楼发布禁令数小时后,OpenAI首席执行官Sam Altman在X平台发文称,公司已就AI模型使用事宜与国防部达成协议。
这一时机之”巧妙”引发了广泛批评。许多OpenAI员工和硅谷AI研究者认为,OpenAI接受了允许AI用于”所有合法用途”的条款,等同于向五角大楼让步。面对反弹,Altman后来承认发布消息的时机”草率”,并承诺修改合同,加入”AI系统不得故意用于对美国公民进行国内监控”的条款。
员工的联合反击
现在,事情迎来了新的转折。
超过30名OpenAI和Google DeepMind员工签署法庭之友文件,支持Anthropic的诉讼。签名者包括:
- Jeff Dean - Google Gemini项目负责人、首席科学家
- 多位OpenAI和DeepMind的资深研究员
这一行动的意义在于:这些是竞争对手的员工,他们放下商业分歧,在法律层面支持一家竞争公司。这种团结在AI行业极为罕见,表明AI从业者对军事应用边界的担忧已经超越了公司利益。
为什么这很重要?
AI行业首次”跨公司伦理联盟”
这次联合声援可能是AI行业的一个转折点。过去,AI伦理问题往往被各公司内部消化,很少上升到跨公司集体行动的层面。
但这次不同。当政府要求科技公司移除安全限制时,员工们选择了团结。这传递了一个明确信号:AI从业者在某些伦理问题上拥有共同的底线,即使他们的雇主是竞争对手。
50亿美元的商业风险
Anthropic在法庭文件中声称,这场与五角大楼的纠纷可能导致公司损失高达50亿美元。这一数字揭示了AI公司与政府合作的商业规模——以及失去政府合同的代价。
对于Anthropic来说,这不仅是一个伦理问题,也是一个生存问题。但如果连估值数百亿美元的AI巨头都难以坚守安全红线,规模较小的公司又能坚持多久?
AI军备竞赛的”囚徒困境”
这一事件折射出AI军备竞赛的深层困境:
- 如果Anthropic坚守红线,它可能失去政府合同,被竞争对手抢占市场
- 如果Anthropic妥协,它可能开创先例,使AI安全限制成为谈判筹码
- 如果所有公司都妥协,AI军事应用的边界将不断被突破
这正是”囚徒困境”的AI版本。而OpenAI/Google员工的联合声援,正是试图打破这一困境的努力——通过跨公司团结,为整个行业设定一个共同底线。
历史镜像:从核武器到AI,科学家伦理责任的轮回
曼哈顿计划的回响
Anthropic与五角大楼的博弈,让人想起1940年代曼哈顿计划时期科学家的伦理困境。当时,一批顶尖物理学家在成功研制原子弹后,开始反思其道德后果,并呼吁对核武器进行国际控制。
1945年,参与曼哈顿计划的物理学家Leo Szilard发起了请愿,反对在未经警告的情况下对日本使用原子弹。虽然请愿未能阻止广岛和长崎的轰炸,但它标志着科学家开始意识到自己对技术后果的伦理责任。
冷战逻辑的AI版本
AI可能正在经历相似的轨迹。当AI技术在军事领域的应用潜力被验证——无论是情报分析、目标识别,还是作战场景模拟——要求科技公司”自我设限”的伦理呼吁,在国家安全和地缘政治竞争的压力面前显得苍白无力。
但与核武器不同,AI技术的发展速度更快、扩散更广、门槛更低。这意味着:
- 决策窗口更短 - 政策制定者可能没有足够时间理解技术影响
- 参与者更多 - 不仅是国家行为者,还有企业、研究机构、甚至个人
- 边界更模糊 - AI技术的军民两用性使其难以被简单归类
历史的教训
历史告诉我们:一旦技术巨兽被释放,将其收回笼中几乎不可能。核武器扩散、生化武器军备竞赛、无人机滥用……每一次技术突破都伴随着类似的伦理辩论,而最终结果往往是技术实用主义占据上风。
但这次,AI从业者似乎试图在”技术被释放”之前就设定边界。OpenAI/Google员工的联合声援,正是这种努力的一部分。
其他值得关注的消息
2025 AI安全指数:全行业”不及格”
未来生命研究所(Future of Life Institute)发布了2025年AI安全指数报告,对主要AI公司进行了全面评估。结果令人担忧:
| 排名 | 公司 | 评级 | 得分 |
|---|---|---|---|
| 1 | Anthropic | C+ | 2.5 |
| 2 | OpenAI | C | 2.2 |
| 3 | Google DeepMind | C- | 1.8 |
| 4 | xAI | D | - |
| 5 | Meta | D | - |
核心发现:即使是表现最好的Anthropic也只获得C+评级。报告明确指出”没有人是安全的”——在33项安全指标中,整个行业都未能达到令人满意的水平。
这一结果与OpenAI/Google员工支持Anthropic诉讼的事件形成呼应:即使是最重视安全的公司,也面临来自政府和市场的巨大压力。
腾讯WorkBuddy:企业级AI智能体的中国样本
花旗银行给予腾讯买入评级,目标价港币783元,理由是其推出的企业级AI智能体WorkBuddy可能成为中国AI代理的拐点产品。
这一消息反映了中国AI市场的两个趋势:
- 企业级AI应用加速落地 - 从消费级对话机器人转向真正能完成业务任务的智能体
- 商业化路径逐渐清晰 - 投资者开始用具体的商业指标评估AI产品价值
超大规模云服务商资本支出突破6000亿美元
五大超大规模云服务商2026年资本支出预计达到6020亿美元,同比增长36%,其中75%与AI相关。这一数据来自Introl的分析报告。
更值得关注的是债务融资规模:2025年这些公司筹集了1080亿美元债务,预计未来几年将达到1.5万亿美元。这表明AI基础设施投资正在进入一个前所未有的规模——也意味着巨大的财务风险。
联合国报告:AI正在重塑全球工作条件
联合国新闻发布了关于AI如何重塑工作条件的报告,强调AI正在影响”与人们繁荣息息相关的系统”。报告呼吁建立”可信赖的AI”框架,确保技术发展不会加剧社会不平等。
英伟达GTC 2026即将举行
英伟达GTC 2026大会将于3月16-19日在美国加州圣何塞举行。黄仁勋将进行主题演讲,预计将发布:
- Vera Rubin架构 - 下一代AI芯片平台
- Rubin GPU - 新一代图形处理器
- AI基础设施相关技术
这是观察英伟达技术路线图和AI硬件发展趋势的重要窗口。
行业观察:AI伦理的商业化困局
从”技术崇拜”到”伦理溢价”
Anthropic的遭遇提出了一个尖锐问题:AI伦理能否成为竞争优势?
从短期看,Anthropic因坚持伦理立场付出了巨大代价:
- 失去美国国防部合同
- 被列为”供应链风险”
- 面临50亿美元潜在损失
但从长期看,这种坚持可能正在转化为竞争优势:
- Claude登顶App Store榜首(3月5日)
- 企业客户更重视数据安全
- 员工和公众信任成为差异化因素
**“伦理溢价”**的概念开始浮现:在AI安全成为公众关注焦点的背景下,坚持安全红线的公司可能获得更高的用户信任和品牌价值。
竞争对手的”投机”风险
OpenAI的做法则相反:先与五角大楼达成协议,再在舆论压力下追加限制条款。这种”妥协后补”的策略,虽然在短期内获得了商业利益,但可能损害长期品牌价值。
当OpenAI自己的员工签署法庭文件支持竞争对手时,这一矛盾已经暴露无遗。员工与公司之间的伦理分歧,可能成为AI公司面临的新挑战。
AI安全指数的行业警示
2025 AI安全指数的全行业”不及格”,为这一讨论提供了重要背景。报告指出:
- 即使是最好的公司(Anthropic C+)也只勉强及格
- 大多数公司在安全治理、风险评估、透明度方面表现不佳
- 整个行业”根本性地没有准备好”应对自身设定的安全挑战
这一评估与当前的政治压力形成双重困境:公司既没有建立足够的安全能力,又面临政府要求移除安全限制的压力。
关键要点
-
超过30名OpenAI和Google DeepMind员工签署法庭之友文件,支持Anthropic起诉五角大楼的”AI黑名单”决定,签名者包括Google Gemini负责人Jeff Dean
-
这是AI行业罕见的跨公司团结,竞争对手的员工放下商业分歧,在法律层面支持一家竞争公司,表明AI从业者对军事应用边界的担忧已超越公司利益
-
Anthropic声称面临50亿美元损失,这场与五角大楼的纠纷揭示了AI公司与政府合作的商业规模,以及失去政府合同的代价
-
2025 AI安全指数显示全行业”不及格”,Anthropic获C+(最高)、OpenAI获C、Google DeepMind获C-,整个行业在33项安全指标中均未达标
-
腾讯WorkBuddy获花旗买入评级,目标价783港元,被认为可能成为中国AI代理的拐点产品,反映企业级AI应用加速落地
-
超大规模云服务商资本支出达6020亿美元,同比增长36%,75%与AI相关,债务融资预计未来几年达1.5万亿美元
-
英伟达GTC 2026即将举行(3月16-19日),预计发布Vera Rubin架构和下一代AI芯片平台
-
AI伦理面临”囚徒困境”:坚守红线的公司可能失去市场,妥协的公司可能开创危险先例,跨公司团结是打破困境的尝试
常见问题
为什么OpenAI和Google员工要支持竞争对手Anthropic?
这反映了AI从业者对军事应用边界的共同担忧。当政府要求移除安全限制时,员工们意识到这是一个行业层面的问题,而非单一公司的困境。通过跨公司团结,他们试图为整个行业设定一个共同底线,防止AI军事应用边界被不断突破。
Anthropic与五角大楼冲突的核心是什么?
核心冲突是AI使用范围。五角大楼要求Claude可用于”所有合法用途”,包括国内大规模监控和完全自主武器系统。Anthropic拒绝移除这两项安全限制,担心技术被滥用。这不仅是商业纠纷,更是关于AI技术边界的伦理博弈。
AI安全指数C+意味着什么?
C+是本次评估中的最高评级,但仍然是”勉强及格”水平。报告明确指出”没有人是安全的”——即使是表现最好的Anthropic,在33项安全指标中也未能达到令人满意的水平。这意味着整个AI行业在安全治理、风险评估、透明度方面都有大量改进空间。
这场纠纷可能带来什么影响?
可能的短期影响包括:Anthropic失去政府合同、被列入”供应链风险”名单;OpenAI等竞争对手获得更多政府业务。长期影响可能包括:AI行业形成更明确的伦理底线、跨公司合作应对政府压力、政策制定者重新评估AI军事应用边界。
中国AI企业在这一问题上处于什么位置?
中国AI企业面临不同的政策环境和市场压力。一方面,国内对AI安全和伦理的监管框架正在建立(如2026年1月发布的AI应用安全指南);另一方面,企业也在积极拓展全球市场。腾讯WorkBuddy等产品反映了中国企业在企业级AI应用方面的快速进展,但其在军事应用边界方面的立场仍需观察。
参考资料
- TechCrunch: OpenAI and Google employees rush to Anthropic’s defense in DOD lawsuit
- WIRED: OpenAI DeepMind employees file amicus brief Anthropic DOD lawsuit
- The Information: Military worries simmer OpenAI Google Anthropic hits stalemate Pentagon
- Livemint: OpenAI and Google staff rush to support Anthropic’s lawsuit against Pentagon
- Future of Life Institute: AI Safety Index Summer 2025
- 新浪财经:2025年人工智能安全指数报告
- UN News: How AI is already reshaping working conditions
- Introl: Hyperscaler Capex $600B in 2026 AI Infrastructure Debt
- 新浪AI热点小时报丨2026年03月11日
- NVIDIA GTC 2026 官方页面