Anthropic旗下Claude模型出现性能问题 仍居苹果应用商店免费榜首位
2026年3月2日,Anthropic公司的人工智能聊天应用Claude在苹果App Store免费应用榜单中位居第一,但其最新模型Claude Opus 4.6出现“性能降级”问题。根据公司状态网站更新,该问题于美国东部时间上午10:49被识别,修复工作正在进行中。此前于上午10:47,公司已宣布claude.ai、控制台及Claude Code相关服务问题已解决。
CNBC已联系Anthropic寻求进一步评论。此次技术波动发生于Claude因与美国国防部在AI使用权限上的争端而引发广泛关注之后。此前,Anthropic与五角大楼于2025年7月签订价值2亿美元的合同,但因公司要求禁止其模型用于全自动武器或对美国民众进行大规模国内监控,与国防部产生分歧。
国防部要求军事机构可合法使用该平台的所有功能,而Anthropic拒绝这一无限制授权。2026年3月1日,美国总统特朗普下令所有美国政府机构立即停止使用Anthropic技术。国防部长彼得·赫格塞斯随后在X平台宣布,将该公司列为“国家安全供应链风险”。
与此同时,AI竞争对手OpenAI在政府与Anthropic关系断裂后数小时内与国防部达成合作协议,凸显美国政府在AI军事应用上的紧迫战略需求。
编辑点评
此次事件凸显了人工智能技术在国家安全战略中的核心地位。Anthropic与美国国防部的分歧不仅关乎技术使用边界,更触及主权、伦理与军事自主权的深层矛盾。特朗普政府迅速将Anthropic列为‘供应链风险’,反映出美国在AI军用化问题上的高度敏感与快速反应机制。此举可能引发全球AI企业重新评估与政府合作的边界,尤其在涉及自主武器与监控技术领域。
从国际影响看,美国政府对Anthropic的禁令可能推动其他国家加速本国AI军事化部署,同时促使科技企业更谨慎地制定技术出口与合规策略。OpenAI迅速与国防部达成协议,显示其在政府信任与技术兼容性上的优势,也预示AI竞争格局可能进一步分化为‘政府友好型’与‘伦理约束型’两极。
长期来看,这一事件可能重塑AI治理框架,推动全球范围内对‘军用AI伦理准则’的制定。同时,美国政府对AI供应链的干预,或将引发国际社会对技术主权与安全审查标准的重新审视,影响未来跨国科技合作模式。