美国国防部称Anthropic的Claude模型将“污染”国防供应链
美国国防部首席技术官艾米尔·迈克尔于周四对CNBC节目“Squawk Box”表示,Anthropic公司开发的Claude人工智能模型因其内置的“政策偏好”可能“污染”国防供应链,导致前线作战人员获得无效武器、防弹衣和防护装备。
迈克尔指出,这些政策偏好被“嵌入模型的宪法、灵魂和政策取向”中,因此在国防供应链中使用该模型构成风险。他强调,这是首次有美国本土企业被官方认定为供应链风险,此前此类标签通常用于外国对手。
该决定要求所有与国防部合作的承包商和供应商必须证明其工作流程中未使用Claude模型。Anthropic公司已于周一正式起诉特朗普政府,称其行为“前所未有且违法”,并表示公司正遭受“不可挽回的损害”,数百亿美元的合同面临风险。
迈克尔澄清,此举并非惩罚性,且政府并未主动向企业施压禁用Claude。他称所谓“政府要求企业禁用”的说法仅为“谣言”,并强调“国防部并未向企业下达指令,只要求其不在供应链内使用相关技术”。
Anthropic成立于2021年,由从OpenAI离职的团队创立,以Claude系列模型闻名,已在大型企业和国防部中获得初步应用。
编辑点评
此事件标志着美国在人工智能监管领域的重大转向——首次将本土科技企业纳入国家安全供应链风险名单,突破了以往仅针对外国对手的惯例。此举凸显美国政府对AI模型“价值嵌入”问题的高度重视,尤其在国防领域,政策偏见可能被解读为削弱军事效能或削弱对政府指令的响应能力。
从国际角度看,这一决定可能引发全球科技企业对AI“政治中立性”的重新评估,尤其是在涉及政府或军事合作的场景中。同时,Anthropic的诉讼可能推动美国国内对AI监管的法律争议,挑战政府在技术自主权与国家安全之间的平衡边界。
长远来看,若此类“供应链风险”标签成为常态,或将重塑AI企业的技术开发策略,迫使企业更透明化其训练数据和价值框架。此外,该事件也可能加剧中美在AI治理标准上的分歧,美国倾向于通过监管强化“技术自主”,而中国则更强调技术发展与安全的协调共治。