Anthropic CEO阿莫迪或正重启与美国国防部谈判
美国人工智能公司Anthropic与国防部原定2亿美元合同因权限争议破裂,后者转而与OpenAI达成协议。但据《金融时报》和彭博社报道,Anthropic首席执行官达里奥·阿莫迪正与国防部官员埃米尔·迈克尔重启谈判,试图就AI技术使用条款达成妥协。
阿莫迪曾反对允许军方无限制使用其AI技术,尤其反对用于国内大规模监控或自主武器系统。国防部官员称其为“骗子”,阿莫迪则批评OpenAI与军方的合作是“安全作秀”。
国防部长彼得·赫格塞斯曾宣布将Anthropic列为“供应链风险”,但尚未采取法律行动。此次谈判若成功,可能影响美国军方AI技术采购格局。
谈判细节尚未公开,但双方均对当前合作模式不满。国防部需确保技术可用性,而Anthropic则坚持伦理边界。此次事件凸显AI技术在军用领域应用的伦理与法律挑战。
编辑点评
此次Anthropic与美国国防部的谈判重启,反映了人工智能技术在国家安全领域应用的深层矛盾。一方面,美国军方亟需先进AI技术提升作战能力;另一方面,科技公司对技术被用于自主武器或大规模监控等潜在滥用表示担忧,这触及国际人道法与技术伦理边界。
事件中,阿莫迪与国防部官员的公开互斥,凸显了技术自主权与政府监管权之间的张力。将Anthropic列为“供应链风险”虽未具法律效力,但已构成实质性的政治与商业打压,可能影响其他科技公司与军方合作的意愿。
若谈判成功,将可能促成AI军用领域的“伦理协议”范本,对全球AI治理产生示范效应。若失败,则可能加速美国军事AI供应链向OpenAI等更“合作型”企业集中,进一步加剧科技巨头在国家安全领域的影响力。
长远看,该事件可能推动美国在AI治理框架上出台更明确的法规,平衡国家安全、技术创新与伦理约束,其影响或波及全球AI行业监管趋势。