Anthropic招聘化学武器与高能炸药政策经理 引发全球AI安全争议
美国人工智能公司Anthropic在LinkedIn发布招聘启事,寻求一名化学武器与高能炸药政策经理,负责制定AI系统在敏感领域信息处理的安全防护措施。公司强调其产品禁止用于武器开发,该职位属于安全防护团队,旨在防止AI技术被恶意滥用。此举引发与美国国防部的公开矛盾,后者因Anthropic拒绝为自主武器系统提供技术支持,将其列为国家安全供应链风险,并禁止军方使用其技术。Anthropic已就此提起诉讼。该事件凸显AI安全与国家安全之间的张力,也反映了全球在AI监管与技术应用平衡上的深层分歧。