人工智能在伊朗冲突中扮演新角色,美国军方与AI公司法律争端升级
人工智能在伊朗冲突中的应用正从战术决策扩展至信息中介,引发对数据来源可靠性的担忧。与此同时,AI公司Anthropic起诉美国政府,抗议其被国防部列入黑名单,白宫正准备发布新行政命令限制其技术使用。谷歌与OpenAI员工亦提交法律简报支持Anthropic。此外,中东地区GPS干扰加剧,影响航运与飞行安全,量子导航或成应对方案。美国军方正寻求以高功率微波武器大规模瘫痪无人机,Epirus公司相关技术获军方关注。任天堂亦加入对特朗普政府非法关税的诉讼,索赔逾2000亿美元。
2026-03-10 22:19
OpenAI曾禁军用AI 但五角大楼仍通过微软测试模型
OpenAI首席执行官山姆·奥尔特曼因公司与美国军方签署协议引发争议。此前OpenAI员工曾批评该协议,称其政策模糊。2023年OpenAI明确禁止军方使用其AI模型,但五角大楼已通过微软的Azure OpenAI服务进行测试。2024年初,OpenAI更新政策取消军用禁令。2024年12月,OpenAI宣布与Anduril合作开发国家安全任务AI系统,限于非机密工作负载。公司员工对此分歧明显,部分员工担忧模型可靠性及军事应用风险。奥尔特曼称公司无权决定军方如何使用其AI,并有意向北约销售模型。专家指出协议存在法律监控风险,OpenAI已修改条款回应关切。
2026-03-06 07:05
Anthropic调整AI安全政策应对竞争压力
人工智能公司Anthropic宣布调整其AI安全政策,不再自动暂停可能具有危险性的模型开发,而是将考虑竞争对手的行动及模型能力相似性。此前,该公司坚持无论其他厂商是否采取类似措施,均以降低模型绝对风险为原则。Anthropic指出,当前政策环境更侧重AI竞争力和经济增长,安全议题在联邦层面尚未取得实质性进展。与此同时,美国国防部正施压Anthropic允许军方在无人工监督情况下使用其AI工具,包括大规模监控和自主武器部署。该公司在合同谈判中未让步,引发国防部长Pete Hegseth不满,威胁终止合作关系。Anthropic此前参与了与Google、OpenAI和xAI共同进行的军用图像...
2026-02-26 08:03