美军或用生成式AI辅助军事目标决策,五角大楼与Claude系统冲突加剧
美国国防部官员透露,美军可能利用生成式AI系统对潜在军事目标进行排序并推荐优先打击对象。AI系统将处理分类信息,由人类最终审核和决策。OpenAI的ChatGPT和xAI的Grok或将成为此类高风险军事决策的核心工具。
五角大楼首席技术官指出,Anthropic公司的Claude模型存在“政策偏好”,可能污染国防供应链,引发与OpenAI合作的对比争议。该争议凸显AI在军事应用中对模型偏见和安全性的高度敏感。
此外,一名前DOGE员工被控窃取社会保障数据,并将数据带至其在政府承包商IT部门的新岗位,涉嫌使用U盘传输数据。
乌克兰方面宣布向盟友开放战场数据,用于训练无人机及其他无人飞行器。欧洲正在构建以无人机为核心的未来战争愿景。
Meta因最新AI模型性能未达预期,推迟其发布。该公司前AI负责人公开质疑大型语言模型的长期价值。
X平台可能违反对伊朗的制裁,其上出现伊朗新最高领袖账号,或违反美国规定。黑客组织Handala已成为伊朗网络战的代表力量,AI正在将冲突推向“剧场化”阶段。
一场关于社交媒体成瘾的标志性审判接近尾声,或将裁定平台对儿童伤害是否负有法律责任。AI伴侣被视为数字成瘾的下一阶段。
西方AI模型在南半球农业应用中“彻底失败”,主要因缺乏本地数据训练。
莫斯科互联网中断引发民众抢购传呼机,当局称此为网络控制新测试的一部分。
中国公众对“OpenClaw”龙虾热潮持续追捧,技术爱好者借此商机获利,科技“创客”群体活跃。
好莱坞影视作品对硅谷创始人形象转向负面,从“古怪创始人”转向“专制巨头”。
编辑点评
此次美军探索生成式AI在军事目标决策中的应用,标志着AI军事化进入新阶段。AI系统将初步筛选和排序目标,但人类仍保留最终决策权,这体现了“人机协同”模式在高风险场景中的谨慎推进。然而,五角大楼对Claude系统的质疑,揭示出AI模型在训练数据和价值观嵌入上的深层风险——一旦模型存在“政策偏好”,可能破坏军事决策的客观性与安全性,引发战略误判。这一事件凸显,AI军事化不仅关乎技术能力,更涉及算法伦理与国家主权的深层博弈。
更广泛地看,各国正加速将AI融入战争体系。乌克兰开放战场数据供盟友训练无人机,反映AI在现代战争中已成为“战略资源”。同时,Meta推迟发布、X平台涉嫌违反对伊制裁、中国龙虾热潮等事件,表明AI技术正渗透至商业、外交、文化等多个维度,形成多轨并进的全球技术竞争格局。未来,AI的军事应用与民用发展将愈发交织,国际社会亟需建立统一的伦理框架与监管机制,避免技术失控。
长期而言,此事件可能推动全球AI军控谈判的启动,尤其在生成式AI用于军事规划、情报分析与自动化打击等领域。若各国不建立透明、可验证的AI军事使用标准,可能加剧军备竞赛与误判风险。中国、美国、欧洲及俄罗斯等大国需在技术发展与安全治理之间找到平衡点,避免AI成为新的“冷战”导火索。