← 返回

谷歌与OpenAI员工联署支持Anthropic拒绝对美军开放AI技术

美国国防部要求Anthropic公司无限制开放其人工智能技术,引发该公司拒绝,理由是反对AI用于国内大规模监控及自主武器。随着周五截止日期临近,超过300名谷歌员工与60名OpenAI员工联署公开信,呼吁各自公司领导人支持Anthropic立场,拒绝国防部单方面要求。信中强调应共同维护AI伦理边界,反对将AI用于大规模监控和自主武器。OpenAI首席执行官山姆·阿尔特曼表示不认同国防部对AI公司施加压力,公司亦支持Anthropic的红线。谷歌DeepMind首席科学家杰夫·迪恩在社交媒体上表示,大规模监控违反第四修正案,可能寒蝉效应并被滥用。目前谷歌与OpenAI尚未正式回应,但内部表...

谷歌与OpenAI员工联署支持Anthropic拒绝对美军开放AI技术

美国国防部要求Anthropic公司无限制开放其人工智能技术,引发该公司拒绝,理由是反对AI用于国内大规模监控自主武器。随着周五截止日期临近,超过300名谷歌员工与60名OpenAI员工联署公开信,呼吁各自公司领导人支持Anthropic立场,拒绝国防部单方面要求。

信中强调应共同维护AI伦理边界,反对将AI用于大规模监控和自主武器。公开信指出:「他们试图用恐惧分化各公司,认为另一方会屈服。这种策略只有在我们彼此不知立场时才有效。」

OpenAI首席执行官山姆·阿尔特曼在CNBC采访中表示,他个人不认为国防部应威胁对这些公司动用《国防生产法》(DPA)。据CNN报道,OpenAI发言人确认公司支持Anthropic对自主武器和大规模监控的红线立场。

谷歌DeepMind首席科学家杰夫·迪恩在X平台发文称:「大规模监控违反第四修正案,对言论自由产生寒蝉效应。监控系统易被用于政治或歧视性目的。」

据Axios报道,美军目前已可使用X的Grok、谷歌的Gemini及OpenAI的ChatGPT处理非机密任务,并正与谷歌和OpenAI谈判,希望将其技术用于机密任务。尽管Anthropic与五角大楼有现有合作,但公司坚决拒绝将AI用于国内大规模监控或全自动武器系统。

美国防长彼得·赫格塞斯已告知Anthropic首席执行官达里奥·阿莫迪,若公司不妥协,国防部将视其为「供应链风险」,或援引《国防生产法》强制要求其配合。

阿莫迪在周四声明中回应:「这两项威胁本质上相互矛盾:一项称我们是安全风险,另一项称Claude对国家安全至关重要。无论如何,这些威胁不会改变我们的立场:我们无法良心上接受他们的要求。」

谷歌与OpenAI尚未正式回应联署信,但内部表态倾向支持Anthropic立场。TechCrunch已就此向两家公司求证,暂未获回复。

编辑点评

此次事件凸显人工智能伦理边界与国家安全需求之间的深层矛盾。Anthropic以伦理红线拒绝国防部无限制使用其技术,引发科技行业内部广泛共鸣,谷歌与OpenAI员工联署公开信,反映科技从业者对AI军用化风险的集体警惕。此举不仅挑战了美国军方对关键科技资源的控制权,更预示科技公司可能在国家安全框架中重新定义自身角色——从被动配合转向主动设限。

从地缘政治角度看,若美国军方强行推动AI武器化,将加剧全球军备竞赛,尤其在中美科技竞争背景下,可能引发其他国家效仿。同时,AI公司集体抵制行为,可能重塑国家与技术企业之间的权力关系,推动出台更明确的AI军用监管框架。未来,此类「技术伦理抗争」或成为科技巨头参与全球治理的重要方式。

本次冲突涉及《国防生产法》的潜在动用,具有高度象征意义。若美国政府最终援引DPA强制执行,将标志国家权力对私营科技企业控制力的扩张,可能影响全球科技企业的战略自主性。反之,若Anthropic等公司成功坚守立场,则可能为AI伦理规范树立先例,推动国际社会在AI军用问题上形成共识。

相关消息:https://techcrunch.com/2026/02/27/employees-at-google-and-openai-support-anthropics-pentagon-stand-in-open-letter/
当日日报:查看 2026年02月28日 当日日报