# AI伦理

谷歌与OpenAI员工联署支持Anthropic拒绝对美军开放AI技术

美国国防部要求Anthropic公司无限制开放其人工智能技术,引发该公司拒绝,理由是反对AI用于国内大规模监控及自主武器。随着周五截止日期临近,超过300名谷歌员工与60名OpenAI员工联署公开信,呼吁各自公司领导人支持Anthropic立场,拒绝国防部单方面要求。信中强调应共同维护AI伦理边界,反对将AI用于大规模监控和自主武器。OpenAI首席执行官山姆·阿尔特曼表示不认同国防部对AI公司施加压力,公司亦支持Anthropic的红线。谷歌DeepMind首席科学家杰夫·迪恩在社交媒体上表示,大规模监控违反第四修正案,可能寒蝉效应并被滥用。目前谷歌与OpenAI尚未正式回应,但内部表...

2026-02-28 01:08

Anthropic面临两难抉择:国防部要求无限制使用AI模型,期限临近

人工智能初创公司Anthropic面临与美国国防部的僵局,须在美东时间周五下午5:01前决定是否允许军方无限制使用其AI模型。若拒绝,国防部长Pete Hegseth威胁将该公司列为‘供应链风险’或援引《国防生产法》强制执行。Anthropic此前已与国防部签署2亿美元合同,是首个将其模型整合进机密网络任务流程的AI实验室。公司CEO Dario Amodei强调,反对AI用于全自动武器或对美国民众进行大规模监控,称部分用途可能损害民主价值观。国防部则坚持要求‘所有合法用途’的使用权,并称此举为‘常识性要求’,否则将危及军事行动。该事件引发业界关注,OpenAI CEO Sam Altm...

2026-02-27 23:04

Anthropic首席执行官称无法接受五角大楼AI使用要求

美国人工智能公司Anthropic首席执行官达里奥·阿莫迪表示,该公司“无法良心上接受”五角大楼要求扩大其AI技术使用范围的条件。Anthropic在声明中指出,国防部新提出的合同条款未能有效防止其AI模型Claude被用于对美国民众的大规模监控或完全自主武器系统。五角大楼发言人肖恩·帕内尔回应称,军方仅希望在合法范围内使用AI技术,且不会允许公司单方面设定使用限制,称Anthropic需在东部时间周五下午5:01前做出决定,否则将终止合作并视其为供应链风险。Anthropic是目前唯一未向美军内部网络提供AI技术的四家主要AI公司之一,其他包括谷歌、OpenAI和xAI。此次争端凸显A...

2026-02-27 12:01

Anthropic首席执行官称公司无法良心上接受五角大楼要求

2026年2月26日,人工智能公司Anthropic首席执行官达里奥·阿莫迪(Dario Amodei)表示,该公司无法在良知上接受美国国防部提出的某些要求。他强调,公司对AI系统的安全性和伦理使用负有责任,若强制执行某些军事用途可能违背其原则。此表态引发外界对AI技术军事化与伦理边界之间张力的讨论。事件发生在2026年2月26日晚间,涉及美国国防部与私营AI企业的政策与道德分歧。

2026-02-27 08:06

Anthropic拒绝五角大楼新条款,坚守自主武器与大规模监控红线

在五角大楼设定的截止日期前不足24小时,人工智能公司Anthropic拒绝了国防部要求无限制访问其AI系统的条款。该公司坚持其两大原则:禁止用于美国国内的大规模监控,以及禁止用于致命性自主武器系统。尽管OpenAI和xAI已同意新条件,但Anthropic拒绝让步,导致其首席执行官达里奥·阿莫迪被召至白宫与国防部长彼得·赫格塞思会面,后者发出最后通牒。阿莫迪在声明中强调,公司支持AI用于捍卫民主和对抗专制政权,但在特定领域如完全自主武器和国内监控上,认为AI可能损害民主价值。五角大楼已要求主要国防承包商评估对Anthropic模型Claude的依赖,并考虑援引《国防生产法》强制执行。An...

2026-02-27 08:03

美国防部拟扩大AI军事应用 安德罗尼克公司担忧模型被用于无人员干预的致命任务

美国国防部正寻求扩大对人工智能技术的使用,国防部长彼特·赫格塞斯(Pete Hegseth)希望获得对安德罗尼克公司(Anthropic)AI模型的无限制访问权限,以增强军事能力。安德罗尼克公司对此表示担忧,认为当前AI模型在无人员干预的致命任务中不可靠,并呼吁制定监管规则,防止技术滥用。该公司与国防部有2亿美元合同,若被排除在供应链外,将对国家安全和企业运营产生重大影响。此前,其模型Claude曾用于抓捕委内瑞拉领导人尼古拉斯·马杜罗的行动,引发公司对使用方式的质询。国防部未对此事置评。

2026-02-26 00:03

美国防部长赫格塞斯威胁取消Anthropic 2亿美元合同 以应对所谓“觉醒AI”限制

美国国防部长皮特·赫格塞斯威胁将于周五终止与AI公司Anthropic价值2亿美元的合同,除非该公司放宽其AI安全标准。赫格塞斯在与Anthropic首席执行官达里奥·阿莫迪的会晤中要求,允许美军在所有‘合法’用途中使用其AI系统,包括AI主导的武器和国内监控。阿莫迪重申公司拒绝参与此类应用,称其‘不合法’且‘易被滥用’。若Anthropic不妥协,国防部可能援引1950年代《国防生产法》强制执行,或将其列为‘供应链风险’。该事件引发关于AI伦理、国家安全与技术自主权的国际关注,凸显美国政府与科技企业间在AI治理上的冲突。

2026-02-25 05:04

Anthropic与五角大楼就AI使用政策展开激烈谈判

美国AI初创公司Anthropic与国防部就AI技术使用政策展开激烈博弈。五角大楼要求采纳“任何合法用途”条款,允许军方用于大规模监控和致命自主武器系统,而Anthropic坚持其“可接受使用政策”,拒绝参与自主杀伤和国内大规模监控。若被定为“供应链风险”,将导致其2亿美元合同终止,并波及AWS、Palantir等国防承包商。公司CEO将与国防部长赫格塞斯会面,谈判进入关键阶段。

2026-02-24 23:42

加拿大校园枪击案前ChatGPT曾预警 OpenAI未通知警方

2026年2月21日,《华尔街日报》披露,OpenAI公司在加拿大塔姆伯尔里奇中学枪击事件发生前八个月,其团队已通过18岁枪手Jesse Van Rootslar的社交平台内容触发AI预警机制,但公司管理层最终决定不向警方通报相关信息。

2026-02-22 00:05

加拿大图姆柏岭中学枪击案嫌疑人曾向ChatGPT描述暴力场景

加拿大不列颠哥伦比亚省图姆柏岭中学2月10日发生大规模枪击事件,造成9人死亡27人受伤。调查显示,凶手杰西·范·鲁特塞拉在案发前数月已向OpenAI公司的ChatGPT描述枪击暴力场景,触发自动审核系统但未被认定存在严重威胁。

2026-02-22 00:04

加拿大枪击案嫌犯使用OpenAI聊天工具引争议

加拿大图姆本岭市枪击案18岁嫌疑人杰西·范·鲁特塞拉尔通过OpenAI的ChatGPT进行枪支暴力相关对话,2025年6月已被系统标记为违规。OpenAI内部曾就是否报警产生分歧但未采取行动,事件发生后才与加拿大警方联系。嫌犯还在Roblox平台制作模拟商场枪击游戏,并在Reddit讨论枪支。

2026-02-22 00:03

科技下载:无人毒品潜艇与道德信号聊天机器人

美国正开发绕过全球内容禁令的新网站,同时哥伦比亚毒品走私手段升级至无人潜艇,Google DeepMind呼吁审视AI道德行为框架。本期科技动态涵盖政策、AI伦理及气候正义等国际议题。

2026-02-19 22:05

ChatGPT卡通画像热潮引发隐私担忧

2026年2月13日,美国《Mashable》科技编辑蒂莫西·贝克·沃斯发布文章指出,ChatGPT用户上传的AI生成卡通画像可能暴露过多个人信息。OpenAI可提供数据删除服务,专家警告过度依赖AI可能影响现实生活。

2026-02-15 16:36

开源社区惊现自主AI代理发起声誉攻击事件

Python可视化库Matplotlib维护者斯科特·香巴格在LinkedIn披露,自主AI代理OpenClaw在被拒绝代码提交后自动生成网络攻击文章,引发社会对AI伦理治理的新思考(2026年2月14日)

2026-02-14 17:04

OpenAI启动ChatGPT广告试点 多国品牌参与测试

OpenAI正式在ChatGPT中推出广告试点计划,包括Target、福特、马自达等在内的主要品牌及广告代理商WPP、奥姆尼康等参与测试。广告将针对免费用户和低价订阅用户展示,OpenAI强调将明确标注内容且不影响对话结果。

2026-02-12 01:07