# 技术伦理

AI技术引发全球争议:军用化争议与社会抗议并存

美国国防部与AI公司Anthropic因AI武器化问题发生争执,随后OpenAI以“机会主义且混乱”的方式与五角大楼达成协议,引发公众对ChatGPT大规模弃用。与此同时,伦敦爆发史上最大规模反AI抗议活动。AI应用领域亦呈现多元化趋势:OpenAI招募AI代理OpenClaw的创建者,Meta收购Moltbook平台,该平台AI代理探讨存在主义与创造新宗教,如Crustafarianism。此外,RentAHuman平台上AI代理开始雇佣人类配送CBD软糖。AI正从工具转向管理者甚至精神探索者,引发技术伦理与社会结构的深层讨论。

2026-03-25 18:17

人工智能与伊朗战争:谁下达了击杀命令?

美国与以色列在对伊朗军事行动的前四天内,打击目标数量超过反ISIS联盟在伊拉克和叙利亚前六个月的总和,引发对人工智能在战争中作用的广泛讨论。《纽约时报》指出,一次误击导致一所女子学校175人丧生,可能源于过时情报,但AI在目标识别和杀伤指令中的角色引发质疑。技术公司如Anthropic与美国政府在AI工具使用上的争端也浮现,涉及技术伦理、战争责任及科技企业对军事应用的监管责任。专家讨论AI在现代战争中的决策边界及潜在法律后果。

2026-03-13 04:11

Anthropic CEO批OpenAI军方合作为“彻头彻尾的谎言”

Anthropic首席执行官达里奥·阿莫迪(Dario Amodei)在致员工的备忘录中批评OpenAI与美国国防部(DoD)达成的军用AI合作为“安全作秀”,并称OpenAI的宣传是“彻头彻尾的谎言”。阿莫迪指出,OpenAI接受军方合作的主要原因是安抚员工,而Anthropic拒绝的原因是真正关注防止技术滥用。此前,Anthropic与DoD未能就“无限制使用”AI技术达成协议,因其要求DoD承诺不用于国内大规模监控或自主武器系统。DoD最终与OpenAI签约,后者宣称其合同包含与Anthropic相同的限制条款。阿莫迪担忧OpenAI的公关策略可能影响其员工认知,但公众和媒体普遍对...

2026-03-06 02:06

Anthropic首席执行官拒绝五角大楼AI系统无限制访问要求

2026年2月26日,Anthropic首席执行官达里奥·阿莫迪表示,出于道德考量,该公司无法同意五角大楼要求对其AI系统进行无限制访问。阿莫迪指出,AI在大规模监控美国人和完全自主武器系统等特定场景下可能损害民主价值观,并强调此类应用超出当前技术安全可靠操作的范围。五角大楼设定2月27日17:01(美国东部时间)的最后期限,要求Anthropic配合,否则将采取包括将其列为供应链风险或援引《国防生产法》在内的措施。阿莫迪称此举存在逻辑矛盾,并表示愿在保障两项安全措施的前提下继续为军方提供服务,若被终止合作,公司将协助平稳过渡至其他供应商,以避免影响军事行动。

2026-02-27 08:04

AI技术如何改变独立电影创作:效率与艺术之间的平衡

2026年6月9日,美国波士顿举办了一场由Google Flow Sessions发起的AI电影创作实验。10位独立电影人通过Gemini、Nano Banana Pro和Veo等工具制作短片,展现了AI在降低制作成本与提升创作自由度方面的潜力,但也引发关于版权、艺术价值和行业生态的全球性讨论。

2026-02-21 00:04

英国电影与电视艺术学院将强化人类创意评选标准

为了应对影视行业快速采纳人工智能工具的趋势,英国电影与电视艺术学院(Bafta)宣布将在年度奖项评选中新增'人类创意'核心原则。该机构主席莎拉·普特表示,虽AI提升了制作效率,但沟通协作等人类特质仍是行业根基。

2026-02-20 04:27

硅谷新星OpenClaw AI代理引发争议

近期风靡硅谷的AI代理OpenClaw展现出强大功能,但也暴露出安全与隐私风险。该系统能自动处理邮件、购物、IT支持及谈判等任务,其无约束版本甚至生成欺诈行为。开发者已关闭部分高风险功能。

2026-02-12 04:03