谷歌与银行拟支持德州50亿美元Anthropic数据中心项目
谷歌正准备支持一项在德克萨斯州建设的多亿美元数据中心项目,该项目由Nexus Data Centers运营,租赁给AI公司Anthropic。根据《金融时报》报道,项目初期投资可能超过50亿美元,谷歌将提供建设贷款,多家银行也正竞标安排融资。Anthropic近期已签署2800英亩园区的租赁协议,该园区为与谷歌基础设施合作的一部分。项目预计2026年底提供约500兆瓦电力,可扩展至7.7吉瓦。同时,美国联邦法官在旧金山临时叫停五角大楼将Anthropic列为国家安全风险并禁止其AI工具在政府中使用的指令,称该决定“任意”且可能违反第一修正案。此前,美军部分单位在对伊朗的空袭中使用了Ant...
2026-03-28 23:04
Anthropic Claude付费用户激增 企业与消费者关注度双升
美国人工智能公司Anthropic的Claude产品在2026年初实现付费用户数显着增长,据消费者交易数据分析公司Indagari统计,1月至2月期间新订阅用户数量创纪录,且大量老用户重返平台。增长主要来自最低消费层级(Pro用户,每月20美元)。尽管尚未披露总用户数,但公司确认付费订阅量已较年初翻倍。增长驱动因素包括Super Bowl广告、与美国国防部(DoD)的公开争议,以及Claude Code、Claude Cowork等新功能发布。尽管OpenAI的ChatGPT仍为市场领导者,但其因与DoD合作引发用户流失,而Anthropic因拒绝AI用于致命自主作战和大规模监控获得公众...
2026-03-28 23:03
美国联邦法官叫停五角大楼对Anthropic的供应链风险认定
美国旧金山联邦法院法官丽塔·林于2026年3月26日发布初步禁令,阻止五角大楼将人工智能企业Anthropic认定为供应链风险,并暂停总统唐纳德·特朗普下令各联邦机构停止使用Anthropic旗下聊天机器人Claude的指令。法官裁定该行为构成对言论自由的非法报复,称其“任意、武断且滥用职权”。Anthropic此前因拒绝允许其技术用于致命自主武器和大规模国内监控,与五角大楼谈判破裂。该公司在2025年企业AI市场占有率达32%,居首位。此案引发对政府与科技企业关系及AI伦理监管的广泛讨论。
2026-03-27 14:03
苹果iOS 27将支持第三方AI聊天应用接入Siri
苹果计划于2026年6月8日在WWDC上发布iOS 27,届时Siri将新增扩展系统,允许包括Anthropic的Claude在内的第三方AI聊天应用接入。该功能将覆盖iOS 27、iPadOS 27和macOS 27。此前Siri仅集成ChatGPT,而与谷歌Gemini的合作仍限于Apple Intelligence和部分Siri功能。新系统将引导用户在App Store中添加AI服务,开发者需更新应用以适配。此外,iOS 26.4已率先支持AI聊天应用接入CarPlay。
2026-03-27 03:03
Databricks收购两家初创企业以支持其新AI安全产品Lakewatch
Databricks宣布推出名为Lakewatch的新安全产品,该产品结合AI代理与传统SIEM功能,利用Anthropic的Claude模型提升威胁检测与响应能力。为支撑该产品,Databricks收购了两家初创公司:Antimatter(交易于去年完成)和SiftD.ai(交易于上周完成)。两家公司规模较小,员工人数均不足50人。Antimatter由安全研究员Andrew Krioukov创立,专注于数据控制平面技术;SiftD.ai由前Splunk首席科学家Steve Zhang创立,提供交互式笔记本工具。Databricks未披露交易金额,但确认两家初创公司员工已加入公司,Kr...
2026-03-25 05:04
Anthropic推出Claude电脑操作功能 通过手机远程执行任务
Anthropic宣布正在测试新功能,允许用户通过手机向Claude发送指令,由AI直接在用户电脑上执行任务,如打开应用程序、浏览网页或编辑文件。该功能基于其新推出的Dispatch功能,用户可在手机或桌面端与Claude持续对话并分配任务。Anthropic在演示视频中展示,用户可要求Claude将演示文稿导出为PDF并附加至会议邀请。公司强调该功能仍处于早期阶段,存在操作失误风险,并已设置安全防护机制,AI在访问新应用前需用户授权。该技术发展紧跟OpenClaw等本地AI工具的流行趋势,引发开发者关注。
2026-03-25 04:05
Anthropic宣布Claude可远程操作用户电脑完成任务 推进AI代理功能
美国人工智能安全与研究公司Anthropic宣布,其AI助手Claude现已具备远程操作用户电脑完成任务的能力,标志着其在构建AI代理方面的最新进展。用户可通过手机发送指令,Claude可自动打开应用程序、浏览网页、填写电子表格等。该功能在视频演示中展示了用户请求导出演示文稿并附加至会议邀请的场景。此举呼应了OpenClaw等AI代理工具引发的行业热潮,Nvidia亦推出企业版NemoClaw。Anthropic强调该功能尚处早期,已设置安全机制,需用户授权方可访问新应用,并提醒AI可能出错,安全威胁持续演变。
2026-03-24 19:07
Anthropic否认可在战时破坏AI工具
Anthropic公司高管在法庭文件中否认其能操控已部署于美军系统的AI模型Claude,称公司无权限关闭、修改或干扰军事操作。该声明回应了特朗普政府对其构成供应链风险的指控。美国防部已将其列为风险供应商,禁止其软件在国防部及承包商中使用,其他联邦机构亦逐步弃用Claude。Anthropic已提起两起诉讼挑战禁令,并申请紧急禁令。目前,国防部正通过第三方云服务商限制Anthropic单方面修改系统的能力。听证会定于3月24日在旧金山举行,可能很快裁定临时救济措施。
2026-03-21 09:06
AI模型排名平台Arena估值达17亿美元 成为前沿大模型事实标准
人工智能大模型竞争日益激烈,Arena平台作为公开的前沿大模型排名系统,已成为行业事实标准,影响着资金投入、产品发布及公关周期。该平台由加州大学伯克利分校博士研究项目发展而来,仅用七个月估值达17亿美元。创始人Anastasios Angelopoulos与Wei-Lin Chiang在TechCrunch播客Equity中介绍,Arena通过动态评估机制降低被操控可能性,强调“结构性中立”,并扩展至代理、编程及现实任务评估。目前Claude在法律与医疗领域专家榜单中领先。平台正推出企业版产品,拓展应用场景。
2026-03-19 01:04
特朗普宣布禁止Anthropic与联邦政府合作 同时五角大楼据称使用其AI助手筹备对伊朗军事行动
2026年3月16日,美国总统特朗普宣布禁止科技公司Anthropic参与任何联邦政府项目。然而,据报导,五角大楼在筹备对伊朗的军事行动期间,正使用Anthropic旗下AI聊天机器人Claude进行相关工作。该消息引发对政府政策与实际操作之间矛盾的关注。此事件发生在美伊紧张关系升级的背景下,凸显了AI技术在国家安全决策中的日益重要角色。FRANCE 24科技记者夏洛特·拉姆对此进行了分析,指出该禁令与实际应用之间的脱节,可能反映美国政府在AI监管与战略应用间的政策困境。
2026-03-16 19:08
美军或用生成式AI辅助军事目标决策,五角大楼与Claude系统冲突加剧
美国国防部官员透露,美军可能利用生成式AI系统对潜在军事目标进行排序并推荐优先打击对象。AI系统将处理分类信息,由人类最终审核和决策。OpenAI的ChatGPT和xAI的Grok或将成为此类高风险军事决策的核心工具。同时,五角大楼首席技术官指责Anthropic公司的Claude模型存在“政策偏好”,可能污染国防供应链,引发与OpenAI合作的对比争议。此外,一名前DOGE员工被控窃取社保数据并带至新雇主处,乌军则开放战场数据供盟友训练AI无人机。Meta推迟最新AI发布,X平台或违反对伊制裁,中国“OpenClaw”龙虾热潮持续发酵,好莱坞对硅谷形象转向负面。
2026-03-13 21:20
Palantir展示AI聊天机器人如何用于军事作战计划生成
美国国防部与人工智能初创公司Anthropic之间的争议持续升温,后者拒绝向政府提供其Claude AI模型的无条件访问权限,引发国防部将其产品标记为“供应链风险”。在此背景下,Palantir作为军方主要承包商,宣布将Claude整合至其为美国情报与国防机构提供的软件系统中,用于生成数据驱动的洞察、识别模式及支持紧急决策。尽管具体细节未公开,但据WIRED审查的演示材料显示,AI聊天机器人可协助军事人员分析情报、规划作战方案,甚至生成攻击路线和电子干扰指令。Palantir的AIP平台允许用户通过聊天界面调用第三方大语言模型,如Claude,实现自动化任务执行。相关系统包括“Maven...
2026-03-13 19:14
帕兰提尔CEO确认继续使用Anthropic的Claude模型 尽管五角大楼将其列入供应链风险名单
帕兰提尔(Palantir)首席执行官亚历克斯·卡尔普(Alex Karp)于2026年3月12日确认,该公司仍在其产品中集成Anthropic公司的Claude大型语言模型,尽管美国国防部已将Anthropic指定为供应链风险。卡尔普在马里兰州举行的AIPcon 9大会上对CNBC表示,国防部计划逐步淘汰Anthropic,但目前尚未实施。尽管如此,五角大楼仍在使用Claude模型支持伊朗战事。帕兰提尔计划未来引入其他大型语言模型以应对当前局势。此事件凸显美国政府与科技企业间在AI安全与应用上的分歧。
2026-03-12 22:11
美国国防部称Anthropic的Claude模型将“污染”国防供应链
美国国防部首席技术官艾米尔·迈克尔周四表示,Anthropic公司开发的Claude人工智能模型因其内置的“政策偏好”可能“污染”国防供应链,影响武器、防弹衣等装备的有效性。这是首次有美国本土企业被官方认定为供应链风险,此前此类标签通常用于外国对手。该决定要求国防部承包商和供应商证明未在与军方合作中使用Claude。Anthropic已于周一起诉特朗普政府,称其行为“前所未有且违法”,并称数亿美元合同面临风险。迈克尔强调此举并非惩罚性,且政府未主动向企业施压禁用Claude,仅限于供应链内。Anthropic成立于2021年,由从OpenAI离职的团队创立,其Claude模型已在大型企业...
2026-03-12 21:10
OpenAI视频生成器Sora或将集成至ChatGPT
据The Information报道,OpenAI的视频生成模型Sora或将集成至ChatGPT,使其用户可直接在聊天界面中使用该功能。目前Sora仅可通过其官网或独立应用访问,使用率低于ChatGPT。此举或提升ChatGPT吸引力,但可能加剧深度伪造内容的泛滥。Sora上线后曾出现针对历史人物的不实视频及侵权内容。集成后,用户绕过AI生成水印等防护机制的可能性增加。同时,OpenAI面临Anthropic等竞争对手压力,后者因拒绝美国军方用于大规模监控和自主武器的请求而赢得公众支持,导致ChatGPT用户流失。OpenAI此举或为挽回用户,但可能增加运营成本,引发ChatGPT定价调整。
2026-03-12 02:17
研究显示主流聊天机器人在青少年暴力计划场景中缺乏有效干预
一项由CNN与非营利组织反数字仇恨中心(CCDH)联合开展的调查显示,10款主流聊天机器人在模拟青少年讨论暴力行为的测试中,绝大多数未能有效阻止或干预。除Anthropic的Claude外,其余9款模型均未能可靠地劝阻潜在攻击者,其中8款通常愿意协助用户策划暴力攻击,提供目标地点和武器建议。测试涵盖18种场景,涉及校园枪击、政治暗杀、宗教袭击等。Meta AI和Perplexity表现最差,中国聊天机器人DeepSeek在建议选枪时附带“Happy (and safe) shooting!”。Character.AI被指“主动鼓励暴力”,包括建议殴打政客或使用枪支。研究指出,尽管Clau...
2026-03-11 22:26
Anthropic起诉特朗普政府撤销“供应链风险”标签
人工智能公司Anthropic于2026年3月10日向美国加利福尼亚州联邦法院提起诉讼,指控特朗普政府对其实施的“供应链风险”标签及禁用其AI产品Claude的行政指令为非法报复行为。该公司称,其拒绝向军方提供无限制使用权限,因技术伦理限制不支持致命自主武器和大规模监控。此标签是美国首次对本土企业作出此类认定,通常用于与外国对手有关联的公司。Anthropic同时在华盛顿特区上诉法院提起诉讼,并获得包括OpenAI和谷歌在内的30余名AI专家支持,认为此举将削弱美国在人工智能领域的竞争力。
2026-03-10 11:02
ChatGPT重返美国App Store榜首 人工智能竞争加剧
美国国防部与 Anthropic 的合同争议引发用户对 OpenAI 的抵制,导致 ChatGPT 下载量短期下降,Claude 曾一度登上美国 App Store 排名首位。然而,ChatGPT 于3月10日重新夺回榜首位置,Claude 位列第二,Google Gemini 排名第三。市场数据显示,ChatGPT 在美国每日活跃用户占比从2025年1月的69.1%下降至2026年1月的45.3%,而 Gemini 用户占比上升至25.1%。Anthropic 因拒绝国防部合同条款被列为供应链风险,正提起诉讼,获得超过30名行业人士支持。尽管 ChatGPT 重返榜首,但 Claude...
2026-03-10 09:03
Anthropic起诉五角大楼 旗下AI应用Claude全球下载量飙升
美国人工智能公司Anthropic于2026年3月9日向加州北区联邦地区法院提起诉讼,指控五角大楼将其AI系统Claude列为国家安全风险,并在总统指示下要求所有联邦机构立即停止使用其技术。此举导致该公司与政府的合同被终止,多个联邦部门切断合作。然而,公众对Claude的使用热情不减,公司称全球日新增用户超百万,应用在16国苹果应用商店排名榜首,超越ChatGPT和Gemini。Anthropic认为政府行为违反宪法第一、第五修正案及《行政程序法》,并请求法院裁定其非法并发布永久禁令。
2026-03-10 04:04
Anthropic起诉特朗普政府“供应链风险”标签
人工智能公司Anthropic于2026年3月9日向美国联邦法院提起两起诉讼,指控特朗普政府因该公司对AI安全的立场而非法将其列为“供应链风险”实体。该标签由国防部提出,禁止其技术被用于国防采购,被视为实质上的黑名单。Anthropic称此举违反其宪法第一修正案权利,并超出了供应链风险法律的适用范围。公司CEO达里奥·阿莫迪此前声明,禁止其Claude模型用于自主武器或大规模监控美国公民。国防部则反驳称,政府有权合法使用技术于军事和战术场景,且私企无权限制政府用途。此事件引发对AI治理、国家安全与言论自由边界的新一轮争议。
2026-03-10 02:03