Anthropic确认泄露Claude Code部分内部源代码
人工智能公司Anthropic确认,其热门编程助手Claude Code的部分内部源代码因人为失误在打包过程中意外泄露。公司声明称未涉及客户敏感数据或凭证,此事件非安全漏洞,而是发布流程中的操作失误。此次泄露事件发生在2月5日发布Claude Opus 4.6之后,已引发广泛关注,相关推文在发布后24小时内获得超2100万次浏览。这是Anthropic一周内第二次重大数据失误,此前其未来AI模型描述文件被发现存于公开数据缓存中。Claude Code自2025年5月面向公众发布以来,用户迅速增长,截至2月其年化营收已超25亿美元,引发OpenAI、Google和xAI等竞争对手加大投入。...
2026-04-01 06:07
Claude Code CLI源代码因地图文件泄露而曝光
Anthropic公司旗下开发工具Claude Code的完整CLI源代码因一个暴露的地图文件而泄露,引发业界关注。该事件暴露了超过40,000行插件系统代码和46,000行查询系统代码,显示出其作为生产级开发者工具的复杂架构。尽管Anthropic拥有法律保护,但竞争对手可借此洞察其技术路线、加速自身产品开发,并识别潜在安全漏洞。此外,恶意行为者可能利用泄露代码绕过安全防护机制。目前该领域发展迅速,泄露影响尚难预测,但已对技术安全与竞争格局构成潜在挑战。
2026-04-01 05:08
Anthropic旗下Claude Code源代码通过npm源映射泄露
一名安全研究人员通过Node Package Manager(npm)的源映射机制,泄露了Anthropic公司旗舰命令行工具Claude Code的完整源代码库。该源代码通过Cloudflare R2存储桶公开可访问,包含约40个插件式工具、46000行查询引擎代码、多代理编排系统、IDE桥接系统及持久化内存系统。技术架构显示其采用Bun作为JavaScript运行时,使用Ink(React终端库)构建CLI界面,并广泛使用Zod v4进行数据验证。此次泄露引发对代码安全性和隐私保护的担忧。
2026-04-01 02:05
五角大楼对Anthropic的供应链风险认定被临时叫停
美国加州法官丽塔·林于3月28日发布临时禁令,阻止五角大楼将人工智能公司Anthropic列为供应链风险并要求政府机构停止使用其AI产品。此案源于双方在合同与意识形态问题上的争端,政府此前通过社交媒体公开指责Anthropic,称其为“左翼激进分子”,并要求联邦机构全面禁用。法官指出,政府未按法定程序处理争议,且缺乏证据支持“杀伤开关”等指控。同时,国防部长赫格塞斯的相关声明被认定无法律效力。政府已获7天上诉期,但Anthropic另案仍在审理中。此案凸显政府在AI监管中夹杂意识形态斗争,引发对第一修正案权利和政府权力边界的广泛讨论。
2026-03-31 01:03
OpenAI关闭视频生成工具Sora 背后实为成本高昂与用户流失
2026年3月29日,OpenAI宣布关闭其AI视频生成工具Sora,该工具于六个月前向公众发布。据《华尔街日报》调查,Sora关闭的主要原因并非技术或数据隐私问题,而是成本高昂且用户数量急剧下滑。Sora日均运营成本约100万美元,但全球用户数从峰值约100万降至不足50万。与此同时,竞争对手Anthropic的Claude Code在企业与开发者市场取得显着进展。OpenAI首席执行官萨姆·奥尔特曼决定终止Sora项目,以释放计算资源并重新聚焦核心业务。迪士尼曾承诺投入10亿美元合作,但仅在公开关闭前一小时才获知消息,合作随之终止。
2026-03-30 12:03
谷歌与银行拟支持德州50亿美元Anthropic数据中心项目
谷歌正准备支持一项在德克萨斯州建设的多亿美元数据中心项目,该项目由Nexus Data Centers运营,租赁给AI公司Anthropic。根据《金融时报》报道,项目初期投资可能超过50亿美元,谷歌将提供建设贷款,多家银行也正竞标安排融资。Anthropic近期已签署2800英亩园区的租赁协议,该园区为与谷歌基础设施合作的一部分。项目预计2026年底提供约500兆瓦电力,可扩展至7.7吉瓦。同时,美国联邦法官在旧金山临时叫停五角大楼将Anthropic列为国家安全风险并禁止其AI工具在政府中使用的指令,称该决定“任意”且可能违反第一修正案。此前,美军部分单位在对伊朗的空袭中使用了Ant...
2026-03-28 23:04
Anthropic Claude付费用户激增 企业与消费者关注度双升
美国人工智能公司Anthropic的Claude产品在2026年初实现付费用户数显着增长,据消费者交易数据分析公司Indagari统计,1月至2月期间新订阅用户数量创纪录,且大量老用户重返平台。增长主要来自最低消费层级(Pro用户,每月20美元)。尽管尚未披露总用户数,但公司确认付费订阅量已较年初翻倍。增长驱动因素包括Super Bowl广告、与美国国防部(DoD)的公开争议,以及Claude Code、Claude Cowork等新功能发布。尽管OpenAI的ChatGPT仍为市场领导者,但其因与DoD合作引发用户流失,而Anthropic因拒绝AI用于致命自主作战和大规模监控获得公众...
2026-03-28 23:03
美国法官裁定特朗普政府无权将Anthropic列入黑名单
美国联邦地区法院法官丽塔·林裁定,美国国防部(DoW)无权因Anthropic公司公开批评其AI使用政策而将其列为供应链风险企业。林法官指出,此举构成对第一修正案权利的报复,且缺乏法律依据。她批准了Anthropic提出的初步禁令,禁止联邦机构执行特朗普总统和国防部长彼得·赫格塞斯(Pete Hegseth)的黑名单指令,但同时允许政府申请七天行政延期。法官强调,政府未提供证据证明Anthropic构成紧急国家安全威胁,且该黑名单此前从未用于国内企业。Anthropic表示感谢法院迅速裁决,但仍担忧将影响其参与政府合同的资格。政府方面称裁决“令人羞耻”,并计划上诉。此案涉及AI安全、政府...
2026-03-28 05:05
Anthropic确认泄露内部文件,揭示最强AI模型Claude Mythos及新层级Capybara
AI公司Anthropic确认其内部内容管理系统(CMS)出现漏洞,导致近3000个未公开资产泄露,其中包括即将发布的最强AI模型Claude Mythos及全新模型层级Capybara的详细信息。该公司称Claude Mythos为“迄今为止最强大的AI模型”,目前处于试用阶段,仅向部分早期客户开放。泄露文件显示,Capybara将超越现有最高等级Opus,成为Anthropic最智能、最庞大的模型层级。Anthropic还警告称,Claude Mythos在网络安全领域可能被用于发动攻击,公司正与安全机构合作,提前评估风险并帮助防御方应对AI驱动的网络威胁。
2026-03-28 02:05
美联邦法官裁定国防部不得以供应链风险为由制裁Anthropic
美国加利福尼亚州联邦法官丽塔·林裁定,国防部试图通过将AI公司Anthropic列为供应链风险以切断其政府业务的行为违反宪法,立即中止该措施。法官指出,此举因公司公开批评政府合同政策而进行报复,侵犯其第一修正案和正当程序权利。该裁决为43页,严厉批评政府行为,称其“奥威尔式”。政府被允许一周内上诉,但法官明确表示反对当前措施。Anthropic方面表示感谢法院快速反应,并强调将继续与政府合作推动安全可靠的AI发展。
2026-03-28 00:07
人工智能新模型测试引发网络安全股大跌
2026年3月27日,美国网络安全股票集体下跌,因媒体报道Anthropic公司正在测试一款名为Mythos的新型人工智能模型,该模型在网络安全能力方面更为先进,但也带来潜在安全风险。根据Fortune报道,该模型为Anthropic迄今最强大的产品,但公司计划谨慎推出以应对可能的网络安全影响。当日,iShares网络安全ETF下跌3%,CrowdStrike和Palo Alto Networks分别下跌7%,Zscaler与SentinelOne跌幅超8%,Tenable暴跌近11%,Okta与Netskope均下跌逾6%。此前,Anthropic已宣布为Claude添加代码扫描安全工...
2026-03-28 00:03
美国联邦法官叫停五角大楼对Anthropic的供应链风险认定
美国旧金山联邦法院法官丽塔·林于2026年3月26日发布初步禁令,阻止五角大楼将人工智能企业Anthropic认定为供应链风险,并暂停总统唐纳德·特朗普下令各联邦机构停止使用Anthropic旗下聊天机器人Claude的指令。法官裁定该行为构成对言论自由的非法报复,称其“任意、武断且滥用职权”。Anthropic此前因拒绝允许其技术用于致命自主武器和大规模国内监控,与五角大楼谈判破裂。该公司在2025年企业AI市场占有率达32%,居首位。此案引发对政府与科技企业关系及AI伦理监管的广泛讨论。
2026-03-27 14:03
美国法官暂停特朗普时期对AI公司Anthropic的制裁
美国联邦法官里塔·林于2026年3月27日裁定,暂时中止特朗普政府时期对AI公司Anthropic实施的制裁措施。该裁决认为,政府将Anthropic列为国家安全供应链风险实体的做法可能违反法律,尤其因其在公开场合表达对五角大楼使用其技术的担忧。裁决冻结了禁止联邦机构使用Anthropic技术的总统令,并暂停了五角大楼对该公司的风险认定。Anthropic方面称此举保护了公司、客户及合作伙伴,同时强调将继续与政府合作推动安全可靠的AI发展。此前,该公司因反对技术用于大规模监控或全自动武器系统而引发五角大楼高层不满。法官指出,政府此举可能侵犯言论自由,且程序存在严重问题。
2026-03-27 11:03
美国联邦法院裁定特朗普政府对Anthropic的限制措施违法
美国加利福尼亚州北区联邦法官丽塔·F·林于2026年3月26日裁定,特朗普政府将人工智能公司Anthropic列为‘供应链风险’并要求联邦机构与其切断联系的决定违法,下令撤销相关指令。法官指出该行为违反了言论自由保护条款,认为此举意在打击该公司。此前,Anthropic因要求限制其AI模型用于自主武器或大规模监控等用途,与国防部产生分歧,政府随后将其定性为安全威胁。Anthropic已就此提起诉讼,公司CEO达里奥·阿莫迪称政府行为具有报复性。白宫则称该公司为‘激进左翼’,威胁国家安全。法院裁决后,Anthropic表示感谢并强调将继续与政府合作推动安全可靠的AI发展。
2026-03-27 10:03
美联邦法官临时叫停特朗普政府对Anthropic的禁令
美国旧金山联邦法院法官丽塔·F·林于周四发布初步禁令,临时阻止五角大楼将人工智能公司Anthropic列为“供应链风险”并暂停总统特朗普下令各联邦机构停止使用其技术的指令。法院认为该举措可能构成对该公司言论自由的报复,且不符合国家安全利益。Anthropic此前因拒绝允许其AI模型Claude用于自主武器或监控美国公民而与五角大楼产生纠纷。法官指出,该标签通常用于外国情报机构或恐怖组织,而非美国企业。此案引发微软、ACLU及退役军方领导人等多方支持,五角大楼未立即回应,但此前表示不评论正在进行的诉讼。
2026-03-27 09:06
法官裁定支持Anthropic临时阻止五角大楼禁令
美国加州北区联邦法院法官丽塔·F·林裁定,授予人工智能公司Anthropic一项初步禁令,阻止国防部将其列为“供应链风险”实体。该裁决认为,国防部因Anthropic通过媒体公开批评政府合同政策而采取惩罚措施,构成对第一修正案言论自由的非法报复。此案源于1月9日国防部长彼得·赫格塞斯要求在AI采购合同中加入“任何合法用途”条款,Anthropic拒绝允许其技术用于国内大规模监控和自主致命武器。公司称此举导致其面临重大商业损失,数十家企业咨询是否可终止合作。法官指出,政府有权选择不使用Claude,但不得超越权限实施报复。最终裁决可能还需数周或数月。此案引发全美关注,担忧政府对持不同意见企...
2026-03-27 09:04
美国联邦法院叫停国防部将Anthropic列为供应链风险企业
美国联邦地区法院法官丽塔·林于周四裁定,阻止美国国防部将人工智能公司Anthropic列为供应链风险企业,该裁决为该公司恢复客户合作扫清了法律障碍。林法官指出,国防部此举缺乏合法依据,且存在任意性,尤其在Anthropic已明确承诺使用限制的情况下,无法合理推断其会成为“破坏者”。该裁决恢复了2月27日前的法律状态,但未强制要求国防部继续使用Anthropic产品,亦未禁止其转向其他AI供应商。目前,该禁令暂未生效,需一周后执行,且另一项诉讼仍在上诉法院审理中。此案对AI企业与政府监管关系具有象征性意义,可能影响未来联邦机构对AI技术的采购政策。
2026-03-27 08:04
美国法院裁定Anthropic胜诉初步禁令 法官指政府行为涉嫌第一修正案报复
美国旧金山联邦法院法官丽塔·林于2026年3月25日裁定,授予人工智能初创公司Anthropic针对特朗普政府的初步禁令。该禁令旨在暂停国防部将Anthropic列为供应链风险及禁止联邦机构使用其Claude模型的决定。法官指出,政府此举构成对该公司表达不同意见的非法第一修正案报复。Anthropic此前已与国防部就模型部署展开谈判,但因对自主武器和国内大规模监控使用限制存在分歧而未达成协议。此案涉及10 U.S.C. § 3252和41 U.S.C. § 4713两项法律条款,Anthropic已另案向华盛顿上诉法院提起正式审查。此案被视为美国首例本土企业被官方定性为供应链风险的案例,...
2026-03-27 08:02
苹果iOS 27将支持第三方AI聊天应用接入Siri
苹果计划于2026年6月8日在WWDC上发布iOS 27,届时Siri将新增扩展系统,允许包括Anthropic的Claude在内的第三方AI聊天应用接入。该功能将覆盖iOS 27、iPadOS 27和macOS 27。此前Siri仅集成ChatGPT,而与谷歌Gemini的合作仍限于Apple Intelligence和部分Siri功能。新系统将引导用户在App Store中添加AI服务,开发者需更新应用以适配。此外,iOS 26.4已率先支持AI聊天应用接入CarPlay。
2026-03-27 03:03
Anthropic报告指出AI技能鸿沟显现 早期使用者优势扩大
Anthropic最新经济影响报告显示,尽管AI尚未导致大规模失业,但已出现技能鸿沟,早期使用者在职场中优势明显。研究发现,使用Claude模型进行核心任务自动化的工作岗位,与较少接触AI的岗位在失业率上无显着差异。然而,AI应用的不均衡分布正在加剧,高收入国家及知识密集型地区使用更频繁,且主要用于专业任务。公司首席经济学家Peter McCrory警告,若不建立监测机制,未来五年内AI可能淘汰半数初级白领岗位,失业率或升至20%。报告强调,AI正成为“奖励已知使用者”的技术,加剧社会不平等风险。
2026-03-26 06:03