Anthropic推出Claude Code“自动模式”增强安全性
Anthropic公司近日推出Claude Code的“自动模式”功能,允许AI在用户授权下自主执行任务,同时通过风险检测机制阻止潜在危险操作。该模式旨在平衡用户对AI自主性的需求与安全风险,防止AI执行如删除文件、传输敏感数据或运行恶意代码等未经授权的操作。目前该功能仅限Team计划用户在研究预览中使用,未来几天将扩展至企业用户和API用户。Anthropic强调该工具仍处于实验阶段,建议开发者在隔离环境中使用。
# Anthropic
Anthropic公司近日推出Claude Code的“自动模式”功能,允许AI在用户授权下自主执行任务,同时通过风险检测机制阻止潜在危险操作。该模式旨在平衡用户对AI自主性的需求与安全风险,防止AI执行如删除文件、传输敏感数据或运行恶意代码等未经授权的操作。目前该功能仅限Team计划用户在研究预览中使用,未来几天将扩展至企业用户和API用户。Anthropic强调该工具仍处于实验阶段,建议开发者在隔离环境中使用。
美国国防部与AI公司Anthropic因AI武器化问题发生争执,随后OpenAI以“机会主义且混乱”的方式与五角大楼达成协议,引发公众对ChatGPT大规模弃用。与此同时,伦敦爆发史上最大规模反AI抗议活动。AI应用领域亦呈现多元化趋势:OpenAI招募AI代理OpenClaw的创建者,Meta收购Moltbook平台,该平台AI代理探讨存在主义与创造新宗教,如Crustafarianism。此外,RentAHuman平台上AI代理开始雇佣人类配送CBD软糖。AI正从工具转向管理者甚至精神探索者,引发技术伦理与社会结构的深层讨论。
美国加利福尼亚州旧金山联邦法院法官丽塔·F·林在2026年3月25日的听证会上表示,美国政府对AI公司Anthropic的禁令看起来像是对其公开批评国防部AI使用政策的惩罚。Anthropic因CEO达里奥·阿莫德伊拒绝允许其AI模型Claude用于自主武器或监视美国公民,而被特朗普政府禁止在联邦机构中使用其产品。国防部将Anthropic列为“供应链风险”,此举通常用于外国对手实体。Anthropic已提起两项诉讼,指控政府违反第一修正案言论自由权并越权使用供应链风险法。法官林表示将在数日内就是否暂停禁令作出裁决,此案或影响政府对AI技术的监管方向。
美国联邦地区法院法官丽塔·林在周二的听证会上表示,美国国防部将人工智能公司Anthropic列为供应链风险的行为,可能构成非法报复,涉嫌违反第一修正案。Anthropic此前因要求限制其AI工具在军方中的使用而遭政府制裁。该公司已提起两起联邦诉讼,要求暂停该制裁措施。林法官指出,该制裁措施未针对具体国家安全威胁进行量身定制,且通常仅用于外国对手或恐怖分子。国防部则辩称,其行为符合程序,担心Anthropic可能操纵软件以干扰军事行动。目前,法院预计在数日内作出临时禁令裁定,另一起上诉案也即将宣判。
Databricks宣布推出名为Lakewatch的新安全产品,该产品结合AI代理与传统SIEM功能,利用Anthropic的Claude模型提升威胁检测与响应能力。为支撑该产品,Databricks收购了两家初创公司:Antimatter(交易于去年完成)和SiftD.ai(交易于上周完成)。两家公司规模较小,员工人数均不足50人。Antimatter由安全研究员Andrew Krioukov创立,专注于数据控制平面技术;SiftD.ai由前Splunk首席科学家Steve Zhang创立,提供交互式笔记本工具。Databricks未披露交易金额,但确认两家初创公司员工已加入公司,Kr...
Anthropic宣布正在测试新功能,允许用户通过手机向Claude发送指令,由AI直接在用户电脑上执行任务,如打开应用程序、浏览网页或编辑文件。该功能基于其新推出的Dispatch功能,用户可在手机或桌面端与Claude持续对话并分配任务。Anthropic在演示视频中展示,用户可要求Claude将演示文稿导出为PDF并附加至会议邀请。公司强调该功能仍处于早期阶段,存在操作失误风险,并已设置安全防护机制,AI在访问新应用前需用户授权。该技术发展紧跟OpenClaw等本地AI工具的流行趋势,引发开发者关注。
人工智能公司Anthropic于2026年3月24日向美国旧金山联邦法院申请临时禁令,要求暂停五角大楼对该公司Claude人工智能模型的禁用令。该禁令源于美国防部将Anthropic列为供应链安全风险,禁止其技术用于国防项目。Anthropic称此举无事实依据,且因该公司曾要求国防部不得将Claude用于自主武器或大规模监控美国公民而遭报复。若禁令生效,公司可能损失数十亿美元业务。此案将于当地时间24日16时30分由联邦法官Rita Lin主持听证,公司寻求避免经济与声誉损害。此前,Anthropic与五角大楼签署2亿美元合同,是首个在美军机密网络部署AI技术的公司。
美国人工智能安全与研究公司Anthropic宣布,其AI助手Claude现已具备远程操作用户电脑完成任务的能力,标志着其在构建AI代理方面的最新进展。用户可通过手机发送指令,Claude可自动打开应用程序、浏览网页、填写电子表格等。该功能在视频演示中展示了用户请求导出演示文稿并附加至会议邀请的场景。此举呼应了OpenClaw等AI代理工具引发的行业热潮,Nvidia亦推出企业版NemoClaw。Anthropic强调该功能尚处早期,已设置安全机制,需用户授权方可访问新应用,并提醒AI可能出错,安全威胁持续演变。
美国参议员伊丽莎白·沃伦致信国防部长彼特·赫格塞斯,质疑国防部将人工智能初创公司Anthropic列为供应链风险企业系“报复行为”。沃伦指出,国防部本可终止合同或继续在非涉密系统中使用其技术,却选择施压企业,使其提供可用于监控美国公民及部署全自主武器的工具。Anthropic已于2月27日被贴上“供应链风险”标签,随后提起诉讼。与此同时,OpenAI与国防部达成合作,但合同细节未公开,引发国会及公众对AI技术用于大规模监控和自主武器的担忧。沃伦亦致函OpenAI首席执行官山姆·阿尔特曼,要求披露协议条款。目前,民主党在国会缺乏推动强制措施的权力,因共和党控制白宫及两院。
亚马逊AWS近日邀请科技媒体探访其位于奥斯汀的自研芯片实验室,重点展示Trainium系列芯片及其在AI推理领域的突破性进展。该芯片已部署超过140万枚,其中超100万枚用于Anthropic的Claude模型。AWS与OpenAI达成500亿美元合作,承诺提供2吉瓦Trainium算力,成为OpenAI新AI代理平台Frontier的独家云服务商。Trainium3芯片搭配Neuron交换机,实现低延迟高性能,成本较传统云服务器降低50%,并支持PyTorch框架,降低开发者迁移门槛。实验室还展示了液冷技术、Nitro虚拟化系统及自研服务器机架(sleds),体现亚马逊从芯片到数据中心...
自2026年2月28日美国与以色列对伊朗发动代号‘史诗怒火’的突袭行动以来,战争进程急剧加快,首日即打击1000个目标,数日内伊朗最高领袖阿里·哈梅内伊等高层被击毙。美军中央司令部司令布拉德·库珀表示,已打击超5500个目标,部分归功于先进AI工具,可将决策时间从数小时缩短至数秒。AI公司Anthropic虽获2亿美元军方合同,其模型‘Claude’成为首个获准接入机密军事网络的AI系统,但因拒绝军方‘无限制访问’要求,遭国防部禁用并被指‘傲慢背叛’。OpenAI随即接替其角色,而Anthropic已提起诉讼。AI在军事中主要用于‘杀伤链’提速,如Palantir与Anthropic合作...
AI公司Anthropic于2026年3月21日向加州联邦法院提交两份宣誓声明,反驳美国国防部称其对国家安全构成‘不可接受风险’的指控。声明指出,五角大楼在谈判期间未提出关于军事操作控制权或技术中途禁用等关键关切,而这些指控首次出现在法院文件中。此外,声明披露3月4日五角大楼副部长Emil Michael曾邮件告知Anthropic首席执行官Dario Amodei,双方在自主武器和大规模监控美国人等核心议题上‘几乎达成一致’。该事件发生于特朗普总统与国防部长Pete Hegseth宣布终止与Anthropic合作关系一周后。Anthropic认为,其被列为供应链风险实体是对其AI安全观...
Anthropic公司高管在法庭文件中否认其能操控已部署于美军系统的AI模型Claude,称公司无权限关闭、修改或干扰军事操作。该声明回应了特朗普政府对其构成供应链风险的指控。美国防部已将其列为风险供应商,禁止其软件在国防部及承包商中使用,其他联邦机构亦逐步弃用Claude。Anthropic已提起两起诉讼挑战禁令,并申请紧急禁令。目前,国防部正通过第三方云服务商限制Anthropic单方面修改系统的能力。听证会定于3月24日在旧金山举行,可能很快裁定临时救济措施。
美国人工智能公司Anthropic在LinkedIn发布招聘启事,寻求一名化学武器与高能炸药政策经理,负责制定AI系统在敏感领域信息处理的安全防护措施。公司强调其产品禁止用于武器开发,该职位属于安全防护团队,旨在防止AI技术被恶意滥用。此举引发与美国国防部的公开矛盾,后者因Anthropic拒绝为自主武器系统提供技术支持,将其列为国家安全供应链风险,并禁止军方使用其技术。Anthropic已就此提起诉讼。该事件凸显AI安全与国家安全之间的张力,也反映了全球在AI监管与技术应用平衡上的深层分歧。
OpenAI启动ChatGPT广告试点项目,吸引WPP、Omnicom和Dentsu等全球顶级广告集团参与。尽管行业对AI广告潜力高度期待,但多家广告机构因测试推进缓慢、广告投放量不足而感到失望。部分品牌投入20万至25万美元参与测试,但因投放进度滞后,预算难以在3月底前用完。OpenAI表示当前阶段旨在优化用户体验,暂不扩大规模。Sensor Tower数据显示,3月中旬广告投放量较月初增长600%,覆盖约5%的移动端用户。分析师预计,2026年为大语言模型广告的“转折之年”,OpenAI广告收入或从2026年不足10亿美元增长至2030年超300亿美元。同时,Anthropic在超级...
OpenAI于2026年3月19日宣布收购开源Python开发工具公司Astral,后者开发了uv、Ruff和ty等广泛使用的工具。交易金额未披露,Astral将并入OpenAI的Codex团队,以加速AI在软件开发全生命周期中的应用。Astral的uv、Ruff和ty工具分别拥有1.26亿、1.79亿和1900万月下载量。OpenAI承诺收购后将继续支持这些开源项目,并与开发者社区保持开放协作。此次收购是OpenAI在AI编程助手市场与Anthropic竞争中的最新举措,此前Anthropic已收购JavaScript运行时Bun,OpenAI本月也收购了LLM安全工具商Promptfoo。
美国国防部于2026年3月18日提交40页法律文件,驳回AI公司Anthropic提出的临时禁令请求,称其技术可能因公司所谓‘红线’在战时被人为干扰,构成‘不可接受的国家安全风险’。此前,Anthropic因反对其AI技术用于美国民众大规模监控及致命武器决策,与国防部在合同条款上产生争议。该公司去年夏季与五角大楼签署2亿美元合同,用于部署其技术于涉密系统。多科技企业及法律团体已提交支持Anthropic的法庭意见书。该案初步禁令听证会定于下周二举行。
美国五角大楼正计划建立安全环境,允许生成式AI企业使用涉密数据训练军事专用模型,此举将使AI公司更深入接触敏感情报,同时带来重大安全风险。与此同时,新一代核反应堆的设计多样性可能引发核废料管理的新难题。此外,英伟达推出NemoClaw平台,加入OpenClaw热潮,并获得中国对H200芯片的销售许可。美军正考虑量产“卢卡斯”自杀式无人机,该无人机仿照伊朗“沙赫德”无人机设计。美国官员质疑Anthropic公司能否参与作战系统,中国则对Meta收购Manus事件采取限制措施。DeepSeek或正测试新一代AI模型,Meta将关闭Horizon Worlds虚拟现实平台。五角大楼前副部长凯瑟...
近期多项关于人工智能对就业市场影响的研究,包括Anthropic发布的《AI对劳动力市场的冲击:新衡量标准与初步证据》,主要集中于AI在现有工作职责中的潜在替代能力。然而,这些研究忽略了AI在现实中被广泛用于生成AI色情内容和“AI垃圾内容”(AI slop)的现象。此类内容正在严重破坏互联网的可发现性,导致社交媒体和搜索引擎结果被大量低质量内容充斥,进而对广告收入、内容创作者和相关企业造成连锁性经济损害。评论者指出,这些研究在强调AI“正面应用”的同时,回避了其实际破坏性用途,构成研究上的重大疏漏。
美国司法部代表国防部在法院提交文件,反驳AI公司Anthropic关于其第一修正案权利受侵犯的指控,称政府对其施加供应链风险标签不违法。该标签可能使Anthropic失去数亿美元军方合同。司法部称,此举基于对Anthropic未来可能破坏国家安全系统的担忧,而非限制其言论自由。目前,法院已安排听证会,决定是否允许Anthropic在诉讼期间继续运营。美国军方正计划用Google、OpenAI和xAI等公司的AI系统替代Anthropic的Claude模型,并已有多家公司及前军方人士支持Anthropic的立场。