Anthropic成立新智库应对五角大楼黑名单争议
人工智能公司Anthropic于2026年3月11日宣布成立名为“Anthropic Institute”的内部智库,整合其社会影响、前沿红队及经济研究三大团队,聚焦AI对就业、安全、价值观及人类控制权等重大议题的研究。
该智库由联合创始人杰克·克拉克出任“公共利益负责人”,此前他担任公共政策负责人长达五年。新智库初始团队约30人,包括前Google DeepMind研究员马特·博特维尼克、弗吉尼亚大学经济学教授安东·科里内克,以及曾任职OpenAI的佐伊·希茨吉。克拉克表示,该机构成立已酝酿多时,其角色转变始于2025年11月,与近期与美国政府的争端无直接关联,但该事件“强化了公司公开信息的决心”。
此次调整背景是Anthropic在2026年初被美国国防部列为供应链风险企业,禁止其技术被用于与国防部相关的工作,公司随即提起诉讼,指控特朗普政府非法黑名单,理由是其拒绝为大规模国内监控和全自动致命武器提供支持。公司称,该事件导致“数十家公司”寻求合作指导,部分客户担心合同终止,可能使其2026年收入面临“数亿至数十亿美元”的风险。
Anthropic表示,公司已累计商业收入逾50亿美元,投入100亿美元用于模型训练与推理。克拉克强调,公司视安全研究为“利润中心”,而非成本中心,认为“人们倾向于购买信任”。公司还计划在华盛顿特区开设办公室,由萨拉·赫克领导公共政策团队,聚焦国家安全、AI基础设施、能源与民主领导力议题。
新智库将开展多项研究,包括AI对法律系统的影响(由博特维尼克牵头)、经济与劳动力市场影响(由希茨吉与科里内克主导),以及用户对AI的情感依赖问题。克拉克指出,AI的使用正在改变人类行为,如同社交媒体对社会的影响,公司计划通过AI辅助访谈等社会科学研究手段,深入理解AI对个体心理的影响。他预计,强大AI(即AGI)可能在2026年底或2027年初实现,未来团队规模将每年翻倍。
公司确认,尽管面临商业压力,但不会因短期收入风险调整研究方向,计算资源将根据“当前最重要的优先级”动态分配,目前无明确预算划分,也未预见资源冲突。克拉克与CEO达里奥·阿莫迪一致认为,公司作为公共利益企业,有责任进行公开透明的研究,即便面临公关挑战。
编辑点评
此次Anthropic成立新智库,不仅是对五角大楼黑名单争议的回应,更折射出全球AI治理格局的深层演变。公司在面临潜在数十亿美元收入风险的同时,仍坚定投入基础研究,凸显其战略定力——将AI安全与公共价值置于商业利益之上。这与部分科技企业‘选择性透明’形成鲜明对比,可能重塑行业标准,推动AI治理从‘合规应对’转向‘主动参与’。
从地缘政治角度看,美国政府对AI企业的审查正从技术层面扩展至价值层面,尤其针对‘技术红线’设定(如拒绝自主武器、大规模监控),反映出美国内部对AI军事化与社会控制的深层焦虑。Anthropic的诉讼不仅挑战政府行政权力,也开启了一场关于‘谁有权定义AI伦理边界’的全球辩论。
长远而言,Anthropic Institute的成立可能成为AI治理新范式:企业不再仅是技术提供者,而是具备公共政策影响力的研究主体。其对用户情感依赖、AI对社会心理影响的研究,或为未来AI监管提供实证基础。若该智库持续输出高质量、独立性研究,可能推动国际社会形成更统一的AI伦理框架,尤其在欧美对华AI竞争背景下,此类研究将增强美国在技术规范制定中的主导权。
此外,Anthropic的IPO计划与智库扩张并行,意味着其商业模式正从纯技术公司向“技术+公共价值”混合体转型。这种模式若成功,可能被其他高估值AI企业效仿,进而推动全球AI产业从‘军备竞赛’转向‘责任竞争’,对国际科技治理产生深远影响。