← 返回

《纽约客》万字长文质疑OpenAI首席执行官山姆·阿尔特曼:诚信问题引发领导力争议

《纽约客》发布一篇长达17000字的深度报道,披露OpenAI首席执行官山姆·阿尔特曼在领导期间存在隐瞒、欺骗行为,引发公司内部高管及董事会成员持续担忧。报道基于对上百名知情人士的采访,包括现任及前任员工、董事会成员,以及大量未公开的Slack消息和人事文件。文章指出,阿尔特曼在Loopt、Y Combinator及OpenAI任职期间多次被指隐瞒真相、操纵信息,甚至被形容为具有‘反社会人格’。此外,其与微软关系紧张,部分高管称其行为类似金融诈骗者。阿尔特曼本人回应称曾因回避冲突导致公司混乱,但未直接否认指控。该报道引发对AI领域领导伦理与安全治理的广泛讨论。

《纽约客》万字长文质疑OpenAI首席执行官山姆·阿尔特曼:诚信问题引发领导力争议

《纽约客》于2026年4月11日发布一篇长达17000字的深度报道,揭露OpenAI首席执行官山姆·阿尔特曼在领导期间存在系统性隐瞒、欺骗行为,引发公司内部高管及董事会成员的长期担忧。报道由记者罗南·法罗(Ronan Farrow)和安德鲁·马兰茨(Andrew Marantz)联合撰写,基于对上百名知情人士的采访,包括现任及前任OpenAI员工、董事会成员等。

报道指出,部分内部文件显示,数年前OpenAI高管及董事会成员已意识到阿尔特曼的“隐瞒与欺骗”可能对产品安全构成威胁。在董事会要求下,联合创始人伊利亚·苏茨克维(Ilya Sutskever)与同事整理了约七十页的Slack消息和人事文件,并附有解释性文本,指控阿尔特曼向管理层和董事会误报事实、隐瞒内部安全流程。其中一份文件以“山姆表现出一贯的行为模式……”开头,第一条即为“撒谎”。

在阿尔特曼被解雇后的一次紧张通话中,董事会成员要求其承认欺骗行为模式,据参与通话者称,阿尔特曼反复表示“这太他妈乱了”“我无法改变我的性格”。阿尔特曼本人称不记得该对话,归因于自己早期“过于回避冲突”,但一名董事会成员解读为“我有说谎的倾向,且不会停止”。

报道还回顾了阿尔特曼职业生涯中的类似事件:在创业公司Loopt任职期间,高级员工曾两次向董事会提议解雇他;在担任Y Combinator总裁期间,多位硅谷投资者认为其忠诚度存疑,有投资方称其“选择性投资优质公司,阻止外部投资者进入”,Y Combinator联合创始人保罗·格雷厄姆(Paul Graham)私下表示阿尔特曼“一直对我们撒谎”。

2017年,阿尔特曼在与美国情报官员会谈时声称中国启动了“AGI曼哈顿计划”,需数十亿美元政府资金追赶,但一名官员事后调查未发现相关证据,认为该说法仅为“推销话术”。此外,在加州立法机构审议AI安全测试法案期间,OpenAI被指“越来越狡猾和欺骗性”,甚至对法案支持者发起传票,调查其是否受埃隆·马斯克资助,凸显与马斯克的长期对立。

多为与阿尔特曼合作过的投资者称,他有“排除支持OpenAI竞争对手的投资者”的声誉。报道称,阿尔特曼具有“对权力的不懈追求”,被一位董事会成员形容为“不受真相约束”,兼具“渴望取悦他人”与“对欺骗后果漠不关心”的双重特质。有受访者自发使用“反社会人格”一词描述他。早年与阿尔特曼同批进入Y Combinator的亚伦·斯沃茨(Aaron Swartz)在去世前曾警告朋友:“你必须明白,山姆永远无法被信任,他是个反社会者,会做任何事。”

微软多名高管透露,尽管CEO纳德拉(Satya Nadella)长期支持阿尔特曼,但双方关系已紧张,称其“歪曲、重新谈判、违背协议”,甚至有高管认为“他最终可能被视作伯尼·麦道夫或山姆·班克曼-弗里德级别的诈骗者”。

阿尔特曼于报道发布当日发布博客回应,承认自己“回避冲突”导致公司陷入混乱,但未直接回应具体指控。该报道引发科技界对AI公司治理、领导伦理及安全风险的广泛讨论。

事件背景与影响

报道内容引发全球对AI企业透明度、领导力与伦理治理的关注。OpenAI作为全球领先的人工智能研究机构,其领导层行为不仅影响公司内部运营,更牵动AI安全与政策走向。若其高管存在系统性误导行为,将对AI监管、技术可信度及公众信任构成挑战。同时,该事件可能加剧科技行业对高管道德风险的审查,影响未来AI企业融资与国际合作。报道亦反映出科技巨头与初创企业之间复杂权力关系,以及AI领域“神话化”领袖形象与现实的落差。

未来展望

随着AI技术加速商业化,对领导人诚信与治理能力的审查将更加严格。若阿尔特曼无法有效回应指控,可能影响OpenAI的公众形象、政府合作及国际项目推进。同时,该事件可能推动AI行业建立更透明的治理机制,如加强董事会监督、引入第三方审计等。长远看,科技伦理或将成为AI公司生存发展的核心议题之一。

编辑点评

此次《纽约客》对山姆·阿尔特曼的深度调查,不仅是一次个人领导力的拷问,更折射出全球人工智能产业在快速发展中面临的治理困境。阿尔特曼作为OpenAI的核心人物,其行为直接影响AI技术的安全路径与政策走向。报道中披露的系统性隐瞒、欺骗行为,若属实,将严重削弱公众与政府对AI技术的信任,尤其在各国正加紧制定AI监管框架的背景下,此类事件可能加剧对技术“黑箱”与“不可控风险”的担忧。

从国际关系角度看,阿尔特曼关于中国“AGI曼哈顿计划”的言论被证伪,反映出科技领域“叙事对抗”的危险——为争取资源或舆论支持,部分领导者可能夸大对手能力,进而影响国家科技战略部署。这种“信息战”在AI领域尤为敏感,可能引发技术军备竞赛或误判。同时,阿尔特曼与马斯克的对立、与微软关系紧张,也显示出科技巨头间复杂的权力博弈,这些内部矛盾可能影响AI技术的全球协作与标准化进程。

长远来看,该事件或将推动AI行业建立更严格的伦理与治理标准。若领导人缺乏诚信,再先进的技术也可能被误用或滥用。未来AI企业的成功,不仅取决于算法与算力,更取决于组织透明度、董事会制衡能力及对社会负责任的态度。此次曝光可能成为全球AI治理的一次重要转折点,促使更多国家和机构重新思考如何监管AI领导者及其决策机制。

相关消息:https://slashdot.org/story/26/04/11/1857254/omissions-deceptions-lying-the-new-yorker-asks-can-sam-altman-be-trusted?utm_source=rss1.0mainlinkanon&utm_medium=feed
当日日报:查看 2026年04月12日 当日日报