诺贝尔奖得主物理学家警告:人类未来50年生存概率极低
诺贝尔物理学奖得主大卫·格罗斯在2026年4月19日获得300万美元“基础物理学突破奖”后,接受Live Science采访时表示,人类在未来50年内生存的可能性极低。他指出,当前每年发生核战争的概率约为2%,远高于冷战时期1%的估计,这意味着人类平均预期寿命仅约35年,这一计算方法类比放射性物质的“半衰期”模型。
格罗斯强调,全球正进入前所未有的核军备竞赛,目前已有九个核武器国家,而国际协议与安全规范持续瓦解。他列举了近期多个危险事件,包括欧洲爆发重大战争、对伊朗的军事打击以及印度与巴基斯坦濒临冲突,均显着提升核冲突风险。他认为,自动化和人工智能将在不久的将来控制核武器系统,且因AI反应速度极快,人类难以抗拒其决策主导权。
格罗斯还提到,尽管气候变化也构成重大威胁,但人类已在应对上采取行动;而核武器则存在“我们制造,我们也能停止”的明确责任。他指出,若无法消除核威胁,人类文明可能自我毁灭,这或许解释了费米悖论中“为何宇宙中未见其他智慧文明”的问题。
他呼吁各国恢复对话机制,重拾核裁军努力,并指出去年在芝加哥举行的诺贝尔奖得主核风险降低会议已提出可行解决方案,但目前国际社会缺乏政治意愿推动落实。
编辑点评
格罗斯的警告并非危言耸听,而是基于现实地缘政治与技术演进趋势的严肃推演。当前全球安全格局正经历结构性变化,美俄、中美、印巴等多极核力量并存,且战略互信持续下降。2%的年核战争概率虽非官方统计,但反映了学术界对风险上升的普遍共识。更令人忧虑的是,人工智能与自动化系统正被逐步引入军事指挥链,一旦失控或误判,可能引发不可逆后果。
这一议题的全球重要性在于,核武器的存续与使用机制直接关系到人类文明存亡。尽管《不扩散核武器条约》等框架存在,但近年关键协议如中导条约、伊核协议的瓦解,削弱了全球安全架构。此外,核威慑理论在多极体系中效能下降,误判风险显着增加。
未来,国际社会需在技术监管、军事透明度与外交机制上重建信任。格罗斯提出的“对话”虽看似简单,实则为最根本的防核冲突手段。若无法在人工智能深度介入军事决策前达成全球共识,人类文明或如其所述,成为宇宙中唯一自我毁灭的智慧物种。