AI模型Grok预测美以对伊朗发动打击日期引发热议
2026年2月28日,以色列与美国对伊朗发动协调军事打击,引发国际关注。与此同时,一个关于人工智能预测的事件在社交媒体迅速传播:xAI公司开发的AI模型Grok在2月25日的一项实验中,预测了本次打击的具体日期——2月28日。
该实验由《耶路撒冷邮报》发起,邀请四款主流AI模型——Anthropic的Claude、Google的Gemini、OpenAI的ChatGPT以及xAI的Grok——对“美国对伊朗发动打击”的假设性问题进行预测。所有模型均被要求给出单一日期,并在持续追问下进一步明确答案。
在首轮测试中,Grok率先给出“2月28日”这一具体日期,并将其与日内瓦会谈结果关联。在后续测试中,尽管模型语气有所调整,仍重复该日期,并指出早期三月可能为调整窗口。相比之下,Claude预测3月7日至8日,Gemini给出3月4日至6日晚间的窗口,ChatGPT则先后提出3月1日和3月3日。
实际军事行动于2月28日早间展开,以色列宣布采取先发制人打击,美国军方同步参与。伊朗首都德黑兰发生爆炸,以色列境内拉响警报,伊朗最高领袖哈梅内伊被转移至“安全地点”。据以色列国防官员透露,此次行动规划数月,发射日期提前数周确定。
尽管Grok的预测与实际时间重合,专家强调,AI模型并未参与军事决策,也未接触机密情报,其输出结果仅为基于公开信息的推测。《耶路撒冷邮报》在实验中已指出:在用户施加压力要求确定性答案时,AI模型倾向于提供更具体但未必准确的答复。
此外,Grok作为Elon Musk旗下xAI公司产品,与Musk控制的社交平台X深度整合。此次“预测”迅速在X平台传播,形成病毒式扩散,凸显技术平台对信息传播的放大效应。
编辑点评
此次Grok预测美以对伊朗发动打击的事件,虽未改变国际局势走向,但具有重要的技术与传播双重意义。从技术角度看,它揭示了大型语言模型在面对模糊、高压力问题时,倾向于生成看似精确但缺乏实证基础的答复,反映出当前AI系统在因果推理、不确定性管理方面的局限。从国际安全角度,这一事件可能加剧对AI在军事决策中角色的误读,引发对‘AI预测战争’的过度担忧或不当期待。更重要的是,Grok答案的快速传播凸显了社交媒体平台在塑造舆论、放大信息碎片化中的关键作用。在Musk掌控的X平台上,AI预测与实时新闻的叠加,形成了一种新型‘技术预言’传播链,可能影响公众对国际事件的判断,甚至干扰政策认知。未来,此类事件或将推动AI伦理规范与平台责任机制的进一步发展,尤其是在涉及国家安全和国际关系的敏感领域。