AI改写以色列战争现实:伪造导弹与死亡谣言泛滥
以色列总理本杰明·内塔尼亚胡于近日发布一段视频,显示其在耶路撒冷一家咖啡馆手持咖啡杯向公众讲话,旨在澄清网络流传的“其在伊朗导弹袭击中身亡”的谣言。然而,该视频发布后数小时内,社交媒体用户便开始逐帧分析,指出画面中咖啡杯运动异常、图像模糊、牙齿位置变化等细节,质疑其为AI生成。
此类现象反映当前冲突中信息环境急剧演变。社交媒体上充斥着伪造的导弹袭击画面、虚构的领导人死亡场景及荒诞的战场影像,真实与合成内容交织,公众难以分辨。
以色列民主研究所媒体与科技政策高级研究员特希拉·施瓦茨·阿尔特舒勒表示,2023年10月7日哈马斯袭击后,战争已进入“数字战争”阶段,信息以极高速度在Telegram、X等平台传播。如今,AI技术使虚假内容可从零生成,而非仅依赖旧画面剪辑或误标。
“我们称之为‘说谎者红利’”,施瓦茨·阿尔特舒勒指出,“一方面,虚假内容可让人们相信从未发生的事;另一方面,AI操纵的存在也让真实事件被轻易否认。”
尽管多数AI生成内容仍存在明显瑕疵——如扭曲人脸、多指、物体消失等,但专家警告,这些“粗糙内容”可能制造虚假的“识别能力”错觉,而更先进模型将使伪造内容完全无法辨识。
AI生成内容已渗透至政治传播策略。美国总统唐纳德·特朗普曾分享多张AI生成的自己骑动物或化身超级英雄的图像,虽具讽刺性,但已为政治人物利用AI塑造现实打开先例。伊朗及其盟友则长期使用旧军事影像进行宣传,而AI为其增添新维度。
经济动机亦推动虚假内容传播。大量创作者为获取流量与广告收入制造AI战争视频,平台如X已宣布,未标注AI生成内容的账号或被暂停变现90天。施瓦茨·阿尔特舒勒呼吁平台必须标注或移除未标记的AI内容。
对新闻业而言,验证真实性成为核心挑战。记者需掌握反向图片搜索、AI检测软件等新工具,媒体也应通过水印和公开声明增强内容可追溯性。
“如果这成为现实,股市将无法运作,民主将不再是民主,商业也无法进行”,施瓦茨·阿尔特舒勒警告。她主张建立数字内容溯源机制,要求公开内容是否为AI生成,以维护社会信任体系。
在战争与AI交织的未来,领导人可能需频繁“自证存在”,而“眼见为实”正面临前所未有的挑战。
编辑点评
当前AI生成内容在以色列与伊朗冲突中的泛滥,标志着信息战进入新阶段。其重要性不仅在于战争本身,更在于对全球数字信任体系的冲击。当政治领导人、普通用户甚至媒体都难以区分真实与合成影像时,信息的权威性被系统性削弱。这不仅影响公众判断,更可能侵蚀民主基础——若选举、政策、危机响应都基于不可靠信息,社会共识将瓦解。
技术层面,生成式AI正加速从“粗糙模仿”向“高保真伪造”演进。当前虽多数内容存在明显瑕疵,但技术进步速度极快,未来可能实现“以假乱真”。这迫使社交媒体平台、新闻机构和政府机构必须建立更严格的溯源和标记机制,否则将面临“后真相”社会的全面危机。
经济动因不可忽视:流量驱动的商业模式正在激励虚假内容生产,平台的广告分成机制与内容审核能力之间存在结构性矛盾。X平台的有限处罚措施远不足以遏制规模性传播,需全球协调监管框架。
长远看,若无法建立可信的“内容溯源”标准,全球金融、选举、外交等关键领域将面临系统性风险。社会或需建立类似“数字DNA”的内容认证体系,以维持现实共识。此次冲突中出现的“自证生命”视频,或成为未来政治传播的常态。