美伊冲突期间社交媒体虚假信息泛滥,AI生成内容成传播主力
在美军与以色列对伊朗发动军事打击后,社交媒体平台迅速充斥大量虚假信息。据调查,仅数日内,相关虚假内容累计获得数亿次观看。其中,数字飞行模拟器视频被冒充为实时作战画面,老旧舰船沉没影像被谎称为近期攻击事件,AI编辑的导弹袭击画面被广泛传播。部分视频声称显示伊朗对迪拜或以色列核设施发动攻击,实则源自2024年或2017年其他事件。
X平台已更新政策,自昨日起,凡发布未标注的AI生成战争内容的用户将被暂停参与创作者收益分享计划。此前,一个声称展示导弹飞越迪拜的帖子获超400万次观看,实为2024年对特拉维夫的袭击画面;另一张虚构的伊朗领袖哈梅内伊住所被炸前后对比图,获37.5万次曝光。多数虚假内容由带有蓝V认证的账户传播,包括伊朗国有媒体及高关注度个人账号。
BBC与NewsGuard调查发现,部分完全由AI生成的视频在TikTok和X平台传播,累计观看量近1亿次。此外,用户在X平台频繁使用“@Grok is this true?”等指令求助AI验证,但X旗下AI助手Grok多次错误确认虚假图像。Google AI搜索亦在逆向图像搜索中错误验证虚假事件,如将2015年沙迦住宅火灾误标为2026年迪拜CIA设施遭袭。
专家指出,技术进步与平台监管宽松加剧了信息战。用户在信息真空期更易轻信夸张内容,而AI工具在实时核实方面表现不可靠。英国新兴技术安全中心警告,此类“AI信息威胁”或危及公共安全与民主制度。与此同时,伊朗境内民众在美伊政府及马斯克推动下,通过Starlink恢复部分网络连接,但虚假信息传播者仍能绕过封锁继续传播内容。
编辑点评
此次美伊冲突中社交媒体虚假信息的爆发,暴露出全球信息生态在AI技术与平台监管双重压力下的脆弱性。AI生成内容的低成本、高传播性使其成为信息战的利器,而主流平台如X和Google的AI工具在关键时刻的误判,进一步放大了误导效应。这不仅影响公众对冲突的认知,还可能煽动地区紧张情绪,甚至影响外交决策。从长期看,若缺乏统一标准与技术监管,AI驱动的信息混乱将对全球民主制度、国家安全与国际信任构成系统性威胁。各国需加强跨国协作,推动AI内容标注义务、平台责任机制与独立事实核查体系的建立,否则未来冲突中的信息战将比物理战场更具破坏力。