← 返回

美伊冲突期间社交媒体虚假信息泛滥,AI生成内容成传播主力

随着美国与伊朗军事冲突升级,社交媒体平台出现大量虚假信息。AI生成内容、游戏视频冒充真实战况、旧照片重新标注等手段广泛传播,误导公众。X平台已调整政策,对未标注的AI战争内容创作者实施收益限制。调查显示,相关虚假内容在短时间内获得数千万至数亿次观看,部分由官方媒体或高影响力账户传播。Google AI搜索结果亦出现错误验证,加剧信息混乱。专家警告,技术滥用和平台监管缺位正加剧全球信息战风险。

美伊冲突期间社交媒体虚假信息泛滥,AI生成内容成传播主力

在美军与以色列对伊朗发动军事打击后,社交媒体平台迅速充斥大量虚假信息。据调查,仅数日内,相关虚假内容累计获得数亿次观看。其中,数字飞行模拟器视频被冒充为实时作战画面,老旧舰船沉没影像被谎称为近期攻击事件,AI编辑的导弹袭击画面被广泛传播。部分视频声称显示伊朗对迪拜或以色列核设施发动攻击,实则源自2024年或2017年其他事件。

X平台已更新政策,自昨日起,凡发布未标注的AI生成战争内容的用户将被暂停参与创作者收益分享计划。此前,一个声称展示导弹飞越迪拜的帖子获超400万次观看,实为2024年对特拉维夫的袭击画面;另一张虚构的伊朗领袖哈梅内伊住所被炸前后对比图,获37.5万次曝光。多数虚假内容由带有蓝V认证的账户传播,包括伊朗国有媒体及高关注度个人账号。

BBC与NewsGuard调查发现,部分完全由AI生成的视频在TikTok和X平台传播,累计观看量近1亿次。此外,用户在X平台频繁使用“@Grok is this true?”等指令求助AI验证,但X旗下AI助手Grok多次错误确认虚假图像。Google AI搜索亦在逆向图像搜索中错误验证虚假事件,如将2015年沙迦住宅火灾误标为2026年迪拜CIA设施遭袭。

专家指出,技术进步与平台监管宽松加剧了信息战。用户在信息真空期更易轻信夸张内容,而AI工具在实时核实方面表现不可靠。英国新兴技术安全中心警告,此类“AI信息威胁”或危及公共安全与民主制度。与此同时,伊朗境内民众在美伊政府及马斯克推动下,通过Starlink恢复部分网络连接,但虚假信息传播者仍能绕过封锁继续传播内容。

编辑点评

此次美伊冲突中社交媒体虚假信息的爆发,暴露出全球信息生态在AI技术与平台监管双重压力下的脆弱性。AI生成内容的低成本、高传播性使其成为信息战的利器,而主流平台如X和Google的AI工具在关键时刻的误判,进一步放大了误导效应。这不仅影响公众对冲突的认知,还可能煽动地区紧张情绪,甚至影响外交决策。从长期看,若缺乏统一标准与技术监管,AI驱动的信息混乱将对全球民主制度、国家安全与国际信任构成系统性威胁。各国需加强跨国协作,推动AI内容标注义务、平台责任机制与独立事实核查体系的建立,否则未来冲突中的信息战将比物理战场更具破坏力。

相关消息:https://mashable.com/article/us-israel-ran-attacks-viral-misinformation-ai
当日日报:查看 2026年03月05日 当日日报