美伊冲突中社交媒体虚假信息泛滥 X平台调整政策应对AI生成内容
在美军与伊朗军事冲突持续升级的背景下,社交媒体平台正面临前所未有的虚假信息危机。大量AI生成或篡改的战争画面、伪造的军事打击视频及误导性图像在X(原推特)、TikTok等平台迅速传播,部分内容被数百万用户观看,甚至被误认为真实新闻。
据Wired调查,近期X平台上数百条帖子包含误导性内容,包括AI操纵的导弹攻击视频和虚构的伊朗领袖哈梅内伊住所被袭前后对比图。其中一条声称“导弹飞越迪拜”的视频实际摄于2024年10月对特拉维夫的袭击;另一条被观看超37.5万次的视频则完全虚构。这些内容多由带有蓝V认证的账号发布,包括伊朗国有媒体及“超级传播者”账号。
此外,BBC报道指出,部分AI生成视频在TikTok上获得近1亿次观看,其中一些传播路径与俄罗斯网络影响力行动关联。NewsGuard报告称,虚假信息普遍夸大伊朗反击规模,声称针对美国和以色列军事基地发动精准打击,实际多为旧视频或游戏画面再加工。例如,一张声称展示“林肯号航母被击沉”的图片实为2006年“奥里斯卡尼号”故意沉没画面,该图片被肯尼亚议员彼得·萨拉萨等账号转发,累计观看超600万次。
X平台已于近日调整政策,宣布将暂停未标注为AI生成内容的武装冲突相关创作者的收入分享资格。与此同时,AI助手如Grok和Google AI搜索亦出现错误验证,例如Google AI在反向图像搜索中错误确认迪拜某建筑火灾为2026年3月1日因无人机袭击导致,实际为2015年沙迦市住宅火灾。
专家警告,社交媒体用户日益依赖AI工具进行实时事实核查,但AI系统在突发新闻事件中可靠性不足,且平台政策执行不一。UK Centre for Emerging Technology and Security报告指出,此类“AI信息威胁”可能对公共安全、国家安全及民主构成存在性风险。尽管美国政府及马斯克推动Starlink为伊朗民众提供网络连接,但虚假信息制造者仍能通过技术手段绕过封锁,持续传播误导性内容。
编辑点评
此次美伊冲突中的虚假信息传播,已从传统网络谣言演变为高度组织化的AI驱动信息战,其影响远超单一军事事件本身。首先,技术门槛的降低使得AI生成内容成为大规模信息操控的工具,尤其在冲突初期‘信息真空期’,用户对即时视觉信息的渴望被恶意利用,导致虚假内容迅速扩散。其次,社交媒体平台的商业化激励机制——如创作者分成计划——与内容真实性之间存在根本矛盾,促使部分用户为流量和收益而主动制造或传播虚假信息。更令人担忧的是,AI助手如Grok和Google AI搜索本应成为事实核查工具,却因训练数据滞后或算法缺陷,反而成为虚假信息的‘背书者’,加剧公众认知混乱。从地缘政治角度看,伊朗及部分国家支持的宣传机构与西方社交平台的算法漏洞结合,形成‘技术-政治’双重放大效应。未来,若缺乏全球协调的AI内容监管机制,此类信息战或成为常态,威胁国际社会对危机事件的共识构建,甚至可能诱发误判与冲突升级。因此,平台责任、AI透明度与国际协作将成为遏制信息战的关键。