X平台充斥伊朗战争虚假AI内容,专家警告事实世界濒临崩溃
自2月28日美国与以色列对伊朗发起军事行动以来,社交媒体平台X上虚假信息泛滥,尤其以AI生成的图像和视频为主。伊朗官方及亲政权账号利用AI技术传播误导性内容,包括伪造的导弹袭击画面、美军被俘影像及反犹太主义叙事。
AI聊天机器人Grok在验证相关帖子时屡次出错,甚至生成虚假图像。当信息专家Tal Hagin要求Grok核实一条声称伊朗导弹袭击特拉维夫的帖子时,Grok错误识别地点与时间,并附上AI生成的破坏画面。Hagin称其为“AI垃圾”(AI slop)。
3月2日,伊朗官员及国有媒体发布AI生成的巴林高层建筑起火视频。另一张AI图像显示美军B-2轰炸机被击落、美军士兵被俘,浏览量超百万次后被删除;而“三角洲部队被俘”的AI图像浏览量超500万次。
部分AI内容虽不逼真,如伊朗在洞穴内制造导弹的视频,但仍被多次转发,浏览量超百万。伊朗政府还利用AI传播反犹太主义叙事,如描绘正统犹太人引导美军作战或庆祝美军死亡的图像。
此外,一个亲政权账号网络发布伪造视频,显示年轻女孩在特朗普面前仅穿内衣行走,该内容浏览量达680万次后被删除,但仍被其他账号传播。
X平台于近日宣布,将临时对发布无标签AI战争视频的蓝V账号去货币化。此前,多名伊朗官员支付费用获取蓝V认证,以提升曝光度并获得盈利可能。X未回应已去货币化账号数量。
非AI虚假信息亦持续传播。例如,针对2月28日伊朗米纳布小学袭击事件,部分亲特朗普账号挪用其他战场影像,声称伊朗发射导弹击中学校。但《纽约时报》核实,伊朗新闻机构发布的视频显示,美军“战斧”巡航导弹击中学校旁海军基地,而“战斧”导弹仅由美军使用。
Meta的监督委员会于周二批评其AI内容标注机制“既不全面也不够强大”,难以应对危机期间的AI虚假信息。Meta则表示欢迎该评估。
媒体监督机构NewsGuard分析师Isis Blachez指出:“AI生成的图像与视频日益逼真,用户可能不会质疑被标为‘证据’的视觉内容。目前的AI检测工具也难以稳定识别虚假内容。”
信息专家Hagin警告:“AI生成内容的激增正推动我们远离事实世界,若不立即立法监管,损害将愈发严重。”
编辑点评
此次伊朗冲突中,AI生成虚假内容的泛滥标志着信息战进入新阶段。X平台成为虚假叙事的温床,尤其伊朗政权利用AI技术制造视觉冲击力强的“证据”,配合蓝V账号的传播力,形成系统性误导机制。AI工具的低门槛使得制造虚假内容几乎无成本、无风险,而平台监管滞后,导致事实核查机构反应不及。Meta监督委员会的批评揭示了全球科技巨头在AI内容治理上的系统性短板。从地缘政治角度看,此类虚假信息不仅加剧国际舆论对立,还可能误导政策制定与公众认知,甚至影响战争进程。长远而言,若缺乏全球统一的AI内容标注与问责机制,将动摇信息可信度基石,威胁民主决策与国际秩序稳定。各国政府、平台与国际组织亟需协同制定紧急应对框架,否则“后真相”时代可能彻底降临。