AI生成的伊朗抗议视频:当信息真空遭遇数字幻觉
2026年1月,一段视频在社交媒体上病毒式传播。画面中,成千上万的人手持发光的手机,汇成一片光的海洋,在黑暗的街道上行进。上方叠加的文字写着“所有的目光都聚焦伊朗”。视频在X、TikTok、Instagram、Facebook和Reddit上疯传,单条帖文浏览量可达数十万,累计观看次数据估计高达数千万。它捕捉了全球对伊朗国内动荡的注视,情感冲击力极强。
然而,这震撼人心的画面并非现实。德国ZDFheute的调查显示,这段视频是彻头彻尾的人工智能造物。通过反向图片搜索,调查人员追踪到了源头——一位Instagram用户将其描述为“对伊朗当前抗议的数字致敬作品”。创作者坦承,其灵感来源于一则真实的、显示德黑兰黑暗街道上抗议者的视频片段,并试图用AI技术“艺术地再现”那个场景。从技术角度看,这是一次成功的数字艺术创作;从信息传播角度看,它却是一枚投入舆论深水区的深水炸弹。
这段视频只是冰山一角。随着伊朗当局为镇压自2025年底爆发的全国性抗议而实施严厉的互联网封锁,真实信息流出极度困难。根据人权活动家通讯社的数据,截至2026年1月中旬,已有超过2400名示威者死亡,18400人被捕。正是在这种近乎完全的信息真空中,AI生成的视频、图片以前所未有的规模和速度涌入社交网络,它们被反政府与亲政府势力同时利用,试图塑造彼此冲突的叙事,争夺全球观众的眼球与认知。
深伪浪潮:一场多面向的数字宣传战
AI生成内容并非新鲜事物,但在伊朗这场危机中,其应用呈现出新的维度与规模。美国虚假信息监测机构NewsGuard在2026年1月的一份报告中指出,他们至少识别出七段描绘伊朗抗议的AI生成视频,这些视频在几天内于各平台累计获得了约350万次观看。这些内容并非来自单一阵营,而是构成了一个多声部、甚至彼此对立的数字舆论场。
反政府叙事的AI工具化。一段在X平台上广泛传播的AI视频显示,女性抗议者正在砸毁伊朗准军事组织“巴斯基”的车辆。配文写道:“自由的伊朗妇女正在粉碎巴斯基民兵的机器。以真主起誓,这些妇女比……忠于哈梅内伊政权的民兵更勇敢、更光荣。”该帖文获得了近72万次观看。尽管后来有用户指出视频中玻璃碎片出现得突兀,疑似AI生成,但其传播效果已然达成。
更具象征意义的是,一些反政府用户,尤其是美国的用户,制作并传播了伊朗抗议者将街道象征性地更名为“特朗普街”的AI视频。其中一段显示,一名抗议者将路牌改为“特朗普街”,其他示威者在旁欢呼,叠加字幕写道:“伊朗抗议者正在以特朗普的名字重新命名街道。”这显然是对当时美国前总统特朗普高调声援伊朗抗议者言论的呼应与放大。特朗普曾多次表示要援助伊朗人民,并称已被告知对抗议者的杀害已停止,但他会“密切关注”事态,不排除军事行动的可能。这些AI视频将政治符号与虚拟场景结合,旨在强化一种“伊朗人民心向西方”的叙事。
亲政府势力的数字反击。与此同时,支持德黑兰政权的社交媒体用户也在利用同样的技术。他们分享AI生成的视频,声称显示了在伊斯兰共和国各地发生的大规模亲政府反示威活动。例如,有视频试图描绘“数十万”而非美联社所报道的“数万”亲政府支持者在德黑兰游行。这种操作旨在对抗国际舆论对抗议规模的关注,塑造国内依然存在广泛政权支持的印象,填补因真实影像匮乏而留下的叙事空白。
从“移花接木”到“无中生有”的进化。更值得警惕的是,AI生成技术使得虚假信息的生产从简单的“旧闻新用”或“地点篡改”,升级为彻底的“场景 hallucination”(幻觉)。例如,一则几个月前的视频声称显示伊朗的示威,实际上于2025年11月拍摄于希腊(据称是塞萨洛尼基一场音乐会后的冲突场面)。另一段声称描绘抗议者撕毁伊朗国旗的视频,实则拍摄于尼泊尔去年的抗议活动中。这些还是基于真实素材的误用。而前文所述的光海游行、以及另一张广为流传的“示威者站在雕像上挥舞伊朗旧国旗”的图片,则是从无到有的生成。那张极具感染力的雕像图片,经谷歌“SynthID”工具检测,被确认含有AI生成内容特有的隐形水印。调查发现,它是以一段真实视频的截图为基础,通过AI技术进行了“增强”:添加了浓烟、戏剧性的光线、更多的示威者以及更清晰的旧国旗,从而创造出一幅更具冲击力和象征意义的“新闻图像”。
信息生态的剧变:真空如何催生幻觉
伊朗的互联网封锁创造了一个近乎完美的“信息黑洞”。NewsGuard的分析师伊内斯·乔姆纳莱兹一针见血地指出:“有很多新闻——但由于网络封锁,无法获取。”这种状态彻底改变了危机事件的信息传播动力学。
传统验证机制的失效。在以往的地区冲突或社会动荡中,尽管也存在虚假信息,但记者、活动人士和普通公民仍能通过断断续续的网络连接、卫星电话或秘密传递的方式,将一些经过交叉验证的影像资料传递出来。这些真实素材构成了国际社会理解事件的基础。然而,当伊朗当局实施全面、严厉的互联网中断时,这条信息供应链被从根本上切断了。专业新闻机构、事实核查组织失去了现场验证的渠道,只能极度依赖有限的、难以核实的信息源。
社交媒体的“填充”本能。社交媒体平台的信息流厌恶真空。当用户渴望了解伊朗正在发生什么,而传统信源无法满足时,平台的内容生态便会自发地“生产”内容来填补需求。AI视频生成工具的普及,使得这种“生产”的门槛空前降低。任何一个拥有相关软件和创意(或意图)的用户,都可以在短时间内制造出看似专业、情感饱满的“现场画面”。这些内容因其视觉上的“真实感”和叙事上的“共鸣性”,极易获得算法推荐和用户分享,从而迅速传播。
情感共鸣先于事实核查。在高速滚动的信息流中,用户往往先被情感打动,而后才可能(且通常不会)进行理性核实。那段“光海游行”的AI视频之所以能获得数千万观看,正是因为它精准地捕捉并外化了全球观众对伊朗人民的同情与声援情绪。“所有的目光都聚焦伊朗”这句标语,本身就是一种情感动员。在这种情况下,事实核查往往滞后,且即便核查结果公布,其传播范围也远不及原始虚假内容。正如印度《Mathrubhumi》报事实核查部门发现,那段“光海”视频被AI检测工具判定为97.9%的可能性是AI生成,但这一结论对已经形成的广泛印象而言,纠正作用有限。
深层影响:信任侵蚀与认知战争
AI生成视频在伊朗抗议事件中的泛滥,其影响远不止于几段虚假内容的传播。它标志着数字时代信息战、认知战进入了一个新的、更危险的阶段。
对新闻真实性的根本性挑战。“有图有真相”的古老信条在深度伪造技术面前已然崩塌。当AI可以生成以假乱真的“现场”画面时,公众对一切视觉证据的信任基础都会被动摇。专家所称的“幻觉”视觉内容在重大新闻事件中日益普遍,常常使真实的图像和视频相形见绌。长此以往,可能导致普遍的怀疑主义,即人们可能开始不相信任何未经极端复杂验证的影像,或者相反,陷入一种“后真相”的漠然,只选择相信符合自己偏好的叙事,无论其真伪。
地缘政治博弈的新工具。这些AI视频并非孤立存在,它们被嵌入更宏大的地缘政治叙事中。反政府内容与西方(特别是美国)政治人物的言论形成呼应,旨在塑造伊朗政权丧失民心、变革在即的意象。亲政府内容则试图稳固政权合法性,对抗国际压力。这实质上是一场利用最前沿数字技术进行的认知域作战,其战场是全球社交媒体,其目标是影响国际舆论和潜在的政策走向。电影《山巅》中描绘的科技巨头平台因其用户生成的煽动性视频而在全球播下混乱与暴力的情节,在现实中找到了令人不安的映照。
对危机中民众的二次伤害。对于身处伊朗国内、在信息封锁和现实镇压中挣扎的民众及其海外亲友而言,这些真假难辨的AI视频可能带来混淆、误导甚至虚假的希望。它们可能扭曲外界对局势严重性的认知,也可能被当局用作进一步镇压和指控“外国媒体煽动”的借口。真实的声音被淹没在数字幻觉的浪潮中,他们的苦难与诉求在某种程度上被“奇观化”和“工具化”。
前路何在:在技术迷雾中寻找锚点
面对AI生成内容带来的挑战,没有简单的解决方案,但一些方向正在浮现。
技术防御的军备竞赛。开发更强大的AI检测工具(如谷歌的SynthID)至关重要,但这是一场持续的猫鼠游戏。生成技术在进步,检测技术必须同步甚至超前发展。平台需要将这些工具更深度地整合到内容审核流程中,并对疑似AI生成的内容进行显著标注。
平台责任的重申与强化。社交媒体平台不能继续充当消极的中立管道。它们需要制定并严格执行针对AI生成虚假新闻内容的政策,特别是在涉及武装冲突、人道主义危机和选举等高风险情境下。这包括加快对疑似有害AI内容的核查与处理速度,以及调整算法,避免过度推广那些高度情绪化但来源可疑的内容。
媒体素养的全民升级。公众教育从未如此重要。需要教会用户如何对惊人的视觉内容保持健康的怀疑态度,如何寻找多个信源进行交叉验证,如何识别AI生成内容可能存在的细微瑕疵(如诡异的手部动作、不符合物理规律的细节、过于完美的光影等)。新闻机构和教育机构应在这方面承担更多责任。
专业新闻的不可替代价值。在信息混沌中,专业、严谨、遵循伦理的新闻报道的价值反而更加凸显。尽管面临巨大困难,但路透社、美联社、法新社等机构及其事实核查部门,仍在努力通过有限的渠道核实信息,提供经过验证的报道。支持独立新闻业,尤其是身处高压地区的本地新闻业,是抵御信息污染的基础设施建设。
伊朗的互联网可能尚未恢复,但AI生成的抗议视频所揭示的未来已然到来。我们正在步入一个眼见不再为实的时代,一个信息环境可能被轻易污染的时代。这场始于德黑兰黑暗街道的数字迷雾,终将笼罩我们所有人。应对之道,不在于怀旧式地呼唤过去的“真实”,而在于构建一套适应新技术现实的、更具韧性的信息验证体系、平台责任框架和公众认知能力。在这场与数字幻觉的持久战中,保持清醒的头脑,或许是我们最基础的防线。