当AI会“说谎”
当AI会“说谎”,我们该如何应对?
前不久,西藏日喀则发生地震后,一张“被压在废墟下的小男孩”图片在社交平台广为传播。后经证实,该图为AI生成。事实上,这并非个案。随着人工智能技术在文本生成、图片创作、视频合成等领域被广泛应用,利用AI造谣变得更加容易,且此类谣言迷惑性极强,常常以假“乱”真,导致“有图却无真相”“眼见未必为实”,危害大、识别难,日益成为一个全球治理难题。
世界经济论坛发布的《2025年全球风险报告》显示,错误和虚假信息是2025年全球面临的五大风险之一。而AI的滥用无疑是构成这种威胁的重要“推手”。那么,当前AI造谣有哪些突出表现?如何破解这一难题?
一
近年来,网络谣言逐渐出现一些新动向,其中比较典型的便是利用AI造谣。这是因为AI本身就是基于“投喂”素材生成内容,而这些素材很多都缺乏真实性、权威性,出现纰漏在所难免。值得注意的是,这些不实内容一旦被大量传播,产生破坏舆论环境、扰乱社会秩序等不良后果时,则必须加以治理。
比如,利用AI软件生成虚假文案。在AI软件的“助攻”下,人们只需输入关键词或主题,便可“一键生成”足以乱真的文本、图片、音视频等。一些不法分子为了获取流量和利益,利用AI大肆制造、传播耸人听闻的虚假新闻,以“标题党”“震惊体”等形式,对“死亡”“爆炸”“地震”“洪灾”等情节进行突出强调,以此引起公众关注。此前诸如“某地一民房发生爆炸事故”“某地洪灾致多人死亡”“某地地铁站捅人”等离谱的“重磅消息”均为AI编造而成,致使部分网民信以为真,跟风转发,影响恶劣。
比如,利用AI技术将虚假元素与真实事件进行关联拼凑。在一些重大突发事件中,不乏有人为了蹭热点,通过张冠李戴、移花接木等办法,用“假图”冒充新闻现场图片,并将其与真实新闻事件进行恶意关联、“合成”,炒作舆论、撩拨网民情绪,对抢险救灾、应急处置等线下工作造成干扰。这类谣言真假混杂、似是而非,甄别难度极大。去年,新疆喀什、阿克苏地区相继发生地震,部分自媒体置事实真相于不顾,利用AI技术对一些旧图、视频片段进行拼凑,制造谣言把网民“往沟里带”。还有某网民通过AI技术制造“满载杨梅的果树被洪水淹了一半”的假象,以博取流量。
再如,利用AI换脸技术生成虚假视频。现如今,利用深度伪造技术,能够精准地将一个人的外貌、声音乃至行为模式等复制到另一个人身上,从而生成高度逼真的谣言信息。随着越来越多文旅局长变装、上镜“火出圈”,一些利用“AI换脸”技术合成的“文旅局局长高清写真”等图片、视频在社交平台广为流传,引发网友质疑。去年,一名教授发表声明称:“近期网上出现了大量假冒本人推销医药书籍和治疗手段的虚假视频,大多是人工智能AI合成。”国外很多人同样深受其扰。据媒体报道,一名西班牙14岁女孩遭受网络霸凌,其脸部被AI技术合成在一张露骨假照片上,于当地社交媒体群组中被不断传播扩散。
二
有报告称,2023年以来,AI谣言信息量有明显上升趋势。那么,AI谣言有着哪些显著特点?治理AI谣言究竟难在哪里?
首先,AI谣言的逼真性和规模性,使得识别难度加大。AI的技术优势一旦被造谣者利用,通过对受众行为和平台传播规律的精准分析,极短时间就可生成公众高度关注的内容,人物、时间、地点、事件等关键要素一应俱全,且情节生动、图文并茂,甚至还有逼真的视频片段,让人难辨真伪。在此基础上,再利用社交机器人进行批量推送,进一步扩大传播范围,极易产生舆情“爆点”,破坏性远远超过人工散布谣言。据媒体报道,有的MCN机构靠批量炮制AI谣言牟利,初步估算平均每天收入高达上万元。
其次,一些平台管理粗放,为AI谣言“开路放行”。有观点认为,平台审核机制存在不足,可能是当前AI谣言大行其道的重要原因之一。当大量信息集聚,平台的活跃度也因此大大提高,一些平台出于利益考虑,治理谣言的动力不足,时常选择放任甚至变相鼓励虚假信息传播。为了证实这一点,有媒体记者进行了测试,在某平台上,AI视频发出约一小时后,平台才作出“疑似使用AI生成技术”的备注。这种“后知后觉”的管理方式,导致谣言信息一经发布,很容易失控并造成不可逆的危害。
再次,AI谣言面临追溯难、查处难的困境。一方面,最初利用AI生成信息的人与造谣的人有时并非同一个人,这无疑加大了信息溯源的难度。此外还有一些造谣者在引用AI内容时可能采用“据传”“听说”等模糊话术来逃避追责。另一方面,AI技术本身具有匿名性和隐蔽性,一些黑产公司在炮制谣言信息后,往往有“能力”通过技术手段进行隐藏或伪装,这也使得谣言鉴定追踪的难度和成本加大。
三
习近平总书记曾强调,要压实互联网企业的主体责任,决不能让互联网成为传播有害信息、造谣生事的平台。治理AI谣言是一项复杂的系统工程,不仅关乎AI技术提供者,对互联网平台、监管部门以及社会各界也都提出了新的挑战。
平台是AI谣言的主要传播渠道,要斩断AI造谣的利益链,还需要平台有所作为。比如,健全完善谣言审核识别机制,运用AI技术+人工复核相结合的方式进行信息监测和过滤,对AI生成内容第一时间添加明确标识,加大对涉及重大事件、敏感话题中图片、视频的真伪核查,及时甄别、拦截、处置不实信息和账号。同时,建立便捷的举报和投诉渠道,对于网民反映的疑似谣言信息及时予以查证、处理,对于网民申诉被“误伤”的信息内容经证实后及时予以恢复。对于多次利用AI造谣的用户,平台不妨采取“封号”等禁止性措施,规范内容发布、传播等行为。
治理AI谣言需要对不法行为严加惩处,增强法律的威慑力。曾有专家指出,利用AI编造网络谣言的乱象频发,一大核心原因便是违法成本过低而收益较高。近几年,与AI相关法律法规不断完善,国家有关部门先后出台《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》等,“不得利用深度合成服务制作、复制、发布、传播虚假新闻信息”。一旦出现违规信息,AI使用者和AI平台的管理者都将视情承担相应法律责任。比如,在“广州即将成为全国首个限制外卖配送的城市”谣言案中,当地警方依法对造谣者采取刑事强制措施,被业内专家评价为“是打击治理AI造谣违法犯罪行为的样板案例,将对不法分子起到有力震慑作用”。
AI谣言之所以总能伤害大众,从而达到某种不可告人的目的,很大程度上是因为造谣者总能精准捕捉大众的心理,编撰出令大众相信的假消息。减轻或者避免这种伤害,就该让人们看清AI谣言的真面目。除了及时辟谣以外,有关部门可以经常公布一些典型案例,剖析AI谣言的生产机制、话术套路、识别方式等,引导网民在面对夸大其词的谣言时能够保持理性判断,综合多种渠道验证信息真伪。比如,央视新闻为了让网民更直观地了解AI谣言,曾在节目中曝光了其编造的过程,宣传效果较好。
人工智能如同众多科学技术一样,对人类社会有着正反两方面的影响。治理AI谣言,没有“局外人”,唯有提高平台管理能力、加强法律规制、培养公众的批判性思维,形成社会共治格局,才能实现长治久安,让AI不再“说谎”,朝着“向善”的方向健康发展。