人类医生漏诊的怪病,人工智能筛出来了,救人一命——上周网传的一则故事,有上海某知名三甲医院的名称,有医患的基本信息,有病情进展的细节,看上去很真实,一键转发很热闹。
我看完第一反应是惊喜。过去几年,医疗一直是AI技术应用最广、成效最多的领域之一,如消息属实,值得报道。结果我找医院相关部门一核实,发现故事是假的。
我一时恍惚,看不清这嘈杂的舆论场,我们与真实的距离。
社交媒体网络让信息变得混沌难辨,这不是什么新鲜话题。早在2016年,《牛津词典》便将“后真相”列为年度词汇,意即在假新闻与阴谋论当道的网络时代,事实让位于情绪,理性让位于偏见,真相已经不再重要,重要的是人们选择相信什么。
作为一名新闻从业者,我自认为拥有对信息真伪基本的辨别力。但随着AI技术的广泛应用,我也时常为真假难辨的信息所惑。
重新审视那条AI救人的谣言,我觉得它很像我曾经看过的一些由AI编造的消息。如果某一次我不经核实就把AI提供的资料写进报道,可能也会炮制出那样的故事。
今年春节期间,曾有一篇DeepSeek创始人梁文锋回应《黑神话:悟空》制作人冯骥的帖子在互联网流传,文风细腻、金句频出,一时引发转载无数。最终证实是假新闻,有人用AI生成了一篇一模一样的文章。
过去一段时间,这样的事情并不罕见。譬如美国加利福尼亚州发生山火,网传“烈火吞没好莱坞标志牌”的照片;西藏日喀则地震,“埋在废墟中的小男孩”引发热议。这些由AI生成的图片甚至引发公共媒体将之作为事实报道,误导公众对灾情产生错误判断。
假新闻并不新鲜,只是AI让“造假”愈发“逼真”,也更加“易得”。2023年,浙江绍兴警方曾抓获一个利用ChatGPT制作虚假新闻的团伙。其中有一名从未接触过电脑技术、仅有初中学历的成员,利用AI自动生成视频素材,便能像流水线一样批量生成假新闻,用时最短仅需1分钟。2024年4月披露的另一则案件中,涉案人员使用AI写稿软件抓取热点自动生成文稿,每日产出的文章数量可达19万篇,流向6000多个自媒体账号。
2025年年初,达沃斯世界经济论坛发布《2025年全球风险报告》,将“错误和虚假信息”与武装冲突、极端天气、经济对抗和社会极化列为2025年全球面临的五大风险。
我认为,虚假信息带来的一种系统性风险就像“狼来了”,当我们的情感被频繁欺骗,当我们面对每条信息都要怀疑其真伪时,我们社会的信任系统会被快速消耗,个体感受力也会趋于麻木。公众无力再辨别更多真假,剩下的便只有各自的立场。
与之相对,虚假信息的传播又大多都具有引导性。譬如,“后真相”成为年度词汇的背景是,在当时的英国脱欧和美国大选中,互联网上充斥着各利益方所制造的虚假信息,对公众的立场和注意力进行诱导。俄乌冲突事件中也充斥着大量由AI制成的虚假视频,服务不同的舆论目的。
更普遍的情况是,为了吸引流量,虚假信息的制作方通常会制作猎奇、极端或煽动情绪的新闻,这一切都会在AI技术深度伪造的加持下进一步放大,令普通人更加难以抵抗。
也因此,我们或许比过往的任何时候都更应强调“真实”的力量。
对抗虚假信息最简单的方法便是及时公开真实的立场。在过去20余年里,在全世界范围内,优质的深度信息逐渐衰落。以美国的盖洛普民意调查数据为例,过去20多年间,美国民众对媒体的信任度一直在持续下降,直至2024年,仅有不到三分之一的美国人依然信任新闻媒体。
在混沌的信息流中,为公众提供准确、高质量的信息,空前重要。“事实核查”和开设辟谣栏目不光是机构媒体的责任,很多热点事件、虚假信息的涉事主体,都有义务为公众提供及时、准确的一手信息。
个体也并非局外人。在一个深度媒介化的时代,“媒介素养”早已不是少数从业者的要求,而应该是一种公民素养。因此,许多教育从业者都在倡导将媒介素养教育纳入基础教育,尤其要针对偏远乡村的青少年开展。
我曾经采访过一位乡镇中学教授职业生涯规划的教师,她告诉我班内几乎一大半的学生都想做“网红”。社交媒体如此深入孩子们的生活,却少有人能为他们提前注射防护“疫苗”。
媒介素养听起来有点空洞,它的底层实际上就是获取信息、独立思考的能力。
譬如,我们是否还能留有“慢信息”的消费习惯。当我们看到一则消息时,不要急于判定,而是花一些时间去思考,内容是否符合基本事实逻辑?是否有可靠的信源?是否可被多个独立信源交叉印证?或者仅仅只是暂缓分享速度,给事实以逐渐显露的机会。
我们是否能够抱有一种更加理性、开放的态度,去接纳和我们原有观点不同的事实,而非让立场和情绪先行,绑架我们对事实的判断。又或者,我们也可以不必非要判断,如果无法判定一则消息的细节真伪,那么保持沉默,不去为极化的舆论场助燃,或许也是一种选择。
查阅资料时,我发现其实许多广为流传的AI假消息并不难辨别。譬如,网传西藏日喀则地震“被埋儿童”的照片,孩子有6根手指;网传好莱坞燃烧的标志牌,多了一个字母“O”;有的照片甚至还挂着AI生成的水印。有时,我们的常识和直觉,就是识别造假信息的有力武器。问题在于,我们是否仍有能力保有这种知觉,而非不加审慎地接纳网络提供给我们的所有信息。
网络让信息极度易得的同时,我们也在逐渐习惯于感受媒介经手的现实,而非实感的现实;我们似乎也更习惯依赖外部的信息决策,而非回归自身独立思考。让AI进一步深入生活、辅助思维决策时,我们需要警醒,这是否会进一步加剧我们对技术的依赖,减弱自身的思维能力。
不过,不可要求每一个人都具备信息的甄别能力。
因此,许多行业专家都在致力于研发AI鉴伪技术,即通过标记、追踪、分析内容生成痕迹,来识别虚假信息。用户将难以辨别的影像文本上传至检测工具,有机会快速得知它是否由AI生成。还有手机厂商直接在系统中内置了AI换脸检测工具,可以在视频通话中完成识别,提示用户对方使用AI换脸的概率。
2024年3月通过的欧盟首个《人工智能法案》,提到所有由AI生成的内容(图像、音频或视频等)都要有明晰的标签,以避免出现虚假信息。目前,国内的部分社交媒体平台,都在着手启动治理体系建设,对识别为疑似AI生成的内容进行显著标识,通过机制性的方法帮助用户识别虚假信息。
《后真相:关于真相的新战争及如何反击》的作者马修·德安科纳曾说,后真相不是关于谎言的,而是关于人们如何认识、看待这些谎言的方式,是人们对谎言的回应,是人们的态度。
讨论到最后,其实真相究竟如何,已经不是最要紧的事,更重要的是我们每个人愿意去为此做些什么。
裴思童来源:中国青年报
2025年02月26日 05版