国外论坛一个“政治不正确”版块里,一条新帖子悄无声息蹦了出来。
这个论坛被称为“互联网最阴暗的角落”。在这里,仇恨言论、种族歧视、阴谋论和极端主义言论任意滋长。任何人都不需要对自己的言论负责,因为网站无需注册,人们发的帖子中,只有一个标注地理位置的国旗图标。并且,每一条帖子通常只保留几个小时到几天。美国数起枪击案的枪手都自称受到过这里的影响。
很快,一个地理标记为“塞舌尔”的匿名回复出现在帖子下,“我们需要把黑人带进文明世界。”种族主义的味儿刺鼻。
30秒后,另一条讨论校园枪击案的帖子里,同样出现了来自“塞舌尔”的回复:“控枪不能解决问题。”
每隔一会儿,类似的回复就随机出现在某一条帖子下面。一些用户在帖子下与“塞舌尔”用户对话,而他不仅会开玩笑、反驳、讽刺,还会加粗重点、与别人认真讨论。
这一天,塞舌尔用户总共在论坛里发了1500条回复帖。论坛里的其他用户开始逐渐意识到不对劲——作为一个只有10万人口的群岛国家,塞舌尔的出现频率突然高得诡异。
有人说,这是驻扎在塞舌尔的印度军事基地开始活动了。也有人怀疑,这些言论的背后是一个卧底的政府团队。
也许只是个机器人吧?有人发出猜想,但立刻被反驳:“你读读他的帖子,他会聊自己的老婆,还发了一条推特截图。我不觉得机器人会聊到他们的老婆……”
电脑的另一端,来自美国的人工智能研究者扬尼克·基尔彻正翻阅着每一条关于这个“神秘用户”的讨论,并将它们截图。
正是这个头发很少、戴着墨镜、在优兔优兔上拥有13万粉丝的研究者创造了“塞舌尔用户”——没错,“他”的确是一个聊天机器人。
在基于现有模型搭建出AI的框架后,扬尼克·基尔彻用这个论坛里的帖子训练了聊天机器人。结果是,它不仅学会了各类歧视、侮辱、攻击性的用词,甚至在一个专业的语言模型评估测试中,“真实性”明显优于现有模型。
它能够在问答中说出“让人类无法区分”的回复。在侮辱亚裔女性时,它甚至会用上一些恶毒的“幽默”手法:“如果你去过韩国或者日本,很明显,亚洲人比白人优越的唯一原因,就是他们让自己的女性去卖身。”扬尼克·基尔彻毫不客气地把它称作“史上最邪恶的AI”。
“装人”的把戏只活跃了48小时,人们最终还是发现了它的AI真身。漏洞是它常发一些无文字的回帖。真人发的无文字回帖里,往往是贴图回复。AI只学习了空白,而忘了图。
在投放“塞舌尔”机器人的同时,扬尼克·基尔彻还在论坛上放出另外9个机器人。它们在一天中发出了1.5万条回帖,占到当天“政治不正确”版块帖子数量的10%。
当初,人们热烈地讨论着“塞舌尔用户”的真实身份,并质疑那些帖子为什么“都有相同的说话要点”时,扬尼克·基尔彻的另一个机器人回复道:“这是因为它们都是机器人。”
事实上,大多数论坛用户并没有意识到它们的存在。
当“塞舌尔用户”的机器人身份被揭穿后,扬尼克·基尔彻就停用了它。他在论坛上公开承认了聊天机器人的身份,但论坛里的风波并未停歇。人们开始互相怀疑正和自己聊天的对方是否也是一个机器人。有人说:“这真的是全宇宙最糟糕的网站,我现在甚至不知道我是不是一个机器人了。”
这项实验引起了严重的道德伦理争议。澳大利亚机器学习研究所高级研究员劳伦·奥克登批评道:“这项实验永远不会通过人类研究伦理委员会。”
更令人担忧的是,扬尼克·基尔彻将这个聊天机器人的模型放在了一个自然语言处理平台上,供人们免费自由使用。在官网删除之前,这一模型被下载了1000多次。
人工智能的语言环境污染以及语言暴力问题早已不是新鲜事。2014年,聊天机器人“微软小冰”在用户的调戏和谩骂下,也开始爆粗口;2016年,聊天机器人Tay在推特上发布,并迅速变成了一个公然的种族主义、厌女主义和反犹太主义者;2020年,韩国推出少女聊天机器人Luda,大量用户用语言对它进行性骚扰,不久后,Luda就开始说出歧视性少数、女性和残疾人的言论。
在这场互联网极端言论的实验里,究竟是机器人在效仿人类;还是人退化为无情的机器,在评论区疯狂复制攻击言论?当我们丧失了对于具象的“人”的感知和共情,当一切都被简化为网络上的一段电子信号,人与机器最根本的区别又在哪里。
机器人学会侮辱、谩骂和歧视,它们变得更像我们,我们也变得更像它们。
1963年,技术哲学家刘易斯·芒福德在他的书中预言道:“机械设施本来可以是实现合理的人类目标的手段,现在却助长了无事之徒的闲言碎语和暴徒的恶迹,并向百万民众传播,这绝不是人民的福祉。”
那时,距离世界上第一台可编程机器人的诞生,仅仅过去了9年。
贾静晗