一群装有炸药的无人机飞向人群,开始杀戮;一架无人机拦下一个行人,无人机上携带的手机里传出威胁指令,胁迫路人把身上的钱包放到无人机上挂着的袋子里……虽然这是拍摄的假想视频,但通过AI作恶已经不是科幻小说的情节。
“AI作恶,是世界末日还是杞人忧天?”成为今年中国计算机大会(CNCC2018)中的一个讨论议题,也是中国计算机学会青年计算机科技论坛 (CCF YOCSEF)的一个活动。这个论坛于近日在杭州举行。
主持人、哈尔滨工业大学长聘教授邬向前提前搜集了一些AI有可能“作恶”的迹象:谷歌、亚马逊、微软分别与美国军方、警方和移民局合作,研究人工智能在军事、警用和移民方面的用途;韩国科学技术院也与军方合作设立实验室,研究人工智能武器。“这些研究不仅严重侵犯了人权、自由和隐私,还对人类的安全产生了威胁,是对人类作恶,从而遭到人工智能研究人员的强烈抵制。”他认为,这也一定程度印证了霍金、马斯克和比尔·盖茨等提出的人工智能威胁论,即人工智能会危害并最终毁灭人类。
在此之前,包括南京大学周志华教授在内的全球20多个国家、50多名高校顶尖AI学者集体签名抵制韩国科学技术研究院(KAIST)研发出基于AI的导弹、潜艇和四轴飞行器。
其实,任何技术都是一把双刃剑。那么AI作恶是世界末日还是杞人忧天?为了避免人工智能作恶,是否应该停止相关技术的研究?从立法角度如何看待和防止AI作恶?
360集团技术总裁、首席安全官谭晓生认为人性决定了AI的善与恶。AI的善与恶,本质上依然是发明和发展AI的人的善与恶。事情总有两面,当我们享受AI带给我们的便捷、便利的时候,也要承担AI所带来的风险:AI的算法可能存在缺陷、AI的代码实现可能会存在缺陷、AI所承载的硬件计算载体可能存在缺陷,更不要说AI已经被网络黑产和军方所采用,如同若干次技术革命时所面临的挑战一样。
他强调“物竞天择,适者生存”:“我们应该拥抱变化,积极适应AI的快速发展。”
北京大学法学院教授、互联网法律中心主任张平教授从法律角度分享了自己对AI作恶的认识。她认为“AI作恶的实质是人类在作恶”。张平教授在发言中谈道,AI的本质是人类的工具,而法律对人类利用工具作恶的规制主要是从技术、产品以及人机混合体(新生命)三个方面进行。
她分析,从现有法律看,AI作恶可分为“大恶”与“小恶”。“大恶”是达到了人类无法控制的顶级作恶,例如“反人类罪”,按照现行人类法律对于反人类行为当必除之;“小恶”的基本特征是将AI作为人类的工具用来作恶,包括大数据的滥用等。
张平提出,要想制止AI作恶,应当从人类开始。不过,她认为真正令人恐惧的是作恶的“人机混合体”。一些具有强大功能的“人机混合体”将更多享受地球以及宇宙的资源,而其他自然人将处于弱势,从而成为“被作恶对象”。
那么在AI研发的规制上只可能从善良的角度尽可能做道德约束,但绝无法阻止人类中的“恶人”行为。大恶只能由人类命运决定,就像核武器一样,全人类恶之。张平教授还给出了AI应当遵循的基本原则,即有益目的原则、安全性原则、价值归属原则和非颠覆原则等。
参会者在讨论中阐述了各自的观点。现在有很多利用AI作恶的现象,比如人工智能武器、大数据滥用、隐私侵犯等;AI本身是一种工具,有脆弱性,即容易被不法分子利用;无论是多先进的技术,总会首先应用于作战,这是不可避免的。
在防止AI作恶方面,专家学者们也给出了自己的意见。不过,大家认为防止AI作恶的难度很大,因为AI的发展太过于迅速,进化很快,并且其有分散性和低门槛的特点,很难防止。
因此,应该设立伦理委员会,对AI的研究进行审查,可以考虑设立AI的研究禁区,从危害性和应用领域对AI进行分级,防止别有用心的人控制AI。
中国青年报·中青在线记者 李新玲