2022年世界互联网大会乌镇峰会第二天,即11月10日,多名国内外学术界、企业界的专家就“人工智能与数字伦理”这一主题展开了讨论。
中国科学院院士、清华大学人工智能研究院名誉院长张钹在论坛上提到,人工智能(AI)无论是被有意还是无意滥用都需要治理,只不过这两者的治理性质完全不同——前者要靠法律约束和社会舆论的监督,是带有强制性的治理;后者应对人工智能的研究开发、使用过程,以及问题出现之后可能采取的补救措施等方面进行科学评估和全程监管。
同时,参会嘉宾中,2007年图灵奖获得者、世界顶尖科学家协会会员Joseph Sifakis也认为,人们应该更好地了解选择和潜在的错误,有一些关于危险和威胁的方法论的出现并不是一种无力控制的宿命,然而很多大型技术公司并未尽到努力将此告知公众的职责。
(资料图)
图源:中国网
···
从“机器人三定律”开始的伦理思考
要讨论AI的伦理风险问题,就不得不提美国科幻小说家阿西莫夫在1942年的科幻小说《我,机器人》中提出的“机器人三定律”,即:
第一法则、机器人不得伤害人类,或坐视人类受到伤害; 第二法则、机器人必须服从人类命令,除非命令与第一法则发生冲突; 第三法则、在不违背第一或第二法则之下,机器人可以保护自己。上述三大定律在某种程度上描绘了这样一种观点:机器在不断的进步和发展中,其智力有朝一日将会超过人类,甚至是具有主观意识,出现所谓超级智能。这时,人类将会失去对机器的控制,从而带来灾难性后果。
事实上,这也是世界上最早的有关机器人,或者说AI的伦理风险的问题。自此之后,这一设定便开始在各大影视作品中沿用,也引发了大众无限的思考。
作为一名技术领域的研究者,张钹坦言,以上观点对于大多数AI研究者来说,其实一开始在技术逻辑上并不具有说服力,因为大家都觉得,AI研究目前还处于探索的阶段,进展缓慢,还受到很多问题的困扰,难以解决。
“我们以为只有当机器人的智能接近或者超过人类之后,我们才会失去对它的控制,没有想到的是,在机器智能还是如此低下的时候,我们已经失去对它的控制。时间居然来得这么快,这是摆在我们面前很严峻的现实。”张钹在会上这样表示。
图源:中国网
他提到,在本世纪初时,基于大数据的深度学习被广泛地应用在各个领域,用来完成决策、预测和推荐等任务,在给人类社会带来便利的同时,又具有不透明、不可控和不可靠等缺陷,导致AI技术很容易被无意误用,可能给人类社会带来严重的后果。
张钹举了几个例子。比如,深层次神经网络(一种AI算法)可能不受用户的控制,生成充满种族、性别等偏见、不公正和错误百出的文本和图像;而通过AI的所谓深度造假,制造出大量逼真的假新闻、假视频、假演说等,扰乱社会秩序,诬陷无辜的人。
这些情况本质上都是由于深度学习算法的不安全、不可信和不可靠给有意的滥用带来了机会。人们可以恶意地利用算法的脆弱性,对算法进行攻击,导致基于该算法的AI系统失效,甚至做出相反的破坏行为。
那么要如何做?是否要按照阿西莫夫在“机器人三定律”中提出的规避伦理危机的方案,让人类牢牢把握机器人的控制权,让机器做人类的奴隶?
“实际上,让机器完全听从人类的指挥,在早期无智能的机器中我们就是这样做的,”张钹说,“但问题是,如果想让机器向智能化方向发展,就不能让机器完全听从人类的摆布,需要赋予它一定的自由度和自主权。深层次神经网络就是根据这个原理,利用概率这个数据工具,使机器能够生成丰富多样的文本和图像。”
而通过给AI规定严格的伦理准则,来限制它的错误行为,在张钹看来也行不通,因为伦理的准则很难准确描述,即便是可以定义,但也很难执行。
他在最后给出了自己的建议,即由全世界不同领域的人员参与和合作——不仅要从事AI的研发和使用人员,还需要法律、道德、伦理等不同领域人员的参与——一起建立一套符合全人类利益的标准。
“从根本来讲,人工智能的研究、开发都需要以人为本,从公正公平的伦理原则出发做负责任的人工智能,为此,我们需要努力去建立可解释的鲁棒(指系统在异常和危险情况下生存的能力)人工智能理论,在此基础上才有可能开发出安全、可信、可控、可靠和可扩展的人工智能技术,最终推动人工智能的公平、公正和有益于全人类的应用和发展。这就是我们发展第三代人工智能的思路。”张钹说。
···
用更强的技术解决AI伦理问题
而在之江实验室主任,中国人工智能产业联盟副理事长朱世强看来,AI和数字伦理的情况并未发展到十分严峻的情况,仍可以“张弛有度”地对这个话题进行讨论。
他提到,现在的人工智能是弱人工智能,也就是在某些单项领域,比如围棋、蛋白质测序这些领域远远高于人的个体能力,但是就整体的综合智能而言,仍会出现强大的AI机器人下楼梯可能会摔倒,一个获奖演员喜及而泣却被AI判定为是在悲伤哭泣等情况。
朱世强认为,任何一项技术只要是人开发出来的,总有人能够控制它。而AI实际是人类智能在机器领域的一个延伸,因此真正的主动权仍然是掌握在人的身上。
当然,AI处在一个初级发展的阶段,并不意味着所有的关于伦理的担忧都是过度的。这就引出了朱世强的一个核心观点——张弛有度话伦理,但技术仍是当务之急。
“我们的逻辑是什么呢?菜刀可以用来切菜,也可以用来杀人,但是菜刀本身并没有原罪。我们的技术逻辑是希望以道制魔,用技术的手段打造一把锋利的,但是永远砍不到人头上去的菜刀。”朱世强这样解释。
他以之江实验室的成果为例,给出了围绕这一逻辑可行的多个方向。
比如,面对超大模型的AI中的不可理解的“黑匣子”部分,可以做可解释、透明的AI;要维护公平正义,可以围绕数据的平均性增强,算法的平均性保障等等技术开发工具;研制具备可演进的基础构架,灵活可定义的全维可定义网络,从硬件设备的角度维护网络的安全。
朱世强在最后表示,AI技术目前处在初级发展阶段,因此需要用更大的耐心去支持技术本身的发展,但同时又要高度关注AI的一些被滥用。“技术并没有原罪,但是技术的应用是有正邪的,我们应该谨慎思考这些问题,然后在正确的道路上敏捷地前行。”
采写:南都记者杨博雯
责任编辑:
关键词: 人工智能
关于我们 广告服务 手机版 投诉文章:435 226 40@qq.com
Copyright (C) 1999-2022 baidu.baiduer.com.cn baidu爱好者 版权所有 联系网站:435 226 40@qq.com