吴文俊人工智能科学技术奖
上海分论坛 - 可信AI

《从人工智能难题看AI伦理的构建》

2021年05月20日   来源:中国人工智能学会     

6336

2021年4月10日-12日,吴文俊人工智能科学技术奖十周年颁奖盛典暨2020中国人工智能产业年会在北京和苏州同期圆满成功举办。复旦大学生命医学伦理学研究中心教授杨庆峰受邀在上海中谷小南国花园酒店,2020中国人工智能产业年会—可信AI专题论坛上发表主题报告从人工智能难题看AI伦理的构建》。


以下为演讲实录:

尊敬的何院士以及各位专家、同学们,大家下午好,非常感谢可信AI论坛的邀请,我借此机会交流一下我自己的一些不成熟的想法。


今天交流的题目是《从人工智能难题看AI伦理的构建》。人工智能难题是指人工智能发展带来的问题,可以包括技术问题、社会问题、哲学问题。开始之前我想简单介绍一下复旦大学大学生命医学伦理研究中心的情况,本中心成立于2016年,主任是王国豫教授,目前有三个研究方向:生物科学与技术的社会伦理问题、人工智能的社会伦理问题、纳米神经科学的社会伦理问题。


在人工智能伦理的构建问题上包括理论层面的探讨和实践层面的探讨。我这里谈到的理论层面的探讨,主要从两个路径提出来:(一)价值路径。价值路径强调人的普适价值或者特有价值,以它为中介的建构,这个过程中把人类的尊严和人类的福利作为道德考虑的重心。比如AI发展如何不违背人类的尊严、隐私和自主性还有信任的原则。(二)技术路径。这种路径主要是探讨以技术难题为中心的伦理建构,着力于探讨一个相关由技术带来的主要难题。大家看到《中国青年科学家2019人工智能创新治理上海宣言》当中提到四大责任,四大责任都是基于技术带来的难题所提出来的讨论。


关于价值路径,大家可以看到左边的表格,这个表格是世界大多数国家制定的AI规范的文件,有一篇研究文章分析了世界尚与AI伦理有关的84个相关文件,该分析呈现了一些人类核心的原则,比如自由、尊严、团结、公平正义、信任。除了人类中心的原则之外,大家还可以看到透明性(Transparency)和隐私(Privacy),严格来说它们不属于伦理的范畴,但是在当下的讨论当中,这些问题已经进入到了AI伦理讨论当中,所以我们也要关心这样一些话题。

关于技术路径主要是指技术难题,实际上是技术带来的问题。我们把技术难题做一个分类,由人工智能带来的难题分为这三类:1.超越的问题。超越问题前几年在人工智能学界讨论非常多了,这里面有非常隐藏的哲学难题,比如AI能不能超越人的意识。2.取代问题。刚才何院士也提到了一点,AI取代人类的工作,这些是社会层面的讨论。3.智能体问题,智能体问题越来越受到关注。这三类成为AI伦理讨论的难点。



其中超越问题涉及到通用智能。举一个2021年关于通用智能的四个成果:1.从无到有生成的智能体体现。2.AI智能体可以学会动物进化完成自身的进化。3.悄然生成的超级智能体已成为可能。4.将果蝇的神经网络作为AI基质的迹象。智能体已经可以从无到有,可以悄然生成超级的智能体,最后一点更加耸人听闻,为什么呢?如果可以入侵到果蝇的神经网络,那入侵到人的神经网络是有可能的情况,所以超级智能体的技术进展也带来了难题。


这两条路径之间关系并不是对称,第一,在理性条件下,技术路径明显强于价值路径。技术带来了很多的问题,需要让人文学界批评应对,它需要提出一种解释方案,往往这种方案是无效的,所以学界更关注由技术带来的伦理问题。第二,在非理性条件下,这种关系未必有效,价值路径强于技术路径。比如当我们把信任的因素考虑在内的时候,技术路径和价值路径的关系就发生变化了。我们更关注与价值有关的问题了。


信任是双重难题,它与今天讨论的可信赖或者可信性都是哲学问题。刚才提到的84份文件中,有28份提到了“信任”作为伦理原则。那么什么是信任?什么是可信任?当我们谈信任的时候也要意识到反面的不信任、怀疑、猜测的现象,所以在今天可信AI讨论当中,我把信任看做是技术上的难题,并且会隐藏着一些哲学性的难题在里面。


在对可信AI做探讨之前,需要对信任做出澄清。我区分了三种类型:因真而信、因情而信、因意而信。


因真而信是基于认知的信任。比如我相信我今天在可信AI论坛做报告,我相信这个事实是因为我真真切切站在这里做报告,这是一种感知意义上的信任。


因情而信是基于信任的情感特性讨论的东西,比如说我和父母有一种亲情关系,这种关系使得我能够无条件信任我的父母,这就是因情而信的情况。


因意而信是基于意志的一种信任,我愿意相信你。如果我不愿意相信你无论你说怎样多的话我都不会相信你,如果我讨厌一个人这个讨厌也会影响到我对这个人的信任。所以我们经常见到家庭里面父母说的话都是无比正确的,在他自己看来,一切为了孩子好,但是孩子对这个话是抵抗,不信任的态度。从上面的分析可以看到,信任是一种意识行为与知、情、意相关。


关于可信任的哲学本质涉及两个因素,其一是从某物具备的特性出发的,比如我们今天谈人工智能,人工智能所具备一种特性,这个特性比如它是可透明的、可解释的,这种特性使得我能够接受,必然相信它。其二就是和主体情感相关的,比如主体表现出的能动性。这里面比重上面,某物的属性会起更大作用。在可信的问题上,牛津大学一个教授安诺拉.尼尔(Onora O’Neill)谈到,可信任的行为是实践行为,跟信任对象打交道过程中逐渐形成的东西。



分析完信任和可信任之后,还需要分析不信任。不信任是信任的反面表达,在不信任中理性的作用明显会少于信任判断中理性的作用,在大多数情况下,不信任是由一种猜疑、怀疑产生的,而不是基于理性的判断。大多数情况是能够感受到,比如说我不相信你是我被讨厌我怀疑你等等。还有技术方面,由于技术方面,还有恐惧、黑箱带来的不信任。


思考跟AI信任、不信任有关的情况,主要包括五个方面:

(一)系统的可解释性与AI的信任,一个智能计算系统是否透明、可解释性决定了人们对系统的信任,一个论文讨论了这个观点,一个可解释的系统能够提升人类对于系统的信任。


(二)信息透明性与AI机构信任,人工智能讨论还需要关注到背后的相关机构的问题,AI机构相关信息不透明,也会影响人们对AI机构本身的信任,所以这里说提升可信任取决于机构对它相关信息的披露程度。


(三)算法的不可解释性与不信任,GAN算法产生的图像变换更像一种魔法,一种不可理解的东西,它为什么能够从一个男性转变成一个孩子,然后转变成女性,这个情况让我对GAN可能产生深深的怀疑和不信任。


(四)技术的实体化理解和不可解释的不信任,实体性解释主要是指对技术的观念,比如海德格尔说技术是一种座架、天命,我们不可抗拒它,只能张开双臂迎接它。这种解释就是一种实体化的解释,这种解释加深了人们对技术的恐惧和不理解。


(五)技术恐惧与技术不信任,这里主要是指特定的技术文。往往一种不信任的产生,跟技术本身关系不大,但是它和技术文化是有关系的。比如大家看到《终结者》里面的机器人的两个图,是两个科幻电影中的场景,揭示了共同的东西就是邪恶机器人的形象,这种邪恶机器人的偏执,在技术文化塑造过程中,起了非常强的推动作用,很多看了科幻电影人就会产生误解,认为人工智能就是这样子,将来会毁灭人类,这让很多人产生了担忧和怀疑。


如此,再来看AI伦理建构,需要考虑到上述提到五个因素。而在建立AI与人的信任关系当中需要考虑三个方面:

(一)技术层面AI本身的问题,如AI的可靠性、透明性和可解释性。

(二)人的层面主体因素,比如人的情感、意志等。

(三)环境层面的文化因素,比如什么样的技术文化。


第一,如果AI本身是可解释的,是可靠的或者是透明的,那大众对它容易接受,它的信任度就容易建立起来。反之,不容易建立起来。


第二是主体相关的,跟环境联系在一起的,我们一个假设就是人是理性的动物,但是现实生活中这个观念会隐退,人们是非理性的动物,靠情感来决策,靠意志来行为,这时候就影响二者信任关系的建立。


第三是良性的技术文化建立。比如负面性的科幻片子的存在,会影响人们对AI的认知了。


在大多数AI伦理讨论过程中,主要关注了第一和第二的理性判断,对于第二中的情感倾向和意志现在和第三是有所忽略的。今天讨论我们更多讨论的是一种技术层面或者理性层面的因素,而需要对人的情感因素和意志因素以及相应的技术文化也要有所关注。所以AI与人的信任关系的建立需要平衡两种路径。


同时,在平衡过程中需要注意到一些概念的复杂性。以透明性为例,透明性不仅仅是技术问题,还涉及到哲学性的问题。当我说技术是一种座架、一种天命、神秘的力量时,这时候这种观念就不是可透明的解释。当我说技术是一种工具,人可以控制的工具,相对来说它就可解释,也是一种透明的东西。透明性还涉及到技术行动、技术和人的关系等维度。


一般透明性概念讨论过于偏重技术性,但我们讨论时也要关注到技术与人的关系的一面,需要注意到这个概念的局限性。罗素(Stuart J. Russell)对人工智能采取的定义是非常好的,它谈到了一个情境,一个智能体在一个情境中采取最好可能的行动。而透明性无法与相吻合。


从上述讨论我们发现透明性当中有一些问题的存在,需要更合适的概念来弥补。我们从充盈生命的力量的角度提出一个新的概念,即人类如何在一个与AI共在的世界中找到信任感。引用罗素《心的分析》中的一个观点:绝大多数的人和动物都发现,在周围熟悉的环境中度过大量的时间对于他们的快乐来说是必要的,并且当可能发生任何危险时,这种环境尤其令人感到安慰。结合他的观点,意味着我们建立和AI之间的信任关系,需要考虑到三个方面的因素:技术层面、人类对于AI的熟悉感层面以及消除不信任产生的源头。


最后,做一个简单的总结,AI伦理构建需要考虑到三个方面:

1.从技术路径与价值路径的关系看,其中有对称性与不对称性,尤其要考虑信任角度下呈现出的非理性因素。

2.从认识角度看,AI伦理构建需要考虑到非理性因素的作用,以AI信任来看,这不仅仅需要可信的AI、可解释的AI,更要重视与AI有关的集体意识,尤其是技术文化构造的集体意识,防止AI恐惧、猜疑、异化理解的出现,尤其是防止AI神话的泛滥。

3.从实践智慧角度看,AI应从人类工具、理性认识的对象,转变到一种与AI的共在存在,从而开启美好生活的状态,形成人与AI之间的关联性、熟悉感、信任。

组织机构

主管单位
中华人民共和国科学技术部
国家科学技术奖励工作办公室
主办单位
中国人工智能学会

奖励资质