【WRC 大咖观点】Raja Chatila《为机器人和人工智能的应用发展承担责任》
编者按:
2022世界机器人大会主论坛群星璀璨,产、学、研各领域大咖齐聚首,共话巅峰,为机器人未来发展领航。
峰会现场,Raja Chatila发表了题为《为机器人和人工智能的应用发展承担责任》的演讲。以下为Raja Chatila演讲内容的整理。
大家好,我是Raja Chatila,我现在在巴黎索邦大学。今天我想谈谈负责任的人工智能和机器人。什么是负责任的人工智能和机器人?其实应该说是负责任的机器人技术和人工智能开发、使用和管理。这些技术现在非常普遍,应用于我们生活方方面面,改变了我们的生活。它们对经济和社会有很大的影响,在许多行业都可以看到这些技术,例如交通。有了自动驾驶汽车,还有其他交通工具,在医疗卫生和制造业方面也有应用。当然了,在农业方面它们用于个人服务,帮助人们。它们用于安保,应用于社交媒体的推荐系统,从而进行定推广,还应用于招聘筛选候选人,也应用于计算保险单级别,用于与司法相关的应用中。例如分析人们的情况也被应用于慈善当中,我们需要了解这些系统也有局限。
首先,它们需要进行运算,这意味着什么?,意味着它们不能真正理解真实世界尤其是当这些系统基于机器学习。加工大量数据,优化大量参数,从而调整预期产出时,由于这种复杂性和嵌入式计算,所以有一个“黑盒子”效应。机器学习也是,自从诞生以来就是基于数据的统计相关性,不是系统来解释因果关系,所以不构成相关性,会产生完全错误的结果。虽然精确度很高,它们在验证软件系统方面挑战了传统方法,没有真正的验证过程,可以保证产生结果的质量水平。由于大量的数据运算系统耗能很大。这些都是系统要解决的现实问题,为什么我们要解决?因为这是我们的责任,如果是我们开发了这些程序,运算系统,程序和人工智能算法都是由人类开发设计的直接编程或以间接方式,因为这些程序被用来建立统计模型,然后再应用。因此,人类的责任很重要,要铭记于心,这也是我想说的。当我们谈论负责任的人工智能时,我们实际是谈论负责任的人工智能和机器人技术开发、使用和管理。这意味着我们必须解决我前面提到的系统的局限性问题,必须减少负面效应。例如,在可持续性气候等方面产生的负面效应,负面效应也可能存在于所做的决定。我们必须开发、设计,基于道德考量和治理框架的方法。这些方法适用于设计和应用程序,负责任也意味着我们要探索人工智能系统的发展前景,为人类谋福利。例如致力于实现联合国可持续发展目标。
在2016年,在国际上提出了针对这些问题的第一个提议,IEEE作为最大的独立专业技术学会。它组织会议,在著名期刊上发表技术论文。IEEE首先就自主和自适应系统的道德问题发起了全球倡议,因为他们发现在这些系统开发中有问题需要解决,这项倡议的使命是确保每一个利益攸关方,意味着每一个参与设计和开发人工智能系统的个人和组织,必须受过教育培训。因为人们没有真正意识到问题,他们要接受培训,在开发时首先考虑道德问题,从而让这些技术为人类谋福利,这个倡议已经促成了很多文件,其中我想谈谈《人工智能设计的伦理准则》。大家可以从网上下载,这份文件有大约300页,确定了人工智能系统开发的问题,并给予相关建议。我说的人工智能系统也包括机器人技术,这份倡议是自动和智能系统。另外,该倡议已经产生了相关标准。大家知道,在行业中遵循设计标准非常重要,这样系统才能互相配合。也有工具进行系统开发,从而使系统符合一定要求和标准,我想指出这个P7000标准。它是解决系统设计道德问题的第一个标准流程,为基于价值、道德的系统设计提供了方法论。第二个标准是关于自动系统的透明度,透明度很重要。我稍后会说这个,IEEE的P7010标准是关于人类福祉的标准,因为我们希望开发那些系统为人类谋福利。那么就目前的重大举措而言,这到底是什么意思呢?其他标准还在制定中,这需要些时间,我们也编写出一个道德认证程序,基于测试它们是否符合提出的要求。2016年提出且仍在持续的这个倡议激励了全世界,并产生了新的倡议和治理框架。
我想谈谈欧洲的进展,为制定人工智能策略,欧洲组建了高水平人工智能专家团队。而这个团队确定了人工智能技术的四个主要原则,人类自主,也就是人类应该控制人工智能,不是人工智能系统主宰人类的决定,而始终是人类控制、人类自主。第二个原则是不伤害,也就是不做坏事,意味着系统必须是稳健的、有韧性的、不会加剧伤害。公平原则是指人工智能必须要公平,大家知道很多案例,在学习系统中有偏差问题,所以偏差问题要解决不仅仅是个人,更是要在社会层面上解决。最后是可解释性原则,大家可能注意到,前三个原则和生物医学伦理学的原则相似,特别的是最后一个可解释性原则,我们需要透明的系统,可解释、可溯源的。这样,系统作出的任何影响人类的决定和运算才可以被理解。但这些是原则,我们需要更准确地说明如何实施这些原则,从原则到实践有七个要求,这七个要求已经得到公认,更具体地解释了四大原则。人类代理和监督,监督系统的技术稳健性和安全性,大家看到这些自主原则,还有不伤害以及也要解决数据和个人资料的使用问题,加强个人隐私、数据管理、系统透明度、可追溯性、可解释性、多样性、无差别和公平性、社会和环境福祉,这点非常重要。因为这些系统对环境有很大影响,我稍后会谈。因此,环境问题也要解决,人类要负起责任。因为这些系统是由人类,组织开发的。所以人类和组织必须对系统的产出结果负责,而系统不对产出结果负责,那么,人类和组织负责如何实现呢?
让我们进一步深入到实际执行中,我们必须设计系统架构,让技术设计符合四大原则。我们已有既定标准可以使用,必须通过设计使系统部署。符合法律和道德规定,系统必须是稳健的。我们有设计可靠系统的方法,让我们进行可持续开发,我们有设计可靠系统的方法,让我们进行可持续开发。例如学习系统,相当于测试、验证、解释方法,关于人工智能的可解释性以及服务质量指标,还有大量研究在进行。因为那些学习系统的服务质量随着时间而变化,我们需要服务质量指标。还有一些非技术方面,例如规定如何应用这些要求的框架,参与系统工作的设计人员,开发人员以及组织的行为准则。我提到的作为推动行业发展,优化系统开发工具的标准,认证机制,从而确保系统符合标准和规定,通过治理框架的问责制——这是人类的责任。当然,通过教育宣传提高人们的道德观念,人们参与设计很重要,多样性也很重要,包容的设计团队会考虑人类参与的多样性。
最后,我想给大家展示人工智能系统为人类谋福利的一个案例。可持续发展目标的其中一项是解决气候变化问题和应对环境挑战,这是一篇论文节选,大家可以查阅。这里是具体信息,纵向列出的这些技术应用到人工智能系统后,可以优化低碳发电,系统通过优化配电。根据需求产生电力,也可以用来打造智能城市,通过城市规划优化建筑布局、优化交通、改善产业自动供应链、改善农场和森林管理;通过强大的人工智能技术,我们可以减少系统的负面影响,解决气候变化等问题,负责任地运用人工智能系统也可以减少负面效应。正如我所说的,人工智能竞争和硬件开发有其使命,有资源的使用等。当开发应用程序,开展气候行动时,我们也需要提出如何减少人工智能系统的负面影响,这是负责任的一部分。为此,推动人工智能技术的发展时,人们可以将应对气候变化作为主要考量因素。因为开发会带来碳排放,必须采取相应措施减少排放。例如,可以为生命周期排放设定要求。这有另一篇引用的论文,大家可以去了解更多细节。
最后,人工智能和机器人系统是非常强大的技术,对经济和社会的影响深远。但这些技术也有局限性,会产生负面影响。因此我们需要适当的设计伦理准则和管理框架,负责任地开发系统,发挥人工智能系统的潜能,为社会谋福祉。非常感谢大家的倾听!
—— Raja Chatila