正文
字体:    

人工智能如何“德才兼备”(附图)

中国机械工业联合会机经网  发布时间:2018-07-06 14:13:26  来源:中国科学报 


在温德尔·瓦拉赫和科林·艾伦看来,解决终极的人工智能伦理问题还很遥远,但需要朝着这个方向走,而且,他们有关“道德机器”的观点依然非常领先,甚至更具现代化,可作为人们反思这些问题的基础。

  1956年夏季,当一批年轻的科学家首次提出“人工智能”这一术语,想必他们是激动的。在经过了缓慢发展的一段时间后,得益于大数据驱动、硬件技术的不断发展、计算能力的提升、深度学习算法等带来的数据智能和感知智能上的突破,近些年人工智能得以快速发展。

  

  “在人工智能的发展和应用中,伦理必须占据中心地位。”今年4月,英国上议院出了一份长达183页的报告《人工智能在英国:充分准备、意愿积极、能力爆棚?》,不仅说了人工智能在英国的发展,更聚焦于伦理道德问题——那些AI可能为人类带来的风险。

  在机器人原则与伦理标准方面,日本、韩国、英国、欧洲和联合国教科文组织等相继推出了多项伦理原则、规范、指南和标准。

  2016年,联合国教科文组织发布了《机器人伦理报告初步草案》,草案不仅探讨了社会、医疗、健康、军事、监控、工作中的机器人伦理问题,最后还对运用机器伦理制造道德机器进行了讨论。

  2016年至2017年,电气电子工程师协会(IEEE)颁布了《人工智能设计的伦理准则》的第一版和第二版。

  目前,中国相关部门也正在积极地开展人工智能的标准研究。

  无疑,人们在探讨人工智能带来的伦理问题的同时,还在思考怎样才能解决这些伦理问题,尽管离解决问题还有些距离。

  机器有偏见

  今年5月,滴滴顺风车司机杀害女乘客事件发生后,有网友爆出,滴滴顺风车司机通过平台软件,在接单前可以看到以前司机对乘客的全部评价,而这些评价中就包括对女性乘客外貌的评价。这是因为平台软件上增加了社交功能。

  今年2月,《纽约时报》英文网站发表了一篇文章,指出如今非常热门的人工智能应用人脸识别,针对不同种族的准确率差异巨大。这让人们意识到,人工智能系统确实可能存在偏见。

  人工智能带来的文化偏见的例子还有很多,如词语“女性”“妇女”与艺术人文类职业以及家庭联系更紧密,词语“男性”“男人”则和数学、工程类职业更近。尤为危险的是,AI还有强化所习得的偏见的潜能,它们不像人可以有意识地去抵制偏见。

  不用说,当下时不时就会看到人工智能的新闻,且多是对人们生活已造成或者可能造成负面影响的消息。又比如这两天在国内出现的手机任意调动摄像头事件,人们震惊于原来有的手机会自动把摄像头打开。

  显然,人工智能的伦理问题比以往技术带给人类的更为复杂。

  美国耶鲁大学教授温德尔·瓦拉赫在接受《中国科学报》记者采访时表示,人工智能是一种认知技术,是区别于过去的技术发展。过去的技术发展确实能取代一部分人类的劳动,但通常不包括人类的精神活动。而人工智能可能会在更广泛的领域内取代人类的工作。

  技术带来的伦理问题本质上是相同的。但随着新技术的发展,这些问题会以新的形式出现。这里不仅包括人工智能,也包括其他新兴技术。“但不同的是,人工智能不仅仅是一个特定的应用,或者一组应用,它是一项几乎可以应用于生活的每一个方面的技术。”

  伦理有缺位

  “人工智能和包括机器人在内的智能化自动系统的普遍应用,不仅仅是一场结果未知的开放性的科技创新,更将是人类文明史上影响至为深远的社会伦理试验。”中国社会科学院研究员段伟文近些年致力于人工智能的伦理研究,他表达了自己的担忧。

  对于上文提到滴滴顺风车司机杀害女乘客事件,段伟文给《中国科学报》记者分析,作为共享交通平台,它的目标是安全快捷地把乘客送达目的地,现在为了达到商业上的利益最大化,增加了社交软件,却没有考虑到那些女乘客以及潜在受害者的利益。这就涉及到伦理问题。“通过对司机、乘客和平台的利益分析和价值分析,发现其实包含了对各方的利害得失与价值冲突。”

  如果说人工智能对人类的威胁是终极问题,如何解决还未可知,那么人工智能在当下活动中体现出来的伦理问题就亟待解决了。

  段伟文认为,应当从我们这些年研究科学技术前沿中的、科学技术应用中遇到的实例,去探讨人工智能的伦理问题。“从这个角度,我更愿意把它当作未完成的伦理。”

  与以往不同,人工智能伦理研究不再是一个高高在上的理论,也没有一套适用全部情形的普遍原则体系,更多的是针对具体的人类活动或者科技实践的原则体系,比如说,陪护机器人,就需要一些防止过度依赖机器人的原则。

  “从里面找到一些价值冲突,需要作哪些伦理的决择,让我们发现问题、研究问题。”段伟文说。

  另外,当下的社会中,大数据让人们享受了便捷,同时这些数据会受到不良的使用,或者是没有必要的滥用。而由于大数据的挖掘导致商业智能的运用对人的权利的侵犯,这种侵犯最核心一点就是人的自主权,包括隐私。

  因此,欧盟数据保护条例中,针对保护个人数据的态度很强硬,只要能够识别是个人的,就是个人数据,而且个人能决定他的数据怎么使用、该不该使用,以及对有些数据要求被遗忘、数据可携带等。

  “让技术在社会上更好地运行,就要从伦理上对它进行设计。”段伟文说,比如现在经常提到监控装置对人的隐私的伤害,将来可以让使用者看到摄像头的界面,让人们在一定程度上了解自己的数据如何被追踪和使用;这样既可以促使数据追踪者规范其行为,也有利于被追踪对象适当修正其行为方式。“这是数据时代、信息时代一个新的信息对称的问题,让不对称变对称一点,寻求一种再平衡。”

  道德机器是否可期?

  美国著名科幻作家阿西莫夫曾在他的小说中提到“机器人学三定律”。以往人们更关注其内容,而忽视了“机器人学三定律”如何在实际操作中来规范机器人的行为。

  其实阿西莫夫有很详细的构想,通过技术直接嵌入到机器人的控制软件或智能编码底层,令“机器人学三定律”不只是纸上法则,更可经由技术强制执行——通过内置的“机器道德调节器”使机器人成为有道德的机器人。

  如何解决人工智能的伦理问题,这是一个科学家、哲学家以及相关领域的研究者都不能忽视的问题。让机器人有道德或许不是科幻呢?

  温德尔·瓦拉赫和认知哲学家科林·艾伦在10年前共同完成了《道德机器:如何让机器人明辨是非》一书。他们对能否让机器有道德进行了研究。温德尔·瓦拉赫是耶鲁大学生物伦理学跨学科研究中心主管,曾开过“机器人的道德和人的伦理”的课程。

  科林·艾伦1999年涉足这个领域,他还曾任《斯坦福哲学百科全书》——全球最大的电子哲学词典的技术总监,指导开发人员,使他同时在哲学和计算机这两个领域皆有深刻的理解。

  2002年,他们在德国巴登巴登召开的一次会议上相识,因共同的学术兴趣,两人开始研究人工道德智能体的技术层面的伦理问题。2008年2月完成了本书,2009年英文版出版。

  两位学者在书中提出要设计出符合人类道德规范的机器人。这个听起来是不大可能实现的目标。他们也认为,完备的机器道德智能体还很遥远,但是目前有必要,而且有可能开始建构一种功能性道德,从而使人工道德智能体可以具有基本的道德敏感性。

  例如,对于前面提到的语言上的偏见,艾伦认为应该考虑的是,“如何在设计理解语言的算法时既让其消除偏见,又不丧失其对语言的解释能力”。

  两位学者进行了开创性的研究,并提出了解决方案的三条路径:一是自上而下,就是把人类已经成熟的伦理系统、道德理论体系灌输进去,即理论驱动作决策;二是自下而上式的数据驱动的学习和进化的方式;三是混合进路系统,即将前两种结合起来,使人工智能体在一定的普遍伦理准则指引下、通过深度学习算法,在与人类的互动中不断完善其伦理系统。

  西安交通大学计算哲学实验室中方主任、本书主译王小红向《中国科学报》记者介绍,《道德机器》的两位作者的讨论是基于哲学家、科学哲学家、技术伦理学家在交叉领域的深入思考和研究,没有停留在形而上的讨论上,而是提出了可行性方案让这种自动控制系统机器人有道德的能力。“特别有预见性和超前意识,在10年前就考虑从前端来解决问题。”

  王小红进一步解释,从前端将伦理算法嵌入机器,并不代表着其他的社会控制不需要,因为不可能把所有的实际社会场景、生活难题都预测到,后来遇到了还可以通过其他规范去制约。所以,她认为,前端嵌入和后端制约应该是齐头并进的。

  要走的路还很长

  像所有开放的和影响深远的人类活动一样,人工智能的不断发展和加速进步使人们很难明确界定其内涵。同样的,人工智能的伦理也没有相对严格的定义和界限。

  段伟文认为,当前,有关人工智能与机器人的伦理研究可大致分为四个进路。

  一是面向应用场景的描述性研究;二是凸显主体责任的责任伦理研究;三是基于主体权利的权利伦理研究;四是探讨伦理嵌入的机器伦理研究。

  段伟文解释说,第四种相当于温德尔·瓦拉赫和科林·艾伦的探讨,因此说,怎么让机器有道德,是前瞻性的探讨,也是现在讨论的一部分。尽管此进路已有一些探索,但在技术上存在极大困难,理论上也遭遇难以解决的道德困境。

  “阿西莫夫所提出的机器人定律可能未必有实质的意义,但其真正的价值可能更多地在于观念上的超前与突破。”段伟文说,机器人三定律带来的启迪是:为了使人所创造的机器人和人工智能有益人类和免于失控,应致力于从人类价值、利益、安全以及未来发展的角度对其加以价值校准与伦理调适,以此消除人们对其终极创造物的疑虑。

  人工智能的伦理问题要走的路还有很长。“它实际上是一个改变历史的转折点,而不仅仅是对过去问题的简单延续。”温德尔·瓦拉赫表示,而且这项研究几乎所有的学科都涵盖在内,如神经科学、经济学、心理学、哲学等。“需要考虑的是,哪些方面会影响人类进行决策,以及它们是如何影响人类决策的。”

  尽管人工智能的问题很多,但不能像限制直接对人类造成伤害的技术那样限制人工智能的发展,因为没人会怀疑,如果现在限制了,未来的10年、30年或50年之后,人们又不得不回过头来重新开始发展这些技术。

  在温德尔·瓦拉赫和科林·艾伦看来,解决终极的人工智能伦理问题还很遥远,但需要朝着这个方向走,而且,他们有关“道德机器”的观点依然非常领先,甚至更具现代化,可作为人们反思这些问题的基础。(张亚茹对本文亦有贡献)

做好产业规划  推动产业升级
责任编辑:机经网编辑部 feng
字体:    
   如果您还不是会员,欢迎注册!评论不能多于500字。   已有1320条评论  点击查看

用户名: 密码:

 匿名发表       

  留言须知

? 遵守《互联网新闻信息管理制度》。

? 遵守中华人民共和国法律法规。

? 尊重网上道德,严禁发表侮辱、诽谤、淫秽内容。

? 承担一切因您的行为而直接或间接引起的法律责任。

? 您的言论机经网有权在站内保留、转载、引用或删除。

? 参与本评论即表明您已经阅读并遵守上述条款。

会员服务 会员服务
会员服务
会员服务涉及机械行业各种研究报告、数据库查询、产品市场调研等。帮助企业全面掌握第一手权威信息。
    企业自供信息