当前位置 : 首页 > 文章中心 > 时事评析 > 舆论热点

智能时代工程师的伦理责任

作者:邱德胜 发布时间:2018-09-03 09:49:06 来源:光明日报 字体:   |    |  

  当“阿尔法狗”完胜围棋名将李世石和柯洁,机器人索菲亚获得沙特阿拉伯公民身份以后,社会各界对人工智能的关注空前高涨,对智能时代的反思颇多担忧。因为以信息高速公路为基础,以人工智能、虚拟现实、万物互联、大数据应用等为技术内核,以社会生产和人类生活全面智能化为基本特征的智能时代不仅给我们带来了便捷,也对人类隐私、生命乃至公平正义造成了巨大威胁和全面挑战。因此,智能时代的工程师如何化解技术风险,并在保护隐私、关爱生命、守护公平正义等方面主动承担起自身的伦理责任,从而实现工程造福人类的目标,无疑是当前和今后一段时期急需深入思考的重大课题。

  保护隐私

  隐私权是指自然人享有的一种私人生活与私人信息不被他人侵扰、知悉、收集、利用和公开的合法权利。随着大数据、物联网等新兴技术的研发与应用,私人领域与公共领域的界限逐渐模糊,个人隐私权也遭受到前所未有的挑战,因此保护隐私和信息安全就成为当前工程师极其棘手和重要的伦理责任。

  大数据的应用可能侵犯人类隐私。近年来,关于数据泄露的报道时有发生,如2018年3月脸书5000万用户的个人信息被英国剑桥分析公司窃取;谷歌为美国国防部开发的“专家项目”通过“点击”任何建筑物、车辆、人群等,就能查看与之相关的一切信息。此外,政府、企业、医院对医疗健康大数据的不当使用,都可能导致个人的健康信息被泄露。在大数据面前,人类几无隐私可言,正如美国作家塔克尔在其《赤裸裸的未来》中描述的那样:“我们生活在一个‘超级透明’的世界,我们泄露出去的海量信息无处不在。”由此促使人们对大数据的思考走向深入,如谁拥有大数据的所有权、使用权?由谁来负责大数据的监管以保证其被合理合法使用?

  物联网可能使个人随时处在智能设备的监控之下。射频识别技术是物联网的重要技术之一,通过射频识别技术,所有带有电子标签的物品如衣服等均可能随时随地不受控制地被扫描、定位和追踪,这势必会导致个人隐私被侵犯。不远的未来,万物互联将会走进现实,所有的人与物都将无一例外地卷入万物互联之中,类似智能手表的穿戴设备则是将人接入网络的入口。通过各种穿戴设备,个人信息将会实现适时自动上传,并被收集、存储和使用。一旦使用不当,人类的隐私问题必将更加凸显。

  如何保护人类的隐私不受侵犯?我国不久前出台的《网络安全法》明确提出的“谁收集、谁负责”的原则对于隐私保护虽然具有一定意义,但要将这项工作真正落到实处,更需智能时代的工程师担负起保护隐私的伦理责任,并在关于数据的收集、使用、存储以及监督等环节中尽力做到:收集要授权,使用需分级,存储应保护,追责当有力。具体来说,数据收集应该征得用户的同意和授权;所有数据需按照隐私程度进行分级,设置不同级别数据的使用权限;数据存储应受到严格的技术保护;如出现不当使用,应追查责任源头并严肃追责。当然,任何事物都具有两面性,智能技术在挑战人类隐私的同时也可以起到积极的正面作用,如智能技术可以通过对海量数据的分析,跟踪网络异常行为,快速检测恶意软件,防止诈骗和黑客入侵,提升网络安全防御水平,从而使人类隐私得到有效保护。

  关爱生命

  康德等人提出的道义论强调人在行为之前应该具有善良意志,即善良的愿望或善良的动机。而智能时代语境下的技术理性过度膨胀使得人类生命受到威胁,德国大众汽车公司机器人杀人、Uber自动驾驶汽车撞死行人事件就是最好的例证。为规避智能技术因缺乏人文关怀而带来的潜在风险,在大型工程实践中工程师应从善良意志出发,以关爱生命为其基本伦理规范,力争做出“善”的工程。

  众所周知,人工智能分为弱人工智能、强人工智能和超人工智能三类,其中“阿尔法狗”是弱人工智能的典型代表。对强人工智能产品一旦处置不当,人类将会面临前所未有的威胁甚至走向毁灭。正如霍金所说,人工智能的成功有可能是人类文明史上最大的事件,但是人工智能也有可能是人类文明史的终结,除非我们学会如何避免风险。如何避免风险?首要的是让机器人按照人类的伦理道德规范行事。美国学者瓦拉赫和艾伦在他们的著作《道德机器:如何让机器人明辨是非》中,提出了使机器拥有道德的三条解决路径:一是自上而下,就是把人类已经成熟的伦理系统、道德理论体系灌输进去,即理论驱动决策;二是自下而上式的数据驱动的学习和进化的方式;三是混合进路系统,即将前两种结合起来,使人工智能体在一定的普遍伦理准则指引下,通过深度学习算法,在与人类的互动中不断完善其伦理系统。

  事实上,科幻作家阿西莫夫1942年就在《我,机器人》一书中提出了大家熟知的机器人学三定律,以确保人类不受伤害。站在当下,让智能产品拥有道德固然重要,但工程师积极履行关爱生命的伦理责任,做到有所为有所不为才是根本。近年来,相关国家、部门、企业甚至个人都提出了智能产品研发的道德准则,如韩国政府拟订《机器人道德宪章》、美国信息技术产业委员会(ITI)颁布人工智能政策准则、美国电气电子工程师学会(IEEE)发布第二版《人工智能设计的伦理准则》、欧盟出台史上最严的《通用数据保护条例》,等等。

  为回应智能时代对人类生命的威胁,履行关爱生命的伦理责任,工程师应该做到:反思智能产品关涉的技术风险,做好智能产品前瞻性的伦理评估,避免智能产品伦理缺位;对智能产品开展道德代码和伦理嵌入研究,使机器“算法”遵循“善法”,并按人类伦理道德规范行事;坚决抵制智能武器的开发和应用,严格限制智能产品使用武器的能力,尤其是使用高能武器的能力;注重专能机器人的研发,限制全能机器人的设计,消除当机器人具有自我或反思能力时毁灭人类的可能性,始终将人机关系的主导权牢牢掌握在人类的手中。

  守护公平正义

  智能时代将对人类整体幸福带来一些不利影响,如失业人数增加、贫富差距拉大、偏见歧视频现,导致人类对公平正义的价值追求可能无功而返,而这就迫切需要工程师积极应对,勇于担责。

  首先,智能时代可能导致失业率飙升,贫富差距加大。赫拉利在《未来简史》中指出,人工智能的大量应用必将导致大量失业。美国莱斯大学教授瓦迪表示,2045年人类失业率将超过50%。2016年世界经济论坛预测,在2020年全球15个主要的工业化国家中,将有510万个就业岗位流失。以富士康为例,截至2016年,富士康在中国各大生产基地安装了4万台机器人,受此影响,富士康员工数量减少了6万人。失业率飙升是机器人接管人类工作和生活的开始,随后还将导致巨额财富集中到少部分掌握智能技术的高科技企业或国家手中,由此,全球贫富差距将进一步扩大。

  其次,智能时代的偏见或歧视频现。2018年2月的《纽约时报》刊文指出,如今非常热门的人脸识别技术,针对不同种族的准确率差异巨大;在首届2016年“国际人工智能选美大赛”上,基于“能准确评估人类审美与健康标准”的机器人专家组对人类面部进行评判,比赛的获胜者都是白人。类似案例充分说明,当前人工智能在研发或设计方面的偏见或歧视大量存在,亟待改进。尤为危险的是,人工智能还可能强化所习得的偏见,导致偏见走向深度化和普遍化,而不能像人一样有意识地去抵制或克服偏见。

  智能时代的工程师要化解社会矛盾,消除偏见与歧视,应主动担负起守护公平正义的伦理责任,并在工程实践中尽力做到:始终坚持公平原则,在工程设计或人工智能产品开发中,应充分考虑各种因素,避免由于人为因素造成的不平等;始终坚持正义原则,以最大多数人的幸福为基本出发点,让智能产品造福全人类而不是仅为少数人服务;在坚持公平正义原则的同时,还应对工程实践导致的利益受损方包括自然在内给予必要的爱护与补偿。

  智能当道,未来已来。为实现人机和谐共处、人类永续发展,智能时代工程师的伦理责任并不仅囿于以上范围。立足长远,工程师作为智能时代的重要一员,应站在人类命运共同体的高度,直面问题、团结协作、化解矛盾,积极担负起智能时代应有的伦理责任,为增进人类福祉而不懈努力。

  (作者:邱德胜,系西南大学哲学系教授)

微信扫一扫,为民族复兴网助力!

微信扫一扫,进入读者交流群

网友评论

共有条评论(查看

最新文章

热点文章