X为了获得更好的用户体验,请使用火狐、谷歌、360浏览器极速模式或IE8及以上版本的浏览器
帮助中心 | 关于我们
欢迎来到青海技术市场,请 登录 | 注册
尊敬的 , 欢迎光临!  [会员中心]  [退出登录]
当前位置: 首页 >  科技资讯 >  浅析:机器人面临的道德困境

浅析:机器人面临的道德困境

信息来源:科技日报    发布日期:2012-12-11    浏览量:5

  本报记者 刘霞 综合外电

  大 观 园

  比尔·盖茨曾经预言,机器人即将重复个人电脑崛起的道路,这场革命必将与个人电脑一样,彻底改变这个时代的生活方式。盖茨的预言言犹在耳,但是,随着机器人逐渐增多,机器人的道德问题也被提上日程。英国《经济学人》杂志网站近日指出,人们需要制定法律法规来更好地管理这些机器人。

  机器人在各领域“攻城略地”

  目前,各种类型、各种用途的机器人不断涌现,其中,军事机器人是机器人发展领域的前沿阵地。据国外媒体报道,2012年3月底,美国波士顿动力公司发布了新的沙蚤跳跃机器人,其最高可以跳跃30英尺(约10米),它可以按要求准确地跳过窗户。沙蚤机器人跳跃的动力是二氧化碳,满能量能跳25次。据说,沙蚤跳跃机器人目前已经用在阿富汗,它可以跳过墙壁,观察周围环境,然后再跳回来。

  另外,宾夕法尼亚大学的研究人员于2009年研制出一款新型爬树机器人Rise v3,它有四条腿,不仅可以在地面上活动自如,还可以迅速地爬上爬下树干或者其他圆柱体。名为SUGV的机器人则是一种小型地面探测车,重量仅为30磅,它携带有一个相机、一个红外感应器和一个可即时传送影像的摄像头,能够在人群中锁定一个人并且跟踪他。

  机器人也如天女散花般散落于各种民用领域,从飞行甲板到手术室等随处可见。客机已经能够自己着陆;无人驾驶汽车也越来越常见。据国外媒体报道,在今年的日内瓦车展上,沃尔沃公司新推出的V40旅行车就以多项汽车安全技术吸引了众人的目光。V40能在拥挤的道路上自行驾驶;而且,当感觉到即将与其他物体发生碰撞时,它能自行刹车,福特公司于2011年日内瓦车展上正式发布的B-Max微型厢式车也可以做到这一点。

  现在,全球很多地方都在测试能够完全自动驾驶的汽车。谷歌公司的无人驾驶汽车在美国已经跑了25万公里,目前,谷歌公司已获得了将半自动混合驾驶汽车转型为全自动驾驶的技术专利。据报道,去年,美国内达华州率先通过了无人驾驶汽车行驶合法化的法案,并在制定相关的法规细则。而就在前不久,沃尔沃在西班牙巴塞罗那的一条高速公路上展示了一排自动驾驶汽车。

  机器人开始面临道德困境

  随着自动机器变得越来越聪明且越来越常见,它们必定需要在一些出乎意料之外的环境下做出生死决定。最著名的例子出现在美国著名导演斯坦利·库布里克导演的经典科幻电影《2001太空漫游》中。在影片中,发现号太空船上先进且具有人工智能的超智能电脑HAL 9000就面临着一个两难的处境。它的指令要求它既能执行这艘太空船的使命(调查木星附近的一个人造物体),又要求它能让这艘太空船的真正使命对船上的其他成员保密。为了解决这个相互矛盾的问题,HAL 9000采取的办法是杀死船上的船员。

  有鉴于此,科学家们表示,随着机器人变得越来越自动化和智能化,“计算机控制的机器”这一面临着伦理决定的概念正在慢慢走出科幻小说的领域并走进真实世界中。目前的武器系统有操作人员参与决策,但是,随着这些武器系统变得越来越复杂,它们也将逐渐开始自动操作,自动执行一些命令。因此,这些机器人也开始面临一些道德困境了。

  比如,在有可能波及平民的情况下,无人驾驶飞机是否仍要朝目标所在房屋开火?无人汽车是否要避免撞上行人,即使闪避行人可能会撞上其他汽车或危及车内的乘客等等?这样的问题衍生出了一个新的名为“机器道德”领域的诞生,这一领域旨在让机器能够恰如其分地做出上述决定,换句话说,让机器能够区分出正确和错误,这就意味着,自动机器也应该开始承担一定的社会道德责任了。

  解决这些问题的一个方法就是完全禁止自主战争机器以及让驾驶员全程掌控汽车的一举一动。国际机器人武器控制委员会等组织就反对使用无人驾驶飞机。

  但是,自主机器人带来的好处可能比伤害多。例如,机器人士兵不会因为愤怒而烧毁一个村庄或者因为战争导致的压力而做出一些令人发指的行为。另外,无人驾驶汽车可能比普通汽车更加安全,就像自动驾驶仪会使飞机变得更安全一样。前斯坦福大学教授、谷歌X实验室研究人员、谷歌公司无人驾驶汽车项目的负责人塞巴斯蒂安·图伦估算,无人驾驶汽车每年可以挽救100万条生命。

  科学家们表示,社会也需要找到办法,确保这些机器人做出的决策比HAL 9000做出的决定更加符合道德伦理。美国的一些州正准备通过一些法律对无人驾驶汽车进行管理,这个领域目前一直处于法律的灰色地带,因为技术发展的步伐比制定法律的步伐要快。

  制定机器人管理法则的三原则

  机器人伦理学领域最广为人知的准则是美国当代著名的科普作家、科幻小说家、世界顶尖级科幻小说作家艾萨克·阿西莫夫于1942年提出的“机器人学三大原则”:首先,机器人不得伤害人类,或袖手旁观坐视人类受到伤害;其次,除非违背第一法则,机器人必须服从人类的命令;最后,在不违背第一法则及第二法则的情况下,机器人必须保护自己。不幸的是,这些法则似乎与现实世界有点脱节,因此,在现实世界中屡屡碰壁。比如,战场机器人就必定会违背第一条法则。

  阿西莫夫撰写的机器人故事之所以如此精彩,是因为它们突出彰显了这三大法则在现实中可能会面临的问题——当机器人试图遵守上述显然合情合理的规则时就会遇到这些问题。自主机器人的发展和使用需要构建更加微妙和精准的法律架构,尤其在以下三个领域需要取得进步。

  首先,如果一架无人驾驶飞机袭击了错误的目标或者一辆无人驾驶汽车遭遇了一场事故,需要有法律来决定设计师、程序员、制造商或操作者是否存在差错。为了明晰责任,自动系统的一举一动都必须被详细地记录下来,这样它们就能很好地阐释其在必要时做出某项决定的理由。

  其次,当伦理系统被嵌入机器人内部时,机器需要做出对大多数人来说都是正确的判断。实验哲学研究的是人对伦理困境如何反应,实验哲学技术应该对机器人伦理学有所帮助。

  最后也最重要的是,工程师们、伦理学家、律师以及政策制定者们等所有参与制定机器人伦理的人士需要通力合作,否则若让他们各行其是,他们会制定出截然不同的规则。伦理学家们和工程师们也可以从一起工作中获得好处:伦理学家们能通过教导机器具有伦理意识,更好地理解其所从事的领域;工程师们则需要让全社会放心,他们设计出的产品不会给社会带来危害。

  技术已经成为人类社会的第一生产力,大大推动了社会的发展进步。但是,每一项新技术都会提出很多难以解决的新问题,自主机器当然也不例外。人类越早解决它们提出的伦理责任问题,就能越早享受这些机器给人类带来的福祉。

  《科技日报》(2012-12-11 八版)
微信 电话 顶部 工作人员:0971-7612617

关注我们

微信公众号

平台服务热线:

0971-6121697

工作日(8:30-18:00)

Copyright ©  2019        青海技术市场        青ICP备18001110号-4