机器人的边界在哪里

[复制链接]
查看: 4380|回复: 0

50

主题

5

回帖

442

积分

中级会员

积分
442
发表于 2018-11-19 09:56:39 | 显示全部楼层 |阅读模式

  ■王小月 文/摄
  “你现在单身吗?”“从技术上说,我才一岁多,现在讨论谈恋爱还太早了!”“可以说一下你的理想伴侣吗?”“我的理想伴侣首先要有智慧,有同情心,超级天才,最好有自我意识。”
  这是来自英国某电视节目,主持人和机器人的对话。
  我们在银幕上认识了无所不能的变形金刚、呆萌体贴的大白、舍己为人的格鲁特。但机器人侃侃而谈,还是让不少人错愕。
  当技术的发展日益颠覆我们的行为认识,机器人或者说人工智能(AI)与人将如何相处?
  如何给机器人一个规范
  我们身边的人工智能都是弱人工智能,仅依靠数字计算机程序才可以运行,没有主观意识。
  而机器人作为跨领域学科,AI只是它的一部分。
  近年来,人工智能通过技术手段带给人们便利的同时,也通过深度学习替代一部分人的工作,应用于无人驾驶领域等等。
  上世纪50年代,美国科幻小说家艾萨克·阿西莫夫(IsaacAsimov)就预见到需要伦理规则来引导机器人的行为。
  当人们思考机器道德时,首先想到的就是他的“机器人三大定律”,即:机器人不可以伤害人,或者通过不作为,让任何人受到伤害;机器人必须遵从人类的指令,除非那个指令与第一定律相冲突;机器人必须保护自己的生存,条件是那样做与第一、第二定律没有冲突。
  随着机器人在人们生活中的不断普及,世界各国在机器人技术上有了大踏步的发展。
  首都师范大学哲学系教授程广云在8月15日-19日举办的2018世界机器人大会的分论坛上表示,过去对人是本质主义的思考方式,把人和动物区分开来。现在机器人是智能机还是新人类?就要给机器人一个规范。所以讨论机器人法律伦理、道德标准化是十分有意义的。
  机器人能否成为情感伴侣
  不久前,美国一家公司生产的超仿真机器人Sophia在电视节目上与人类对答如流,成为“网红”机器人。对话中,Sophia流露出的喜悦、惊奇、厌恶等表情逼真。不少网友惊呼:快和真人分不清了!
  然而,早在2010年,“真实伴侣”公司就推出了世界上第一款伴侣机器人洛克茜,具有与真实人类相仿的体态特征,她拥有仿真人造皮肤,能和主人聊天交流,并能根据主人爱好选择话题,也被称为“机器人女友”。
  而日本大阪大学教授石黑浩也对高仿人形机器人非常执着,创造了多款女性机器人。她们不仅能做主播播报新闻,与人对话、唱歌,甚至还能演话剧和电影。
  石黑浩认为,人形机器人的存在是必要的,人们需要与自己来一场真正的谈话。
  机器人乃至高仿机器人的发展速度着实让人咋舌。AbyssCreations公司打造的机器人身体内部还有加热器,可以模拟真实的体温,还配有AI软件,就如同给机器人安装了一个可思考的“大脑”。
  不仅拥有姣好的身材和容貌,还可以和用户产生情感交流,展现出其真实感情,堪称是“理想女孩”。而值得一提的是,机器人不会说“不”,有性感、友好、害羞等12种人格特质供用户选择。
  面对复杂的感情问题,和工作、生活压力,一个绝对顺从且“博学多思”的机器人女友是不是更合胃口?
  “如果机器人仅仅是具有程序设定实现的表情以及交流等能力,人类对其的利用就会更多停留在情感之外的‘机器’属性层面。若未来智能机器人在情感感知、心智上达到甚至超过自然智慧的人的水平,人类对机器人的使用驾驭将需要更为实质性突破性的调控。”中国科学院动物所博士卢慧芬对《中国消费者报》表示,嫁娶需求就是这种情感精神层面的高级需求,而涉及人类发展利益的需求不应该掺入机器人,伦理上也说不通。
  面对这一产业的快速发展,娶个机器人女友回家能否成为现实?但涉及到的法律伦理问题依然是值得思考的问题。
  机器人需不需要道德感
  除了陪伴需求,儿童看护机器人、康养机器人面对的都是老人孩子等弱势群体。
  毫无疑问,儿童看护机器人会减轻家长的负担,但长久和机器人在一起会发生什么样的情况,是不是难以适应当下的现实世界,机器人能多大程度代替家长的照顾,这些问题都不得而知。
  目前我国人口老龄化严重,而对于空巢老人来说,康养机器人可以帮助老人提取一些重物,可以互动,但是长久看来,对于老人而言,是排解孤独,还是远离社会?更为遥远的未来,当家庭陪护机器人出现时,能否对机器人进行行之有效的管控?
  国家机器人标准化总体组副组长王大宁表示,2030年将有百亿台机器人进入家庭,但目前机器人智能化程度低,产品基本大同小异,进入家庭为时尚早,实际效果依然不如护工。
  用于军事领域的机器人在战场上可以发挥巨大的作用。早在2011年,一家白俄罗斯企业就曾推出过一款名为Adunok-M的无人驾驶遥控武器平台。这款机器人拥有履带系统,就像一辆小型装甲车。根据接收到的遥控指令,Adunok-M能够用配备的机枪和榴弹发射器攻击并摧毁800米距离内的目标。
  除此之外,例如美国海军陆战队的“角斗士”作战机器人、以色列军队用于边境安全任务的“守护者”无人驾驶战车等,类似的武装机器人不断出现。
  让军事机器人代替人类在战场上冲锋陷阵,本身是珍爱生命的一种体现。但在现代技术武装下的军用机器人比人类有更强的杀伤力,如何让它比人类更道德、不会滥杀无辜?
  随着军事机器人的不断发展,未来战场上出现“机器人士兵”的可能性正不断增大。
  随之而来的一系列道德和伦理等问题已让不少科学家开始担忧,人类真的能一直掌控机器人吗?
  而在2015年7月,一台“发狂”的机器人就失手将美国一汽车工厂装配工WandaHolbrook“杀”死。
  可见这一担忧并非杞人忧天。
  北大英华科技有限公司何远琼表示,法律人工智能机器人现在处于模式思维的阶段,让机器掌握法律思维仍遥遥无期。
  技术的发展总是福祸相依,每个人都享受着当下的便捷与随之而来的伤害。
  卢慧芬认为,机器人应该限制在机器被人类有利使用的范畴之内,即以人为本。未来人和机器人需要在一定的法律和伦理制约之下和谐相处。对于智能机器人的约束,要其有所为,也有所不为。当然,如若未来科技能“道高一尺魔高一丈”地将人类对机器人的认识利用限制在自然智慧的生物人之下,更有效利用机器人造福于人类是再好不过。
  自动驾驶机器人的规制
  2017年,百度CEO李彦宏乘无人驾驶汽车上北京五环,再次将无人驾驶汽车拉入了公众的视野。
  而今年3月,Uber的一辆自动驾驶汽车在美国亚利桑那州Tempe市发生交通事故,与一名正在过马路的行人相撞,行人在送往医院后不治身亡,成为史上首例自动驾驶车辆在公开路面撞伤行人致死的案例。
  这一事件也引来大众对于无人驾驶的争议。
  很明显,自动驾驶已成为汽车产业发展方向,尽管无人驾驶汽车还有很长的路要走,但无人驾驶汽车逐渐从科幻走进现实。
  如果按照美国道路交通安全局的分类标准,伴随着汽车自动化技术的逐级进阶,人类也将从驾驶任务中逐步抽离,即从“解放双手”到“解放四肢”,再到“闭上双眼”。而这一过程,恰恰也是汽车自动化系统承担越来越重法律责任的过程。
  50年前令人困惑的“电车难题”,在人工智能领域,依然是涉及到伦理和道德的未解问题。
  一个疯子把五个无辜的人绑在电车轨道上。一辆失控的电车朝他们驶来,并且片刻后就要碾压到他们。幸运的是,你可以拉一个拉杆,让电车开到另一条轨道上。然而那个疯子在另一个电车轨道上也绑了一个人。考虑以上状况,你会怎么做呢?同样,假如是一个机器人正在驾驶这辆电车,又会怎么做?
  法律解决一部分问题。比如,人身权和物权冲突,人身权优先;人身权数量冲突,多数优先;财产权冲突,价值高的优先。
  伦理可以解决一部分问题。比如幼童和老者之间、男人和女人之间、残障人士和健康人士之间如何取舍等问题,一般只要取得该公民社会超过半数以上的共识,即可将答案转换成代码,嵌入轮式机器人的选择系统。
  而在实际生活中,遇到的问题还有很多,当在法律和伦理两个层面都无解时,只能交给人工智能进行决断。
  北京大学法学院副教授江朔表示,自动驾驶是AI应用的最大场景,当前已进入L4、L5阶段,智能化程度非常高,但是出了问题谁来承担责任,如果追究机器人的刑事责任,以什么方式来惩罚?
  他认为,未来首先要承认机器人的法律人格,才能追究他们的责任。
  但下一个问题来了,如何追究机器人的责任呢?
  不得不说,AI的发展仍面临很多困境,法律规制也迫在眉睫。“对于AI立法的当前方向要立足于弱人工智能的立法规制,AI应用广泛,要针对机器人、精准医疗、智能金融等具体应用场景进行立法。”中国海洋大学法政学院教授李晟表示,AI立法要超越传统法律思维,理解因果关系的复杂性,理解权利的重要性。
  ●链接
  《人工智能创新发展道德伦理宣言》
  2018年4月,在天津召开的2018机器人与人工智能大会上,人工智能产业创新联盟面向成员组织发布了《人工智能创新发展道德伦理宣言》。
  宣言共6章22条,对人工智能系统、人工智能与人类的关系、人工智能具体接触人员的道德伦理要求、人工智能的应用、当前发展人工智能的方向等内容进行了界定,提出了要求。
  宣言提出,人类社会发展的最高阶段为人类解放和人的自由全面发展,人工智能技术研发当以此为最终依归,进而促进全人类福祉。同时,鉴于人工智能技术对人类社会既有观念、秩序和自由意志的挑战巨大,且发展前景充满未知,对人工智能技术的创新应当设置倡导性与禁止性的规则,这些规则本身应当凝聚不同文明背景下人群的基本价值共识。
  在阐述人工智能与人类的关系时,宣言提出,人工智能的发展应当始终以造福人类为宗旨,防止人工智能的巨大优势转为人类生存发展巨大威胁,当人工智能的设定初衷与人类整体利益或个人合法利益相悖时,人工智能应当无条件停止或暂停工作进程,以保证人类整体利益的优先性。
  此外,宣言还对人工智能具体接触人员提出了道德伦理的要求,人工智能的研发者自身应当具备正确的伦理道德意识,同时将这种意识贯彻于研发全过程;人工智能产品的使用者应当遵循产品的既有使用准则,不得擅自变动、篡改原有的设置,使之背离创新、应用和发展初衷,破坏人类文明及社会和谐。 (王小月)

回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

返回顶部 关注微信 返回列表