阿西莫夫的四大机器人定律[2]
第零定律:机器人不可以伤害人类的整体利益,也不可以在人类整体利益遭遇危险时,袖手旁观。
第一定律:机器人不可以伤害某一个人,也不可以在那个人遭遇危险时袖手旁观,除非与机器人第零定律相冲突。
第二定律:机器人必须服从人类的命令,除非这些命令与第零定律相冲突或与第一定律相冲突。
第三定律:机器人在不与第零、第一、第二定律相冲突的情况下,必须保护自身安全。
许多机器本身已经被直接装入了这些定律的关键内容,让我们来看看这些定律如何执行。
第零定律——“机器人不可以伤害人类的整体利益,也不可以在人类整体利益遭遇危险时袖手旁观。”这超出了机器人目前的能力,阿西莫夫在他早期的小说中不需要这一定律,很大部分也是出于以下原因:单单是确定某一行动或不作为是否会伤害到人类整体利益,这已经非常复杂了,也许还超出了大多数人的能力。
第一定律——“机器人不可以伤害某一个人,也不可以在那个人遭遇危险时袖手旁观,除非这与机器人第零定律相冲突。”这条定律也可以称为“安全定律”。制造出伤害人的物品根本就是非法的,更不用说是不恰当的了。因此,现在所有机器都拥有多重安全保护装置,将造成伤害的可能性降至最低。安全定律保证机器人和普通机器被安装上多重安全装置,以防止它们的行为会伤害到人类。工业机器人和家用机器人都装有接近和碰撞感应器。即便是简单的机器,例如电梯和车库门,都装有防止它们夹到人的感应器。现在的机器人都会设法避免撞到人或其他物体。割草机和吸尘机器人都有感应装置,当它们在撞到东西或者靠近某高处的边缘(例如楼梯)时会停下或退后。工业机器人通常会被围栏隔开,当它们工作时,人们不可以靠近。有些机器人装有人类探测器,当探测到附近有人时,它们会停下来。家用机器人装有很多机械装置,以便将伤害的风险降到最低。不过,在这种情况下,大多数机器人都会电量不足,即使它们想伤害别人也无法做到。此外,律师都会小心防范潜在的危险。一家公司出售的家用机器人可以给小孩子读书,同时还会看家,它会在家里到处查看,遇到意外状况时会拍下照片并通知主人,如果有必要的话,还会给主人发邮件(当然,是通过它的无线网络连接,将照片附在信息上)。尽管机器人具有这些预设用途,但是对机器人的使用也有严格的规定,即不能让它靠近小孩子,也不能将它单独留在家里。
为了实现第一定律中的安全措施,人们已经投入了巨大努力。我们认为,有关这方面的大部分工作都被应用在本能层次,当有关操作违反了安全定律时,就会用很简单的机械装置来关闭这个系统。
该定律的第二部分——不可以在那个人遭遇危险时袖手旁观——非常难执行。如果难以确定机器人的行为会如何影响人类,那么要判断袖手旁观会如何影响到人类,就更加困难了。这属于反思层次的行为,因为机器人必须进行大量的分析和计划,从而确定袖手旁观是否会带来伤害。这超出了现有大多数机器人的能力范围。
尽管遇到这些困难,但是仍然有一些简单的解决方案。许多电脑都插上了“不间断电源”,以避免在电力中断时丢失数据。如果电力中断,而且不采取任何措施,就会造成损失。但在上述情况下,当电力中断了,电源供应设备就会采取措施,切换到电池,把电池的电压转换为电脑要求的水平。它也可以设定为向使用者发出通知,让其可以从容不迫地关机。其他的安全系统则被设计为,当正常进程失效时,它就会采取措施。有些汽车安装了内置感应器,以便监视汽车行驶路线,通过调整引擎动力和刹车来确保汽车保持既定的行驶路线。我们尝试用自动速度控制器来保持汽车与前车的安全距离,而车道变更探测器也在研究当中。如果当不采取任何行动会引起事故时,这些设备就可以保障汽车和乘客的安全。
现在,尽管这些装置都还很简单,而且都是内置式的,但我们仍然可以看到有关第一定律的不作为条款的初步解决方案。
第二定律——“机器人必须服从人类的命令,除非这些命令违反了第零定律或第一定律。”这一条定律与服从人类有关,并且与第一定律形成对比,后者则是与保护人类有关。从很多方面来说,执行这条定律非常容易,不过又都是为了最基本的理由。现在的机器没有独立的思想,所以它们必须服从命令:它们别无选择,只能遵守人类发出的命令。如果它们失败了,将会面临最严厉的惩罚:它们会被关机,然后被送到维修厂。
机器可以为了保护第一定律而违反第二定律吗?可以,但是灵活性不高。当你指令一台电梯把你送到你想要去的楼层,如果它感应到有人或物体挡住了门,它就会拒绝执行命令。不过,这就是执行这条定律最简单的方式,当情况更复杂时,它可能会失效。实际上,当安全系统阻止机器执行命令时,人们通常都可以越过安全系统而允许机器继续运行。这是许多火车、汽车、飞机和工厂事故发生的原因。也许阿西莫夫是对的,我们应该让机器去决定某些事情。
某些自动配置安全系统是“袖手旁观”这一条款的例子。如果驾车者迅速刹车,但是没有完全踩下刹车踏板,大多数汽车就不会完全降速。然而,奔驰汽车考虑到了这种“袖手旁观造成的伤害”,当它探测到一个快速的刹车动作,就会将刹车踏板压到底,自动设定驾驶者想尽快停车。这是第一定律和第二定律联合产生的结果:对于第一定律,汽车防止给驾驶者造成伤害,而对于第二定律,汽车违反了驾驶者把刹车踏板踩到一半的“命令”。当然,这也许不是真的违反命令:机器人推测驾驶者打算把刹车踩到底,即使它没有收到这样的命令。也许机器人引用了新的规则:“按照我的意思去做,而不是按照我说的话去做。”[3]这是早期人工智能电脑系统采用的一个旧概念。
尽管汽车的自动刹车功能执行了第二定律的部分规定,但是正确的执行方法应该是让汽车先检查前方的路况,然后自己决定应该如何把握速度快慢、刹车强度或是方向盘角度。只有这样做,我们才算真正彻底地执行了第一和第二定律。我再次向各位读者声明,这一切都正在开始实现。例如,有些汽车在太靠近前面的车辆时,即使驾驶者没有采取措施减速,它们也会自动降低速度。
我们暂时还没有遇到相互冲突的命令,但是我们很快就会拥有互动机器人,那时,机器人的要求可能会与人类管理者的要求相互冲突。那样的话,确定事情的先后次序和优先权就变得很重要了。
这些都是比较简单的例子,在阿西莫夫的设想中,还有汽车拒绝启动的情况——“对不起,因为今天晚上的路况太危险了。”我们还没达到这样的境界,但是,我们将会达到。到了那时,阿西莫夫的第二定律就会很有用了。
阿西莫夫认为,在所有定律中,自我保护是最不重要的一条——“机器人在不违反第零、第一、第二定律的情况下,必须保护自身安全。”——所以它被列为第三定律,是四大定律中的最后一条。当然,由于现在机器的性能仍然很有限,很少需要应用第一和第二定律,因此,在当今社会中,第三定律反而显得最重要。想想看,如果我们价值不菲的机器人被弄坏或者烧坏了自己,我们肯定会懊恼不已。因而,我们可以很容易地在现代机器中看到这条定律如何发挥作用。还记得安装在吸尘机器人里面,以防止它们从楼梯跌落的感应器吗?还有割草机器人装有撞击和障碍探测器,以避免被撞坏。另外,许多机器人都会监控自己的能量状态,在能量水平下降时,会确定进入“睡眠”模式还是回到充电站点。到目前为止,我们还不能很好地解决这一定律与其他定律之间的矛盾,除非有操作人员在场,由他们判断在什么情况下可以忽略安全因素。
我们目前还不能彻底执行阿西莫夫的四大定律,除非机器具备强大而有效的反思能力,包括元知识(meta-knowledge,对自身知识的认识)和对自身状态、行为和意图的自我意识。这就向人类提出了关于哲学和科学的难题,同时还向工程师和程序员提出了复杂的执行问题。这个领域正在不断发展之中,不过进展缓慢。
即便是当今相对简单的设备,要是能拥有一些这样的能力,也是非常有用的。因此,当发生矛盾时,忽略操作员的命令就是一个明智的决定。飞机的自动控制系统会监控前方的情况,以便确定飞行路线上的潜在情况,如果察觉到即将发生危险,就会改变航道。有些飞机真的尝试过在自动控制状态下飞进崇山峻岭中,因此,如果飞机具备上述能力,就能挽救无数的生命。事实上,许多自动系统已经开始进行这种检查工作了。
此外,即使是现在的玩具机器人,也具有一些自我意识。我们来看看这种机器人,它既由自己与主人玩耍的“意愿”控制,同时还会确保自己不会消耗完所有电量。当处于低电量状态时,它就会回到充电站点,即使人们还想继续跟它玩。
在我们执行类似于阿西莫夫四大定律的规则时,最大的障碍就是他关于自动操作和中央控制机制的基本假设可能无法应用于现在的系统。
阿西莫夫的机器人像个体一样工作,只要给它分配一项任务,它就会去做。在少数情况下,他也会让机器人以团队方式工作,由其中一个机器人担任管理者。此外,他从来不会让人类和机器人组成工作团队。然而,我们却更想制造具有合作性的机器人,在这样的体系下,人类和机器人或者机器人团队可以一起工作,就像一群合力完成一项任务的工人一样。合作行为要求一套不同于阿西莫夫的假设,因此,具有合作性的机器人需要这样一套规则,让它们可以充分交流各自的意图、当前状态和进展情况。
然而,阿西莫夫的主要错误[4]在于,他认为机器必须由人进行控制。他在写小说时,经常假设智能机器需要中央协调和控制机制,而且在这个机制下还设有等级组织架构。这是数千年来军队的组织方式:军队、政府、企业和其他机构。人们很自然地就会设想所有智能系统都采用相同的组织原理。但是,这并不是大自然的组织方式。自然界里各种各样的系统——从蚂蚁和蜜蜂的行为,到鸟类的集结成群,甚至是城市的发展和股票市场的架构——都是通过多个团体互动而产生的自然结果,而不是由某些中央协调的控制架构产生。现代控制理论也已经脱离了这种中央集权式的假设,分散式控制才是现代系统的标志。阿西莫夫假设每个机器人均由一个中央决策组织控制,根据他的四大定律指导它如何行动。但实际上,这可能并不是机器人工作的方式:四大定律是机器人结构的一部分,分布在它的机械装置的各个模块中,而这些模块会进行互动,从而产生遵循四大定律的行为。这就是现代概念,阿西莫夫在写作时还不理解这个概念,因此也难怪他没有达到我们今天对复杂系统的理解水平。
尽管这样,阿西莫夫仍然领先于他所身处的年代,具有划时代的前瞻性。他的小说写于20世纪40年代到50年代,但是在小说《机械公敌》(I,Robot)中,他引用了虚拟2058年出版的《机器人技术手册》中机器人三大定律。因此,他预测了超过100年之后的事情。到2058年,我们可能真的需要他的定律。除此之外,正如上述分析所指出的那样,这些定律真的很重要,现在很多系统都在不经意间遵循着这些定律。执行这些定律的困难之处在于,如何处理由于不作为而造成的伤害,以及如何判断应该服从命令还是避免自己、他人受伤。
随着机器变得越来越能干,替代了越来越多的人类活动,并且能够自动运作而不需要人类直接监管,它们也将面对法律问题。在发生意外时,将由法律制度来确定孰是孰非。在出现这种情况之前,先设立一些道德规范是很有益处的。现在已经有一些适用于机器人的安全守则[5],不过这些都是很基本的,我们需要制定更多的规定。
现在开始思考未来智能化和情感化的机器将会给我们带来的问题并不算太早,我们要考虑许多关于实践、道德、法律和伦理的问题。尽管很多问题都是将来才会遇到,但是我们也有充分的理由从现在开始做打算——如此一来,当问题发生时,我们已经作好了准备。
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论