诱发人类情感的机器
即使是用最简单的电脑系统,也能轻而易举地给人类带来一次强烈的情感经历。类似的最早经验也许就是关于伊莱扎(Eliza)的事例[15],这是一套由麻省理工学院的电脑科学家约瑟夫·魏泽尔巴姆(Joseph Weizenbaum)开发的电脑程序。伊莱扎是一套简单的程序,按照程序员(最初是魏泽尔巴姆)预先准备的少量对话脚本来运行。伊莱扎可以根据脚本上准备的话题和人进行互动。例如,当你开始执行这个程序时,它会向你问候:“你好,我叫伊莱扎,有什么需要帮忙吗?”
如果你输入这样的回答:“我很关注世界上日益加剧的暴力行为。”伊莱扎会回应道:“你关注世界上日益加剧的暴力多久了?”这是一个挺适合的问题,因此通常会这样回答:“大约从几个月前开始。”然后,伊莱扎会回答道:“请继续。”
你可以想象得出你是如何被这样的对话所吸引:你关注的问题得到了共鸣。不过,伊莱扎不理解这些语言,它只是找到相应的模式,并作出适当的回应(当它遇到不能识别的模式时,它就会回答“请继续”)。因此,愚弄伊莱扎是很容易的,只要输入“我关注abc、def和ghi的事情”,伊莱扎会忠实地回答道:“你关注abc、def和ghi的事情多久了?”
伊莱扎只能识别出“我关注某某某”这样的短语,在根本不理解它的意思的情况下,回答道:“你关注某某某多久了?”
大多数人都会认真地对待伊莱扎,并不会刻意地欺骗它。他们会认真地对待每一个回答,还会仔细思考其中隐含的意思。因此,他们有时会在深入的哲学讨论中发现自我,或者会与那个最受欢迎版本的伊莱扎讨论他们最隐私的秘密,在该版本中,伊莱扎被编写成像心理医生一样。
在20世纪60年代中叶,我的一位老朋友兼研究伙伴丹尼尔·博布罗(Daniel Bobrow)是BBN的研究科学家。BBN是一家位于马萨诸塞州剑桥市从事人工智能、电脑网络和声学研究的公司。博布罗告诉我,一位程序员为了让伊莱扎在BBN的电脑上运行,一直奋战到星期六凌晨5点,然后回家,让程序继续在电脑上运行。(在那个年代——当时是1966年——大家对于个人电脑根本闻所未闻,只有最先进的公司,例如BBN,才会提供电脑给员工使用,这也是为什么程序员必须在晚上加班,以争取时间使用电脑。)
星期六上午,博布罗所在部门的副总回到公司向客户展示这台电脑。他看到电脑正在运作,便以为是博布罗在家操控这台电脑,于是“决定选用‘明显’的沟通模式”与他交谈。因此,副总在电脑上输入了一些问题,但当时博布罗正在家里睡觉。实际上和副总交谈的是伊莱扎,而副总却以为这些回答来自博布罗。
副总:我今天上午可以使用这台电脑吗?[16]
伊莱扎:你为什么这样问呢?
副总:我可能要做一些额外的电信销售。
伊莱扎:你为什么不能确定呢?
副总:我的潜在客户还没看过这个系统的演示。
伊莱扎:这对你来说很重要吗?
副总:当然重要。
伊莱扎:你看起来很肯定哦。
副总:真是荒唐。
伊莱扎:你是什么意思,真是荒唐?
副总:有什么原因导致我现在不能使用电脑吗?
伊莱扎:关于你的潜在客户,请告诉我更多信息。
副总:请打电话给我:491-1850。
在那个年代,电脑的功能还不是很强大,伊莱扎程序判断一个人是否说完一句话的唯一方法就是找出句号。在最后一行对白之前,副总每句话说完都打上句号,但是最后一行他省略了。结果,电脑一直在等待更多的词语输入,因而没有回答。博布罗告诉我:“这激怒了副总,他认为我在耍他,于是打电话给我,把我从睡梦中吵醒,他对我说:‘你为什么对我这么无礼?’我不解地问:‘为什么你说我对你无礼?’”接着,博布罗告诉我:“那位副总生气地给我读‘我们’之间的对话,我在这边笑而不语,过了一段时间他才相信和他对话的真的是电脑。”
正如博布罗在我跟他讨论这种互动时告诉我的那样:“你可以看到他很在乎别人对他所提出问题的回答,他觉得我的意见影响了他的情绪。”我们都非常信任别人,这让我们很容易被愚弄,在我们没有被认真对待时,我们会感到非常生气。
伊莱扎之所以具有如此强大的影响力,与我在第五章论述的人类倾向性有关,人类相信任何智慧式的互动都必须由人类或至少是智慧生命发起,也就是拟人化。此外,因为我们信任别人,所以我们常常会认真对待这些互动。伊莱扎是很久以前编写的程序,但是它的创作者约瑟夫·魏泽尔巴姆却对这么多人认真对待和这个简易系统之间的互动而感到震惊。他因为担忧而写了《计算机威力与人类理性》(Computer Power and Human Reason)[17]这本书,书中他非常中肯地指出,这些浅显的互动对人类社会是有害的。
自从编写了伊莱扎以后,我们已经取得了长足的进步。现在的电脑比20世纪60年代的要强大数千倍,更重要的是,我们对人类行为和心理的了解也取得了明显进步。因此,我们现在编写的程序和制造的机器人并不像伊莱扎那样,而是拥有真正的理解能力,可以展露真实的情感。不过,这并不意味着我们已经摆脱了魏泽尔巴姆担心的事情。接下来,我们一起来看看克斯梅特(Kismet)吧。
图6.6是克斯梅特[18]的照片,它是由麻省理工学院人工智能实验室的研究小组开发出来的,在辛西娅·布雷齐尔的《设计善于交际的机器人》(Designing Sociable Robots)[19]一书中有详细的报告。
我在前面论述过,即使完全不理解一种语言,也能感知谈话时的潜在情绪。生气、责备、恳求、安慰、感激和赞扬的声音都具有独特的音调和频率。我们可以判断出别人正处于哪种情感状态,即使他们说的是外语。我们的宠物也经常可以通过我们的身体语言和声音中的情感模式来感知我们的心情。
克斯梅特利用这些线索来探测与其互动的人的情感状态。
克斯梅特以摄影机充当眼睛,以麦克风充当耳朵。克斯梅特拥有一套非常精密复杂的结构,用于诠释、评估和回应外界环境。如图6.7所示,它结合了感知、情感和注意力来控制自己的行为。如果你走向克斯梅特,它会把脸转向你,用眼睛直视着你。但是,如果你只是站在那里,动也不动,它会觉得无聊而东张西望。如果你说话,它会对声音的情感音调特别敏感,对鼓励性的、有益的赞扬表现出很有兴趣和很高兴,而对责备感到羞愧和悔恨。克斯梅特的情感世界很丰富,它还可以移动头部、脖子、眼睛、耳朵和嘴巴来表达情绪。悲伤的时候,它的耳朵会低垂着;兴奋的时候,它会振作起来;不开心的时候,它会耸拉着头和耳朵,嘴巴也会向下弯。
图6.6 克斯梅特是一个被设计用于社交互动的机器人,看起来有点吓人。(图片提供:辛西娅·布雷齐尔)
与克斯梅特互动是一次饶有趣味的经历。很难相信,克斯梅特只拥有情感而完全没有理解能力。不过,当你走到它身边兴奋地跟它说话,并向它展示你的新手表时,它会作出适当的回应:它看着你的脸,然后看看你的手表,接着又看回你的脸,它在全过程中通过抬起眼皮和竖起耳朵来表达它的兴趣,并且表现得兴致勃勃。这正是你想要从谈话对象那里得到的回应,即使克斯梅特完全不理解这些语言以及有关手表的事情。它怎么知道要去看你的手表呢?它不知道,但是它会对你的动作作出回应,所以它会看着你抬起来的手。当动作停止时,它会觉得无聊,然后转为看你的眼睛。它显得很兴奋,因为它探测到了你的音调。
图6.7 克斯梅特的情感系统 克斯梅特运作的核心是感知、情绪和行为的互动。(经辛西娅·布雷齐尔同意后重新绘制并稍微修改了图表,摘自http://www.ai.mit.edu/projects/sociable/emotions.xhtml)
请注意,克斯梅特跟伊莱扎有一些共同特征。因此,尽管这是一个复杂的系统——具备了身体(嗯,有头部和脖子)和充当肌肉的多个发动机,以及负责注意力和情感的基本复合模型——但是它还缺乏真正的理解能力。因此,它对人类展现出的兴趣和厌烦只是对环境变化或是缺少变化的环境的设定反应,以及对动作和语音的物理层面的回应。尽管克斯梅特有时候可以让人们着迷很长一段时间,但这种着迷有点类似于伊莱扎:大部分复杂性来自观察者的诠释。
索尼的机器宠物狗“爱宝”拥有的情感元素和智力远不及克斯梅特。虽然如此,但事实证明主人对它无比着迷。许多机器宠物狗主组建了俱乐部,有些甚至拥有几只机器狗。他们互相交流如何训练机器宠物狗玩各种把戏,并且分享心得和技巧。有些人坚信他们自己的“爱宝”可以认出自己,还懂得听从他们的命令,即使它们做不了这些事。
当机器人表达情感时,它们会与人类进行丰富且让人满意的互动,即使大部分的丰富度和满意度、大部分的诠释和理解能力都来自人类的头脑而不是人工系统。麻省理工学院教授、心理分析家雪莉·特克(Sherry Turkle)总结了这些互动,她指出:“它告诉你更多关于我们人类的事情,而不是关于机器人。”这里再次使用拟人化:我们在所有事物中解读出人类的情感和意愿。“无论这些事物是否拥有意识或智慧,都激励着我们继续前进。”[20]特克说道:“它们促使我们承认仿佛这些事情是它们做的,我们被设定以人道的方式对待这些新型创造物,关键在于这些东西想得到你的精心培养,它们会在你的照料下茁壮成长。”
[1] “戴夫,停下来……”摘自电影《2001太空漫游》,比佐尼,第60页。
[2] C3PO和R2D2的照片。《星球大战4:新希望》©1977和1997卢卡斯电影有限公司及TM版权所有。授权使用。未授权的复制均属违反相应法律的行为。
[3] “心理学家罗伯特·瑟库勒和伦道夫·布莱克。”(瑟库勒和布莱克,1998)
[4] “人类的神经系统受到损伤时。”(达马西奥,1994,1999)
[5] “20世纪80年代属于个人电脑。”索尼数字生物实验室负责人土井利忠。(2000年11月)
[6] “尼尔·斯蒂芬森的科幻小说。”(斯蒂芬森,1995)
[7] “罗德尼·布鲁克斯,这位处于世界领先地位的机器人专家。”(布鲁克斯,2002)。引文出自第125页。
[8] “日本机器人专家森政弘。”《机器人的佛学》(森,1982)。在什么时候机器人会太接近于人类的外形?我们在这方面的争论来自戴夫·布赖恩特的文章(布赖恩特,未注明日期)。布赖恩特将该争议归咎于森政弘,但是我购买并阅读了森政弘的著作,尽管我很喜欢这本书,但是我找不到与这个争论有关的丝毫迹象。无论如何,这都是一个很好的观点。
[9] “菲利普·K·迪克。”(迪克,1968)
[10] “我认识到,如果我们赋予机器人情感,问题将会变得容易多了。”皮卡特摘自卡维洛斯的引文(1999,第107~108页),我在2002年参观她的实验室时,她又再次强调这点。
[11] “情感上的心烦意乱会干扰人的精神生活。”(戈尔曼,1995)。引文出自(科特、赖利、皮卡特,2001)
[12] “罗莎琳德·皮卡特教授。”(皮卡特,1997)
[13] “即使是最善于控制自己情感的人。”这个基本研究由保罗·埃克曼开展(埃克曼,1982,2003)。其中一段最著名的描述出自马尔科姆·格拉德韦尔发表于《纽约客》的文章。(格拉德韦尔,2002)
[14] “美国国家研究委员会。”(美国国家研究委员会对有关多种波动记录器科学证据的研究,2002)
[15] “类似的最早经验也许就是关于伊莱扎的事例。”有关伊莱扎的研究工作在20世纪60年代展开。魏泽尔巴姆的著作进行了评论。(魏泽尔巴姆,1976)
[16] “我今天上午可以使用这台电脑吗?”丹尼尔·博布罗、伊莱扎和副总裁之间的对话。贵泽迪尔·居文和斯特凡诺·弗朗奇整理了这段对话内容,我将其从网站上拷贝下来(贵泽迪尔和弗朗奇,1995)。另外,我还通过谈话和电子邮件与博布罗进行了细节确认。(2002年12月27日)
[17] 《计算机威力与人类理性》(魏泽尔巴姆,1976)。
[18] (图6.6)克斯梅特的图片来自网站http://www.ai.mit.edu/projects/sociable/ongoing-research.xhtml(经过许可)。如欲获取更详细的描述,请参看辛西娅·布雷齐尔的著作《设计善于交际的机器人》。(布雷齐尔,2002)
[19] 《设计善于交际的机器人》(布雷齐尔,2002)。
[20] “无论这些事物是否拥有意识或智慧,都激励着我们继续前进。”特克摘录采访L.康尼的谈话内容,出自Wired.com(不过我更改了文法)。(康尼,2001)
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论