聊天机器人需有独立三观 而不仅仅只是预设
时间: 2023-08-31 11:03:57 | 作者: 行走轴
时间: 2023-08-31 11:03:57 | 作者: 行走轴
网易科技讯10月10日消息,据国外科技媒体VentureBeat报道,聊天机器人其实只是在数月之前才刚刚进入公众的视线,但它们如今已经变得无处不在了。据悉,目前已有超过18000个聊天机器人被部署在了Facebook的Messenger平台上,而它们中的大多数,都像它们在被设计时所预想的那样,正兢兢业业地处于努力工作的状态。
就目前来说,当我们在谈论聊天机器人时,我们所谈论的话题往往是它能做些什么?有些聊天机器人能帮你在网上订一份披萨,有些聊天机器人能很轻松地帮你设置一连串的提醒,还有一些聊天机器人会帮你规划会议行程,并在你每个醒来的早晨,告诉你当天的天气。
无论你的聊天机器人能帮你做什么,只要它能帮你自动打理你私人生活和工作的细枝末节,它就足以让你兴奋难以了。然而就多数情况来说,我们的私人聊天机器人其实还要求我们留一个心眼,去看守着它,但这对你来说真得就已经足够了?我们是不是可以将更多更重要、更敏感的任务,完全交托给我们的聊天机器人呢?
如果我们应该聊天机器人来处理更多的工作的话,我们就需要它们不仅仅只是能忠诚地完成一些简单的任务。但如果只是简简单单地教授一个聊天机器人来完成一些复杂任务的话,这点其实还不足以赢得用户们的信任。
而这一难题也自然而然地衍生出了聊天机器人的下一个发展趋势,那就是专注于研究怎么样建立起聊天机器人同人类用户之间的关系。
聊天机器人公司Next IT创始人弗雷德·布朗(FredBrown)的女儿有一次问了她爸爸一个问题:“SGT STAR(美国陆军的虚拟助手)是否有自己最喜欢的颜色?”
这样的一个问题让身为人工智能专家的布朗一下子陷入到了沉思。为什么一个聊天机器人需要有一个自己最喜欢的颜色?我们不需要让它帮我们挑选出合适的窗帘,或是找条合身的裤子,而只是简简单单地问它有没有最喜欢的颜色?
布朗于是意识到了,他女儿所提出的这个问题的背后其实暗藏着她强烈的好奇心,这已经超越了单纯地询问“它最喜欢的颜色”的这一问题的本身。
问题的重点是SGT STAR没有一个最喜欢的颜色的这点,暴露出它无法展示出像诚实和值得信任这样的,人类才有的品质。
SGT STAR非常擅长于回答美国陆军部队里的生活问题,但对那些想要听到能让他们产生“它值得相信”这一想法的答案的用户来说,即便SGT STAR给出了它最佳的回答,都不足以让他们满意。
如果今天,你再去问SGT STAR它最喜欢的颜色是什么的话,它会说:“我偏爱红色、白色、蓝色,当然,也很喜欢军绿色!”虽然,这只是一个很小的细节,但它其实是至关重要的。
在这个我们所引述的故事里,SGT STAR向我们展示出了诸如喜欢、不喜欢、和偏好这样的人类性格,而这反过来也会让它变得更加率真、更人性化、更值得别人取信任它。设想一下,如果和你对话的人,连一点自己的主见都没有的话,他会让你产生信任感吗?
让你的聊天机器人在交流过程中,能展示出像诚实和值得信任这样可贵品质的能力,就是我们在改变这个聊天机器人市场过程中,所需要努力的方向。
就像我们已将聊天机器人引入到我们每天的日常生活那样,我们还能训练它们去识别我们所说的语言,去发掘出我们的喜好,甚至还能让它分析出我们的口音,推测出我们的情绪状态。
让我们再来回想一下那台在2000年首次亮相的第一款聊天机器人和研发出它的那家公司。“Verbot计划”脱胎于迈克尔·墨登博士(Dr. Michael Mauldin)对自然语言处理与聊天机器人的早期研究,而虚拟性格有限公司(Virtual Personalities, Inc.)这家成功研发出Verbot的公司,则仔细回溯了迈克尔·墨登博士在卡内基梅隆大学的相关研究,并参考了彼得·普兰特(Peter Plantec)在个性心理和艺术方面的研究成果,才最终有了Verbot的诞生。
个性心理研究对于像内置于Facebook Messenger中的那类聊天机器人,或许没什么用处,但如果问题涉及到了聊天机器人与人类交流的真诚性的话,那么对个性心理的研究将变得至关重要。
现如今,我们的科技正在经历指数级别的爆发式增长,我们的科研人员已经开发出了许许多多的工具,它们能让我们的计算机在这个被人类所主宰的世界中,去更好地同人类进行交流。
自然语言处理和情感分析就是这样一个好例子。当人工智能软件尤金·古斯特曼(EugeneGoostman)在2014年通过了图灵测试的时候,它也标志着人机交流的时代进入了新的发展拐点。
而现在的那些科技公司正将AI机器人的边界拓展到更远的位置。我们大家可以参照一下IBM所研发出的人工智能“沃森”,它的口音识别工具可以在语言分析技术的帮助下,理解到人在表达时所传递出的情感、说话习惯和他的社交爱好。
之所以要研发这些工具的原因是,它们能让我们将聊天机器人改造成为一个可对话的对象。在这些工具的帮助下,你可以教一个聊天机器人如何去理解它的主人,相比拥有一个机器人最喜欢的颜色,这点对于它价值观是更为直接的表述。
无论是对聊天机器人的开发者还是它的使用者来说,都应该警觉到这一点:我们的三观正在加速转移至聊天机器人。虽然我们不清楚聊天机器人能学习到人类三观的极限在哪儿,但我们已取得了巨大的进步。
教会我们的聊天机器人去展示它的三观,将极大地拓展它应用到我们生活当中的可能,但这点同时也将把聊天机器人和它的开发者隔离开来。
当我们的聊天机器人只能展示出它的开发者们所传授给它们的三观的时候,它的开发者们就会成为被舆论讨论的中心。在这种情况下,坏演员是很容易露馅的,这样的话,守护好自己公司的招牌,就会显得比以往更为重要。
让我们设想一下这样的场景,如果有两个功能差不多的聊天机器人都帮你订了旅行的机票。但如果你的这个航班被意外地取消了,一个能同情到你的感受,并帮助你重新订一张新机票的聊天机器人,就会比那个完全不理会你的感受,而仅只是简单粗暴地帮你直接订下新机票的聊天机器人,好过一些。
在听完这段假象描述后,我们的读者应该很快就很明白到它们之间的细微区别,并能做出更合适自己的选择。(止水)