社交账号登录

社交账号登录

0/34

上传头像

拖拽或者缩放虚线框,生成自己满意的头像

头像

预览

忘记密码

设置新密码

智能

人工智能说话会有不同的口音吗?大公司对此不太积极

Quentin Hardy2016-10-14 07:35:03

要想更好地在市场上取得成功,企业是该符合传统呢,还是该冒险采用新的声音类型?

本文只能在《好奇心日报》发布,即使我们允许了也不许转载*

贾森·马尔斯(Jason Mars)是一名非裔美国计算机科学教授,他同时也经营着一家科技创业公司。他表示,他们公司为智能手机制作的人工智能应用讲话的声音“很像一个乐于助人的白人女性”。

马尔斯表示,当你想在消费市场上获得成功时,“肯定会面临一定的压力、不得不顺从这个世界的偏见。我们很想把它设计成黑人的声音,但我们并不想制造冲突。毕竟我们的首要目标是销售产品。”

计算机科学教授贾森·马尔斯正在经营一家为智能手机制作个人财务软件的科技创业公司。图片版权:Sean Proctor/《纽约时报》

马尔斯的创业方向是一个叫做“会话式计算”的新兴高科技领域。苹果(Apple) iPhone 上的 Siri 系统和亚马逊(Amazon)人工智能家用计算设备 Echo 内置的 Alexa 等程序正在使用的这种技术越来越流行。

会话式计算正在映射出这个社会在人种和性别方面的诸多严重偏见。“听和说”已经成了计算机全新的输入和输出方式,不过它们也带来了键盘和屏幕时代从未遇到过的社会和情感维度。

例如,我们会把《钢铁侠》中电脑贾维斯(Jarvis)的典型英式管家口音与一个热心而聪明的人类联系在一起吗?为什么那么多人希望听到没有明显口音的年轻女性的声音呢?

声音的选择对设计、品牌塑造和人机交互都会产生影响。声音会改变或强化我们相互之间的态度。这在商业领域引发了一个问题:要想更好地在市场上取得成功,企业是该符合传统呢,还是该冒险采用新的声音类型?

对许多人来说,一开始答案是很清晰的。例如,微软(Microsoft)人工智能声音系统 Cortana 最初的声音来自视频游戏“Halo”中的一个女性角色。

微软高级研究副总裁德里克·康奈尔(Derek Connell)表示:“在我们对 Cortana 的研究中,男性和女性用户都非常喜欢选择年轻女性作为他们的个人助手。”换句话说,他们需要一个秘书,而这是一个传统上由女性担任的职务。

上周,Google 发布了一系列基于语音的产品,包括与 Echo 类似的 Google Home。这些产品都用到了 Google Assistant,后者使用的也是一个受过教育的年轻女性的声音。

负责 Google Assistant 人性模块的瑞安·杰米克(Ryan Germick)表示,Google Assistant“是一个理解文化因素、善解人意的千禧一代图书馆管理员。这类产品的关键不是理性设计方案,而是要考虑到心理学和人们的感受。”

康奈尔表示,公司内部曾经讨论过计算机对于自杀方面的问题是否应当给出不同的回应。他表示,同不提供任何建议相比,“我们倾向于在所有地区提供关于自杀预防的信息”。

不过如果你想让人们迅速发现他们在和机器说话,拥有男性声音有时是更好的选择。例如,IBM 的 Watson 在电视广告中与鲍勃·迪伦(Bob Dylan)谈话时使用的就是男性的声音。佐治亚理工学院教授阿肖克·戈埃尔(Ashok Goel)曾在一次非正式实验中将 Watson 改成女性声音,以测试人们与会话式机器的交流,结果他的学生无法分辨出对方是一台机器。

不过 Watson 的男性声音并非主流。亚马逊的人工智能科技也加入了令人愉悦的女性声音阵营。

“到了最后,消费者应该会对不同的声音类型选项持包容态度,”贾森·马尔斯说。图片版权:Sean Proctor/《纽约时报》

邵鹏(音译)曾在亚马逊 Echo 部门工作,目前在西雅图一家创业公司开发另一个基于语音的人工智能系统,他表示:“Alexa 一直都是一个女性助手。”亚马逊公司则拒绝对其产品发表评论。

性别只是问题的开始。你的人工智能科技能够理解口音吗?它的回答能够做到不那么生硬、至少给人一丝人性化的感受吗?

“你需要让它拥有人格。情感是一个很重要的因素——如果机器无法理解用户的想法,人们就会很生气,甚至会诉诸暴力。当机器理解用户时,人们会感到很神奇。他们会睡在机器旁边,这种技术正在进入医院、养老院以及其他许多敏感场所,”邵鹏说。

Capital One 在 Alexa 上开发了一个银行业务应用程序,该公司发现,它需要降低计算机说话的正式程度,以吸引人们和计算机谈论他们的财务问题。

Capital One 内容战略、文化和人工智能设计部门主管斯蒂芬妮·海伊(Stephanie Hay)表示:“钱和情绪有着密不可分的关系,它可以成为人生中的助推器和绊脚石。”最初这款程序会说“你好”,但这显得太生硬了。“‘嘿,你好’的效果要好一些。这款程序是我的朋友,她一直在厨房陪伴我。我希望她可靠而亲切,同时不具有攻击性,”斯蒂芬妮说。

卡内基梅隆大学人机交互学院教授贾斯廷·卡斯尔(Justine Cassell)表示,要想满足预期,我们需要的不仅仅是机械的声音。我们需要计算机在执行任务时与我们交流,让我们放心。“我们需要知道对方和我们一样强大,可以正确地运行程序,”卡斯尔说。

这种需求似乎在儿童阶段就已经出现了。卡斯尔为 5 岁孩子设计了一个具有中性人种和性别特点的电脑角色。她表示:“女孩子认为它是女孩子,男孩子认为它是男孩子。有肤色的孩子认为它是有肤色的,白人认为它是白人。”

她搭建的另一个系统可以对非裔美国儿童说“方言”。在传授科学概念时,同使用标准英语的计算机相比,这种说“方言”的计算机可以取得更好的效果。

不过在进行课堂教学时,“我们希望它用‘正规英语’和孩子们交流。标准美国英语仍然是一个重要的学习工具,所以我们需要开发一种功能,以训练孩子切换语言,”卡斯尔说。

当然,在设计机器人的声音时,人们还需要考虑地区问题。例如,微软的 Cortana 就面向不同国家设计了不同的口音、语言和笑话。

如果一名法国司机在进入德国时使用 Nuance Communications 发出的语音驾驶指导,计算机就会用法国口音念出德国城镇的名称。这种做法是为了让司机产生一种“计算机是法国人”的感觉,从而更有把握地驾驶。

你可以在苹果的 Siri 上找到各种版本的当地口音。你可以将 iPhone 调成美国口音(手机设置中的“Samantha”)、澳大利亚口音(“Karen”)、爱尔兰口音(“Moira”)、南非口音(“Tessa”)以及英国口音(“Daniel”)。苹果公司无法解释其英国口音选择男性的做法是否受到了英国男性管家这一传统的影响。

马尔斯的公司 Clinc 为智能手机制作个人财务软件,以回答像“我能在计算机上花费多少钱”这样的问题。这款软件同样使用了 Google 提供的女性声音。

他希望取得足够大的成功,以便最终测试和对抗人们对非主流人工智能声音的成见。马尔斯目前也在密歇根大学教书,他表示:“你首先需要达到一定的规模,然后才能解决这些问题。”

不过这个规模也许不需要太大。“我想,到了最后,消费者应该会对不同的声音类型选项持包容态度。至于人工智能公司,他们可能仍然会采取保守的立场,”马尔斯说。

翻译 熊猫译社 刘清山

题图来自 Wired

© 2016 THE NEW YORK TIMES


喜欢这篇文章?去 App 商店搜 好奇心日报 ,每天看点不一样的。