使用Siri、Alexa或Google Assistant等语音助手的用户都了解被机器误解的沮丧感。
但根据卡内基梅隆大学计算机科学学院人机交互研究所(在新窗口中打开)(HCII)的研究人员表示,对于那些可能缺乏标准美国口音的人来说,这种沟通不畅可能不仅仅是令人恼火,简直是危险。
在一项新研究(在新窗口中打开)中,HCII的博士生基米·温泽尔(在新窗口中打开)和副教授杰夫·考夫曼(在新窗口中打开)确定了语音助手错误造成的六种下游危害,并制定了减少这些危害的策略。他们的工作在计算机械协会的人机交互系统会议上获得了最佳论文奖。
“这篇论文是我们实验室一个更大研究项目的一部分,该项目旨在记录和了解嵌入技术中的偏见的影响,”考夫曼说。
在美国大多数用于训练语音助手的数据集中,白人比例过高,研究表明,这些助手更有可能误解或误解黑人说话者以及口音或方言与标准美国口音不同的人。考夫曼说,早期的研究人员倾向于将这个问题视为需要克服的技术问题,而不是对用户产生影响的失败。但无论是人还是机器,被误解都可能被视为一种微观攻击。
“这会影响你的自尊感或归属感,”考夫曼说。
在去年的一项受控实验(在新窗口中打开)中,考夫曼和温泽尔研究了语音助手的错误率对白人和黑人志愿者的影响。经历过高错误率的黑人自我意识更强,自尊心更低,对技术的看法也不如经历低错误率的黑人乐观。无论错误率如何,白人都没有这种反应。
“我们推测,由于黑人更频繁地经历沟通不畅,或者他们日常中更常遭遇种族主义,这些经历会不断积累,他们遭受的负面影响也更多,”温泽尔说。
在最新研究中,温泽尔和考夫曼采访了16名在语音助手上遇到问题的志愿者。他们发现了六种看似无害的语音助手错误可能造成的潜在危害。这包括情感伤害以及由微观攻击造成的文化或身份伤害。还包括关系伤害,即错误导致的人际冲突。例如,语音助手可能会为会议设置错误的时间或误拨电话。其他危害还包括即使技术对你不起作用,也需要支付与其他人相同的价格,以及需要付出额外的努力(如改变口音)来使技术发挥作用。
第六种危害是身体危险。
“语音技术不仅用作智能手机中的简单语音助手,”温泽尔说。“它们越来越多地用于更严肃的场景,例如医疗转录。”
语音技术还与自动导航系统结合使用,“这具有很高的风险,”温泽尔补充道。
该研究采访的一名人员讲述了自己与语音控制导航系统的惊险经历:“很多时候,我觉得自己的发音非常清晰响亮,但它仍然无法理解我。我不知道发生了什么。我不知道我要去哪里。所以,这真的很令人沮丧,很危险,也很令人困惑。”
最终的解决方案是消除语音技术中的偏见,但创建代表人类全部变异性的数据集是一项复杂的任务,温泽尔说。因此,她和考夫曼与参与者讨论了语音助手可以对用户说些什么来减轻这些危害。
他们确定的一种沟通修复策略是归责转移——不是简单的道歉,而是描述错误而不归咎于用户的解释。
文泽尔和考夫曼还建议,语音技术应更具文化敏感性。在一定程度上,解决文化伤害受到技术的限制,但一个简单却深远的行动就是扩大专有名词数据库。
“在多种语言技术中,对非盎格鲁名字的错误识别一直是一种持续存在的伤害,”研究人员在论文中指出。
考夫曼说,大量社会心理学研究表明,当个体身份受到威胁时,自我肯定(即陈述个体的价值观或信仰)可以起到保护作用。他和文泽尔正在寻找方法,让语音助手在与用户的对话中包含肯定内容,最好是以对用户来说不显眼的方式。文泽尔目前正在后续研究中测试一些这样的肯定内容。
在所有这些对话干预中,简洁性的需求至关重要。毕竟,人们通常使用语音技术,是希望能够更高效或能够解放双手。在对话中添加信息往往会违背这一目标。
“这是我们面临的设计挑战:我们如何强调错误完全在于技术,而不在用户身上?你如何能用尽可能少的字尽可能清晰地表达这一重点?”文泽尔说。“目前,技术只会说‘对不起’,但我们认为这还不够。”