英文原文:Can An Algorithm Be Empathetic? UK Startup EI Technologies Is Building Software That’s Sensitive To Tone Of Voice
说话的奇妙之处在于,有时候重要的不是看说了什么,而是要看是怎么说的。拥有四声和平仄的中文尤为如此。这一点,听到过客户尖酸刻薄的挖苦之话的客服接线员想必感触最深。自动语音系统无法识别这种语气方面的细微差别,所以各个公司不得不维系大量的人工客服人员。不过英国的初创企业 EI Technologies 正在研发的一种语音识别平台有望让机器的理解里取得突破,该平台可通过音质分析来识别情绪,据说其准确率已经超过了人耳的平均水平。
EI 的技术可以分析人声的音调,更加注重“声学特征”而非言语内容—其最初的目的是帮助一款移动应用根据和监控用户的情绪。这款移动应用名字叫做 Xpression,今年年末会推出封闭内测版,主要面向 Quantified Self 的成员提供。“量化自我”的目的在于找出个人的生活方式是如何影响其幸福的。不过其主要功能是作为这项技术的试验台,找出平台最可行的业务场景。
这种技术可以改进人机交互体验,增强自动响应的正确率,在呼叫中心、医疗保健等垂直领域均有应用空间。
之所以首先选择发布量化自我的应用而不是直奔垂直领域,是因为这个技术关乎对潜在客户群的认识能力。发布量化自我的应用有助于消费者了解这项技术及其能力,也能有助于公司了解技术有多好,需要做到什么程度。
通过识别并恰当响应语言内容和情绪来增强自然语言处理算法似乎是人工智能系统的下一步发展方向。《银翼杀手》里面的复制人的致命缺陷正是缺乏“移情(empathy)”能力。现在 EI 的技术正帮助机器朝着具备“移情”能力迈出一小步—首先学会感受人类的情绪。不过相对于那个宏大的目标,目前 EI 主要关注于实用性的,近期有可能实现的商业机会,所以系统只会选择性地识别部分情绪,仅针对特定的场景。
目前系统可识别 5 种基本情绪:高兴、悲伤、害怕、愤怒及无感情。识别的准确率约为 70-80% 左右,这个数字要高于人类 60% 的平均水平。而受过训练的心理学家的判断准确率约为 70%,从这些数据来看,EI 的算法准确率已经非常可观。其未来目标是进一步提高到 80-90%。
系统首先会找出“关键声学特征”,然后将其与一个分类系统进行对照检录,从而匹配出 5 种情绪中的一种。这里面运用了机器学习和大量的数学。此外,EI 还聘请了东英格兰大学的语音识别专家 Stephen Cox 来调整算法效果。此前该教授曾参与过苹果和 Nuance 公司的语音识别系统研发。
当然,要想识别出反感、厌倦等更为复杂的情绪,EI 将面临更多的挑战。因为这些情绪涉及的声音信号更加微妙。不过,从商业角度来看,集中于那五种基本情绪更有意义。
从事情绪识别研究的公司不止 EI 一家。以色列的初创企业 Beyond Verbal、MIT 的 Cogito 也是少数竞争者之一。不过这些竞争对手的目标略有不同,其关注点是识别出某人希望被感知到的方式,而非即刻的“情绪层”。EI 与竞争对手的区别还在于,EI 的技术是作用于客户端设备的,而其他的竞争对手则需要云处理技术,这意味着必须连接到网上才能发挥作用。无需联网的特点令 EI 的技术可被运用到汽车等对象上。
EI 目前从孵化器 Wayra London 和英国政府的 Technology Strategy Board 拿到了 15 万英镑的种子期融资,计划明年 2 月进行下一轮的融资。