谷歌放弃试用6年的超级宽带计划:谷歌光纤面临出售
06-17
人工智能的热潮带动了整个行业的发展。
作为最自然的交互手段,智能语音自然备受关注。
在语音交互引发传统交互变革的今天,智能汽车领域成为变革的先锋,尤其是在后市场。
智能语音似乎已经成为车载场景交互的标配。
国内专注智能语音的企业竞争日趋激烈。
阿里认为,语音客户服务已成为必需品;百度,强大的搜索资源库成为百度语音的后盾;科大讯飞依托政府项目,在教育、医疗、智慧城市等领域也占据市场优势;乐视推出乐视LeVoice正在改变乐视超级电视的交互方式;爱奇艺等也纷纷涉足语音技术。
专业语音公司以其独特的解决方案而备受瞩目。
其中,交互方式的简单、便捷成为几乎所有语音交互解决方案所追求的一大效果。
说到语音交互的简单便捷,2018年10月20日Spichi推出的AIO3.1升级版中新增的一键功能引起了业界的高度关注。
AIOS For Car是Spirit今年10月推出的一款针对智能汽车后市场的对话式操作系统。
主要应用于汽车中控台、智能后视镜、HUD、互联网汽车等产品。
今年6月,SPEED升级至AIOS 3.0版本,新增7项功能。
10月20日,国家电投再发力,升级至AIOS 3.1版本。
积累已久的一键功能终于揭开了神秘面纱。
One-shot一词的意思是Das Bichi将one-shot功能描述为“一次”。
这个描述也非常生动,贴近现实。
图1 One-shot Spichi One-Short 据悉,One-shot One-shot采用“唤醒词+语音语义识别”一体化的方式,实现唤醒词与语音控制的零间隔、零延迟、无缝衔接。
,抛弃传统的问答形式,大大减少用户语音控制的步骤,实现信息反馈,化繁为简,实现简单操作。
然而,这样的简洁在设计之初并不简单。
One-shot的一大特点是识别唤醒和语义理解的融合,保证语音交互的统一性和连贯性,完成控制。
举个简单的例子,过去智能语音的交互方式是一问一答。
用户发出唤醒词命令,设备需要反馈待机信息才能开始交互。
例如: 用户:你好小池(唤醒词命令) 设备:请问有什么可以帮助您的吗? (设备反馈,表明处于信息接收状态) 用户:我想去机场。
设备:开始引导您前往机场。
One-shot功能可以一句话击中目标,实现“唤醒词+语音语义识别”的一体化,比如这个互动:用户:小池你好,我要去机场。
设备:开始为您导航至机场。

与传统导航相比,这种体验似乎更加高效。
也许未来,在人机交互中,机器收集用户行为习惯数据,追踪用户意图,实现如下对话也不是不可能:A:我一直有个问题想问你B:我曾经爱过... 系统响应速度和准确性始终是用户主要关心的问题。
AIOS3.1中的one-shot功能采用本地+云端混合引擎模式。
语音唤醒和常用语音命令识别均存储在本地,系统接收灵敏,语音识别响应准确及时。
同时,连续的语音识别和语义理解在云端进行处理。
基于场景,收集用户习惯数据,通过深度学习分析跟踪用户意图,保证语义理解的准确性。
本地与云端的混合引擎处理,保证了响应速度和交互的准确性。
即使在没有网络的情况下,仍然可以使用基本的语音交互功能。
GUI图形交互界面必然会不断前进和变化,而VUI语音交互界面是一大发展趋势。
Spichi一键功能的发布,展现了其在VUI产品交互设计上的深入思考。
相信通过不断提升语音交互体验,VUI必将在未来引发物联网行业人机交互越来越多的变化。
让技术说话:研发实力是关键。
很多车载后市场产品的用户反映了一个问题,就是使用车载语音时,说“我想去天安门”系统可以响应,但是当说“去天安门”时,系统却无法响应。
系统没有反应。
这就是为什么?其实,这是因为一些语音解决方案提供商将“我要走”三个字固化为唤醒词,而“走”“我要走”等词语与“我要走”并不完全匹配,所以系统自然无法识别。
这种交互方式表面上被宣传为“免唤醒”。
事实上,事实恰恰相反。
系统使用大量的唤醒词来实现这一点。
这导致了极高的误唤醒率,增加了系统资源占用,扩展性差,强制用户占用内存,给用户的安全驾驶带来隐患。
对于这个问题,Spichi产品总监雷雄国表示,“Spichi利用One-shot功能来解决这个问题,用户想说什么,系统就能听懂。
基于应用场景的深度学习,系统可以通过后台用户数据收集分析用户行为习惯,精准追踪用户意图,克服死板的关键词识别,通过大词汇数据实现场景的流畅交互。
”确实,语音技术企业的核心竞争力在于语音技术研发能力、产品化和市场应用,这已经成为企业的生存之道。
有的公司坚持自主研发,有的公司擅长使用国际开源工具,比如谷歌的开源深度学习系统Tensor Flow。
系统支持CNN、RNN、LSTM算法等流行的深度神经网络模型,大大降低了深度学习的应用难度,提高了开发速度。
但一般的开源工具在效率和权威性方面都存在局限性。
它们既不能满足特定前沿算法的需求,也往往不能满足用户基于场景的个性化需求。
不同专业领域的算法、数据、架构等都要靠实际实践。
构建和优化应用程序。
目前,在国内智能语音行业,深度参与技术研发的公司并不多。
例如,在深度学习方面,百度研究院推出了Deep Speech系统,科大讯飞推出了FSMNN算法模型,SPEED与上海交通大学的联合实验室则独立拥有VDCNN算法模型和PSD解码架构。
只有具备自主研发能力,才能根据产品特性和应用场景深度定制交互解决方案。
无论是新颖的一次性功能,还是传统的语音交互,在人工智能时代,只有将技术落地并转化为良好的产品体验,才能更好地描绘智能生活的未来。
我们期待更多的新技术,我们也期待新技术给我们带来的惊喜。
版权声明:本文内容由互联网用户自发贡献,本站不拥有所有权,不承担相关法律责任。如果发现本站有涉嫌抄袭的内容,欢迎发送邮件 举报,并提供相关证据,一经查实,本站将立刻删除涉嫌侵权内容。
标签:
相关文章
06-17
06-18
06-06
06-18
06-18
06-17
06-17
06-18
06-18
最新文章
Android旗舰之王的过去与未来
智能手表不被开发、AR眼镜被推迟,Meta的产品经历了一波三折
为什么Cybertruck是特斯拉史上最难造的车?
更新鸿蒙3后,文杰允许你在车里做PPT了
新起亚K3试驾体验:追求“性价比”,韩系汽车仍不想放弃
阿维塔15登场!汽车配备了增程动力,理想情况下会迎来新的对手吗?
马斯克宣布创建 ChatGPT 竞争对手! OpenAI的CEO给他泼了冷水, GPT-5可能会发生巨大变化
骁龙无处不在,是平台也是生态