未来人车交互要如何发展?科大讯飞或许揭示了一条正确路径

未来人车交互要如何发展?科大讯飞或许揭示了一条正确路径

文|佘牟

图|网络

最近两年各类新造车势力与互联网汽车产品的频繁出现,恰好印证了汽车的电动化、智能化、网联化以及最终的共享化已经成为行业共识。身处消费端的我们可以察觉到变化是,5-10年前,人们的购车标准看重的是一辆车的品牌、外观内饰设计以及动力操控性能,而现如今车辆的服务生态和人机交互能力迅速上位成为重点维度,甚至进化为品牌不可或缺的基因。

特别是在90、95后消费者当道的时代,在互联网背景下成长起来的这一代年轻人显然无法接受车内车外的场景割裂,“交互”的重要性进一步凸显。根据J.D. Power 2018中国消费者智能互联汽车认知调查显示,就有超过90%的受访消费者表示未来购买新车时,将会优先考虑智能互联汽车,而其中道路安全监控、远程控制、车辆健康监控、语音交互和互动娱乐又是需求最为旺盛的五个维度。

未来人车交互要如何发展?科大讯飞或许揭示了一条正确路径

不难发现,语音交互是当前人车交互的核心,而一向走在这块业务前沿的科大讯飞在过去10年中为行业及多家主机厂提供了智能语音助理和车载系统,而放眼最近两年上市的新车,没有语音系统的产品几乎不会得到消费者关注。

换句话说,语音交互已经是车内刚需,用语音控制导航和音乐是家常便饭。不过即使语音的体验已经变得很成熟,但用户的需求一直在变。从用户的需求层次去分析,未来的汽车用户有3大痛点:一是音乐、导航、餐饮等服务在车机上的使用习惯仍需培养,第二则是同质化,越来越多相似的语音产品诞生,和新兴消费人群匹配度不高,并且不同的汽车品牌也需要在一块上作出差异化;第三则是用户心态的变化,他们对汽车的智能化要求不仅体现在车机上,而是整个汽车。

为了应对汽车厂商和用户的需求变化,科大讯飞在不久前的1024开发者节“AI+车载分论坛”上发布了一款软硬分离的飞鱼OS车机系统,并试图构建一个面对全行业开放的智能架构。

软硬分离是如何实现的呢?科大讯飞通过双层级+多生态的模式建立起飞鱼OS软硬分离的能力,为了更好的满足不同客户的需求,还专门拆分了两个层级——LITE版和PLUS版。并且通过飞鱼OS可以快速实现集成和对接。PLUS版比lite版更深度定制系统的framework层,甚至一些hal,kernel层的部分模块。

未来人车交互要如何发展?科大讯飞或许揭示了一条正确路径

仅仅将软硬分离的外界对接工作做好还不够,科大讯飞还考虑到了每一家主机厂的车联网服务能力差异较大,于是通过对后台能力的兼容和拓展来为车厂定制兼容更大的多生态集合,以保证用户在手机上常用服务和能力能够很好的使用。

基于此,在最终的用户体验效果上,这套车机系统呈现出三个特性:

◆ 全闭环的汽车智能语音交互核心技术。包含语音合成、声源定位、窄带波束、声纹识别、智能打断、语音唤醒、语音识别、自然语言理解、听歌识曲。整体组合核心技术,为用户带来更好的效果体验。

未来人车交互要如何发展?科大讯飞或许揭示了一条正确路径

◆ 多音区方案。随着车内更大空间的趋势,满足车内更多人的智能体验需求,我们实现了车内的多音区方案,以保障能够支持后排乘客更好的使用智能语音。同时更好的声音品质也是配合最终效果的一个非常重要的维度,我们启动了娱乐系统主机音效升级技术探索。

◆ 从能听会说到察言观色。除了从声音维度的优化提升外,我们开放了车内车外的视觉感知能力,从而让驾驶更安全,爱车更懂你。

从技术角度来看,这套系统增强了汽车听、说、看三个维度的能力,听的部分在声纹识别和降噪模块的基础上增加了多音区能力;说的部分则是在技能平台、AIUI的基础上,增加了XTTS和音效;看的部分,在360度环视的基础上,增加了人脸识别和疲劳识别能力。

更重要的是,这套智能架构是面对全行业开放的,主要分三个部分:汽车AI技能开放平台、硬件开放和运营组件开放。

◆ 汽车AI技能开放平台。科大讯飞目前在汽车上已经上线的有47项,主要包括7大类场景,而未来更多的细分场景将由开发者来继续完善更多的汽车优秀技能。汽车AI技能定制平台就是有力支撑,可以支持开发者或客户的技能1s上线,实时生效。最重要的是,这个平台可以帮助客户或开发者能有效的收集用户数据并且通过智能化分析,优化和不断打磨自己设计的技能,从而为用户提供更好的服务。

◆ 硬件开放平台。通过硬件平台的开放接入车机硬件、座舱硬件、后装设备,第三方智能驾驶、辅助驾驶接口,客户和合作伙伴可以快速集成和使用。通过平台的整合,让合作伙伴能更轻松的实现智能互联和最优秀的人机交互解决方案。

◆ 运营组件开放。开发出场景模型和各种生态接入接口,为合作伙伴提供相关运营组件通道,让服务智能找人、直达用户。

未来人车交互要如何发展?科大讯飞或许揭示了一条正确路径

基于上述想法,科大讯飞给出了未来人机交互系统升级的几个方向:首先是多模态交互,利用多种传感器,比如麦克风、触摸屏、摄像头等技术,融合人工智能识别和理解技术,实现的多场景呈现和交互的能力。

其次是实现多乘客交互,具体场景表现就是当车辆后排的乘客说“打开车窗”,这时候在这位乘客的一侧的窗户会被打开,但不会影响其他乘员位置的车窗。该能力从技术上是基于整车多乘客需求,2或4麦空间定位技术,即使同时说出指令,也互不影响,目前第一步已经在蔚来汽车ES8上实现落地。

最后一步是情感化交互,也就是所谓的AI.虚拟个人助理,人机交互一定会往类人的多情感方向发展,所以依托人工智能技术,用情感化设计语言和拟人化设计打造的具有更加懂我能力的个人虚拟助理,最典型的例子,就是ES8上的nomi车载智能系统。

未来人车交互要如何发展?科大讯飞或许揭示了一条正确路径

蔚来nomi车载智能系统

小结:

从产业的格局去看,一套着力于交互的车机系统不同于某一车厂、某一互联网公司主导的生态系统,它应该是更开放、更从用户需求和习惯出发,让生态自然增长,飞鱼OS就是这个理念主导下的产物,同时也是科大讯飞明确自身定位后对未来作出的判断。在整个去中心化的生态系统中,讯飞希望做一名生态促进者和体验升级的促进者,而不是传统汽车厂商关系中的供应商角色,力图让科大讯飞强大的AI能力对外开放,接入更多生态伙伴接入,才会令整车变得更加智能,从而加速整个行业的变革。

推荐关注:
购物攻略
话题:购物攻略 +关注
汽车自驾
话题:汽车自驾 +关注
爱车EDC
话题:爱车EDC +关注
车载影音
分类:车载影音 +关注

提示

鼠标移到标签上方,

尝试关注标签~

评论0

发表评论请 登录

7 0

关注数量超出限制,请先删除部分内容再尝试

关注数量超出限制,
请先删除部分内容再尝试

登录
注册
用户名/邮箱
密码
验证码
看不清?点击更换
看不清?点击更换 忘记密码?

已收藏
去我的收藏夹 >

已取消收藏
去我的收藏夹 >

小提示