人机共驾时代 如何实现更理想的人机交互?

  自动驾驶会替代人类驾驶员么?长远来看,这是明显趋势 。盖世汽车研究院认为,现阶段处于L3级智能驾驶的导入期,未来随着芯片和算法性能的增加,智能驾驶功能将进一步升级 。但是短期看来,由于全自动驾驶的落地受制于法规、技术等方面的限制,人机共驾将是智能驾驶发展的常态 。
  在此大背景下,智能驾舱已经成为汽车厂商智能化竞争的焦点,而如何打造更理想的人机交互也成为影响淘汰赛的关键因素之一 。
  综合来看,多模交互融合是发展趋势,未来的交互还会加入心情、体感等感知,从而推动智能座舱产业链更加丰富和立体 。而最终想要实现智能的人机交互体验,则离不开产业链上下游每一个环节的努力与合作 。
  主动式多模交互是未来发展趋势
  经过多年的发展,车内的人机交互现多为按键、触控、语音、生物识别等多种方式组合,集成于车载显示系统、智能座椅、内饰等多区域,以打造智能化、个性化的座舱空间 。
  诚然,智能交互模式日益丰富,但是更重要的是如何建立交互模式之间的融合和联系 。“如果只是简单地增加交互模式,消费者的体验满意度会比较有限”,某零部件公司员工从发展的角度来看待这个问题 。
  这就在一定程度上决定,智能座舱的主流趋势之一是朝着多模态融合交互的方向发展 。在2020-2023年各大汽车厂商的产品规划中,我们就可以看到智能驾舱多模态交互已成为重点规划产品 。
  相比一味地丰富智能座舱的交互模式,业界认为多模态交互能够实现迅速精准地理解、满足用户需求 。比如,当语音输入“我想看看这栋楼后面的小吃街”时,用户需要说一句完整的话才能实现交互目的 。而且,用户口头上常用的词语可能多义或者歧义,比如“这栋楼”、“那条街” 。但是如果用户采用多模态交互方式,语音和眼动追踪相结合能够快速完成交互目的 。
  另一个趋势是,基于用车场景的功能开发,智能座舱逐步提供主动式交互服务 。以长安UNI-T为例,其位于内后视镜部位的AI摄像头可实时感知车内场景,识别用户的场景化需求,主动提供相应的服务 。如果检测到前排人员吸烟时,系统会主动打开吸烟模式,并半开车窗通风 。
  综合而言,现阶段智能座舱处于能力增长期,人机交互仍属于初期阶段 。之前的智能座舱更多聚焦在语音上,为了提升座舱的智能化程度,座舱需要更多传感器来感知车内状态 。
  由此,盖世汽车研究院总结道:一方面以语音为中心的多模交互是未来发展方向之一,从“被动听到需求”到“完成需求”,这是个准确但被动的过程 。另一方面,以视觉为中心的主动式交互也是未来发展方向之一,从“主动发现需求”到“完成需求”,这个过程具有模糊性但是主动 。因此,语音+视觉相结合形成主动式多模交互是未来的发展趋势 。
  更理想的人机交互,如何突破
  中国消费者对数字座舱类体验的支付意愿也较高 。根据《中国消费者共享汽车使用情况调查》,近50%的消费者对具备智能化感知交互的汽车表示具有强烈兴趣和支付意愿 。
  诚然,当下的车内交互方式较为丰富,相关市场也较为广大,但是想要达到理想的人机交互还需在技术和逻辑设计层面有所突破 。
  就实际应用来看,有些现已存在的交互方式并没有升级用户体验 。蔚来汽车内部人士在接受盖世汽车采访时表示:“有些交互方式的存在更多的是为了证明技术的可实现性,看着酷炫,实则鸡肋 。”