智能车行业的风口越来越大,国内外各大互联网巨头都在联合传统汽车企业一起探索智能汽车的设计研发。比如智能驾驶驾驶技术,车内人机交互技术等等,在将来,驾驶员在车内必将更自由、更舒适、更安全的,智能汽车将为驾驶员甚至是不会开车的“驾驶员”带来前所未有的体验。
本篇文章,会结合当下新技术的发展,简单聊一下人与车的交互模式,畅想新一代人车交互方式会是什么样子的。首先说道交互,其本身应包含两个层面,一方面为“交互技术”,一方面为“交互设计”。就人车交互而言,简单的概括如下:

如上图所示,虽然我是分开写的,但两者并不是相互独立的,“交互设计”需要有“交互技术”的支撑,而“交互技术”需要通过“交互设计”去应用,他们的目标都是为了更好的提高用户体验。接下来文章,我主要从交互设计层面出发,结合相关技术,说一下对未来汽车交互的看法。
交互界面与中控布局设计


上面两幅图分别为传统汽车的中控台与智能汽车的中控台,可以看到,无论是中控布局还是交互界面上,都已经发生质的变化。主要表现为,物理按钮大量减少,中控大屏取而代之。
随着技术的发展,需要显示的行车信息会越来越多,有越来越多的功能也需要去控制,所以,单靠物理按键是无法实现,所以,中控屏幕未来会是不可或缺的元素。但是,市面上并没有标准的系统规范和交互形式来约束,各大厂家都在研发自己的中控系统,很多元素以及操作逻辑都在延续移动端交互的原则,但这样其实并不科学,通过分析驾驶场景和驾驶员行为,提出如下设计观点:
中控布局上:
移动端操作系统为沉浸式操作,大量的应用直接堆积在屏幕上。而车载系统不一样,在驾驶过程中,驾驶员95%的精力都会聚焦在驾驶上行为上,能抽取仅5%左右的精力与时间来操控车载系统。因此也就决定了车载系统的信息布局都必须在极短的时间内以最好的方式呈现。给人的感觉就是 ,直接、快速、准确。
曾经在一篇文章上看到过一种名为“三秒原则”的车载系统设计规则,概括如下:
第一秒 视觉
用户在0到1秒的时间内,对车机进行扫视,在这个过程中,应用场景的重点信息与功能入口必须能被用户在这个时间以内发现。
第二秒 行为
用户在交互行为过程中从开始至结束时间上不能超过一秒。
第三秒 反馈
内容在交互行为结束后,在第三秒的时间里必须有强烈明显的反馈告知用户操作成功。
在满足以上“三秒设计”的原则下,车载系统设计才能达到可用性范畴。
交互界面上:
对于交互界面,主要是指,中控屏幕上的信息显示以及相关的内容排版,它主要体现在一下几个方面。
色彩:不宜过多使用高饱和的颜色。不然会影响驾驶员视觉的余光,难以聚焦在前方画面上。同样,也应避免使用同一色系的方案,因为这样无法在1秒的安全时间以内让用户有效果的判断识别信息。
字体:通过字号字重来区分主次关系,用户在扫一眼的过程中即可准确的看到重点信息。
图标:ICON的设计形式,可更多结合应用的内容,达到信息与功能的融合。
内容排版:在功能与入口的布局上应尽可能的根据热区分布来设计。功能布局尽量设计在离手最近的位置,缩短操作距离,将信息展示区放置在右侧。下图是特斯拉中控大屏的信息模块化分。

交互界面与中控布局,都是视觉信息的范畴,而当下 AR 技术发展迅速,它使得视觉信息脱离了屏幕,进入一个全新的纬度。而AR技术会怎么样应用在我们的驾驶舱当中呢?
在驾驶过程中,人们的视觉主要是看着汽车的前挡风玻璃的,这也使得汽车的前挡风玻璃,成了最好的信息显示区域之一,如果我们可以把相关导航,还有一些重要的信息直接利用AR技术呈现在驾驶员视线的前方,这样,在保证用户视线不离开前方道路的情况下,可以实现信息的实时反馈,从而大大提升车机交互的体验。在未来,这种名为AR HUD技术必然会被大量的应用。

语音交互设计
上文说道,在驾驶过程中,驾驶员的视线是基本不会离开前方道路的。那么,在这种视觉通道被占用的情况下,利用听觉通道接收信息便成为新的可能。所以,语音交互为安全驾驶提供了新的一种交互方向。现如今,随着语音识别、声纹识别、人工智能、机器学习等软硬件领域不同技术的发展,也使得这种方式能够落地,并被逐步优化与完善。

简单来说,语音交互就是通过语音与汽车完成一系列输入和输出,进行信息交换,最终达成用户目标的人机交互方式。它具有很多优势:
解放双手:对于汽车上需要用收取控制的的空间,都可以使用语音进行控制,如调节天窗,调节空调等等。
易学习性:声音是人与人之间基本的交流方式,不同年龄段、不同能力技术水平,应用我们的直觉,就可以掌握。
便捷性:当执行的任务比较简单时,如:导航去某地,语音输入比打字输入更快速、简单,在语音识别准确率高的情况下,用户可以完全相信语音,无需再用视觉方式来给用户安全感。
低复杂度:语音交互可以直接解决用户的最终目标,没有复杂的层级关系。
但是语音交互也存在先天性的不足,比如需要输出大量信息时,效率会比较低。人与系统交互时通常使用的是短时记忆,能记住的信息就 15 s左右。所以可能会发生这样的情况,在进行多步骤、多选项任务时,系统还没有说完选项,用户已忘记前面内容,这在驾驶场景中是十分危险的。
总结来看,语音交互在车载系统中应用时候,主要是可以应用在一些提示功能上,再就是运用在一些简单命令控制任务上。而对于复杂的任务流程,还是需要配合界面或者物理按钮进行操作。这也提醒我们在进行车载语音交互的设计时候,要尽量避免信息过载的情况。
手势交互设计
近年来,手势交互技术也逐渐成熟,相关产品也不断涌现,如任天堂 Wii 和微软 Kinect等已经彻底地改变了传统游戏的交互方式,这些设备能够识别常见的手势和身体姿势,而汽车手势交互作为一个较新的交互设计领域,也为交互设计提供了新的挑战和机会。
和语言交流一样,手势交流也是人的本能,甚至人类在学会语言和文字之前,就已经能用肢体语言与人交流。它也是一种直觉化的,易学习的交互方式。
上文提到,汽车的前挡风玻璃是最好的显示区域,在这样一个巨大的且不好触碰的显示区域下,如何去控制其显示内容呢?这时,我觉得手势交互便是最好的解决方案了。未来随着AR HUD技术在车载电子中的不断普及,手势识别技术必然将会在在这次产业升级、技术更新当中,扮演重要的角色。
在进行车载环境下的手势交互设计中,应注意,相应的汽车手势及应用应该是简单易学的,并且手势的数量需要得到严格限制,从而降低用户的分心和操作失误可能性。在未来,应尽量采用容差性较强的手势捕捉方案,用尽可能少的手势来控制不同界面的不同功能,以实现手势的大范围模糊操作,从而减少需要手眼协调的情况。
目前市面上同样没有一套科学统一的手势交互方式,一旦统一成为标准的手势语言,不仅仅是在车载场景下,在移动设备、桌面设备和物联设备等都可将应用于手势,用户将在一个设备上学会的手势自然应用到另一个平台上,会大大方便人们的生活。
硬件交互设计
我先描绘几个车内场景,这样可能大家就会容易理解什是硬件交互了。
当驾驶员闷热时,座椅通风会自动打开
当驾驶员需要休息时,座椅会自动调整为最舒服的位置
当驾驶员烦躁的时候,它可能会将空气清新剂的气味转变为平静的状态,并建议你减速
我们不禁会问,这是AI吧。没错,这一类的交互方式是需要先进的人工智能技术与汽车硬件相搭配,才能达到和实现。其实它离我们并不遥远,现在很多厂商,都在对汽车硬件赋予更多的交互功能,来提高用户体验。
这里想多说一下,倘若AI技术发展到了一定程度,我们应该如何利用这项技术去设计交互呢?通过上述的情景,我们应该可以找到答案,那就是依托于人们情感。当技术解决了硬性的功能问题,那么情感化设计,就是交互体验的另一个飞跃,它会把人车交互升华为人车协同,从此汽车会更懂驾驶员需要什么,车不单单再是一个驾驶工具,而更像是一个智能化的产物。
无人驾驶技术
读到现在,交互设计的几个方面都已经说完了,也顺带这说了大部分技术,但是好像一直没有提过自动驾驶技术,最后来说一下。
国际汽车工程师学会(SAE)现将自动驾驶技术分为0级、1级、2级、3级、4级、5级,共六个级别。具体的级别划分和描述如下图所示:


我们上文分析的所有场景,基本还是以驾驶员为主导的驾驶场景,并不是全自动化的无人驾驶。目前无人驾驶技术同样非常火热,无论是美国的谷歌,还是国内的百度,都对此非常上心,并且也都取得了巨大的进展,但是能够达到全自动化的无人驾驶,并能投入生产,进入寻常百姓家,还需要走很长的路。
当然,如果真的能够实现全自动的无人驾驶,并且人们也愿意放心接受这样出行方式,的那么汽车的驾驶舱就完全可以考虑驾驶行为之外的东西了。这样一来,对于驾驶舱空间的职能,便被大幅度拓宽,驾它甚至可以是另外任何的空间,比如电影院,试衣间,咖啡厅,等等等等。这对人车交互领域更会有颠覆性的创新。
总结
结合上面的相关描述,对于未来人车交互模式,可以预见的是,在未来,人与车之间的交流,一定是更加自然,更加友好的,新技术的发展会为人们的出行,增添更多想象空间。
网友评论