本文是由BlinkQ翻译的Google官方文档:Google VR 应用发布规范 之 设计规范 之 控制器规范(原文地址:https://developers.google.com/vr/distribute/daydream/design-requirements)。
Google Pixel 和 Daydream View的发布让我们看到Google开始了Apple式的软硬件结合(还包含智能家居套件和物联网标准,有空讨论),Daydream标准也有望成继Cardboard之后真正将VR带给普通消费者的技术。
如题图所示,Daydream View(Google VR头显)上并没有按键或任何输入设备,一切用户操作全靠那个小巧的手柄:Daydream Controller。任何Google VR Apps必然用到控制器,本文通过翻译来为你讲解Google的控制器规范和交互理念:
以下是译文:
UX-C1: 控制器作为激光指针来点击UI元素
Laser Pointer.png当你的Apps需要提供2D UI界面/面板浮动在虚拟世界中的用户面前让用户点击选择时,你需要让Daydream 控制器成为一个「激光指针鼠标」,以方便用户在这些UI控件上交互,例如菜单界面、列表页面、暂停窗口等。
当然,一些游戏可以不受这个标准影响,游戏中也可以使用头部凝视进行交互(Cardboard或GearVR那种头控锚点——译者注)。
注:我们(Google VR)不拒绝开发者在应用中加入附加的控制设备,如游戏手柄,毕竟这样可能更有游戏性,但是所有Apps在只有Daydream 控制器时也要能正常使用。
当应用与UI元素交互时,以下几个特性必须在各个应用间保持一致:
- 使用手臂模式(arm model)。
- 使激光射线比真实角度低15度【你只用知道这是人家一群牛人研究很久的结果就对了——译者注】。
- 在虚拟场景中显示虚拟的控制器(推荐,不强制)。
- 在虚拟场景中能看到激光射线(推荐,不强制)。
使用手臂模式(arm model)
注意,手臂模式专门针对通用界面指向交互而设计(不适合游戏中的投掷或击打),并且方便用户观察控制器上各个按键的状态。
Arm Model.png【从图上看,肩膀与大手臂是固定的,也是自然垂下的,能动的只是前臂和手腕部分,所以更适合界面操作,而不适用于所有游戏。官方DEMO也证实了这点。——译者注】
将激光射线降低15度
系统界面与Apps都要遵守这个规范,非常重要!这样用户在各种应用中的体验是一致的,可以形成「肌肉记忆」,以免神经错乱。
在虚拟场景中渲染手柄(推荐,不强制)
Render the controller.png我们强烈建议你在UI元素交互界面中直接使用我们辛苦研发大半年的 Daydream 控制器 3D模型,它的好处可多了:
- 将现实元素带入VR将大大增加临场感。
- 可对控制器上的各按钮或工具进行说明。
- 可提示用户当前哪些按钮是可用的(例如不可用的置灰,可用的高亮)。
- 可提供控制器上各按钮是否按下的视觉反馈。
- 提高应用与Daydream平台的一致性,减少用户学习成本。
显示激光射线(推荐,不强制)
射线可见 射线隐藏(实际上有射线),只显示锚点激光射线可见的好处是:
- 快速发现锚点。
- 最直观的方式表达用户手部动作对射线角度形成的影响。
- 实时反馈。
- 从其他交互方式(如驾驶、飞行、砍)切换到射线交互方式时给出提示。
译文完
网友评论