前言
近期做乐视商城VR版,在工作中积累了一些知识,整理出来持续学习。
VR的交互设计是为了更好的帮助用户体验虚拟现实,更体贴地发挥VR设备的效能,这点和其它设备上的交互使命一样;但区别于手机、手表等平面化的UI,VR UI是360°全景,有景深、有经纬,像球体一样的。因此,做UX设计之前要对硬件有基本的了解(Jolene对硬件结构组成也还在探索阶段),并且设计师要真正带上头盔去体验,欢迎大家指正。
Hardware硬件
目前,市场上主流的有两种VR头盔:一种是通过HDMI/USB连线主机或游戏机,需要高性能显卡和处理器,这类VR昂贵,例如HTC’s Vive 和 Rift,虽然此类头盔成像完美,但是在头上和电脑接根线总是怪怪的;另一种是直接插手机的,被称作盒子(Cardboard),是通过内置镜片对手机屏幕进行广角化来模拟立体视觉效果的,体验与前一种相差甚远属于入门产品,如Google’s Daydream,Samsung Gear VR,等。
除此之外,近期预售的“一体式VR”集成了系统、显卡、屏幕,呈像效果优于盒子,并且不需要连线到电脑,使活动更自由,成为后起之秀。
详解“头上插线”的传送门 https://www.cnet.com/news/everything-you-want-to-know-about-the-htc-vive-pre/
Resources 资源
虚拟现实里的景象是要令人信服的,至少需要60fps(frame per second 每秒帧率),不然用户会吐槽动画卡顿,最新的VR头盔产品Oculus已经满足90fps,实际上Sony的 PlayStation VR 达到了120fps。
Sensor 感应器
性能优越的VR设备,所装备的感应装置也就越全面,例如:Head tracking 头部追踪,Motion tracking运动追踪,Eye tracking 眼动追踪等,后面单独例举;
Multi-Touch 多点触控
类似Macbook上的触摸板,允许用户多指操作,后面单独例举;
基于眼部的识别技术,如:Retinal scanning视网膜扫描,Iris recognition虹膜扫描,等;
双眼分辨率
区别于移动端的界面,VR分辨率分为单眼/双眼分辨率;目前普遍有两种,双眼1920x1080,2160x1200;
外部设备
VR头盔可配套外接体感设备,如:手柄、控制器等,一般来说配有此类追踪器的产品都会比较昂贵;其它还有:3D立体声音频输出设备等。
Sensor 感应器
越逼真的VR反馈,需要越全面的动作追踪,越全面的动作追踪需要越多的感应器,下面例举一些基于感应装置的追踪:
Head tracking 头部追踪
当你带上VR头盔后,通过测量头部的前后左右转动来展示带有x,y,z轴的不同景别,无论抬头、摆头,相应的景别都在你面前,系统称为6DoF景(六度自由景象);
Motion tracking 运动追踪
因为虚拟现实环境、追随人的移动,用户坐着、站着、躺着来用你的VR应用都会对虚拟现实的拟真程度造成影像,此时若能判断用户坐下-站起的动作,在虚拟现实中还原出视线抖动既是运动追踪;
相关交互
Eye tracking 眼动追踪
头盔内置红外传感(infrared sensor),得知你的眼睛在虚拟现实中正在看什么;除了可以更精确的参与互动外,还可以看到更逼真的景深;VR显示屏内每个点都很锐利,当你转动眼睛而不是头时,看到缺乏聚焦虚实的场景有可能会造成晕眩,并且你的大脑也会感到“不真实”。
相关交互:具备在3D空间中基于一个凝视就能控制物体或UI的能力,使用户体验更精准而直观,它可以废弃掉“光标”,快到差不多只要你想到就可以控制到。
ORIENTATION tracking 方向追踪
获取方向,及时模拟旋转;
POSITION TRACKING 位置追踪
也就是常说的获取用户地理位置,用于地理定位的一系列传感器;
可以看出,VR体验包含视觉的、动作的、听觉的几方面维度,其中尤以各种感应器为重,UX设计时要充分考虑和利用。
未完待续