如果你明白放大镜的原理,我想这个VR眼镜的原理你也不难理解。虚拟现实VR眼镜的结构一般都是“透镜+屏幕”的成像方式,透镜在眼前2-3cm处,屏幕距透镜3-6cm,虚像成像在眼前25cm-50cm左右。(这就带来了视力疲劳的问题,戴头盔眼镜时,视线将一直持续聚焦在25cm-50cm处,无法移动,并且视野里全部是电子显示屏,时间长后眼部肌肉会极度疲劳,想象一下你双眼距离电视屏幕半米以内一直不动……但上述光场成像则是模仿现实世界的真实光场信息,眼部聚焦点会不断移动,没有上述问题)
1、放大镜成像原理
当物体 AB 置于透镜焦距 f 以外时,得到倒立的放大实像 A′B′(如图 1-1(a)),它的位置在 2 倍焦距以外。若将物体 AB 放在透镜焦距内,就可看到一个放大正立的虚象 A′B′(如图 1-1(b))。映象的长度与物体长度之比(A′B′/AB)就是放大镜的放大倍数(放大率)。若放大镜到物体之间的距离 a 近似等于透镜的焦距(a≈f),而放大镜到像间的距离 b近似相当于人眼明视距离(250mm),则放大镜的放大倍数为:N=b/a[Ps:人眼能够看清物体的最近距离就称之为明视距离。实际上明视距离因人而异,对于近视眼,明视距离会短一些,远视眼会长一些。对于健康的人眼,明视距离在250mm左右,因此我们通常将明视距离就设定为 250mm。]
由上式知,透镜的焦距越短,放大镜的放大倍数越大。一般采用的放大镜焦距在10~100mm 范围内,因而放大倍数在 2.5~25 倍之间。进一步放大倍数,将会由于透镜焦距缩短和表面曲率过分增大而使形成的映象变得模糊不清。为了得到更高的放大倍数,就要采用显微镜,显微镜可以使放大倍数达到1500~2000 倍。
放大镜成像中,物距a(公式图中的u)、像距b(公式图中的v),焦距f符合以下关系
即1/b+1/a=1/f 由于像为虚像,所以b会在这里是负数;
2、头戴式眼镜成像原理
如上图,根据上述内容,焦距需要比物距大,而一般眼镜物距在5-7cm,我们设透镜焦距f为70mm,设屏幕物距a为55mm,根据计算公式的到b=-1/(1/f-1/a)=256.6mm,正好是明视距离左右。而由于现有的眼镜一般都不可调整屏幕距离,故a基本固定,可换透镜来调整f实现虚像距离的变换,对于近视,像距需要变短,f需要增大,一般选择较薄的透镜,对于远视则选择较厚的透镜。另外,在几个参数的调整中,基本都是几毫米的微调,需要权衡虚像距离过大(放大倍数大)而带来的像素颗粒感问题 和 虚像距离过近而带来的不够明视距离、视野较小等问题。
3、显示人看周围的世界时,由于两只眼睛的位置不同,得到的图像略有不同,这些图像在脑子里融合起来,就形成了一个关于周围世界的整体景象,这个景象中包括了距离远近的信息。当然,距离信息也可以通过其他方法获得,例如眼睛焦距的远近、物体大小的比较等。
在VR系统中,双目立体视觉起了很大作用。用户的两只眼睛看到的不同图像是分别产生的,显示在不同的显示器上。有的系统采用单个显示器,但用户带上特殊的眼镜后,一只眼睛只能看到奇数帧图像,另一只眼睛只能看到偶数帧图像,奇、偶帧之间的不同也就是视差就产生了立体感。
用户(头、眼)的跟踪:在人造环境中,每个物体相对于系统的坐标系都有一个位置与姿态,而用户也是如此。用户看到的景象是由用户的位置和头(眼)的方向来确定的。
跟踪头部运动的虚拟现实头套:在传统的计算机图形技术中,视场的改变是通过鼠标或键盘来实现的,用户的视觉系统和运动感知系统是分离的,而利用头部跟踪来改变图像的视角,用户的视觉系统和运动感知系统之间就可以联系起来,感觉更逼真。另一个优点是,用户不仅可以通过双目立体视觉去认识环境,而且可以通过头部的运动去观察环境。
在用户与计算机的交互中,键盘和鼠标是目前最常用的工具,但对于三维空间来说,它们都不太适合。在三维空间中因为有六个自由度,我们很难找出比较直观的办法把鼠标的平面运动映射成三维空间的任意运动。现在,已经有一些设备可以提供六个自由度,如3Space数字化仪和SpaceBall空间球等。另外一些性能比较优异的设备是数据手套和数据衣。
至于这个成像原理,我只能说是通过光的折射和反射实现的,有那么点类似海市蜃楼吧,总之就是把小屏幕通过“各种射”弄成我们在电影院里面的那种大屏幕效果。总之,简单的硬件配合VR内容(比如360度全景),就能让你获得沉浸感,这和蓝牙、WiFi、4G等,都没关系。有人说价格在500左右的VR设备。
哪个好?其实几十到几百的设备差别不是很大,都是把手机放进去,通过眼镜中的那两块镜片观看,具体的效果取决于手机的分辨率,价格贵一点的对眼睛好一点,看片不容易眩晕,佩戴舒适,做工好,而且镜片的特殊处理肯定更多一些。也没必要省那二三十块钱买个山寨的,因为正品的也贵不了多少嘛,至少体验会更好,对眼睛也好。
(来源互联网,51眼镜网整理)
网友评论