首页文章主流VR设备大评测,元宇宙离我们还有多远?概念手机「主流VR设备大评测,元宇宙离我们还有多远?」

主流VR设备大评测,元宇宙离我们还有多远?概念手机「主流VR设备大评测,元宇宙离我们还有多远?」

时间2025-01-17 08:50:26发布yu分类文章浏览174
导读:酷玩实验室作品首发于微信号 酷玩实验室...


酷玩实验室作品

首发于微信号 酷玩实验室

微信ID:coollabs

20年前当移动互联网还是一片迷雾,人们在期待会有一个盖世英雄,脚踏七彩祥云把一台划时代设备带我们面前,它能在轻巧的移动端实现所有在PC互联网所具备的功能,把世界带入到移动互联网时代。后来我们知道,那个盖世英雄叫做乔布斯,而那件神器就是Iphone4.


现在我们畅想元宇宙,必然也会有那么一台划时代的设备,它会是什么样的呢?会由谁来把它带给世界呢?


最近我们这边经常封控,我用很低的汇率购买以及租用了现在几乎所有的主流VR设备,包括销量最高的Oculus Quest2和硬件配置几乎一模一样的国货Pico Neo3;性能优秀但不具备一体机功能的PC VR头显HTC Vive Pro2和Valve Index;视野最广的小派8KX;爱奇艺出品的奇 遇3;还有最便宜最便携的华为VR Glass套装。综合公开的技术报道,让我们一起探究一番。

1

在讲VR设备之前,我想还是要先回顾一下在我们有生之年发生的智能手机,移动互联网革命。

为什么大家普遍会认为iphone才是真正的智能手机,而之前的那些都是半吊子货呢?因为有珠玉在前。

自1984年苹果推出Macintosh电脑引入了鼠标和图形界面操作系统以来,电脑在九十年代末2000年代初已经进入了很多家庭,街边也早已网吧遍地,玩电脑用电脑对于当时的年轻人来说已经是一个日常体验。

而所谓智能手机,就是要在移动端电脑的体验,而之前那些所谓智能手机在这方面做得都不够好。

在智能手机出现前的一段时间,电脑本身也在高速发展,并且在90年代出现了一次巨大的变革。


也就是在1992年,约翰卡马克发明了3D游戏引擎,给电脑3D图形能力提出了更高的要求,到了1999年,英伟达推出了划时代的Geforce256系列GPU,从此拥有强大的3D图形渲染能力成为了电脑的标配。而当时所谓的智能手机都没有这个能力,所有的画面都是2D贴图,看一眼就知道两者根本不是同一个维度的东西。

所以要实现移动端的电脑体验aka智能手机,首当其冲的当然就是要拥有至少相当于90年代末电脑芯片的算力。好在当时摩尔定律还在发挥效用,同样尺寸同样价格的芯片算力每一年半还在翻番,甚至功耗还会下降,于是几年之后手机端的芯片逐渐就达到了要求。

如果对标奔腾3 CPU加上Geforce256这对组合的话,会发现2006年发布的诺基亚N93搭载的德州仪器OMAP2420在性能上还差着数量级,到了2007年发布的初代Iphone也还有明显的差距,而到2009年的iphone3G上搭载的三星S5PC100就已经明显超过了这个标准。

除此之外,智能手机跟功能机的显著区别还在于屏幕的大小。


iphone的3.5英寸屏幕明显远超之前功能机常见的1.5英寸屏幕,但其实大屏幕的瓶颈并不是在屏幕本身,更大屏幕的LCD电视早就有了,问题还是在芯片的图形算力。屏幕跟着分辨率走,分辨率跟着芯片走,当芯片的问题解决之后,显示就不再是问题了,Iphone4在搭载的苹果首枚定制手机soc A4之后,就实现了肉眼无法看出像素点的视网膜屏幕。

然后从交互上来说,因为我们人的手总共就只能握持这么大点东西,之前功能机时代键盘比屏幕还大的那种设计显然严重限制了交互的信息量,于是全面屏+触控是唯一合理的选择。

之前曾经出现过的按压式触控和用触控笔的触控,除了操作不方便之外,更大的问题是,它相对于电脑端的键盘鼠标操控,损失了太多的维度,鼠标你可以精确地控制拖拽,放大缩小,左右键和滚轮可以代表不同的操作,而按压式触控或者触控笔只能点,这就把人尬住了。

最终解决这个问题的答案当然就是我们现在熟悉的多点触控电容屏。


1965年,美国马文镇皇家雷达研究所的约翰逊在《电子通报》杂志上发表了一篇简短的论文《触摸面板:一种新的电脑输入设备》,并在里面描述了自己对电容式触摸屏的设想:

“屏幕的主体是一块复合的玻璃屏,内表面涂有一层名为ITO的金属氧化物,四角有四个电极。当手指头触碰到玻璃屏的时候,由于人体自带的电场,会令手指头和玻璃内层的金属层形成一个电容,从而’吸走’该位置的少量电流。这个’泄漏’的电流是从四个电极流出来的,而且理论上流经不同电极的部分与手指头到电极的距离成正比。通过控制器的精密计算,就可以准确地得到手指头的位置。”


两年后,约翰逊将这个设想变成了现实,制造出了人类历史上第一块触摸屏,这是人类有史以来第一台不用按压,摸上去就能完成交互的设备。

1998年,特拉华大学的韦恩韦斯特曼和约翰伊利亚斯发明了多点触控技术,随后注册了FingerWorks公司开始创业。

然后在2005年,这项技术被一直在寻找智能手机完美交互方案的乔布斯发现,于是苹果收购了fingerworks公司。

在完成了这一系列的整合之后,乔布斯在2007年推出了第一代iphone,经过几代的迭代优化,在2010年的iphone4最终成为了那个划时代的产品,再配合2008年推出的3G和2012年推出的4G移动网络,以及中国加入WTO带来的硬件生产成本的大幅减低,最终把人类带入到了移动互联网时代。

2

那既然智能手机是要电脑的体验,VR是不是要在虚拟世界智能手机的体验呢?

并不是,VR元宇宙的格局要大得多,它要的是我们现在所处的这个宇宙。

于是我们同样要看一下现在所处的这个世界,它的显示,它的计算,它的交互,分别达到了怎样的效果。

首先从显示上来说,我们这个世界是无边无际的,每天我们一张开眼睛,就会被这个世界的信息整个包裹,即便人类发射的最远的航天器已经飞出了太阳系,我们也从来没有看到这个世界的边界在哪里。


这一点看似只要通过用一块屏幕,罩在我们眼前就能实现,早在1968年,ARPA(也就是国防部国际计划研究局的前身)信息处理技术办公室主任Ivan Sutherland就做出了历史上第一台头盔式显示器,2014年google发布的Cardboard也是在做同样的事情,但实际上并没有那么简单。


首先人眼有一个可以看到的范围,大概是单眼转动能覆盖155度,双眼能覆盖190度,理想的VR设备需要包裹这整个视野

不然的话你的主观世界边缘会呈现出黑洞洞的混沌状态,会有一种井底之蛙看世界的感觉,非常的不爽。

我们用Steam上的FOVtest工具测量手头几款设备的视场角,我们头部保持不动,用眼球转动的方式去观察刻度与目前视场角最大的小派8KX的官方标称双眼FOV是200度,实测也有单眼120度、双眼158度的水平,尚没有达到完美,但已经比较接近。


另一个显示上的问题是,我们的世界是无缝跟踪的,我们开车往前走外面的世界就会相对地往后移动,中间的响应时间是距离除以光速,我们人类是感觉不出来延迟的。现实中也从来没有出现过我们移动了之后外面的世界不动乱动或者过一会儿再跟上的情况,是完全无缝的跟踪。

而为了在VR设备上实现这种无缝跟踪,首先设备要清楚的知道它自己所在的位置,并且在我们自身位置移动到屏幕显示出相对运动后的世界,中间的响应时间不应该为人类所察觉,也就是大概要控制在20毫秒以下。


这是巨大的挑战。

在我们的智能手机上,装备有陀螺仪和加速度计,可以感知自身的角度变化和运动,使得我们可以有一些,比如说把视频自动翻转过来,或者主视角射击的游戏等等应用,早期的VR设备也是用这个原理,在实现画面对于我们运动的跟踪。

但是这里有两个问题,一是手机只能知道自己在动,没有办法知道自己在空间中的绝对位置,靠GPS只能知道自己在二维平面的位置,并且精度最多只能到1米,也就是说会出现横向纵向的漂移并且无法修正。


第二个问题当然就是,我们在转动或者走动的时候,手机屏幕会有大概300毫秒的延时,那就会有一种我们在甩着或者拖着这个世界运动的感觉,在VR里面感受会非常离谱。

第一个问题我们解决它有一段探索的过程,最先尝试的消费级厂商是HTC,它在HTC Vive这款设备里面,最先采用了增加两个外置基站,用HTC Vive头显的外壳密密麻麻32个红外传感器分别接收两个基站的红外线闪光,再计算距离最终VR头显的位置和角度。

但是这个方案最终被证明不靠谱,这种每次玩之前要设置基站的过于麻烦的操作以及随之带来的硬件成本,实践证明并不能为消费者所接受。

最终解决这个问题靠的是AI。

在Oculus Quest里面第一次出现了由内而外定位的Inside-Out方案,也就是用前置的四个红外摄像头,对于外部的环境进行高速的AI建模,相当于把你的房间的3D图画出来了,那相对应的就知道设备本身在这个环境中的位置了。


目前这个方案的效果怎么样呢?我们也来做一个测试,我们用手柄划一个边长2米左右的三角形,在三角形顶点位置放下细小的标记物;然后玩20分钟游戏,再进入活动边界设置,再次在三角形活动边界的顶点位置放下第二批标记物。

测量两个三角形的面积和三组顶点的距离,我们就可以得到面积的变化量和平均偏移距离。

可以看出使用这个AI inside-out方案的主流产品的,防护区面积的便宜量都在5%以下,偏移距离都在几厘米,可见定位的准确度都已经相当的高。

而后一个延时的问题,解决的人是约翰卡马克,就是发明3D游戏引擎的那位老哥。


他发现手机之所以转向时画面跟踪有延时,还是因为陀螺仪的检测周期太慢,中间芯片图像处理时间过长加上屏幕刷新周期过慢导致的,于是他在这三个方面分别做了改进,最终在他负责的三星gear这款设备上解决了移动跟踪延时的问题。


而现在主流产品的跟踪延时问题,我们还是来做个测试,把头显绑在滑板上,让它撞向固定的坚硬物体,并且将显示器同框拍摄升格视频,通过查看现实和显示器上手柄轨迹变化瞬间的帧数差来算出跟踪延迟。可以看出主流产品的跟踪延时现在已经做到了30毫秒以内,已经达到了可以接受的水平。

当然我们知道,跟手机时代一样,显示背后的问题当然不是显示本身,而是图形算力。


VR用到的逻辑运算算力跟手机电脑是没有本质区别的,因此以前CPU完全可以胜任元宇宙的需求,但是VR需要的图形算力也就是GPU是有底层逻辑上的变化的。

首先VR本身就相当于一块更大的屏幕,在这快屏幕上要做到视网膜级别无肉眼可见像素点的显示,本身的像素就要达到16K左右,

这个月TCL华星光电刚刚再次刷新了VR屏幕的极限,像素密度达到了1764PPI,这是何其恐怖的算力压力。

更关键的是,在手机电脑上出现跳帧顶多是稍有不适,但一旦在沉浸式的虚拟世界出现跳帧卡顿,那真的是会把人弄吐的。

我目前用的显卡是3080Ti,买的时候一万多块气死我了,用来串流跑现在VR上的3A大作比如半条命Alyx或者星球大战战机中队,把所有这些画质和渲染选项全部拉满也能跑到满帧,效果大概是这个样子的。说是以假乱真可能有点夸张,但是绝对可以说细节丰富,光影真实,部分场景堪比特效大片。

但是现在VR头显的主流芯片是高通骁龙的XR2,是基于骁龙865打造的,其显示算力大致上只相当于2008年顶级PC显卡AMD HD4870X2。

实际上的表现是即便跑horizon workroom这样的办公软件都会有卡顿,所以你们就知道为什么META的发布会上扎克伯格自己的元宇宙形象,和所有用作展示的应用都显得如此光滑干净了。

这背后就是顶级PC显卡和顶级手机GPU之间超过20倍的显示算力差距,而更严峻的挑战是,现在摩尔定律已经走到了尽头,最新一代RTX3090Ti显卡相比3080Ti只有15%左右的性能提升,而功耗却大大增加。出路当然是在于抛弃冯诺伊结构的新式计算机比如存算一体芯片或者量子计算机,但是这些技术显然还在初级阶段,要替代现在的芯片再乐观也得有个20年。

3


所以在我看来,VR的应用在未来很长一段时间一定会进入移动端和PC端并行的阶段,也就是对于开会,轻社交,小游戏这种对图形要求低的场景会直接用VR头显本身的算力,而在大型游戏,重度社交,或者需要看到细节材质的电商场景下,VR头显会成为相当于PC的第二块显示器的存在。

而这就又衍生除了一个问题,如果是VR头显本身的上网的话,它的通信跟现在的手机是没区别的,现在的4G5G移动网络和wifi完全可以支撑,但是一旦要用PC串流,就意味着需要把顶级显卡渲染的每秒十几G到几十G的数据传到头显,这就是一个很大的挑战了。

如果用实体线路串流其实还好,显示直连的DP2.0接口已经有80G每秒的带宽,而支持5G每秒带宽的U3.0协议再加入编解码程序之后,也完全可以支撑。


我们同时拍摄头显屏幕和电脑桌面,全屏播放一段电影,同时打开电脑自带的计时器计时,每一帧上的时间差就是画串流画面的延迟。

可以看出用DP直连方案的设备画面延迟普遍在20毫秒以下,U串流组也在20到30毫秒之间,影响不大。

但是如果我们要长时间在办公室或者家里使用VR,必然会涉及到一定范围的走动,这样一来无线串流的质量就是关键了。


从现在测试的结果来看,如果不单独在电脑上插一个直连的wifi模块,那延时还是高到了无法接受的地步,普遍在现在的百(千)兆wifi理论上可以支持编解码后的VR视频传输,但是延时的问题显然受到了目前wifi的协议的制约,而在VR领域目前还没有看到公开的解决方案。


在这里就让我想到去年曾经测试过的,华为鸿蒙的软总线能力了,华为鸿蒙设备之间可以把无线串流的延时控制在十毫秒,背后是华为自创了一个极简协议,大大简化了数据局域网里数据传输的流程。相信这样的技术未来也会被用在VR领域。

说完了显示、算力和通信,我们再来聊聊至关重要的交互。

目前主流VR头显是用手柄操作的,它的定位运动跟踪用的是类似HTC vive的外接基站方案,相当于用头显在当那个基站,然后用手柄来发射红外线脉冲,在红外线视角下还是很有节奏感的。


我们还是用滑板碰撞去帧数的方式的测试,结果表明主流产品也能做到三四十毫秒的跟踪延迟,已经达到了可以接受的范围以内,实际操作当中也是很流畅了。

但很显然,手柄操作并不是我们想要的结果。

正如用点按方式去操作触屏会损失掉大量的可操作维度一样,用手柄去操作虚拟3D空间,也会使原本的很多可能性被损失掉。

我们手指为什么只能有按键这一个操作呢?为什么不可以拖、拉、推、抓,乃至每根手指单独运动做出所有可能的手势呢?甚至于我要在VR开会的时候喝一口茶吃一口水果,也不应该受到手柄的干扰。

这种交互模式现在有两套方案,第一套是现在oculus quest上的,用前置摄像头加AI识别的方案,即便我们不考虑它目前识别准确度不够的问题,它的弊端也是非常明显的,也就是我们的手不一定会放在摄像头覆盖的范围之内,可能是手臂垂着,甚至有可能是差在口袋里。

有另外一套方案现在还在初级阶段,也就是类似以色列Wearable Devices公司出的这种手环,它是基于脑机接口技术的,也就是通过检测手腕位置的表皮电信号变化来判断你手指手腕的运动,这样一来的你在虚拟世界的手就真的是你的手了,什么运动都能完成了。


甚至于可以完成手插在裤兜里打字这种即便是现实也无法完成的动作,或者像无间道里的梁朝伟一样抖动手指发送摩尔斯电码。如果当年霍金有这个设备,那他在元宇宙里完全可以做个健全的人。

虽然这套方案因为精度的问题还没有大规模应用,但我判断这很可能是类似当年的多年触控屏幕那样的,定义一个新时代的交互技术。

在解决了显示,算力,通信和交互问题之后,目前还有两个实际体验中的小问题是元宇宙铺开的障碍。

一个是VR设备的佩戴舒适度问题,很多人一到公司就打开电脑坐一天,一回家就打开电脑LOL撸到后半夜,如果同样的长时间使用体验要发生在VR上,前提就是设备的穿戴足够的无感。而现在的VR设备总得来说还是有点重的。

以现在最流行的VR设备Oculus Quest2为例,它的重量有大概一斤,配合一些头戴外设,戴着还算可以。


但最大的问题是,它的前部是比较厚,有一个往前倒的力矩,压在头显的下沿也就是我的脸颊上面,戴久了就会勒出印子。

它只所只能做那么厚还是因为目前的透镜设计。

因为人的肉眼聚焦有一个最短的距离是大概10厘米,贴脸放置的VR屏幕显然不可能离得这么远,因此需要用一个凸透镜去改变光路让肉眼的实际焦点变得更远,同时也扩大视场角。

目前主流的透镜方案叫做菲涅尔透镜,是法国光物理学家菲涅尔发明的,最早是在19世纪早期用于导航灯塔,它的结构是把原本凸透镜的弧面部分保留把下面的底座去掉,形成一圈圈锯齿状的结构,相当于把凸透镜给二维化了,于是就节省了重量和空间。

不过,由于物理限制,菲涅尔透镜还是没办法把曲率做得特别小,也就是焦距并不能做得特别短,因此它仍然要给显示屏到镜片、镜片到眼睛这两部分光线留出空间,整个头显的厚度仍然还是可观的。

这时候,一种新的方案诞生了:如果我们能把这些光线折起来,那么岂不是能省下很多空间?


VR头显的新风向,Pancake型的超短焦镜片组应运而生。

跟据公开的报道,Meta会在下一个版本的VR眼镜目前代号project cambria当中采用这种pancake透镜设计,这会使得整个VR头显的厚度降低50%

另外一个实际使用中的问题是,当我们沉浸于VR世界进行长时间的游戏或者办公,必然会出现一些短期的需要跟现实世界进行交互的场景,比如上个厕所喝个水吃个水果,或者看下纸质书参考资料,或者同事家人路过了跟你打招呼你得回一下吧,但如果每次跟现实交互都要把头显拿下来再戴上,这就非常蛋疼了。

在Oculus Quest2和Pico上,现在都有可以通过see-through功能,用红外摄像头看到外面的,只是整个画面是黑白的细节非常模糊类似魔兽世界里面死了之后跑尸体的画面,在下个版本的Oculus VR头显当中,据报道会有前置的彩色摄像头,它的作用就是让我们能看到外面的世界。


而潜在的问题跟手机VR的运动跟踪是类似的,就是不能有明显的画面跟踪延时,以现有的黑白方案来看,主流的VR一体机都存在100毫秒左右的延迟,而彩色画面的手机摄像头从拍摄到数据处理到传输到屏幕上的时间还要更长,这样一来眼睛会跟不上手,而且人会晕死。

不过,尽管VR厂商还没有克服这类问题的产品出现,但其实类似的方案在相机厂商那边是有的,也就是类似索尼α系列微单的电子取景器。

索尼通过研发速度更快的图像处理器,换用延时极低的OLED屏幕,成功把取景器的延迟压缩到了50毫秒以内。


在集齐了这些拼图之后,我们就画出了一颗实现元宇宙VR设备的科技树,而那个最终定义新时代的设备也就呼之欲出了。

它应该拥有广阔的视场角、视网膜级别的显示细节、无缝的运动跟踪、无感的画面传输、与现实别无二致的运动交互、轻便的佩戴体验、与现实进行短时间交互的混合现实能力以及在背后支撑这一切的强大的芯片算力,最终实现复刻我们生活在目前这个宇宙的体验。

那带来这个设备的人会是谁?我当然非常希望是Pico,是飞鲨,或者罗永浩或者别的中国的创业团队能做出这台划时代的产品,到时候请闭嘴收下我的钱,然后把主要的上下游产业链机会都抢占住留在中国。

但是如果要赌100万的话,我赌苹果。因为大家可以看到,其实我们刚才说了那么多技术点,但其中最大的瓶颈还是摩尔定律遇阻之后的芯片算力,介于新结构芯片的到来还遥遥无期,谁能在现有的结构下做最大程度的优化谁就能获得底层算力上的优势。

苹果的M1芯片架构是目前移动端效率最高的芯片架构,其背后深层次的原因是,苹果是一家集芯片设计能力,操作系统开发能力以及对于APP开放商强大影响力的公司,当它发现芯片底层结构上的问题的时候,可以自己改芯片,自己改操作系统来适配新的芯片,再协调应用开发商立马按新的接口来开发。而facebook要联动高通,联动安卓这就会要了亲命。本来华为也是一家能贯通上下游的公司,只可惜在我们的芯片制造能力跟上之前之能暂时蛰伏了。

这趟研究元宇宙VR硬件前前后后搞了三个多月,希望能让大家看到一个比较清晰的图景,我自己每次研究这一类问题,发现现在最新设备上用到的一项发明,居然是几十年甚至上百年前的发明的时候,总会有一种非常奇怪的身为人类一份子非常自豪的感觉,我们耗费了多少心血才把神话一步步变成科幻,在一步步变成现实,即便有一些宵小在横加干扰,也不能阻止我们继续走下去。

酷玩实验室整理编辑

首发于微信公众号:酷玩实验室(ID:coollabs)

如需转载,请后台留言。

台湾版权声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,并请自行核实相关内容。本站不承担此类作品侵权行为的直接责任及连带责任。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕,E-mail:xinmeigg88@163.com

展开全文READ MORE
还有评测设备离我
分身版 2.5.7手机分身「分身版 2.5.7」 手机系统更新不了怎么办手机更新「手机系统更新不了怎么办」