赞
踩
笔者首先是带着疑问开始使用这个模拟器,并尝试做做demo。
第一个问题是对于这个模拟器是否做的足够真?到底可以模拟逼真到什么程度
从各种推断来讲,这个模拟器应该是需要尽量逼真的还原实际真机体验,这个也应该是苹果的目标。
Version 15.0 (1015.1)
SimulatorKit 935.1
CoreSimulator 920.3
vision os 1.0
所以,带着这个疑问和推断,开始了模拟器的体验,经过2天的摸索,找到了1个做的特别不一般的功能:环境可以替换;
做过vr都应该了解,通常vr桌面是有一个场景的,这个场景一般会支持用户替换和自定义,正所谓换个环境换种心情,但是这个特性在vr上,消费者好像都不怎么买账,当前的xr设备厂也没有怎么去宣传,那是可能是因为做的不够好,么有吸引到消费者;
但是visionos这个环境替换做的思路就很不一样了,这个环境是会影响到应用的呈现效果的,应用是与环境融为一体的;
当然这个里面需要很多的关键技术,也是需要大量的算力的,slam,mesh网格,光线追踪,亮度,物体材质,折射反射,物体跟踪,以及与app之间的距离等;甚至声音都可能会根据环境做不同的渲染(这个在模拟器上还没有找到,等后续再进行摸索);
当前模拟器自带了6个模拟场景,均为室内使用场景,厨房/客厅/博物馆,分为白天和晚上;
每一个模拟场景都代表了一种用户使用情况;
下面就以1个应用(日历)为例,在同一个环境下,不同的位置,更换不同的环境,以及应用所呈现出来的效果;
可以发现一些差别,日历的界面在同一个环境下,在不同的位置,会根据这个环境的光线,物体材质,纹理发生变化:
当日历的界面靠近右边墙面时,透明度会渐近发生变化:同时墙面背景能够呈现出来。
vision pro 的vst(video see through) ,不仅仅是让用户能够看到外界实际空间,而且visionpro凭借强大的算力,将这个外界空间进行了“理解”,包括空间里面的各种物体表面,材质,实际光照强弱等等进行理解甚至重建,同时APP(GPU生成的虚拟的内容)能够根据实际的空间环境发生改变,进行统一3D渲染;
苹果是希望用户能够保持与实际环境的沟通,而不是完全封闭在一个虚拟的环境中;
举个例子:你手里拿着1个虚拟的汽车模型,当你拿着汽车模型在空间中移动,而空间中的光照强度和色温都会不一样,此时你会发现汽车模型摆放在不同的空间和位置上,所呈现出来的效果会有很大的变化,就仿佛置身于真实的世界中一样;
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。