查看原文
其他

EICO Talks播客:熬夜看Vision Pro发布,好像AR设计思路撞车了!

EICO EICO 2023-09-27

老蓝又熬夜看了苹果发布会,终于,今年等到了ONE MORE THING:Apple Vision Pro,一款能看、能聊、能工作、能拍的头戴式智能设备。

本期关键词:AR交互屏幕Seethrough虚拟物理世界FOV光线追踪操作流程OOBE(开箱即用体验)无缝切换核心体验

提及产品:Apple、OPPO、Oculus、Nreal、Magic LeapPICO

本期对谈:
蓝    方 EICO 设计总监、资深设计师
刘少鹏 EICO 商业分析与研究


定义未来5-10年的技术平台
"AR最大的一个问题是什么?是它显示的颜色,AR它对于黑色是不能显示的,因为 LCD或者LED的成像原理,纯粹的黑色在AR的表现中是透明的,所以在整个AR的界面设计上是不能用黑色去做填充,这样会让像素变成透明,所以整个AR的界面设计上面有一些局限性。
"第二个就是FOV(Field of View)视场角,在现有的技术下,符合眼睛的视觉体验,它的视场角比较小。所以,这些虚拟内容叠加在真实世界上的角度就会局限,就看着看着,唉,虚拟内容就不见了。
"苹果的Vision Pro可以说是一种VR,但是它比VR做得更深一步的是它的镜片像素点特别高,可以每只眼睛达到4K以上的分辨率。

苹果的产品哲学:推崇人与人之间的感性连接‍‍‍‍‍‍‍‍
"第二个涉及到就是产品的核心体验,或者是他们的产品哲学,就是苹果不希望用眼镜去隔绝人类——人与世界以及人与人之间的这种联系,他们希望这个产品是帮助用户去完成或者是去享受某一些时刻,但是它不能替代,或者是它不能替代用户通过眼睛去看物理世界的感受。
"最后一个就是设备和设备之间的关系,因为苹果本身有自己的生态,未来也是一个物联网的时代,那实际上通过这些设备与设备之间的关系,他们其中的信息交互、信息互联,会给人带来这样的影响,那实际上范围就会特别广。"

OOBE(Out-of-Box Experience 开箱即用体验)
"聊一聊核心体验。第一个是OOBE,就是开箱即用体验,它做得非常简约、快速。第二个就是几乎没有门槛的、手机交互的迁移。第三个就是它可变的沉浸等级,它为什么能出来,我们刚才在技术选型里面所说到的,就是它以 VR 作为基础,但是它把 VR 的显示数值提到极致,然后向 AR 靠拢。
"第四个就是 Seethrough(透视)双向交互特别惊艳,这是其实是定义了个人计算时代的一个硬件标准。就是它必须有足够方便的使用门槛,这样用户的使用习惯迁移门槛会比较低。

定制化的面罩,见苹果2023年发布会
"苹果在发布会里面说到,就是他们研究了上千人头部的形状、脸部形状,然后去定制面罩的适配能力,去让产品能够识别不同的人。
"另外就是软件层面的定制,根据他们的描述就是,苹果首先需要识别这个人脸的轮廓,以及耳朵的轮廓,去为了去适应他的空间音频;面部的轮廓,可能是因为他要去识别面部表情,还有就是要生成 3D 的虚拟形象,它都是通过手机,就是这就是设备与设备之间的关系。苹果还提到它通过手机把这些数据采集完之后,它可以同步到Vision Pro上面去做一些体验上的融合,是一个初次定制的内容。

建立在用户熟悉的交互方式之上
"苹果它在定义这套硬件的时候,它的输入交互方式只提供了三种渠道。第一个是依靠眼动追踪来获取焦点,其实是非常自然、符合直觉就是用户看在哪里,ta就是对哪个地方感兴趣,只要获取确认,就可以把感兴趣的东西打开或者去消费,或者去看。是非常符合直觉的,是交互方式第一个方式,第二个就是自然手势,它通过自然的手势捏合、移动,实际上就是复刻了 iPhone 时代的 Multi-touch,这个也是乔布斯所说的,就是你使用一个手机你还用为什么要用手写笔?人与生俱来的自然的这种交互方式,就是用手去触碰自己想要感兴趣的东西,对吧?所以也是符合直觉的,就是用手去做操作。
"第三个就是语音输入,没有了。苹果它就用这三种输入方式就可以完成平台上的所有操作了。这是区别开其他厂商的,我们可以看到其他厂商它有什么呢?它有手柄或者是那些简易的遥控设备。那这其实也是苹果需要区别于其他厂商去避开这些认知,去打造一个新的认知。——这个设备未来是需要陪伴你,需要去满足你的日常生活的场景,满足你生产力的场景,而不是去满足你玩游戏或者是娱乐的场景。因为把手柄拿到手上第一感觉就是,那会是一个游戏设备。
"沉浸等级功能,其实也是定义了空间计算时代的一个标志性的功能,它实际上是可以区别于普通的 VR 和普通的AR,它可以让用户在 VR 和 AR 之间切换。就是当我需要完全沉浸在自己世界的时候,用户可以把等级调到最大,然后ta可以完全沉浸在里面。但当用户需要跟物理世界进行交互时,或者是跟其他人去做交流时,ta可以把沉浸等级变最小,方式就是特别的自由。

建立在Seethrough和EyeSight的双向交互
"苹果的整个硬件,它是鼓励双向交互的,因为最外边有一层屏幕,它可以模拟出人的眼睛(EyeSight)*。我们先这么看,就是苹果的产品哲学和产品逻辑,它是不希望因为某一个设备去隔绝人与人之间的这种交流,他们是非常鼓励用户去线下去体验生活,去体验去人与人之间交流的。
* Oculus中对单向的向外看功能命名为Passthrough。
"而且非常有意思,就是苹果店的销售人员是不背销售指标的,对,他们不背销售KPI的,ta只要去让客户满意,去让用户感觉到,就是可以帮助用户去解决各种各样的问题就可以了。这是很和很多这种销售店的考核是不一样的,所以基于苹果的产品哲学和产品逻辑,他们是希望人和人之间,是鼓励他们有更多的这种线下的或者是真实场景下的这种交流,所以他们在Vision Pro上面做了非常大的力气去做双向交互。第一个是从戴佩眼镜的视角,就是当人走进来的时候,而用户正佩戴着设备,不管ta在分享什么东西,或是在消费什么内容,当有人走进来的时候,它会把这一块区域让人脸显示出来,因为它能够识别到人脸,所以它在以人脸为中心的周围的区域它淡化出一个人脸出来。

正在使用Vision Pro的用户可以在界面中看到外部变化,见苹果2023发布会

其他人也能看到正在使用设备用户的状态,见苹果2023发布会
"而且用户不需要把眼罩摘下来,他就直接可以交流,这是一个非常核心的一个体验,这是从戴佩戴眼镜的视角的一个体验。那在外面的用户完全不需要担心,就是别人看不见他,或者是会去打扰他。它在外面的屏幕做了两个状态,一个状态是当用户在沉浸世界的时候,它是一个类似于苹果音箱的那个界面上的那个 Siri 展现的会动态的一个彩色的光晕。"

语音交互的优势和缺陷
"语音交互它有好处也有弊端,好处就是它是跨层级的交互方式,它不像手机界面需要一级一级地进入菜单才能看到,或者是像传统的交互里面它也是一级一级进去,语音交互它就是可以直达的,就是我说什么、它就直接可以把内容展现在我面前。
"这是语音的好处,坏处是什么?隐私性,就是我需要大声说出来我要干嘛?或者是我要输入什么东西,这个对于用户的隐私来讲它是比较弱的。而且你在大马路上面,然后戴眼镜,然后balabala说,其实这个交互也是非常奇怪的,就是会有一些异样的眼神来看到你😆,对,这是语音上面的弊端,所以所以这个也是需要。就是苹果当然想到了,只不过他没有表现出来。后面我们可以期待,苹果是在这种公开场景下的产品设计,会是怎么去做这些交互。"

虚拟内容与用户互动的设计思考
"因为Vision Pro软件里面有一些设计,是我们在之前的合作项目上面已经非常接近了,包括主菜单的排列方式。当时我们的思考就是其实用户在选择的时候,用户是以射线的方式去选,所以我们尽量让ta在图标之间的移动上面会更小一点,然后能够在有限的 FOV 视场角里面看到更多的应用。
"所以苹果发布出来,我们一看也是这种菱形的排布,我们双方在理念上是一样的,这个理念是来自哪里?也是苹果手表的主菜单,排布方式是很像的,其实原理是一样的,大家都是想通过这个方式去解决用户的体验问题。

项目资料,项目方已授权,更多资料见 https://open.oppomobile.com/ar/
"还有一点就是我们发现主菜单的容器交互概念,苹果也用了,它的图标组成其实是分两个部分的,一个是容器部分,一个是图标的表意部分,它所有的图标都是一个圆的底去做衬底,为了什么呢?为了用户眼动、更方便地聚焦,就是有一块东西可以让用户能够看到,并且能够表达出对焦的一个状态,我看上它了,它会有一个变化,这是一个容器,然后表意的就是图标自己的各类的形态。例如Safari,它就是一个指南针,天气就是一朵云什么的,用这种方式去组成了图标的一个主菜单里内容,这和我们的那个项目里面也是一样的,我们是设计了一个容器,是一个球,就是当我们的那个射线指上去之后,他那个球就会运动,把我们的表意的部分给绕出来,然后让用户看到变化(响应),让用户看到这是什么样的内容——实际上是原理是一样的。"

内容、功能的交互逻辑
"窗口它其实除了主窗口显示内容之外,其实我们还需要去解决用户对于窗口的控制问题,或者说需要解决窗口作为一个多功能载体的交互逻辑。
"它的一些功能,比如说分享、还有一些辅助功能,那我们也有和苹果很类似的思路,就是我们也把这些功能的入口放在了Canvas的下,就是它的画布的下面,然后也会区分去做排列。就是左边一块是基于当前上下文菜单的一个区域,然后右边放的是一个全局控制区域,这会让整个工具条和窗口有一个比较好的一个联系,然后用户能够统一的在区域去做操作,因为其他的我们在系统级的空间上面也没有看到。这也是我觉得苹果现在还没有完全把当前的一些状态设计达到自己一个满意的状态,所以他还没有对外发布全部交互。
"还有一个就是台前调度,是最先在 iPad 上面看到台前调度的一个设计,它其实是一个多任务管理,那我在Vison Pro发布的内容中是没有看到的,他们解决的方式是什么呢?就是把这些任务全部排出来,放在用户的面前,但是用户是不会按照你的方式去做这些任务的。
"这种排列用户很可能会,比如说开四、五个项目,那应用面积会充斥到整个的屏幕里面去,我们在演示里面只看到比如说两个或者是三个左中右方式排列,而且是既定的方式,就是我挪过去那个内容它就会偏向我一点,然后最多是三个情况,那四个、五个、六个情况,用户很可能也是要用到多任务的管理。
"我也相信,就是台前调度它会是要适配到Vision Pro中去的,但是看样子他们现在还没有适配。"

隐藏在发布会里的光影‍‍‍‍‍
"其中一个是光线追踪,这一点跟Oculus里边我觉得是有很大不一样的一个细节。这个细节做好了之后,用户对于空间感的感知会非常强。
"虽然苹果也没有提及,但是在发布会的视频里面有一些细节,就比如说它的那个面板的毛玻璃效果边缘有一些光亮条,光亮条是会随着它的移动,就是用户移动这个面板或者是观看的角度会发生折射的变化。这其实就是需要融合真实环境的光线,利用环境光的入射角度去实时计算出来的,这就可能会要用到这种光线追踪或者是别的技术去解决这个问题。

大量的半透明模糊效果的界面底部,见苹果2023发布会
"然后还有一个点,就是你刚才说到就是窗口打开之后,在那个用户真实环境的桌面上会有一道阴影,这有两个技术在里面,第一个技术是它识别到了语义环境是一个桌子,它的桌面是在什么位置。然后第二个技术就是它要把投影正确的投在表面上,然后要根据内容的大小去做实时的适配,嗯,这样它才能达到体验的结果。
"为什么需要这样?为了减少用户的不适感,其实就是当这些东西大脑认为是假的或是有延迟的(是需要保持在一个延迟的数值中),这也提到一点,就是他们说延迟只有 12 毫秒,当人脑觉得这些东西是真的,然后没有任何延迟的,它才会减少或者是不会让用户有这种眩晕感或者是不适感,这样的设计也是为了去让用户能够更长时间地去佩戴或者更长的时间去使用。"

对未来的立体化媒体的憧憬与担忧‍‍‍‍
"立体照片,它是在一个小方框里面,我不知道是不是因为硬件目前的限制,它的立体照片不能就特别大,但是有人说戴在眼镜上面看的时候,和真实的场景放在一起的时候,就感觉这个东西就真实的在当下的这个环境里面,这是非常惊艳的一个点。

带有空间属性的照片或视频预览,见苹果2023发布会
"甚至是我们可以拓展开想一下,就是我用其他设备拍的立体照片是不是也可以变成苹果的一个格式?然后被苹果的Vision Pro去读取出来,然后显示在真实的环境里面,甚至是把别人的 3D 照片都抛到某一个地点上去,然后甚至是拍摄的角度、地点的信息都锚定到这个照片上去。我只要站在某一个视角去看照片,那照片的内容和真实的场景它就重叠在一起了,就变成一个真实的就是 3D 的一个物体在这个场景里面,然后瞬间被凝固、被记录下来在这里。
"拍立体视频它肯定是Vision Pro自己拍,那拍的时候是以你的头为原点,然后会去左右去看或者是去找要拍摄的东西。它并不是像立体电影一样,就是摄影机是围绕着拍摄主体去移动的,就拍摄出来,因为你的不自然的这些动作会让这个整个影片的这个角度会变得比较奇怪。所以我们看到发布会里的立体视频,它都是一个固定机位的。首先固定机位拍的立体视频是 OK 的,但是一旦你移动了,那视频的体验可能就不好了。这是我可能想到的一个不好的地方。"
全文有删减,完整内容请跳转本期播客 ⬇️




您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存