龙空技术网

OPPO Air Glass 智能眼镜,用这个是不是可以提高战斗力了

AR最黑科技 1316

前言:

今天我们对“滑动窗口技术当ns2时”大约比较看重,兄弟们都想要剖析一些“滑动窗口技术当ns2时”的相关内容。那么小编同时在网摘上收集了一些对于“滑动窗口技术当ns2时””的相关资讯,希望小伙伴们能喜欢,各位老铁们快快来学习一下吧!

OPPO昨天发布了新一代智能眼镜 ——OPPO Air Glass。这个单目眼镜的诞生标志着智能眼镜真正从玩具进化为工具。

看到这款眼镜你第一时间想到了什么呢?

小编第一时间想到了那个“战五渣”梗,能看出敌人战斗力的弗利沙军团眼镜。

小时候看到动漫中这个眼镜的时候就感觉非常的神奇,那么小的眼镜可以看战斗力,可以观看敌人方向,也可以当雷达使用,在当时那个年代还没有手机的概念,鸟山明的这个概念眼镜一直到30年后终于国内有一个量产的眼镜发布了。

作为一个科技工作者,我们也在软硬件结合开发AR/MR/VR,所有的软件都离不开硬件,今天给大家介绍下小编用过的几款主流的眼镜的功能。我会有减法的形式给大家从功能较多的Hololens2开始大家讲解一一介绍功能和体验。

现在的硬件MR中相对最好的Hololens2,首先可以看一下相关的功能参数,这基本上就是市面上所有AR/MR眼镜的功能我将会用几张动图的形式给大家更好的说明。(注意流量消耗)

显示信息

这个是所有的AR、MR、VR眼镜都共有的一个基本功能,现在很多的AR眼镜可以理解为HUD显示眼镜,通过一个小屏幕将一些常用信息通过眼镜让你直接抬头就能观看,

HUD AR显示

VR眼镜就是沉浸式的体验,你看到的所有都是虚拟的,并且你处在一个虚拟环境中,看不到现实环境。

VR看到的画面

VR眼镜就是沉浸式的体验,你看到的所有都是虚拟的,并且你处在一个虚拟环境中,看不到显示环境,MR眼镜区别于VR眼镜,既能够看到虚拟场景也能够看到现实环境,并且现实环境和虚拟环境是强交互的。

环境辨识

MR眼镜HoloLens最大的区别于AR眼镜不同的就是环境辨识,Hololes2能够辨识环境,简单来说就是扫描你当前所处的场景然后进行三维建模,然后对环境进行分析。这就是Semantic Understanding功能,让其能够区分出环境中的不同物体,比如沙发、桌子以及人等等。

比如Fregment(一款混合现实解密游戏)里面的角色能够在你房间中生成,图片中一个角色会坐在你面前的桌子上,其他几个NPC围绕着你避开椅子站在你的周围和你进行交谈,这就是环境辨识,因为已经理解了环境所以房间里所有的摆件,道具,人物都会和你的房间有关联,这就是混合现实与AR最大的不同。

手部追踪

第二个就是手部追踪,在Hololens1代只是识别别特定的几个手势,2代就能够实现手势识别,Hololen2能够扫描并追踪你的手掌。

手势追踪的作用是什么呢?这个极大提升了交互体验,传统游戏我们需要按键盘或者手柄,现在的话只需要用你的双手,去点去戳,去拽着滑动就可以了。

Hololens2手势操作

这样的话,在交互方面就有很多可以改进的地方,在MR应用中,你就是所处一个虚拟现实结合的世界中,所有的UI交互都可以像现实世界中那样,比如我在家里需要开灯只需要找到灯的开关,然后去按他就可以了,同样的使用HoloLens2你的交互也是按一下就可以,如果我要用画画,直接用手拿起虚拟的画笔就可以直接在空中绘画,这就是一个纯自然的交互方式。

物体追踪

从示意图效果上来看随着物体的移动,虚拟物体能够跟随物体稳稳地贴合。那么这就属于物体追踪。简单点来说,追踪特定画面里的一个目标,比如一个人,车辆,小鸟能稳稳地锁定这个目标就是目标追踪。

举个例子HoloLens已经对家里的扫地机器人进行追踪识别训练,那么无论扫地机器人怎样移动,只要视野中识别到扫地机器人就可以对它进行操作,看到扫地机器人 就知道他的剩余电量,已经清扫房间面积。

类似于我们身边的所有物体都“贴上”一个数码标签,既能让理想版的HoloLens实现追踪,看到的时候还能展示其所有信息。

语音识别 环境音效

语音识别大家应该都不陌生,大家日常使用的手机都有语音助手,你可以下达指令帮你处理一些操作。Hololens也可以进行语音输入,比如“打开菜单”“录制视频”,用户仅需盯着用户界面并说出“follow me”即可开启跟随效果,此外还可以直接通过语音下达指令、进行搜索等等。在开发中也可以将一些命令做成语音触发的指令。

另外一个就是环境音效。在混合现实中通过环境音效,你可以获得更逼真的体验,并且也可以使用空间音效对用户进行引导,比如在对战游戏中有敌人在你背后你通过环境音效就可以实听到敌人的方位。

眼球追踪

眼球追踪告诉你用户正在看向世界中的位置,让你能够确定他们的意图。当用户环视房间时,你的应用可以通过线的相交来确定用户当前正在看向世界中哪些虚拟或真实物体。

作为开发者

作为开发者眼球追踪也能实现很多的方便交互的应用可以通过判断眼球射线与全息物体的交叉来判断用户当前在关注什么。

1:借助基于眼球射线的手势来实现选中、激活、拖拽或其他全息物体的交互。

2:通过眼球射线与空间匹配网格的交叉,你的应用可以让用户放置全息物体到真实世界的表面。

3:你的应用可以知道何时用户没有注视在重要物体的方向,这使得你可以通过图形或者声音提醒将用户带回到正确的方向上。

比如,你可以使用眼球追踪翻页,用眼球追踪瞄准(实际游戏),眼球追踪选择UI,注视某个物体几秒以上触发操作等等。

协作通信

这个功能就是可以实现多台Hololens看到的画面都是一样的,并且不仅仅是画面相同这么简答,而是你看到的物体在空间中所处的相对位置,大小,属性都是相同的。这样的话就可以进行很多的远程协作,多人协作的应用或游戏开发。

手柄操作

这是市面上大多数VR眼镜都采用的一种方式,因为没有手势识别和环境识别的原因,所以用手柄来进行相关的操作控。现在的手柄大多数由摇杆,按键,扳机组成,不同的按键不同的操作,在很多游戏中手柄操作也会比手势操作相对来说体验更好,因为延迟低容错高,并且习惯了键盘和手机操作的用户来说,对于手柄操作的接受度也比较容易。

当然也反应出Hololens的手势操作虽然方便自然,但是你交互没有手柄或者键盘按下的那种反馈,所以在应用设计时候需要注意操作物体的反馈。这也是很多厂商都在做触觉反馈手套的原因。

基本上市面上的AR、MR、VR眼镜眼镜的功能都这么多,像oculus quest2这样的VR眼镜算是VR眼镜中功能最先进的,对比Hololens除了没有环境识别,和物体追踪其他的现在都有。

OPPO这款的眼镜只是一个头显提示的眼镜,这些所有的功能都没有,但是这是未来眼镜的一种必然的形态,只有硬件不断的发展,让用户能更更方便的佩戴,那么这些黑科技才能够被广大消费者接受。OPPO这样的消费级AR眼镜的推出也表明现在硬件的不断推荐,我相信未来有一天Holoelns2这样的眼镜能够做到像日常佩戴眼镜那样轻便,到那时候你还会用你的手机吗?

好了今天给大家整理到此,对于MR、AR、VR眼镜你还知道哪些功能呢?欢迎大家在评论区留言,转发,点赞。

标签: #滑动窗口技术当ns2时