龙空技术网

技术前沿:增强现实(AR)技术

手机报李星AIoT大数据 164

前言:

当前看官们对“matlab ar模型生成新数据”大约比较关注,看官们都想要知道一些“matlab ar模型生成新数据”的相关文章。那么小编同时在网摘上汇集了一些有关“matlab ar模型生成新数据””的相关资讯,希望同学们能喜欢,同学们一起来了解一下吧!

随着信息技术的高速发展,虚拟现实、增强现实等逐渐火热。虚拟现实是一种完全建立虚拟环境,让人类脱离现有环境进入新的世界,它的广泛应用可能还要经过一段时间的积淀,目前虚拟现实主要在科研仿真、虚拟漫游、游戏娱乐、教育培训等领域发挥作用。而从虚拟现实中发展起来的增强现实,旨在增强人类能力,为人类提供各种辅助信息,成为沟通人类个体与信息世界的重要枢纽。目前已经在医疗、交通、教育培训、航天、通信、工业维修等领域发挥作用。相信增强现实的大规模应用会比虚拟现实更早一些,可能取代智能手机,成为下一代智能计算与显示平台,将物理世界与信息世界联系得更加紧密。

AR增强现实,是用户对现实世界感知的新技术。

一般认为,AR技术的出现源于虚拟现实技术(Virtual Reality,简称VR)的发展,但二者存在明显的差别。

传统VR技术给予用户一种在虚拟世界中完全沉浸的效果,是另外创造一个世界;而AR技术则把计算机带入到用户的真实世界中,通过听、看、摸、闻虚拟信息,来增强对现实世界的感知,实现了从“人去适应机器”到技术“以人为本”的转变

AR技术原理

AR从其技术手段和表现形式上,可以明确分为大约两类,一是Vision based AR,即基于计算机视觉的AR,二是LBS basedAR,即基于地理位置信息的AR。

01

Vision based AR

基于计算机视觉的AR是利用计算机视觉方法建立现实世界与屏幕之间的映射关系,使我们想要绘制的图形或是3D模型可以如同依附在现实物体上一般展现在屏幕上,如何做到这一点呢?

本质上来讲就是要找到现实场景中的一个依附平面,然后再将这个3维场景下的平面映射到我们2维屏幕上,然后再在这个平面上绘制你想要展现的图形,从技术实现手段上可以 分为2类

1、 Marker-Based AR

这种实现方法需要一个事先制作好的Marker(例如:绘制着一定规格形状的模板卡片或者二维码),然后把Marker放到现实中的一个位置上,相当于确定了一个现实场景中的平面。

然后通过摄像头对Marker进行识别和姿态评估(Pose Estimation),并确定其位置,然后将该Marker中心为原点的坐标系称为Marker Coordinates即模板坐标系

我们要做的事情实际上是要得到一个变换从而使模板坐标系和屏幕坐标系建立映射关系,这样我们根据这个变换在屏幕上画出的图形就可以达到该图形依附在Marker上的效果。

理解其原理需要一点3D射影几何的知识,从模板坐标系变换到真实的屏幕坐标系需要先旋转平移到摄像机坐标系(Camera Coordinates)然后再从摄像机坐标系映射到屏幕坐标系。

在实际的编码中,所有这些变换都是一个矩阵,在线性代数中矩阵代表一个变换,对坐标进行矩阵左乘便是一个线性变换(对于平移这种非线性变换,可以采用齐次坐标来进行矩阵运算)。公式如下:

矩阵C的学名叫摄像机内参矩阵,矩阵Tm叫摄像机外参矩阵,其中内参矩阵是需要事先进行摄像机标定得到的,而外参矩阵是未知的,需要我们根据屏幕坐标(xc ,yc)和事先定义好的Marker 坐标系以及内参矩阵来估计Tm,然后绘制图形的时候根据Tm来绘制(初始估计的Tm不够精确,还需要使用非线性最小二乘进行迭代寻优)。

比如使用OpenGL绘制的时候就要在GL_MODELVIEW的模式下加载Tm矩阵来进行图形显示。

2、 Marker-Less AR

基本原理与Marker based AR相同,不过它可以用任何具有足够特征点的物体(例如:书的封面)作为平面基准,而不需要事先制作特殊的模板。

摆脱了模板对AR应用的束缚。

它的原理是通过一系列算法(如:SURF,ORB,FERN等)对模板物体提取特征点,并记录或者学习这些特征点。

当摄像头扫描周围场景,会提取周围场景的特征点并与记录的模板物体的特征点进行比对,如果扫描到的特征点和模板特征点匹配数量超过阈值,则认为扫描到该模板,然后根据对应的特征点坐标估计Tm矩阵,之后再根据Tm进行图形绘制(方法与Marker-Based AR类似)。

02

LBS-Based AR

其基本原理是通过GPS获取用户的地理位置,然后从某些数据源(比如wiki,google)等处获取该位置附近物体(如周围的餐馆,银行,学校等)的POI信息,再通过移动设备的电子指南针和加速度传感器获取用户手持设备的方向和倾斜角度,通过这些信息建立目标物体在现实场景中的平面基准(相当于marker),之后坐标变换显示等的原理与Marker-Based AR类似。

这种AR技术利用设备的GPS功能及传感器来实现,摆脱了应用对Marker的依赖,用户体验方面要比Marker-Based AR更好。

而且由于不用实时识别Marker姿态和计算特征点,性能方面也好于Marker-Based AR和Marker-Less AR,因此对比Marker-Based AR和Marker-Less AR,LBS-Based AR可以更好的应用到移动设备上。

03

AR增强现实系统组成

1、Monitor-based系统

基于计算机显示器的AR实现方案中,摄像机摄取的真实世界图像输入到计算机中,与计算机图形系统产生的虚拟景象合成,并输出到屏幕显示器。

用户从屏幕上看到最终的增强场景图片。它虽然不能带给用户多少沉浸感,但却是一套最简单使用的AR实现方案。

由于这套方案的硬件要求很低,因此被实验室中的AR系统研究者们大量采用。

2、Video see-through系统

头盔式显示器(Head-mounted displays-HMD)被广泛应用于虚拟现实系统中,用以增强用户的视觉沉浸感。

增强现实技术的研究者们也采用了类似的显示技术,这就是在AR中广泛应用的穿透式HMD。

根据具体实现原理又划分为两大类,分别是基于视频合成技术的穿透式HMD(video see-through HMD)和基于光学原理的穿透式HMD(optical see-through HMD)。

Video see-through增强现实系统实现方案

3、Optical see-through系统

在上述的两套系统实现方案中,输入计算机中的有两个通道的信息,一个是计算机产生的虚拟信息通道,一个是来自于摄像机的真实场景通道。

而在optical see-through HMD实现方案中去除了后者,真实场景的图像经过一定的减光处理后,直接进入人眼,虚拟通道的信息经投影反射后再进入人眼,两者以光学的方法进行合成。

4、三种系统结构的性能比较

三种AR显示技术实现策略在性能上各有利弊。

在基于monitor-based和video see-through显示技术的AR实现中,都通过摄像机来获取真实场景的图像,在计算机中完成虚实图像的结合并输出。

整个过程不可避免的存在一定的系统延迟,这是动态AR应用中虚实注册错误的一个主要产生原因。

但这时由于用户的视觉完全在计算机的控制之下,这种系统延迟可以通过计算机内部虚实两个通道的协调配合来进行补偿。

而基于optical see-through显示技术的AR实现中,真实场景的视频图像传送是实时的,不受计算机控制,因此不可能用控制视频显示速率的办法来补偿系统延迟。

另外,在基于monitor-based和video See-through显示技术的AR实现中,可以利用计算机分析输入的视频图像,从真实场景的图像信息中抽取跟踪信息(基准点或图像特征),从而辅助动态AR中虚实景象的注册过程。而基于optical see-through显示技术的AR实现中,可以用来辅助虚实注册的信息只有头盔上位置传感器。

AR虚拟现实能干什么

1

增强现实概念

增强现实(Augmented Reality,简称AR)技术是一种基于计算机实时计算和多传感器融合,将现实世界与虚拟信息结合起来的技术。该技术通过对人的视觉、听觉、嗅觉、触觉等感受进行模拟和再输出,并将虚拟信息叠加到真实信息上,给人提供超越真实世界感受的体验。目前广泛接受的一种定义是Azume在1997年提出的,他认为AR应该具有三个特征:

结合真实与虚拟实时交互支持三维注册

我们所要讨论的增强现实,主要是视觉增强现实技术,核心在于虚拟信息和真实世界在物理空间中的匹配以及可视化。增强现实是一个多学科交叉的研究领域,内容纷繁复杂,选取其中某个点深入下去都可以作为长久的研究课题。一个完整的AR系统至少有三个部分:跟踪、注册和显示。

2

增强现实技术起源

Sutherland在1968年完成了第一台头盔显示器,堪称头盔显示器的开山祖师。不过由于当时技术限制,该设备非常笨重,需要悬挂在房顶上使用,于是被戏称为“达摩克利斯之剑”。

70年代、80年代也有很多研究者做了相关的研究工作,但是直到90年代初期,“Augmented Reality”这个词汇才首次诞生。渐渐地,增强现实脱去虚拟现实的外衣,成为一个独立的研究领域。

随着21世纪初期智能手机的兴起,增强现实有了天然的开发载体,视频式的增强现实迅速发展起来。这也得益于ARToolKit和Vuforia等基于图像的跟踪定位工具的相继推出。如下图,使用智能手机和平板电脑作为平台的增强现实应用,目前已经非常普遍。

但是,智能手机和平板电脑毕竟只是视频式的增强现实,相比于光学式的来说,还是少了一点科技感和刺激感。于是谷歌在2012年发布了Google Glass,为增强现实的发展注入了新的活力。它对于AR发展的作用应该就像是Facebook的Oculus Rift之于虚拟现实一般。2014年3月26日,Facebook宣布将以约20亿美元的总价收购沉浸式虚拟现实技术公司Oculus VR。这一事件极大地推动了虚拟现实的发展。

类似地,Google等商业巨头投身AR,也必将对AR起到巨大作用。尽管后来GoogleGlass停产,但是其作用不可忽视。之后,又有更多的公司推出了自己的光学式增强现实眼镜,最著名的是Microsoft Hololens和Maigc Leap。

3

增强现实研究内容分解

1、显示技术

近眼式显示设备

近眼显示设备主要是指头盔显示器头盔显示器主要分为两种:光学透射式头盔显示器和视频透射式头盔显示器。当然如果按照显示器件数量,也可以划分为单目头盔显示器和双目头盔显示器。这里主要讨论光学式(左)和视频式(右)的区别。

光学透射式头盔显示器是直接透射外界的光线,并且反射微投影器件产生的虚拟图像到人眼中,达到虚实融合的效果。优点是可以保证正确的视点和清晰的背景,缺点是虚拟信息和真实信息融合度低,且人眼标定比较复杂。目前市面上典型的光学透射式头盔显示器有Hololens和Meta2等。而视频透射式头盔显示器,是将固定在头盔上的摄像头所捕获的图像,通过视点偏移来显示到眼前的显示器上。优点是虚实融合效果好,无需标定人眼,缺点是视点难以完全补偿到正确的位置,且与镜片范围外的环境不能完美衔接。将上面的光学透射式头盔显示器,加上摄像头,并且把带有增强信息的视频直接全屏显示,就成为了视频透射式设备了。很巧的是,很多光学透射式设备,确实在其上加装了这种摄像头,但是它们的本意是用摄像头来作为跟踪模块的。手持式显示设备

手持式显示设备,顾名思义就是拿在手上的显示设备。最常见的就是我们的智能手机和平板电脑。这类设备具有很好的便携性,是一种天然的AR设备。它们有摄像头作为图像输入设备,有自带的处理器,有显示单元,具备了进行AR开发的所有条件。在目前市面上,很多增强现实APP都是围绕这类设备开发的。固定式显示设备

桌面级显示器,这是我们日常生活中最常见的一类显示器了。给它添加一个网络摄像头,就可以完成AR任务了。该摄像头可以捕捉空间中的图像,然后估计摄像头的位置和姿态,最后计算生成虚拟信息,并进行虚实融合,输出到桌面显示器上。这类设备适合做一些科研类的开发,对于商业应用显得有些笨重,比起手机和平板来说稍逊一筹。

虚拟镜子,这是利用摄像头对着人进行拍摄,然后输出到一个类似于镜子的大型显示器上,给人一种照镜子的感觉。同时,还可以进行虚拟换装,或者添加一些虚拟物件,达到AR效果。

还有一些固定显示器,类似于雾幕、水幕、全息膜等,在上面投影出增强信息,可以实现AR效果。

投影式显示设备

投影机是一种重要的虚拟现实和增强现实设备。最常见的基于投影的增强现实系统是在展会上的各种绚丽的投影展品,包括虚拟地球、汽车表面投影等。这类系统属于空间增强现实系统。另外,柱幕、球幕、环幕投影也可以归为基于投影的空间增强现实。

投影机还可以用于构建CAVE系统。手持式投影机结合图像捕捉设备,还可以建立动态的空间增强现实系统。

小结与分析

增强现实中主要的显示设备就是以上这些。如果要开展关于显示技术的研究,从硬件方面来讲,就是显示材料、器件的研发。当然这与增强现实并没有高度相关性,只能说显示设备参数的提升,可以间接促进增强现实系统性能提升。但是显示方面,软件还是可以有些值得做的东西,并且与增强现实体验息息相关。那就是头盔显示器的显示畸变校正和投影机画面拼接融合,这些技术都直接影响着增强现实系统虚实融合精度和整体可用性。

研究增强现实技术的人,很多是侧重于系统集成和应用测评,或者是直接将AR系统应用在其他的研究领域。因此,这些人一般不会研究显示元器件的细节,而更加关注如何拿现有的材料或者设备来构建新型显示系统。如果能够做出新的AR系统,并且具有实用意义,也是非常有研究价值的。

2、跟踪技术

跟踪理论会涉及到一些空间坐标转换的基础知识,以摄像机跟踪为例,分为模型坐标空间、世界坐标空间、摄像机坐标空间和图像坐标空间。由于比较细节,这里不展开讨论,相关知识可以查阅计算机视觉书籍即可。这里以不同种类的跟踪系统为例来讨论跟踪技术。

固定式跟踪系统

机械跟踪器通过控制机械臂各个关节的转动来跟踪机械臂末端的空间位置,属于比较老的跟踪方式,但是精度可以控制得比较高。

电磁跟踪器是通过一个固定的发射源发射出三维正交的电磁场,接收端通过检测接收到的电磁场的方向和强度来确定位姿。

超声波跟踪器则是通过测量一个声音脉冲从发射源到传感器的飞行时间来测量距离。移动式传感器

GPS,全称是全球定位系统。这个系统在智能手机上应用很普遍。它通过接收多颗卫星信号来确定当前所处的位置。对于户外大范围增强现实有着重要意义。

无线网是通过检测移动设备接入点信息来粗略确定移动设备所处位置的。它可以配合GPS使用。磁力计,也称电子罗盘,通过检测地球的磁场来确定方向。

陀螺仪和线性加速度计都是依靠惯性来进行测量的。陀螺仪测量三轴角度变化,线性加速度计测量位置变化。它们通常会配合使用,并且常以微机电系统(MEMS, Micro-Electro-Mechanical System)的形式存在。里程计是通过轮式或者光电编码器来测量所走过路程的一种传感器,常用在机器人或者交通工具中。光学跟踪技术

(1)跟踪模式

有些跟踪需要对被跟踪的目标预先建模,例如一些图像跟踪工具箱。有的则不需要提前建模,例如同步定位与跟踪技术(SLAM)。多数跟踪是需要提前建立一个待跟踪模型数据库的,然后在运行中实时提取特征并且与数据库中的数据进行比对。而SLAM则可以实时根据获得的特征,自主建立空间地图,并且确定摄像头相对于环境的位置。

目前研究的比较火热的是SLAM。因此,可以研究SLAM中的各个环节,从跟踪、建图、回环检测等角度研究如何提升SLAM系统的精度,以及面对复杂环境的稳定性问题。

(2)照明种类

跟踪的稳定性与环境光有关,尤其是基于视觉的跟踪。有些跟踪系统不需要自主添加光源,只是利用环境光,称为被动照明;有些跟踪需要主动发射某种照明光线,来实现其跟踪,称为主动照明。被动照明是比较常见的,例如平面标志跟踪就是在普通的环境照明下实现的。主动照明最典型的就是结构光照明,例如Kinect。还有一种主动发射红外光的OptiTrack系统,做姿态跟踪效果很好。

(3)人工标志与自然特征

人工标志指的是人造的用于跟踪的图像标志等。例如二维码、棋盘格等。自然特征指的是自然环境中本身就有的特征,不是人为放置用来跟踪的特征。普通的室内环境、街边的楼宇都可以认为是自然特征。人工标志根据其种类不同,需要特定针对性算法进行检测和跟踪,自然特征通常使用SIFT、SURF、ORB等特征描述子来进行特征提取和跟踪。传感器融合

互补式融合:不同的传感器测量的是不同种类的参数,可以互相补充。

竞争式融合:不同传感器测量的是同一个种类的参数,则使用某种方式将它们结合起来,产生一个更好的测量结果.

协作式融合:不同传感器之间是协作关系,其中某个传感器可能依赖于其他的传感器才能得出结果。

小结与分析

笔者认为,纯粹的跟踪技术研究,不仅可以服务于增强现实,也可以服务于虚拟现实,以及其他需要用到该技术的领域。研究跟踪技术,可以从多视图几何方向入手,通过几何的方式来估计位姿。也可以从特征角度入手,针对特定的问题,设计不同的特征表述方式,解决问题。

SLAM研究者们通常会考虑怎样建立更加稳健的SLAM系统,怎样对抗真实环境中的噪声,怎样进行更好的回环检测等。研究惯性测量单元(IMU)与视觉融合进行SLAM的也大有人在,多传感器数据融合对于SLAM来讲有重要的意义。

在研究基于视觉的跟踪技术时,会用到很多计算机视觉算法。计算机视觉本身就是一个很庞大的学科,感兴趣的读者可以根据自己的兴趣,选择相应的书籍进行展开阅读。这里推荐两本书,一本是《计算机视觉——算法与应用》,另一本是《计算机视觉中的多视图几何》。

3、标定和注册

跟踪、标定和注册是AR系统研究的三个核心问题。前面我们已经讲了跟踪技术,这里将对标定和注册进行叙述。

摄像机标定

(1)标定内参数

摄像头是基于视觉的AR系统的重要组件。所以在使用中必须先标定摄像头的内参数。对于普通的摄像头,可以采用matlab自带的摄像头标定工具箱来标定。不仅可以标定出摄像头的内参数,还能标定出镜头畸变。该工具箱采用的是棋盘格标定法。

(2)校正镜头畸变

镜头畸变可以分为径向畸变和切向畸变两种。它们也都可以通过标定来确定畸变参数。镜头畸变是普遍存在的,所以在使用之前要记得先进行标定。显示器标定

(1)单点主动对准法

对于光学透射式头盔显示器,要进行AR开发的话,必须加上一个摄像头。摄像头与头盔显示器之间的位置关系需要标定。最常用的一种方法是单点主动对准法(SPAAM)。这个方法要求用户佩戴头盔显示器,并且将屏幕上的一些十字光标与真实世界中的物体进行多次对齐,多次对齐需要通过头部转动完成。数据获取后,通过DLT方法构建方程组求解投影矩阵。

(2)使用瞄准转置

该方法需要将瞄准装置与显示器上的十字叉丝对准,而不是使用在SPAAM中用到的静止标定点。这种瞄准装置经常是作为AR设备的一部分,并且包括一个触发器来确认对准完成。瞄准装置有一个优势,用户不必再移动头部来完成对准,取而代之的是,可以通过移动手臂来完成。注册

跟踪系统在进行测量的时候,会存在测量误差,导致位置估计不准。这种误差会导致注册的虚拟物体与真实物体之间会存在不匹配的情况。所以,在每一个步骤要严格控制误差,不要让误差在后面的环节中传播。

对于光学透射式增强现实来说,还有另一个非常重要的问题,那就是延迟。由于真实的环境背景是直接透射进人眼的,可以认为是零延迟的。但是虚拟信息是通过摄像头捕捉环境,建立跟踪注册信息,然后渲染输出到头盔显示器上。这个回路的处理时间导致虚拟信息的渲染比头部转动会有延迟。一个比较有效的方法是在视觉跟踪的基础上,加入高反应速度的IMU,对这种延迟进行补偿。头部的快速运动可以根据IMU的反馈来渲染图像。

小结与分析

摄像头标定本身已经是一个很成熟的领域了,除非有什么新的摄像头类型推出。光学透射式头盔显示器的标定也比较成熟,但是还是存在问题。比如标定程序复杂,不同用户之间通用性低。所以可以根据人眼与HMD之间的特殊性,研究提升标定效果的方法。另外,还可以考虑减小延迟,比如考虑视觉-IMU融合。这种方法已经在Hololens上获得成功应用。减小延迟的方法除了使用视觉-IMU融合,应当还有别的途径,这些都是值得研究的地方。

4、视觉一致性

几何一致性

增强现实系统呈现的效果应该是虚实高度融合的,让人分不清哪里是虚的,哪里是实的。高度融合体现在虚拟物体被放置在正确的位置上,没有与真实物体产生错误的重叠。几何一致性还要求在时间变化中保证几何一致。例如,在光学透射式头盔显示器中,快速的头部运动会导致虚拟图像的渲染落后于真实的环境,导致图像延迟现象。这就违反了几何一致性要求。

另外,虚实遮挡也要保持一致。有的时候虚拟的物体在空间上应该被渲染到真实物体的后面。但是默认情况下,虚拟的物体总会挡在真实物体的前面。因此,必须使用额外的传感器,探测出真实物体的空间位置,然后决定哪些虚拟图像是应该被遮挡起来的。

还有一些研究人员对增强现实头戴式显示器的深度感知一致性做了研究。他们分析了使用双目头盔显示器看到的虚拟物体与真实物体在深度感知上的一致性。

光照一致性

虚拟世界的光线往往是认为设定的,但是真实世界的光线是非常复杂的。因此渲染的虚拟物体怎样保持与真实环境一致的光照效果,也是需要注意的。光照效果如果不一致,尤其是阴影的渲染不一致的话,会导致非常糟糕的效果。解决这个问题的途径是,通过某个方式获得真实环境中的光源分布,然后在虚拟世界中模拟这个光照效果。

小结与分析

视觉一致性分析实际上主要是对增强现实系统的表现进行评价。一旦涉及到用户研究,就有很多值得研究的工作。比如研究AR系统的几何一致性对用户使用头盔效率的影响,以及图像呈现与环境配合关系。尤其是光照研究,自然光照是非常复杂的,要想完全模拟自然光是非常难的。所以这个点上还是有很多值得研究的东西的。

5、交互技术

交互听起来有些陌生有些抽象,但是确是一个非常常见的过程。比如,我们日常使用鼠标键盘就是在与计算机进行交互。人机交互就是人与机器之间进行信息沟通的过程。按照交互方式的不同,增强现实中的人机交互技术可以分为多种,下面一一介绍。

设备交互

传统的交互最被大众熟知。鼠标键盘的几十年发展证明这种人机交互方式非常有效。但是对于增强现实应用,却不一定是最好的结果。一些被广泛用于虚拟现实的设备,例如数据手套、力反馈装置、数据衣等,也可以应用在增强现实中,但是加入这些装置后,会明显觉得环境不协调,对增强现实应用的效果有影响。肢体交互

随着Kinect等设备的推出,肢体交互在投影式增强现实中获得广泛应用。肢体交互不仅解放了双手,而且促进了全身的均衡运动,可以理解为一种非常健康时尚的交互方式。因此,肢体交互在游戏娱乐领域获得了广泛的应用。

手势交互

很多桌面级的应用,也可以选择手势交互作为一种交互方式。手势交互依赖于手势检测设备,现有的手势检测设备有LeapMotion和RealSense等。这类设备极大地促进了手势在人机交互中的推广。

语音交互

随着人工智能技术的发展,语音识别准确度和效率明显提升。因此,语音交互也变得越来越普遍。

触摸交互

触摸交互是针对专门的触摸设备来的。其实触摸交互也算是比较早发展起来的了。大部分智能手机手势触摸屏,而且有些智能眼镜也在镜框上设置了触摸区域。

眼动交互

通过图像设备捕捉人眼运动,也可以实现人机交互。只不过这种方式仅仅适用于非常特殊的情况下,长时间的眼动交互会比较疲惫。

脑机接口

最新的人机交互方式莫过于脑机接口。它通过读取人大脑的活动,来产生控制信号,对外界的设备进行控制。目前还只能实现比较初级的控制,完全解读人脑意念信息还是任重而道远。

小结与分析

人机交互是一个非常大的研究领域,在增强现实中涉及到的人机交互技术也有很多。我们可以针对某种交互形式展开研究,无论是建立人机交互接口,还是评测交互性能,都是一个不错的切入点。相信很多读者都会有兴趣构建一套属于自己的人机交互系统吧。

6、可视化

增强现实中的可视化,主要是对场景中的物体进行标注和解释。对于标注和解释的合理性和正确性,需要经过仔细探究。一个场景中可能有很多东西可以标注,也有很多来自数据库的信息可以呈现。但是如果不加选择全部显示出来,还是会发成数据冗余、屏幕混乱的情况。因此需要对数据进行过滤,考虑两个方面的问题:第一,标注的合理性;第二,数据推送智能性。

7、典型应用方式

创作

增强现实可以用于创作小故事,运用该技术可以尽情发挥个人想象力,构建出自己的各种物品、房间乃至城市。导航增强现实技术可以应用于导航。将虚拟的导航信息叠加在真实的道路信息上,甚至可以将信息投影在汽车的玻璃上,最大程度为用户提供方便。

协作增强现实技术可以为多个用户创建一个统一的协作平台,构建出一个虚拟的共享空间。多个用户不论是否在同一地点,都可以通过增强现实的方式实现资源和信息共享。

4

增强现实与虚拟现实、混合现实的关系

根据一个系统中虚拟与现实的占比,可以将系统分为4类:真实现实、增强现实、增强虚拟、虚拟现实。而增强现实和增强虚拟又可以合称混合现实。

从上图可以看出,橙色代表虚拟成分,蓝色代表真实成分。当只有真实世界信息的时候,属于纯粹的真实现实,典型的就是我们带摄像功能的手机,以及我们佩戴的普通眼镜。当系统中既有真实信息又有虚拟信息的时候,叫做混合现实。此时,如果虚拟信息是服务于真实世界的,且数量较少,占次要地位,则归为增强现实,典型系统是手机导航系统;如果虚拟信息是主体,而真实信息是为虚拟信息服务的,那就叫增强虚拟。最后,如果信息全为虚拟,则是虚拟现实,典型系统是各类虚拟现实游戏。

5

增强现实技术应用领域

增强现实技术的应用领域:

推荐阅读:增强现实技术(AR)的103个应用场景汇总

6

增强现实技术展望

增强现实技术已经发展了几十年,但是还没有达到巅峰。增强现实的推广,还必须依赖于几个方面的进步:

传感器技术的进步显示技术的进步计算能力的提高社会信息网络的完善。

可以预期,在五到十年的时间里,增强现实技术将会取得重大进步。各大科技巨头也将会重点布局这个新兴领域,随之极大推动该产业的发展。增强现实技术与虚拟现实技术、人工智能技术将会紧密结合,形成下一代科技革命的发力点,极大革新人类的生活方式与生产方式。也许十年、二十年后,增强现实设备就会完全取代智能手机,成为下一代智能计算平台、社交平台和支付平台,带领人类进入全新的发展阶段。

生产力的发展如此迅速,增强现实普及之日并不遥远——然而,当一切构想全部实现,进入“增强现实”时代,等待我们的下一个神奇又会是什么呢?

参考文献

《Augmented Reality——Principles and Practice》作者:DieterSchmalstieg, Tobias Hollerer.

内容来源:CSDN作者:雁回晴空原文链接:

AR技术让智能物流的落地成为现实!

2021年,增强现实(AR)技术的应用已经迎来了爆发式的增长,在提升行业价值、带来全新解决方案和用户体验方面创造了无限可能。近年以阿里、京东为代表的电商平台推出智能化的配送方案,从产地,包装到运输和销售,一站式整合全产业链资源,最终形成覆盖全国至终端配送一公里的大电商超级网络,对物流行业进行了系统性重塑。

先进的技术、新的商业模式和客户行为的变化重塑了物流业。信息和数字服务的普及重新定义了整个产业,物流行业正进入一个变革性的十年。后疫情时代加速了AR技术的成熟和渗透,AR被越来越多的物流企业用于智能仓储,分拣、导航、运输、培训等环节,助力企业降本增效和数字化转型。

01

智慧仓储

优化仓储作业流程:员工通过佩戴AR眼镜,通过远程协助,标准工作流指引,达到一线操作人员与远程专家,中央调度的实时沟通,及时解决突发问题,包括货物进出库信息管理,现场人员车辆调度监控等,降低错误率提升效率,优化仓储配送环节的信息管理水平,提高仓储物流的工作效率。

AR智能分拣:通过佩戴AR眼镜,实现了拣货技术从从传统的Pick by paper(按纸质拣货单拣货)和Pick by RF(用无线射频枪拣货),到Pick by voice(声音拣货)和Pick by vision(目光拣货)的平滑过渡,达到降低错误率提升效率,方便拣货员处理信息。

AR导航:通过AR眼镜的空间点云定位功能,实现查找、跟踪、解锁货物信息的功能。AR导航可根据LBS信息,指导仓储工作人员找到相应的货位,同时物流系统信息自动更新完毕。

AR仓库设计和员工培训:

通过AR眼镜的空间点云定位功能,对仓库内部实行建模,并模拟仓库空间布局,叠加虚拟货物空间信息直接进行调整,提高设计效率。在员工培训方面,标准工作流程的监控和可视化的指导可以大幅提高新员工的学习效率快速上手,降低企业教学成本。

相关案例:

运用RealWear HMT-1可口可乐希腊公司订单执行准确率达到了99.9%,生产率提高了6%-8%

可口可乐希腊公司(Coca-Cola HBC)宣布将在28个国家地区的仓储物流现场管理体系中部署头戴AI计算机RealWear HMT-1,用于实现基于AR增强现实和视觉采集技术的仓库物流拣选,帮助现场作业人员更高效地完成任务,完成了快速消费品货物仓储物流环节的数据化,合理地解决了混合订单管理问题。

以下视频来源于

TeamViewer 远程服务专家

以下视频来源于

TeamViewer 远程服务专家

DHL物流部门DHL Supply Chain将投资3亿美元推出AR分拣产品功能

DHL公司旗下有430家物流中心,其中350家将获得技术升级以促进未来物流和供应链发展。试点计划将由DHL内部创新团队以及Locus Robotics等数十家公司合作完成。DHL将根据客户需求,为其提供合适的解决方案,如AR技术、机器人、AI技术等。DHL希望利用这些新兴技术帮助电商企业解决多渠道销售问题、简化物流、缓解仓库容量限制,从而为用户提供最好的服务。(来源: VR之家 作者:joe chen)

02

智能运输和配送

进出库运输:有了AR技术和后台运算的帮助,根据运输的线路和货物空间体积的信息对装载货物的次序进行优化,增加装卸货的过程中与托盘叉车等载具的配合度,对载货效率和运输装卸货的效率进行全方位的

提升。同样对于终端配送,也可以优化其装载的先后顺序。

03

应用案例

Zebra 穿戴式AR解决方案专为物流行业量身打造硬件+软件成套解决方案,从佩戴式移动数据终端,到扫描性能出色的多种指环式扫描器,佩戴式解决方案将佩戴式技术的免持移动性与轻按即配对等功能相结合,可为一线员工带来更高工作效率,和更大的便携移动性。

眼镜端实现免持指示操作工作流程,进而提升订单处理、维修和生产能力,让员工充分利用Zebra 移动数据终端,提高工作效率。

KNAPP是国际领先的仓储物流自动化系统和解决方案提供商,Vision Manual Picking 视觉人工拣选是一种用途多样的光学、无纸化拣选系统,开辟了机动性、灵活性和质量的新维度,它具有牢固耐用的耳机,内置摄像头和增强现实 (Augmented Reality) 技术,是专为在工业领域使用而设计的。利用视觉人工拣选技术的拣选流程快速、简便、零缺陷。

TeamViewer Frontline作为世界上第一个面向一线员工的完全集成的生产力解决方案套件,他创造了一个真正互联的员工队伍。使用AR引导解决方案(与可穿戴设备和移动设备无缝集成)为一线员工数字化和简化流程,提高整个供应链的生产力、效率和质量。降低物流、生产和装配过程中的错误率,提高质量、减少投诉并节省成本。

TeamViewer Frontline xPick 视觉拣选 让一线员工能够通过智能眼镜和其他可穿戴设备,按照图形化拣选工作流步骤来工作,从而实现物流和仓储流程的数字化, 提高准确性和 效率。

DHL Supply Chain成功在荷兰开展了名为Vision Picking Program的实验项目,该项目就是使用AR技术来进行物件的分拣。在这个实验项目中,DHL的分拣人员会配备一幅AR眼镜。在工作的时候,AR眼镜上会显示出待分拣物品的相关信息,工作效率得道大幅度提升,同时出错率也相应的减少。

在2021年全球智慧物流峰会上,菜鸟物流科技展区发布了重量级黑科技产品——CAINIAO LEMO GLASS信息视窗智能眼镜。通过该智能眼镜,用户可以体验全球首个可以真正投入使用的视窗拣选方案。

SAP 是全球领先的业务流程管理软件生产商之一,致力于开发有助于跨组织进行有效数据处理和信息流的解决方案。SAP在增强现实技术领域在积极布局,与用于开发和管理AR场景的网络平台3DQR达成深度合作是最好的证明。

04

未来趋势

随着全球贸易增长放缓,区域贸易的上升,建立富有弹性和可持续性的供应链是大势所趋,更多企业将采用自动化收集和分析供应链数据的工具,有效协调供应链上的资源渐渐比对平台的控制或数据可视化重要。对熟练以及富有创造力的供应链人员的需求也将可能增加,在招聘、培训和职业发展方法方面也将产生连锁反应。

针对物流场景细化的硬件需求,可能会推动物流AR硬件朝着专业化定制化的方向演变,在部分应用量比较大的场景引入成熟技术,使得AR设备的成本大幅降低,提升AR设备的ROI到接近甚至超过传统手持设备的水平可能会成为未来5年的主要趋势。

结语

2021年,随着后疫情时代的全球范围内的制造业减速,物流业在为了确保关键物资的运送的同时,也要满足越来越多样化定制化的客户需求,打造智能物流体系,积极推进数字化转型便成了未来5-10年的主要任务,AR技术将持续在行业领域中渗透,为全行业转型带来全新思路。

增强现实技术(AR)的103个应用场景汇总

一、生产和工作场景

1、屏幕生成:在任何时候都可以生成高分辨率的屏幕。如果你需要一个监视器,你只需要简单地将屏幕拉到自己的视野范围内并调整尺寸。这也会减少人们对于电视、电脑、手机和平板电脑等展示设备的依赖。

2、电话会议:所有参与者都能通过AR看到其他与会者的投影,增加现场感与参与感。

3、实时背景核查:在我们见到一个人之前,我们能够通过网络查到他的一些信息。而有了AR技术,我们可以在看到这个人的时候立即搜索到他的各种背景信息,包括社交账号、照片、浏览器搜索历史等等。

4、3D建模与设计:能够实时地在现实世界中浏览并修改3D模型,并与之做出各种交互。

5、浏览、做笔记、项目管理:所有日常的工作工具都能以AR形式实现。

6、私人助理:能够即时查看你的事务安排,并及时做出提醒。

7、合作:POV分享将取代通过屏幕进行的信息分享,从而使得合作更加容易。

8、测量:使用AR的追踪能力获得物体的长度与距离。

9、监视:定制任何你想要获得即时更新的消息反馈,如社交媒体、你的房子、孩子、工作安排、甚至是天气预报。你能以任何喜欢的方式来查看你的最新更新,比如身处在一个数据展示房间里,周围漂浮着各种窗口。

10、AR用户界面/用户体验:正因为没有实体屏幕,AR可以让用户更轻松地设计自己喜欢的计算机交互。

11、快速记忆:通过将面部识别功能关联一些工作工具,诸如CRM、email等,让用户能快速地记起自己上一次遇到这个人是什么时候,你们说了什么,以及其他一些关联信息。

12、调查:进行实时搜索并能立即获得答案。如果你身处一个会议,有人提到你不懂的词汇,你可以使用AR来悄悄搜索这个词汇并在你自己的视野中展示出答案。

二、心理分析

13、公众演讲:获取人群中的情绪变化,分析他们的反应,了解哪部分内容最受欢迎。

14、会议:让你了解听众对你本人以及会议主题的态度和反应。

15、用户反馈:利用产品测试、心理实验、表情捕捉等多种方式进行心理分析,从而获得客观反馈。

16、情商训练:通过训练和实时反馈帮助建立适当的社交活动的基准,例如合适的眼神交流、什么时候适合开玩笑、怎样保持与他人之间合适的距离。对于自闭症人群有着特殊的适用性。

17、移情训练:把人们放到其他人的视角上从而实现换位思考。人们可以体会不同性别、不同种族的人的日常,健康的人可以感受残疾人看待世界的视角等等。

三、家庭

18、室内设计:在改造你的屋子之前看到最终效果图,比如不同颜色的墙、家居布局等等。

19、资源监控:控制物联网设备并监控各种能源消耗与当前费用单。增加能源利用率并让你更清楚地知晓每个月的水电费等都花在了哪里。

20、清洁:形象化需要清洁的区域并提供提醒与完成百分比。比如将需要清洁的区域显示成红色,然后当你清洁完之后它就实时变为蓝色。

21、看护婴儿:扫描你的居住空间并标注出有危险的物品,然后提供建议让你知晓如何避免这些物品对你的孩子带来的危害。

四、交通

22、GPS导航:将导航直接叠加在视野中,直接看向前方,避免了由于低头看手机或汽车导航造成事故的危险。

23、防止撞击:不论是使用自动驾驶车辆还是AR辅助驾驶,计算机视觉对潜在危险的检测和反应都比人类更加迅速。

24、危险标记:司机或乘客对危险或需要减速的路况进行标记,其他的AR用户也可以获得提醒,以此减少事故的发生。

25、事故记录和分析:AR用户可以从自己的视角进行记录,为确定事故原因提供更多的证据。

五、教育

26、说明和指南:提供可视化的组装和维修步骤,从汽车到家具以及各种机械,代替了用户手册和安装指南。

27、天文:抬头仰望夜空,就能识别行星、恒星、星座以及各种各样的天体。

28、职业培训:学员可以通过AR指令和远程监控,快速掌握工作技能。

29、课堂教学的改进:AR课程资料能够让学生深入地了解课题。教师可以在线提问学生,直接看到他们给出的答案,学生可以远程参加学习小组完成作业。教师可以看到哪位学生没有加入,从而进一步给予关注。化学实验课也不必再担心化学药品可能造成的危险。

30、书籍:在虚拟屏幕上可以看到弹出的数字、相关信息的链接、词汇的定义等,以数字化的方式获取知识。

六、医疗

39、手术助手:在手术中识别器官和组织,并获得指令,可以站在医生视角观察,也可以是基于知识库的应用学习。

40、药物识别:帮助医务工作者正确地分辨药物,即使他们没有受过训练也可以完成。简化了对药剂师和医生的要求,减少了药物管理和处方过程中可能发生的错误。

41、静脉插入:让医务工作者能更容易找到静脉并进行注射,增加一次插入成功的几率。

42、给医生更多机会:AR能够帮助缺乏临床经验的医务工作者提升能力,例如远程医生可以通过第一人称视角来给予协助,让医生们可以不受位置和专业知识范围的限制,工作更加灵活。

43、症状检查:让患者根据医疗数据库的信息检查自己的症状,并与医生实时交流信息。

44、交流意见:与其他医生更快速简捷地进行合作,例如各位医生一起X光片,相互分享观点,讨论结果。

七、政治

45、事实核查:让民众验证政治家们陈述的真实性。

46、AR提词器:政治家发表演说时不必再不自然地看着题词板,他们也可以在辩论中直接引用和阅读相关问题的陈述。

47、公众投票:通过情感分析来衡量公众对于一个政治家的态度,包括他们支持候选人的可能性以及转移支持对象的可能性。

48、捐赠者识别:通过提取姓名和隶属关系等背景信息,帮助政治家更好地与他们的捐赠者建立关系。

八、军事

49、秘密情报传递:特工可以用AR标示出特定的目标,只对特定的人可见,提高安全性。

50、友军甄别:大范围的AR覆盖分辨出友军和平民,用不同颜色或记号标记出友军和平民、敌军和敌军车辆,将伤亡降到最低。

51、增强飞行员视觉:识别目标,避免障碍,导航,提高目标精度。

52、炸弹检测:用AR进行炸弹检测扫描,接收反馈信息,标记出炸弹位置,避免危险。

53、武器作战:为武器、车辆、无人机以及其他资源的使用提供说明。

54、状态显示:显示剩余的弹药、食物和水、个人和整个队伍的健康状况,任务细节以及其他关键信息。

九、艺术与文化

55、博物馆和城市之旅:当你独自旅行时,参观博物馆或路过某个城市的地标,可以即时了解博物馆的展品和地标的文化背景。

56、艺术分析:了解作品以前的发展历程和在那些基础上创作出的最终的作品,了解艺术家所使用的技术和手法。

57、艺术教学:根据AR所指示的步骤和要点,一步步学习绘画、雕刻等。

58、历史的还原:通过AR技术将历史遗迹复原,让人们看到古迹原本的样子。

59、读书:可以将书籍锁定在你的视野中,无论是散步还是跑步,随时随地都可以阅读,还可以远程与他人一同阅读分享。

60、自然之旅:确定植物和动物的种类,了解它们的相关知识。

十、购物

61、服装购买:不出家门就能试穿服装。通过AR技术将服装叠加到自己身上。

62、家具购买:将家具以AR的形式摆放到你家的具体位置并查看效果。

63、生活小物品购买:创建购物目标,如营养品、优惠券兑换、食谱等,然后通过AR系统来提示需要购买的物品及其所在位置。

64、个人风格:尝试不同的发型与妆容。

65、身体改变:在自己身上查看纹身、穿孔以及整形的效果。甚至还能看到自己减肥、增肥以及锻炼出一身肌肉的效果,甚至还能看到自己减龄与增龄的样子。

66、沿街购买:如果你在现实世界中看到喜欢的商品,你可以立刻获得该商品的信息以及购买选项。以后你看到路边有个美女穿着一身漂亮的衣服,你立刻就能知道这件衣服的商标、价格、尺寸、颜色,并能立刻购买。

67、价格比对:你在实体商店看到商品时,你可以更简单便捷地比对该商品在其他线上商城的价格。

十一、社交

68、约会分析:初次见面,可以对对方进行实时分析,从而了解对方的背景信息、兴趣以及喜好。

69、自我营销:将简短的自我介绍信息以虚拟文件的形式推送给AR用户,随时随地将自己介绍给更多的个人和社群。

70、个人视角视频博客:用AR丝毫不落地记录生活日志,你所看到的都会成为直播。

71、状态设置:用户可以选择设置自己的状态,对其他人可见。例如:如果你想要安静独处,可以设置为“请勿打扰”,也可以显示自己正在收听的歌曲,以及情绪状态的改变。

72、看脸识人:AR可以帮助通过扫描面部来获取姓名,对于那些难以将别人的名字和长相对应记住的人来说,具有很大的帮助。

73、AR聚会:来自不同国家、不同城市的朋友们可以随时见面,坐在自家的沙发上就可以和朋友们一起看电影、玩游戏、逛街。

十二、运动健身

74、全息个人教练:在你的运动空间中创造一个虚拟的全息个人教练,代替原来的训练视频和APP说明,你可以从各个角度全方位观看教练的锻炼方式,并且与教练同步训练。

75、个性化训练:通过AR装置监测心率、疲劳、用户反馈、训练目标等,做出实时的判断和调整。

76、游戏化的训练:将跑步、散步、骑单车等运动纳入任务之内,设立具体目标,通过一项项完成,将各项任务解锁。同时可以设立排行榜,与好友竞争。

77、健身记录显示:在需要时显示你的个人记录和历史任务信息,当你做仰卧推举时,可以看到自己的力量极限,扫描过去的记录,记录当前的重量、消耗等。

十三、建筑施工

78、项目管理:通过扫描项目来确定规格尺寸是否符合模型,如果不符,找出误差在哪部分。

79、蓝图和模型:比起传统的图纸和CAD模型,3D的AR投影更加直观且容易共享。

80、项目的可视化:在勘察项目现场的同时就可以看到未来建筑落成的样子。

81、项目说明:遵循AR说明的指示,按步骤施工。

十四、游戏

82、定位游戏:在现实世界的地图中叠加一个游戏层,让玩家以全新的方式体验现实世界,并且可以与其他玩家见面。

83、现实世界游戏化:将游戏动态应用于现实活动中,让任何事情都可以形成竞争机制。

84、动态虚拟形象:通过动态的虚拟形象反映用户的真实表情和性格特点。

85、AR宠物:创建一个时刻伴随着你的数字宠物,可以与其他人的数字宠物展开互动。

86、增强版的PC和主机游戏:当显示器还在大量使用时,可以在原有的屏幕上叠加一个AR层显示附加信息,当AR达到一定水平,用户就可以在任何地点随意创造显示屏,让PC和主机游戏成为真正的便携式。

87、电竞数据:在直播画面上方叠加游戏和玩家信息。

十五、体育

88、运动员数据统计:观看比赛时,可以看到运动员的统计信息和数据。

89、强化分析:获得任何你想要获得关于比赛的信息,比如球的速度、击球力度以及角度等。

90、运动员的提升:通过拓宽运动员的视野来增强他们的注意力和反应能力,例如让他们能通过网球的轨迹快速判断球的落点。

91、可视化训练:收录教练的指导,并将其映射到运动员的AR视野中,提升训练的效率。

十六、电影与电视

92、演员信息:叠加一个类似于IMDb的资料库,让观众快速了解演员的姓名、生平以及曾经塑造过的角色。

93、同时观看:在同一时间与其他人进行远程同时观看。

94、字幕:为你看到的任何场景添加可选的字幕。

95、移动观看:无论是在跑步、散步或是上下班的路上,任何场景都可以方便地欣赏电影电视作品。

十七、广告

96、个性化和针对性:基于每个人的姓名、兴趣、情绪状态、关注点、位置等等,让他们都可以直接看到独特的AR广告,一个AR广告空间可以为每一个人提供多个不同的AR广告。

97、交互式产品展示:消费者可以直接在AR广告中选择产品或内容。

98、新的广告创意:广告商将尝试更具侵略性的广告策略来吸引消费者的注意力。AR广告可以随时随地在人们眼前弹出,广告中的事物可以从视频中走进现实。但是广告会跟随人的视线运动,难以避开,这也是AR广告推送面临的问题之一。

十八、辅助功能

99、盲人助手:AR的对象识别和语音功能可以随时随地告诉盲人周围的场景和实况信息。

100、失聪者助手:用户可以通过AR设备接收声音信息,然后转化成文本提示。

101、实时翻译:通过AR,将外语的文本和音频转化为用户的母语并予以显示。

102、轮椅地图:接收AR轮椅地图,为用户规划出适合轮椅通过的无障碍路线。

103、缩放:通过变焦和增强让用户能看清非常小的或者距离太远的文本。

AR技术在导航中的应用

硬核看板报道了导航时AR技术如何打开“平行世界”的大门。

以下视频来源于

硬核看板

以下为文字稿。

2016年,曾经有一款叫Pokemon Go的游戏火爆全球,上线一个月就获得了五项吉尼斯世界纪录[1]。大批玩家拿着手机走上街头,只为捕捉宝可梦。

这个游戏在当时之所以火,是因为创新性地运用了增强现实技术,也就是AR(Augmented Reality)。

AR是一种在现实场景中无缝地融入虚拟物体或信息的技术[2],它能让人们与环境产生交互,并营造出沉浸感[3]。

所以Pokemon Go玩家开启AR模式后,就能够通过手机看到现实世界中“隐藏”的宝可梦。

除了游戏外,AR还广泛应用于教育、医疗、广告消费、工业等领域。

在教学中,老师能够利用AR呈现更生动的案例演示,学生也能借此更快地理解知识,甚至直接进行模拟实践[4]。

放眼医疗领域,AR则让诊断更准确,手术更轻松[5]。

应用于线上消费的AR,不仅让消费者有身临其境的体验,还让商品细节近在眼前[6]。

增强现实技术,能把现实中难以触及,需要靠想象力脑补的东西直接展示给你看。

那么,它究竟是如何实现的?

这里不得不提到SLAM,即时定位与地图构建,指在未知环境中定位自己的同时,构建环境三维地图,这是增强现实的关键基础技术[2]。

在AR中,SLAM与采集图像的传感器相配合,能够将虚拟坐标与现实世界坐标准确叠加,达到“虚实相生”的效果。

常见的扫地机器人就是SLAM的实现,在无人驾驶、无人机等领域,SLAM也起着核心作用。

在日常生活中,我们最常接触到的AR运用,就是地图导航了。

“AR导航”的出现,能够将虚拟箭头被直接标在现实中,解决了很多“明明到达目的地,却在附近打转”的困扰。

2019年,奇瑞高端品牌EXEED星途与百度合作,将AR导航首次应用于EXEED TX这款量产车型。

奔驰最近也在S级上运用了AR HUD抬头显示。此前,市面上绝大多数车载导航仍以平面视图为主。

平面地图即使有语音导航辅助,碰到前方多车道变道、多路口转弯,或复杂岔路的场景,导航就显得比较抽象。

有时语音导航会提前几百米告诉你右转,到了岔路口却突然静音,还需要车主花时间来自行判断路线,犹豫之间就错过了正确的路口[7]。

很多人觉得车载导航太难用,干脆继续用手机导航,但边开车边看手机,这是很危险的一种行为。

为什么AR导航能在手机上轻松实现,却难以在车载导航中普及?

车载导航面临复杂多变的环境,在高速运动中,AR导航需要快速准确地识别真实道路场景,并在屏幕上流畅地显示出来,这一点比较困难[8]。

此外,路况的准确识别,需要实时更新的道路交通大数据做支撑。这样融合算法才能对引导轨迹进行准确的渲染和叠加。

车载AR导航的实现,不但需要精准的图像识别能力,还对地图数据和虚拟融合算法等技术提出了高要求。这也是很多企业面临的一个难题。

而在EXEED星途 LX上,AR导航的应用又进行了一次升级。

仪表盘和原本显示导航的中控屏幕被打通,两块12.3英寸的悬浮式贯穿大屏,不但能够全屏浏览地图,还能实现双屏画面自由切换。

进化到3.0的Lion雄狮智云系统,配合高清摄像头和GPS定位系统,提供了更直观的沉浸式导航体验。

该系统能在获取位置信息和摄像头图像识别后,于精确位置叠加道标,实现引导线与车道线的完美贴合,让实景导航界面更贴近驾驶者真实视野。

直接悬浮于真实路面上的箭头指示,能够非常清晰地告诉驾驶者在哪里变道、转弯。跟着箭头走,几乎不可能走错路口。

在应用AR导航的基础上,EXEED星途LX拥有L2.5级自动驾驶设备加持,还能通过360度高清全景影像清晰还原实景,一秒掌握路况。

并对车辆前方的限速标示牌进行识别,在仪表盘上进行超速提醒,全方位保证驾驶安全。

AR时代已经到来,人性化的智能设备为我们带来全新的体验。

智能汽车改变的不仅仅是导航方式,也让我们离智能生活更近了一步,更加期待高科技为我们带来的无限可能。

参考文献

[1]Guinness World Records.(2016).Pokémon Go catches five new world records.

[2]刘浩敏, 章国锋, & 鲍虎军. (2016). 基于单目视觉的同时定位与地图构建方法综述. 计算机辅助设计与图形学学报,(28), 855-868.

[3]朱淼良, 姚远, & 蒋云良. (2004). 增强现实综述. 中国图象图形学报, 9(007), 767-774.

[4]刘立云, 李春燕, & 赵慧勤. (2017). 增强现实(AR)技术在教育中的应用案例研究. 中国教育信息化, 404(17), 19-22.

[5]Medical Design& Outsourcing.(2020).AR may help guide tumor ablation procedures, study says.

[6]CGTN.(2020).New Money: AR boosts sales, and consumer experience in 618 shopping festival.

[7]网易汽车.(2018).体验高德车载AR导航 解密背后三大黑科技.

[8]侃科技频道.(2018).这款真正落地的AR导航产品,是怎么做到的?

AR设计师需要了解的6个技术点

和屏幕UI一样,AR界面本身并不等于我们所要探索的自然交互方式,它只是一个触点。通过这个触点,机器与人实现了双方的联结,进行信息的交流和转化。为了实现人机间更自然的交互方式,在我们所看到的AR界面背后,需要许许多多包括硬件和软件层面的关键技术来支持它实现智能化发展。作为AR领域的设计师,自然需要对这些技术术语及基本原理有所了解,才能更好的发挥自己的专长,赋能技术更早的面向应用层面和生产层面。

这篇文章,我主要以设计师的角度来理解和分享这些技术术语,确保我们在设计的时候对AR界面下的基本技术和通识概念有所了解。其中部分文字来源于我去年年初写过的一篇文章(《作为AR领域的设计师,我们应该了解什么?》),对里面的错漏和不足也做了一些修订。

◆FOV

Field of view的缩写,是AR设计中所设计对象的显示区域,在之前的文章里我也有介绍过。它可以理解为屏幕UI设计里的手机屏幕、电脑屏幕,如果使用视频流式的显示方案两者区别不大,如果使用光学显示方案区别就会比较大。大家一般在网上所看到的AR应用视频,其实都是视频流显示方案的效果,和真实带上光学式AR眼镜的感觉是完全不同的。

光学方案下AR设计中的屏幕没有固定的物理尺寸,大小主要由设备里的光学仪器能够显示出来的视角场范围决定,距离越远,虚拟物体能显示的范围越大。这个距离是可以由设计定义的,但由于设备和人眼等限制问题,在设计中并不是越远越好。

现在的光学技术所能提供的虚拟显示区域并不大,以比较先进的50°FOV视场角为例,1080P屏幕在1.5m距离的显示大小,换算成真实世界尺寸大概为1.16×0.51m。

◆手势

对于头戴式设备来说,手势操作是一种理想的交互方式。它作为物理世界里本来存在的自然交互方式,对物体的抓取,移动等,有不可置疑的体验优势。但要在AR的世界里实现这样的交互,首先必须要满足用户使用手势的手是在机器的识别FOV范围内的,否则它无法被机器所识别,也无法做出反馈。

需要注意的是,这里的FOV与上面的显示FOV不是同一个FOV,是指另外一个硬件(TOF相机)的FOV。

总的来说,我们在加入手势交互的时候,要了解对应设备与手势有关的效度,精度和准度,以辅助我们形成更完整的设计方案。效度就是指手势在什么条件下是有效的,起作用的。一般来说,现在的TOF相机的FOV都不太大,很容易跟丢或认错手势的运动。精度是指设备可以识别到什么程度的手势,比如是否能区分一只手指和两只手指的区别。准度是指设备对此手势的判读是否准确无误,错误或与其他手势混淆的概率是多少。

◆SLAM

Simultaneous localization and mapping的缩写,是一种同步定位与地图构建的技术。即是让设备知道两个问题:我所处的环境是什么样子的?以及我在哪的问题。最早用于机器人领域,现在在多个人工智能领域都有所运用。

图片来源:Hololens 网站

由于这门技术还属于正在发展中的一项技术,具体的实现方式也会各有不同,一般是通过设备的相机、传感器等输入设备,经过计算得出自身定位坐标和地图构建。由于依赖于相机等输入设备来进行实时计算,对AR设备来说,用户使用时的位置和姿态会影响其输入,网络延迟造成的丢帧现象也会影响其输入,实际的环境和光线强弱造成的曝光现象也会影响其输入,在设计的时候考虑到这些情况,就可以在用户使用的时候做出引导或反馈性的设计,来更好的提升技术限制所带来的用户体验问题。

◆3DOF VS 6DOF

这两个术语其实可以归类于SLAM技术下,和经过SLAM技术所得出的坐标位置有关。DOF就是自由度的意思,也就是3个轴向和6个轴向的问题,关系到设备在人机交互中可以支持到的程度。

3种平移自由度(3DOF)+3种旋转自由度 = 6种自由度(6DOF)。

图片来源:

◆物体识别

相较于SLAM是让设备(机器)回答“我在哪,我来去何方?”的问题,我理解物体识别是让机器回答 “他是什么?” 的问题。在维基百科里的解释是“计算机视觉及影像处理中的术语,指的是让计算机去分析一张图片或者一段视频流中的物体,并标记出来。这需要给神经网络大量的物体数据去训练它,这样才能进行识别。”

怎么理解这段话呢?简单的说,如果把机器比作小孩子,当我们需要小孩子去认识三维世界一个叫苹果的东西,首先需要给与他真实的苹果或大量的苹果照片去告诉他这就是苹果,也就是上面所说的大量物体数据,这样在新遇见一个苹果的时候,他才能准确的认知到这是苹果。机器也是一样。

图片来源:公司内部培训资料

是否能正确的识别出这个物体,除了之前输入的数据以外,还受限于物体本身是否易于识别,这个物体的背后是否有过多干扰,当时环境的光线是否过于明亮或昏暗等。

由于技术难易程度的不同,使用视频流显示方案比使用光学显示能获得更精准和快速的识别效果。如果是需要稳定度更高的工业应用,可以更多的考虑视频流显示方案。(关于两种显示方案,可以查看《别只看虚实结合,聊聊AR及其设计》)

◆特征点

这个术语可以看做SLAM和物体识别所衍生出来的技术术语,我们知道,SLAM和物体识别都需要依赖于摄像机的输入,它相当于机器的眼睛。而在机器看来,一副生动的图像其实是由无数的像素点构成的,每一个像素都可以翻译成0~256的RGB数值,当某一个像素点和周围的像素点数值特别不一样的时候,这个点就成为了值得机器去关注的一个特殊的点,它可能代表某个物体的边缘位置,或者某个空间的转角界限。

这个特殊的点,就是特征点。

当你要定义一个虚拟界面属于A类和B类的时候(《AUI中的四种分类模式》),可以提前考虑这个场景或者物体的特征点是否足够稳定和相对不变,在机器的性能、算法、环境,甚至用户本身的使用条件下,设计效果图里的理想状态所出现的概率有多大,是否能满足产品所定义的场景应用等。

▫︎▪︎▫︎

在以“人”为核心设计界面的同时,对基本的技术术语有所了解,不仅更方便与研发沟通,也更了解当前技术下所能达到的设计边界,从而更好的探索AR领域下的人机自然交互。AR界面本身只是一个触点,它并不等于智能化,要实现更好的人机交互,就必须依赖于背后更多技术的综合应用。

来源:林落影

AR显示技术

1、Liquid Crystal Displays (LCD) 液晶显示屏

液晶显示屏(LCD)在高清电视中很常见,并且自从20世纪80年代以来就用于AR/VR中。该类型由包含液晶分子的单元阵列组成,单元阵列位于两个偏振片之间。这个精密的装置位于数百万个晶体管印刷的薄玻璃基底之间。对于彩色液晶显示屏(LCD),将包含红、绿、蓝滤光片的附加基底放置在原基底每个单元上。单个RGB液晶单元被称为子像素,三个子像素形成一个像素。

液晶显示屏(LCD)中,电流会通过玻璃基底,通过改变电流可以调节光的通道,从而产生一种精确的颜色;如果所有的子像素通道都完全打开,就会呈现出白色光。

液晶单元本身不发光,因此需要背光,液晶单元只能改变光通道以产生所需的颜色进而产生图像。

2、有机发光二极管屏

有机发光二极管屏(OLED)基于有机(碳和氢相结合)材料,当施加电流时就会发光,是一种固态显示技术,能量通过有机薄片以光的形式释放出来,也被称为电致发光。可以通过仔细地包装有机发光(薄膜)来控制颜色,不过大多数制造商都在有机发光二极管屏(OLED)栈列中添加红色、绿色、蓝色薄膜。有机发光二极管(OLED)的面板有两种类型:

(1)被动驱动式有机发光二极管:与阴极射线显像管一样,该类型由复杂的电子网格组成,以按顺序控制每行中的各个像素。它不包含存储电容器,使更新速度变慢,并且保持像素状态时高功耗,因此主要用于简单字符和图标显

示。

(2)主动驱动式有机发光二极管:与被动驱动式(POLED)不同,主动驱动式有机发光二极管(AOLED)由一个薄晶体管层组成,该晶体管层包含一个存储电容器,以保持每个子像素的状态,从而更好地控制单个像素。对于主动驱动式(AOLED)而言,可以完全关闭单个像素,从而实现更深的黑色以及更高的对比度,这些都是近眼虚拟和增强现实设备最合适的显示类型。

有机发光二极管屏(OLED)要远远优于液晶显示屏(LCD),由于不需要外部背光,因此它们的结构相对简单,并且可以非常薄。除此之外,它们消耗的功率大大减少,刷新速度更快,对比度更高,色彩还原效果更好,分辨率更高,因此大多数完全沉浸式头戴设备都使用此技术。

3、数字光投影微显示屏

数字光投影微显示屏(DLP)芯片最初由德州仪器研发,也称为数字微镜器件(DMD)。该显示器由大约200万个单独控制的微镜组成,每个微镜可用于表示单个像素,这些微镜中的每一个的尺寸约为5.4微米。这些显示屏有趣之处在于,眼睛的视网膜本身就是显示面。RGB光在这些微镜上反射,这些微镜朝向或远离光源倾斜。由于每面微镜在一秒钟内可以向任意方向改变数千次方向,因此改变反射的颜色可以在视网膜上产生不同的阴影。

数字光投影微显示屏(DLP)是目前最快的显示技术之一,该技术具有高色彩刷新率、低延迟、低功耗和超高分辨率(0.3英寸的对角线阵列可以实现1280 x 720的图像),因此成为制作头戴式显示器的理想选择。

4、硅基液晶微显示屏

硅基液晶微显示屏(LCoS)显示介于液晶显示屏(LCD)和数字光投影微显示屏(DLP)显示之间。液晶显示屏(LCD)是一种透射技术,图像生成并传输给用户,而数字光投影微显示屏(DLP)是一种反射技术,单个子像素通过微镜反射。硅基液晶微显示屏(LCoS)利用光源通过反射表面,光线反射时,它会通过一系列子滤镜来调制光强度和颜色。类似于DLP显示器,小尺寸的属性使得它们在与小型设备集成时具有相当大的灵活性。微软的Hololens,谷歌眼镜,甚至还有Magic Leap One都使用了硅基液晶微显示屏(LCoS)。

微显示屏(芯片)技术:

AR眼镜需要实现大突破,就是既能让用户舒适佩戴、随身携带,又能在眼前显示60寸以上超大屏幕感,还能把逼真的3D内容渲染到真实世界里,营造沉浸式体验。与VR相比,AR的应用场景也更广阔,本质上,AR是VR的延伸,把AR镜片遮挡就成了VR。目前微显示屏(芯片)技术主要有DLP、Si-OLED、LCOS等。

DLP优势为高亮度,但是体积大、价格贵,目前主要使用于微投影机市场。Si-OLED体积小,但是亮度低、价格贵,使用于VR显示以及低端AR显示。LCOS微显示屏(芯片)配合光波导镜片的光场显示方案是AR眼镜的技术发展方向。LCOS显示芯片尺寸小、高分辨率、亮度中等、价格较低。目前分辨率主流为720 p与1080 p, 未来将持续走向4K、2K; 单颗像素尺寸也会由目前的4~5 µm向3 µm,甚至更小发展。

光波导显示技术:

国际一线AR服务提供商主要采用衍射式波导技术,如美国Magic leap one使用的是LCOS搭配衍射式波导显示方式,微软Holenlens 2是MEMS搭配衍射式波导方式。还有一些国际、国内厂商采用阵列式光波导技术。综合显示效果(亮度、FOV、分辨率)、体积、重量等判断,衍射式波导是AR显示未来的发展趋势。一些入门级的AR眼镜也会使用自由曲面(free form)显示技术。未来3~5年内,可以搭配衍射式波导使用并可以满足综合显示效果的只有LCOS技术。

全息影像技术:

全息影像技术是一种在三维空间中投射三维立体影像(影像为物理上的“立体”而非单纯视觉上的“立体”)的新世代显示技术,LCOS 能利用反射光的相位调变来实现此技术微型化与量产化。若是全息微显示技术发展起来,能够进行相位调制的LCOS技术很可能是唯一选择。

AR核心器件之一——LCOS显示技术

AR眼镜系统承载的光机显示单元模块主要包括了三大子模块(光机引擎 / 光机驱动 /桥接单元模块),LCOS作为AR眼镜光机引擎和光机驱动中的核心器件,其重要性不言而喻。当然,现在现在陆陆续续开始都采用比LCOS显示效果更甚的硅基OLED技术,今天这里主要来介绍LCOS技术。

对成本敏感的应用通常更喜欢硅基液晶(LCoS)显示器。首先,这种显示器已经存在数十年了,成本相对硅基OLED来说非常低。其次,它们还具有超高的亮度和对比度,以及能量和加热效率。

LCoS显示器由夹在两块板之间的液晶材料构成,当在两块板之间施加电压时,液晶分子充当快门或光阀,与TFT(薄膜晶体管)一起形成开关像素。色彩则是使用此结构顶部的滤色器生成的。

实现此效果的材料和配置因制造商而异,一些制造商使用向列液晶或铁电晶体。LCoS设备的像素之间通常有很小的间隙。像素间距(相同颜色的像素之间的水平距离)可小至8微米,这正是它能降低纱窗效应的原因。

LCoS显示器虽然价格便宜,但是却不具备某些应用(尤其是AR)所需的对比度或速度。在VR应用中,该技术是因运动模糊而引起恶心感的罪魁祸首。此外,显示器往往也更重,由于背光一直亮着并因此而发出微光,因此它们不是夜视镜的理想选择。

当今相关显示技术水平

1. LCOS技术原理

LCOS(Liquid Crystal on Silicon)是基于硅基液晶微型显示芯片,是LCD与CMOS集成电路有机集合的反射型显示技术。Google Glass、HoloLens作为 AR 头戴显示设备的标杆产品均采用了 LCOS 微显示技术。

LCOS显示原理:入射的光线经PBS(偏振分光棱镜特性:反射s光,透射p光)透射后照射在LCOS显示芯片上,当液晶层某像素的外加电压为0时,输入的p偏振光经过液晶层,偏振方向不变,到达底部反射回来输出p偏振光,经过PBS棱镜透射,p偏振光原路返回(蓝色光线),无法进入反射光路,光输出为零,此像素呈现“暗态”;当此像素外加电压时,输入的p偏振光经过液晶层,偏振方向发生偏转,到达底部反射回来输出s偏振光,经PBS反射后,进入成像光路(橙色光线),此像素呈现“亮态”,并在屏幕上成像。

LCOS显示原理图

2. LCOS面板架构

LCOS(Liquid Crystal on Silicon)属于新型的反射式 MICRO LCD投影技术,其结构是在硅片上,利用半导体制程制作驱动面板(又称为CMOS-LCD),然后在电晶体上透过研磨技术磨平,并镀上铝当作反射镜,形成CMOS基板,然后将CMOS基板与含有透明电极之上玻璃基板贴合,再注入液晶,进行封装测试。见图 1。在单晶硅片上集成CMOS和存贮电容器的阵列,通过开孔把漏电极和像素电极连结,像素电极用铝做成反射电极。为防止强光照射沟道,加一层金属档光层。另一侧基板是ITO电极的玻璃板。液晶层盒厚爱像素尺寸限制,一般盒厚取几微米。LCOS前投影放大倍数大,显示区内不能用控制盒厚的隔垫物,或者盒厚取小于2微米,可用隔垫物。

  LCOS 面板结构图

LCOS投影机的基本原理与LCD投影机相似,只是LCOS投影机是利用LCOS面板来调变由光源发射出来欲投影至屏幕的光信号,与LCD投影机最大的不同是LCD投影机是利用光源穿过LCD作调变,属于穿透式,而LCOS投影机中是利用反射的架构,所以光源发射出来的光并不会穿透LCOS面板,属于反射式。LCOS面板是以CMOS芯片为电路基板及反射层,然后再涂布液晶层后,以玻璃平板封装。

2、 投影显示系统架构

LCOS面板是以CMOS芯片为电路基板,因此无法让光线直接穿过,其分光合光系统设计和LCD投影机有些不同,通常需要在分光合光系统中利用偏极化分光镜,将入射LCOS面板的光束与反射后的光束分开。

(a)偏极化分光镜的功能:

PBS是由两个45度等腰直角棱镜底边粘合的而成的棱镜,当非线性偏极化光入射PBS时,PBS会反射入射光的S偏光(垂直入射线平面),并且让P偏光(平行入射线平面)通过。

(b)主要结构:

图2是LCOS投影结构系统,用金属卤化物灯(亮度6000流明以上)或氖灯(亮度60000流明),用抛物面反射镜过滤紫外光和红外光,再用冷反射镜过滤红外光,通过聚焦透镜和复眼透镜得到均匀的平行光,然后分色镜分光,再通过PBS得到偏振光,通过LCOS反射进行合成并通过变焦透镜投影到屏幕。LCOS投影机与LCD投影机的主要结构在导光及分光合光部分的设计大同小异,只是在LCOS投影机系统中,LCOS面板前均多加了PBS。

由光源所发出的光经由双色镜后分成R、G、B三色光,此三色光分别通过各自的PBS后,会反射S偏光进入LCOS面板,当液晶显示为亮态时,S偏光将改变成P偏光,最后以双色棱镜组合调变过的三道偏极光,投射至屏幕处得到影像。

简单来说,LCOS是直接与显像管投影技术、高温多晶硅液晶穿透式投影技术、DMD数据光学处理反射式技术相关。这三项技术已发展成熟,故LCOS可成为投影显示技术的新主流。

   LCOS投影系统结构

另外还有一种离轴光学投影系统。入射光和反射光分开,不用PBS。而用偏振膜,对比度高,但体积稍微大一些。具体结构见图3。

  离轴光学投影系统结构示图

3. LCOS技术特性

LCOS与其他类型器件的对比

与穿透式HTPS-LCD及DLP相比,LCOS具有下列优势:

光利用效率高:LCOS与LCD投影显示器类似,主要的差别就是LCOS属反射式成像,所以光利用效率可达40%以上,与DLP相当,而穿透式LCD仅有3-10%而已。

体积小:LCOS可将驱动IC等外围线路完全整合至CMOS基板上,减少外围IC的数目及封装成本,并使体积缩小。

分辨率高:由于LCOS的晶体管及驱动线路都制作于硅基板内,位于反射面之下,不占表面面积,所以仅有像素间隙占用开口面积,不像穿透式LCD的TFT及导线皆占用开口面积,故理论上LCOS不论分辨率或开口率都会比穿透式LCD高。分辨率普遍达到SXGA等级(1280×1024)

制造技术较成熟:LCOS的制作可分为前道的半导体CMOS制造及后道的液晶面板贴合封装制造。前道的半导体CMOS制造已有成熟的设计、仿真、制作及测试技术,所以目前良率已可达90%以上,成本极为低廉;至于后道的液晶面板贴合封装制造,虽然据说目前的良率只有30%,但由于液晶面板制造已发展得相当成熟,理论上其良率提升速率应远高于DMD芯片,所以LCOS应比DLP更有机会取代穿透式HTPS-LCD成为投影显示技术的主流。

此外,LCOS还有一项优点,就是HTPS-LCD目前是SONY及SEIKO EPSON拥有专利权,DLP则是TI的独家专利,而LCOS则无专利权的问题。现在台湾的工研院光电所也已成功开发出LCOS,并正在申请专利中。由于台湾的半导体产业基础雄厚,Aurora及Kopin就曾委托台湾的联电及联友光电代工LCOS,所以台湾业界一直寄希望发展LCOS技术做为其发展投影产品的最佳选择。

目前LCOS市场定位在大屏幕投影显示产品及HMD(Head Mount Device)上。目前业界普遍认可:在显示器市场20“以下以LCD为主流,PDP可应用于30”- 60“产品,但价格昂贵,投影显示器适用于30”- 60“以上的产品,具有解析度高,价格适中等优势。LCOS投影显示技术则是落于上述投影显示器市场;另外亦可作为直视元件,应用在HMD中。

LCOS可视为LCD的一种,传统的LCD是做在玻璃基板上,但LCOS则是长在硅晶圆上。和LCOS的相对比的产品,最常用在投影机上的高温多晶硅LCD为代表。后者通常用穿透式投射的方式,光利用效率只有3%左右,解析度不易提高;LCOS则采用反射式投射,光利用效率可达40%以上,且其最大的优势是可利用最广泛使用、最便宜的CMOS制程,毋需额外的投资,并可随半导体工艺流程快速的微细化,易于提高解析度。

4. LCOS数据控制方式

显示数据链路

分体式AR眼镜的LCOS显示源来自于AP处理器,AP处理器包括支持Type-C接口的笔记本电脑、手机等便携式设备,该类设备一般支持Type-C DP功能。

通过标准的Type-C数据线连接AP设备和HMD设备,实现LCOS显示数据源的实时传输;其中HDM设备中Video-Bridge单元对DP信号拆分或复制成2路MIPI信号输入LCOS显示,实现2D/3D显示效果。

基于Type-C DP和USB复用功能,可以通过USB管道与MCU通信来控制LCOS Panel亮度和色彩的调节,从而达到满足各种应用场景对色彩和亮度的需求。

5. 基于LCOS的AR眼镜系统开发难点

发热及功耗

显而易见,HMD头戴设备的运行温度和功耗影响着用户的体验。对于显示模块来说,发热大户主要是光机引擎的光源部分和视频拆解码模块。光机引擎的功耗降低主要依赖于光学利用效率的提升。由于头戴设备空间布局的紧凑性,给显示模块散热结构的设计带来一定的挑战。

白平衡调试

调试白平衡的目的是为了让每一个显示模块都能够准确表达出软件系统输出的颜色。从实践来看,光源对于软件配置的响应一致性、光学模组的制造一致性等多种因素影响着白平衡的准确性。软件开发人员需要提供一套方便测试人员调整光源各分量配比以及保存该配比参数的测试工具,测试人员则需要对各种亮度下的光源分量进行耐心调整和计算。如何将该调试流程自动化,无疑是一个不小的挑战。

显示延迟

显示延迟指的是软件系统输出图像到光机引擎将图像投射到人眼之间的时间差值,该值越小看到的画面越流畅,运动过程当中的拖影感越小。头戴运动过程当中产生的虚拟物体和真实物体不同步的问题解决起来无疑十分复杂,需要优化包括软件系统的输出帧率、视频编解码的效率、光机像素延迟等软硬件影响因素,当然出色的运动跟踪预测算法对于解决该问题也是必不可少的。

从LCOS到MicroLED,一篇读懂全球AR微显示技术

首先第1个部分。根据IDC预测,AR和VR市场上有一个快速的增长,其中AR增速是大于VR的,在2024年AR的出货量会达到1000万台,届时AR也会首次超过VR出货量,那么伴随着这两个市场的快速增长呢,微显示器技术市场也相应的跟随增长,那么预计在2024年,整个微显示器市场的这个整体出货量也会达到1000万片这么一个量级,同时它的这个市场占有率中,在众多的技术方案中,LCOS、DLP、OLED等等技术方案中,Micro-LED的市场份额会经历一个爆发性的增长。

显示器技术中的使用的这个光学方案和一些微显示器方案都是多种多样的,以下这4个代表性的产品为例,例如Nreal使用的是OLED+birdbath的方案,微软的HoloLens2使用的是LBS+衍射光波导方案,那么灵犀呢,使用的是LCOS+阵列光波导方案,之所以有这么多种方案呢,主要是因为这个针对的目标客群是不一样的,对于消费者和工业级客户以及警用安防客户来讲的话,对这个亮度的敏感性,对电池寿命的敏感性,对整体重量的敏感性,以及对整个环境适应性的敏感性,都是具有非常不同的需求,那么配合整个的光学设计,例如你采用的是一个非扩展性的Combiner或者是一个一维扩展器或者是一个二维出瞳扩展器,或者你的光学设计是一个反射式的,或者是一个透过式的这个设计的话,相应的对微显示器的技术指标以及它的这个产品形态都会有一些非常具体的需求。

要满足这6个方面的需求,第1个方面就是亮度方面,首先它要足够亮才能看得清,在室外环境下如果不加墨镜片的话,至少2000nits的入耦到人眼中的亮度是一个及格线。对比度方面的话,那么300:1的这么一个全开全关的对比度也是一个最低的保证。同时因为人眼自身的刷新率来讲,75Hz一个刷新率可以使人眼维持在一个比较舒服的状态。在分辨率方面的话,对于不同的视场角相应的分辨率不同,对于25°视场角的话,720P的分辨率是个必须的及格线。在功耗方面,AR眼镜的这个整体显示上的功耗可以小于1.5W,可以对标我们目前使用的手机的功耗,同时呢,希望它能支持一个局部的刷新以及一个低功耗状态下的静态图像的维持。在这个环境适应性方面的话,-40°~80°是我们希望的一个适用的温度区间,同时能够达到5000多小时的整体使用寿命。

技术指标对AR的微显示也提出了很多的一个技术要求,那么一个AR的近眼显示器系统,我们以这个波导系统为例啊,它是由五个部分去组成的,分别是显示屏,光纤系统,入瞳出瞳扩展器以及人眼,那么微显示器系统主要取决于系统的亮度、对比度、分辨率的数值,那么这个光学系统和这个入瞳共同决定了系统的视场角以及它的F数,因为二维的出瞳扩展呢会啊大大的增加人眼的这个活动范围,就所谓的这个眼盒,那么联系这些所有部件的一个统一的物理方面的定律呢,就是这个Etendue,就是所谓的光学扩展量这个概念,Etendue这个概念的话,实际上来计算来说的话,就是用这个发光的面积去乘以这个发光的角度的正弦值的平方,一句话概括就是越大的视场角越难做出一个比较大的一个眼盒,AR对这个近眼显示的一些微显示器的一个核心的诉求,就是说它发出的光能够恰好填满这个的系统的入瞳,同时它的这个角度也能匹配到我们整个的FOV的视场角,在这样的状况下它整体的能量是有最高的使用效率,同时它的亮度均匀线也是最为均匀的。

微显示器技术的主流的是硅基液晶技术,硅基液晶技术的利用的是液晶分子自身的双折射特性,对入射光线的偏振进行调制,光线经过这个入射液晶和反射之后,整体的偏振它会发生变化,配合上照明PBS之后可以实现光的一个灰阶调制,同时这个LCOS和这个照明系统之间呢,会有一个时序上的同步,在单个时间段里只有红绿蓝中的一个色进行照明,这样的话最终会实现一个全彩的显示,根据液晶技术的不同又分为TN液晶和VA液晶,TN液晶整体的特点就是它是一个较为便宜,具有很高的刷新率的同时对比度比较低的技术,那么VA的话,主要是强调的是这个暗态亮度的压制,所以整体的对比度是比较高的,同时价格也稍微昂贵一些。以硅基液晶作为整体上来看的话,它的优势在于它是成熟廉价,同时它的这个像素密度比较高,整体的能量利率也比较高。它的缺点主要在于它具有比较低的对比度,特别是大的入射角的时候,同时呢它必须和PBS配合使用,这样就限制了整体光机的小型化进程,同时在低温状态下是无法工作的。

Mini Glass和Magic Leap使用的都是这个LCOS的技术,那么目前的这个市场上的主流玩家是这么几家。

下一代的这个显示技术作为替代LCOS的下一代这个显示技术,自从EPSON推出BT-350之后,硅基OLED的这个技术就一直吸引着人们的目光。硅基OLED实际上是在单晶硅上,通过这个制备底部的cmos,再加上白色的发光OLED的材料,再加上这个红绿蓝三个绿色块,最终实现了一个高密度的高亮度的OLED的一个制备,它整体的优势在于contrast是非常高的,会达到100000:1的对比度,同时呢适用的温度范围可以达到-40度到70度,具有很广的色域,同时自身发光,不需照明,它的这个功耗也是比较低的,缺点方面第一点是亮度是比较低的,目前市场上的主流产品的亮度都是小于3000nits,自身的价格会比LCOS贵50%以上,整体的使用寿命如果是高亮度模式的话,会小于3000个小时,同时难以避免的一个情况就是烧屏。

做OLED做的最好的还是日本的SONY和EPSON两家,这个也是两款代表性的产品,一个是爱普生的BT-350,使用的是爱普生自家的硅基OLED,以及Nreal眼镜使用的是索尼的OLED。

Micro-LED呢,可以说是被人称为是下一代最具有挑战者意味的这个微显示器技术,它也是现在当今快速发展的技术,它的原理是将发光机管一个个的小型化,那么单个发光机管的这个大小小于100微米的时候,同时能够密闭的排列在基板上实现开关的时候,我们就认为一个Micro-LED制备完成了。它整体的优势在于它有超高的亮度,具有几十万尼特的亮度,对比度是在100000:1以上,非常广的温度适应性,-70°~100°都可以很好的工作,色域较广同时自发光无需照明以及功耗比较低。劣势在于它是一个新兴的技术,目前整体技术方案还不是很成熟,全彩方案目前依然是稀缺的,目前它的单片价格会大于1000美金。

那么这个整个Micro-LED之所以这么具有竞争性,是主要是因为它采用的是个半导体类似的制成。那么首先呢,它是利用一些光刻的方法将大片的蓝宝石衬底上的LED进行一个小型化,那么小型化的LED被称为累金,这些累金通过一些范德华尔斯力、磁场力、流体力、静电力等力的作用,进行巨量转移,转移到新的做好了cmos背板的这个硅片上进行一个焊接和对坏点的修复,最终进行封装,实现一个微小显示的一个出货,整个AR届的这个预估是三到五年内这个技术就可以成熟,同时苹果SONY和Plessey在这个领域都有所布局。

除去刚才三个主流的技术以外,目前还有厂商使用了LBS 激光束扫描这种技术,它使用的是一个可以在二维环境内发生扭转的一个反射镜,激光束打在上面以后可以对它的这个角度进行调制,实现这个不同的这个视场角。同时如果说没有一个出瞳扩展器的话,那么就是North Focals这种产品形态,激光打在上在这个镜片上就直接反射入人眼,那整个系统的这个Etendue是非常小的,所以就导致它的这个眼盒非常小。另外一个技术方案就是LBS和衍射光波导技术相结合,这就是HoloLens2的技术方案,另外一个方面就是DLP的技术方案,实际上是德州仪器发明的一种微机电系统,小的反射镜在硅片上正12°和负12°两个态上进行切换,在某个态下光线进入成像系统实现成像,在另外一个态下这个光线就会打到吸收体上然后不进入成像系统,就是暗态,代表性的产品是Vuzix Blade。

那么整体上来看的话,目前市场上主流的产品和对微显示器的理想需求,我们可以看到差距是比较大的。举一个例子来讲,就是这个发光角度来看,目前上主流的产品,如OLED以及未来的Micro-LED他们都是一个朗伯体的发射,那么呢,我们其实系统是希望它的发光角度能够进行适当的一个调制,可以和系统的出瞳进行匹配,这样它整体功能利用率才能提的更高,但是目前这样的产品是十分稀缺的。

根据上面的分析,那么现在这个市场上主流的微显示器的技术演进路线会是由LCOS到OLED到Micro-LED的过程,可以看到在各方面的技术指标上来看,Micro-LED都会是未来这个整体市场的一个引领者,现在唯一的问题就是量产性和价格问题。

Micro-LED可以满足我们所有AR对微显示器的技术需求之后,那么接下来AR眼镜应该怎么做呢?我们认为下一代的AR眼镜一定会是一个具有非常良好的外观,就像正常眼镜的一个状态,同时呢,它具有非常好的form factor。同时呢,它能够优先的保证到这个信息的私密性,同时呢,在未显示信息的一些区域呢,它是能够具有很高的透过率的,那么对比以上我司做的这个Mini Glass以及MC3,这是灵犀微光做的MC3眼镜和这个magic leap2和HoloLens2这些眼镜,我们可以看到就是目前的这些头盔式AR眼镜还是不能够满足到未来大家对AR眼镜的一个希望或者是一个需求。

最后,灵犀分享了一个他们的最新进展,在今年后复工之后,开发了世界上第一款使用Micro-LED的阵列光波导光机,它自身的亮度可以达到6000nits的入眼亮度,它的整个对比度可以达到100000:1,它的环境适应性可以达到-55°~80°的温度适用范围,可以说我们基本上做到了对理想的AR微显示器的一个需求。

来源:灵犀微光赵鑫博士

AR全息波导拆解分析

一、AR成本拆解

AR 主要由操作系统、处理器、光学组件、摄像头和传感器、存储器几部分构成。不管 AR 设备的形态如何,光学环节对于 AR 眼镜尤为重要,对显示视野、分辨率、刷新率、延时、 眩晕、定位跟踪精度等都提出了较高的要求。光波导是公认的消费级AR眼镜必选光学方案。

目前,国际主流企业已采用波导技术(微软,magic leap, BAE),国内受限了技术落后,厂商仍以棱镜,半透半反技术为主,限制了波导显示在特殊场景的使用,虽有布局波导技术,国内研发机构力量分散,且产业资本专业水平的缺失,虽有全息波导光栅的小批量产,但暂时没有实现全息波导模组的量产。以下为目前国内和国外 AR/MR 厂家发展对比。

AR 波导设备的主流投影显示技术是LCOS 技术、DLP 技术,而目前可量产 LCOS 的公司集中在台湾 Himax(供应微软 Hololens)、 美国豪威(供应 Magic leap)、 DLP 技术被 TI 所垄断。

二、AR 产业链与全息波导产业链简介

产业链长,国内与国外有较大差距在硬件方面,尚处于初级阶段,面临诸多技术瓶颈亟待克服:硬件、图像技术、数据等方面的技术缺陷使得 AR 进一步突破变得困难重重,难以量产,成本居高不下,表面浮雕光栅波导和全息波导,在材料,设计,工艺等基础环节上,国内更是处于断开状态,各环节信息封闭,缺乏相应配套资源,难以形成完整产业链,国外在产业上游,例如材料供应商 Dupont、Polariod、Inphase、Aprilis、Liti Holographics、POLARIS RESEARCH GROUP,digilens 均很早发展,且涉足了显示领域。

全息波导利用利用全息光栅的衍射原理,光线经前置准直光路后,由于全息光学元件的衍射作用,入射光被耦合进入玻璃内部,并在其中发生全反射,使其在玻璃基底中形成波导进行传播,当遇到另一块光栅后,由于光栅的衍射,光线从波导出射,最终进入人的眼睛。这样人可以透过玻璃观察到远处的景物,又可以同时观察由波导传输形成的图像,二者不相互影响,实现全视透的平板波导显示技术。

LUMUS 公司一直致力于光波导头盔显示器的研制,其半反半透式几何光波导为其成功的产品,如图 2 所示,但是存在鬼像。索尼公司在 2008 年研制一款全息波导头戴式显示器,但是其颜色串扰较为严重,具有彩虹效应。图3 为其样机及光路示意图。BAE 公司也研制了一款基于单全息光栅的头盔显示器,采用单衍射光栅,实现大的出瞳箱,如图 4 所示,该款头盔已经应用于单兵作战。

(a) BAE 公司全息波导头盔显示器样机 (b)飞行员佩戴全息波导头盔显示器样机

此外,国外 Digilens, Akonia holographics 以及 Luminit LLC 等带有国防性质的公司目前均在大力发展军用全息波导。其中 Akonia2018年被苹果公司收购,表明苹果公司正在研发下一代全息波导产品。

DigiLens 公司的全息波导头盔显示器样机

AR光场显示

什么是光场技术?

光场的概念首次由Alexander Gershun在论文中提出,指的是光在每一个方向通过每一个点的光亮,利用光场技术,可以让VR/AR头显模拟出人眼感知光线和聚焦的方式,对人眼注视点所在的区域进行动态聚焦,以呈现出更自然的观感。

光场显示技术用于AR/VR的优势在于,它能够更逼真的表现出真实环境中光线的活动,以及人眼感知的方式,但光场一直以来都很难去捕捉或者生成,甚至显示。

CREAL光场技术的变焦效果

目前市面上的AR/VR头显大多使用基础的3D显示技术,也就是在固定焦点的平面上模拟深度,营造立体的视觉感官。但这样做的结果是只支持视觉辐辏(通过双目视差形成深度感知),却不支持视觉调节(每只眼睛的动态焦点),尽管你的双目视察一直在改变,但是焦点却固定在一个平面,而不能像在观看真实世界那样让辐辏和调节实现同步,这也是为什么会产生视觉辐辏调节冲突。

Magic Leap其实就曾号称其AR头显采用光场光子芯片,画面支持在不同焦距间的切换,但实际上其光学方案基于光波导,目前只支持两个焦点平面。

为了解决这一问题,还有一些VR/AR头显会采用变焦距的方式,根据人眼注视点来动态改变焦距。比如Oculus的Half Dom VR原型机,利用机械式的变焦系统,根据注视点去移动头显内的显示屏,以此来模仿人眼变焦的过程。

而CREAL采用完全不同的方案,是基于视觉辐辏调节原理,通过调节光线来实现焦距的动态调节。其号称支持从零到无限远的数百个深度,以及对数分布(距眼镜越近像素密度越大,越远密度约越小),它还能弥补近视眼看不清的问题。

CREAL的AR/VR之路

从照片上来看,CREAL显示与投影模组(成为光学引擎)的体积的确比之前大幅缩减,已经接近适合头显的大小,但同时也带来适眼距、FOV、分辨率大幅降低的缺点。目前,CREAL面临的困难在于,还是依赖盒子大小的处理单元,说明普通AR眼镜集成的处理器,或者手机不一定能驱动这样的光场显示模组。

缩小处理器单元的体积将是CREAL接下来的目标,其透露,目前已经大幅缩减主板体积,未来可能会采用ASIC芯片,缩减成适合AR头显大小的体积。此外,还计划通过向余光部位投射额外的非光场图像,来提升FOV。

CREAL提升FOV的方式有点类似于Varjo所采用的分屏注视点渲染方案,不同的是CREAL不需要额外的显示屏,而是用一个光学引擎就能完成。也就是说,结合人眼识别技术,在人眼注视点区域投射光场,而注视点外围采用低保真的非光场显示。

除此之外,目前CREAL方案的色彩表达和分辨率效果依然不够好,因此这些问题未来是否能解决是让人关心的问题。由于CREAL并没有公开透露其光场技术更细节的原理,我们也无法推测这项技术在优化之后,是否还将受到其他限制。

总之,接下来CREAL会将CES上演示的技术集成在头显中,首先进入VR,在更远的未来才有可能进入AR头显。CREAL的目标是,将光场技术集成在普通大小的眼镜腿上,甚至在现场还展示了一款设计模型,不过短时间内还无法实现。

接下来,CREAL并不打算自研头显,而是希望以授权的形式,为合作伙伴提供技术。目前,一些合作伙伴已经拿到了开发者套件,不过这项技术真正进入市场可能还需要几年时间。

据其官网公布的路线图显示,计划在2019年推出用于VR头显的光场解决方案,2020年推出MR眼镜光场解决方案,2021年推出面向可穿戴小尺寸智能眼镜光场投影仪。未来的应用场景方面,CREAL认为可用于医疗(外科手术)、游戏等场景,并计划将其光学方案成本降低至500美元以下。

参考:

AR/VR显示器的进步

来源 | prototypr.io

作者 | Niteesh Yadav

如果你是AR显示的新手,我建议你阅读这些文章来了解更多的AR显示:了解增强现实中的显示技术和影响AR体验的变量

1. 介绍

我们都已经习惯了在日常生活中使用高分辨率/密度的显示器(手机屏幕、显示器等等)。这意味着显示标准已经有了很大的进步,我们知道什么对我们的眼睛是最好的,发现低分辨率的内容很容易惹恼我们。

但是对于AR/VR耳机来说,这些高标准的显示被证明是一个主要的障碍,因为将这些数据传输到我们的耳机需要大量的计算能力。对于这两种情况,要么是外形因素受到影响,即笨重的耳机,要么是使用额外的连接到耳机的计算包,比如在Magic Leap中。

这引导研究人员寻找潜在问题的替代解决方案,我将在本文中分享其中的一些。如果你不喜欢长篇阅读,那么你可以快速浏览并观看视频。

2. 在你开始之前要理解的关键概念:

2.1住宿

调节是指肌肉的张力改变了眼睛晶状体的焦距(通过改变弹性晶状体的形状)。这有助于我们的眼睛聚焦在不同距离的物体上。

2.2聚散度

收敛是眼睛为了注视一个物体而彼此向相等或相反的方向移动的过程。

2.3漏斗状显示

当我们聚焦在某些物体上时,我们的眼睛就会出现中央凹,焦点上的物体看起来很清晰,而周围的环境和背景变得模糊。在中心凹显示中,高分辨率的插图呈现给中心凹(视网膜的一部分,提供最清晰的视觉),而低分辨率的插图呈现给视网膜的其余部分,这需要眼球跟踪来确定中心凹区域的位置。

2.4麦克斯韦显示

这些不需要显示眼球追踪或动态镜头(位置)转移到消除住宿深度线索始终持有焦点的图像,可以仅仅通过朝向3 d和深度知觉线索(双眼的同时运动相反的方向来获取或维持单双目视觉)通过always-in-focus立体图像的冲突并没有提示。这使得光学非常紧凑,很少的计算开销来渲染图像。

2.5 Multi-focal呈现

在耳机中,平面屏幕用于模拟景深,要求用户盯着屏幕几英寸远。然而,眼睛聚焦在模拟世界中的一个点上,这个点离我们很远。

它导致关于焦点和眼睛对齐的矛盾信号,称为调节-收敛冲突,导致恶心、头晕、眼疲劳和不准确的深度知觉。(阅读此处的详细说明)

为了触发与调节相关的视觉提示(这减少了恶心的可能性),多焦渲染系统显示对象的模糊程度与其相对于观察者的深度相适应。对于具有固定(或一组固定)光学距离的显示器,使用不同的模糊算法来计算这种模糊。

3.这个行业发生了什么?

3.1半圆顶(Oculus)

半圆顶头戴式耳机能够通过调整显示器来适应你的眼球运动,从而产生逼真的虚拟现实体验。它由眼球追踪摄像机、宽视场光学和独立聚焦显示器提供动力。这意味着在VR场景中,无论你在哪里观看,都能获得清晰的图像质量。

然而,这种硬件能力并不是什么新鲜事,因为它可以追溯到2018年5月(F8期间)推出的第一个Half Dome原型,但当时的硬件创新在产生一种自然的观看物体的方式方面是有限的,因为一切都是聚焦的。因此,为了补充Facebook的现实实验室(FRL)创建了一个新的人工智能渲染系统,称为深度聚焦,他们称之为现实视网膜模糊(2018年12月宣布)。它模仿我们在日常生活中看到物体的方式,产生实时模糊,就像我们的眼睛模糊我们所关注的事物一样。这是我们的大脑如何感知三维世界通过创造理解深度(距离)的物体在我们的视野。

这听起来确实很容易,但要实现DeepFocus系统的功能并非易事,因为所有事情都必须实时完成,没有延迟。否则,记得你的头旋转你最后戴上你的虚拟现实头盔。

“是否”,这是关于一整天的沉浸感。“不知道这有多容易,但这听起来确实很诱人,让人想起《头号玩家》(Ready Player One)的反乌托邦世界。

-道格拉斯·兰曼(FRL的显示系统研究主任)

在整个项目中,对我来说最有趣的部分是:利用手头的资源来解决问题的方法,而不是等待硬件制造商来增加功能。FRL的显示系统研究主任Douglas Lanman没有等待硬件制造商(尤其是处理器)提出新的东西,能够提供足够的处理能力来处理这些任务。他决定走软件道路,开发ai系统来解决这个问题。

3.2无调节头戴显示器(剑桥大学|华为)

在华为的支持下,剑桥大学的高级光电子中心(Centre for Advanced Photonics and Electronics)发布了一款耳机(基于Maxwellian显示),能够减少(消除)使用这些耳机时常见的眼疲劳和恶心等HMDs的负面影响。

眼框的大小的HMD明显增大,视野的36º设计舒适的观看体验。它使用像素束扫描来确保图像不受用户注视距离的影响而保持聚焦。这是通过使用部分反射光束分离器来实现的,它形成了一个额外的出口瞳孔(一个允许光线通过的虚拟光圈),狭窄的像素光束相互平行移动而不分散到不同的方向,从而在视网膜上形成高质量的图像。

“我们的研究提供了一种可穿戴的增强现实体验,由于其舒适的3d观看,不会让用户感到恶心或眼睛疲劳,因此可以与市场领导者相媲美。”它可以直接在视网膜上传递高质量的清晰图像,即使用户戴着眼镜。这可以帮助用户在身临其境的环境中清楚地看到现实世界和虚拟物体,而不管用户的视觉质量如何。”

光子器件与传感器中心主任朱大平教授

该耳机能够产生高亮度,可用于各种室内和室外场景。研究的下一步是探索该技术在CAD(计算机辅助设计)开发、酒店、数据处理、户外运动、国防应用和建筑中的应用。并改进了耳机的形状因素(体积庞大),使之更适用于基于紧凑设计的眼镜。

3.3中心增强现实:动态中心增强现实显示(Nvidia)

在SIGGRAPH上,洛杉矶Nvidia展示了一种新的显示技术,它通过将机械和光学元素与用于机器学习和渲染的GPU计算相结合,超越了现有显示技术的设计限制。

该耳机每只眼睛有两个显示器的组合:一个高分辨率和一个小的视野,用于用户被固定的部分,从而在视网膜上产生一个清晰的图像;以及用于周边视觉的低分辨率显示器。这导致更好的用户体验与有效地使用权力,以呈现在视图中的图形。

红外摄像机跟踪的目光,其中控制的运动中心凹显示单位上述。该显示器通过改变中央凹区微显示器的聚焦深度来支持调节提示。这使得显示器具有高视场、高分辨率的功能,并对减少形状因素有合理的影响。该原型能够支持30、40、60 cpd (60 cpd是视网膜的最大分辨率),每只眼睛的净视野为85 x 78。

该原型的另一个关键进步是一个更大的眼框和视野,它通过动态定位全息光学元件超越了Maxewellian显示的光学不变量。它是通过使用基于视线跟踪的移动全息显示单元的马达来实现的。

它通过基于深度学习的几何畸变、强度和颜色的不同光学路径,通过视线跟踪、聚焦变焦渲染和校准,补充了机械部件的实时渲染系统。

3.4配伍处方及视敏度AR耳机(英伟达)

在追求推动当前的AR耳机到一个更紧凑的形式因素的边界,英伟达介绍了它的处方AR眼镜原型,设置了一个里程碑。他们也因此被认可,因为他们赢得了Siggraph的最佳展示新兴技术奖(2019)。

目前,AR市场的竞争集中在创造最好的类耳机。然而,大量的用户被忽视了,我指的是使用处方眼镜的人(包括我)。对于像我这样的人来说,使用AR/VR头盔是一个问题,要么我们没有选择戴我的眼镜,要么提供灵活性的眼镜感觉笨重,不适合长时间使用。

在这一领域,英伟达的“处方增强现实”(Prescription AR)眼镜正在采取一种与当前配戴处方眼镜的耳机的趋势相反的方式。取而代之的是,他们将一个功能性增强现实显示屏与一个微型有机发光二极管(oled)显示屏结合在一块处方镜片上。据英伟达称,该显示屏比现有的任何耳机都更薄、更轻,视野也更开阔。

该处方AR显示器由光束成形透镜和棱镜组成,通过全内反射将微OLED上生成的图像传输到眼睛。自由形式的组合器纠正了观众的视觉,同时提供了一个位于固定焦点深度的增强图像。

解锁VRAR行业上游供应格局报告节选:

标签: #matlab ar模型生成新数据