Unity 2018 AR与VR开发快速上手
上QQ阅读APP看书,第一时间看更新

4.3 实现方式

1.特定图像识别

通过对特定图像的预处理,提取图像信息点,如图4-1所示。其中,黄色十字就是图片的信息点,信息点越多,越容易识别。

图4-1

当摄像头拍摄到的内容中有这些信息点时,可以根据信息点的位置来叠加信息。最常见的是叠加3D模型、视频和声音,如图4-2所示。

图4-2

2.特定物体识别

特定物体识别是特定图片识别的扩展,通过对特定物体表面图案的预处理,根据形状和表面图案提取信息点,实现识别特定物体的功能,如图4-3所示。

图4-3

3.地理信息定位

识别所在位置经纬度信息、摄像头朝向的方向等,在摄像头拍摄到的内容中叠加信息。最典型的就是Pokemon Go,如图4-4所示。

图4-4

4.人体动作识别

主要是利用微软的Kinect识别玩家肢体位置,然后在其上叠加内容,比如虚拟试衣,如图4-5所示。

图4-5

5.面部识别

利用面部识别技术,识别用户面部及五官位置,然后在其上叠加内容,比如虚拟化妆,如图4-6所示。

图4-6

6.环境理解

检测摄像头捕获的图像中的视觉差异特征点,并且和移动设备的惯性测量结合,实现识别平面或者空间并能计算出移动设备的位置和姿态的变化。

环境理解现阶段只能在特定的移动设备(苹果最新的几款手机,谷歌,华为,小米,三星等一些较新的手机)和一些智能眼镜上实现,如图4-7所示。图4-7中圈住的部分就是识别出来的平面,而箭头所指的就是特征点。

图4-7

7.仅将现实作为背景

仅将现实作为背景,在其上实时叠加信息,算是最边缘的增强现实。