上QQ阅读APP看书,第一时间看更新
4.3 实现方式
1.特定图像识别
通过对特定图像的预处理,提取图像信息点,如图4-1所示。其中,黄色十字就是图片的信息点,信息点越多,越容易识别。
图4-1
当摄像头拍摄到的内容中有这些信息点时,可以根据信息点的位置来叠加信息。最常见的是叠加3D模型、视频和声音,如图4-2所示。
图4-2
2.特定物体识别
特定物体识别是特定图片识别的扩展,通过对特定物体表面图案的预处理,根据形状和表面图案提取信息点,实现识别特定物体的功能,如图4-3所示。
图4-3
3.地理信息定位
识别所在位置经纬度信息、摄像头朝向的方向等,在摄像头拍摄到的内容中叠加信息。最典型的就是Pokemon Go,如图4-4所示。
图4-4
4.人体动作识别
主要是利用微软的Kinect识别玩家肢体位置,然后在其上叠加内容,比如虚拟试衣,如图4-5所示。
图4-5
5.面部识别
利用面部识别技术,识别用户面部及五官位置,然后在其上叠加内容,比如虚拟化妆,如图4-6所示。
图4-6
6.环境理解
检测摄像头捕获的图像中的视觉差异特征点,并且和移动设备的惯性测量结合,实现识别平面或者空间并能计算出移动设备的位置和姿态的变化。
环境理解现阶段只能在特定的移动设备(苹果最新的几款手机,谷歌,华为,小米,三星等一些较新的手机)和一些智能眼镜上实现,如图4-7所示。图4-7中圈住的部分就是识别出来的平面,而箭头所指的就是特征点。
图4-7
7.仅将现实作为背景
仅将现实作为背景,在其上实时叠加信息,算是最边缘的增强现实。