基于图像的VR技术培训ppt课件

上传人:我*** 文档编号:150854850 上传时间:2020-11-09 格式:PPT 页数:84 大小:4.34MB
返回 下载 相关 举报
基于图像的VR技术培训ppt课件_第1页
第1页 / 共84页
基于图像的VR技术培训ppt课件_第2页
第2页 / 共84页
基于图像的VR技术培训ppt课件_第3页
第3页 / 共84页
基于图像的VR技术培训ppt课件_第4页
第4页 / 共84页
基于图像的VR技术培训ppt课件_第5页
第5页 / 共84页
点击查看更多>>
资源描述

《基于图像的VR技术培训ppt课件》由会员分享,可在线阅读,更多相关《基于图像的VR技术培训ppt课件(84页珍藏版)》请在金锄头文库上搜索。

1、基于图像的VR技术,VR的两种研究方法简介,VR的两种研究方法: 方法一:基于几何的绘制 该方法有时也被称为基于模型的方法 传统上,一个虚拟环境是由各类3D几何体合成的。在虚拟环境中漫游是通过实时绘制2D几何体实现的。 首先对场景建立三维几何模型,对场景中各个物体的材料、光照、纹理、消隐等因素进行描述; 然后根据观察者位置和观察角度生成场景中各个物体的图象,用图形学方法进行绘制; 最后用光线跟踪或纹理映射的方法增加真实感,同时对物体进行着色、上光、粘贴材质、判断遮挡、填充空洞等处理。,基于几何绘制的方法 此方法有3个主要问题: 第一,几何体的建模是一个非常繁琐的问题。 其次,由于漫游需要实时显

2、示,因此限制了场景的复杂性和绘制的质量。 最后,加速绘制所需要的专门硬件极其昂贵,因此限制了虚拟现实的发展。,基于几何的绘制方法的工作流程,基于图像绘制技术,VR的两种研究方法: 方法二:基于图像的建模和绘制(Image Based Modeling and Rendering,简称IBMR,简写为IBR) 从已知的图像中合成新视图来构成虚拟环境 ,IBMR方法有以下优点: 建模容易:把不同视线方向、不同位置拍摄的照片数据按某种形式组织起来表示场景,如全景图像和光场,这就是IBMR意义下的所谓建模。 绘制快:不需要复杂的计算,直接从已有的视图中合成新的视图,整个绘制过程都在二维空间进行,绘制时

3、间不依赖于场景的复杂度,只跟显示分辨率有关。 真实感强:基于图像的方法能真实地反映景物的形状和丰富的明暗、材料及纹理细节,不需要经过额外的光照模拟。 交互性好:由于有绘制速度和真实感的保证,再加之先进的交互设备和反馈技术,使得基于图像的VR有更好的交互性。,当然,IBR方法也并非没有不足,目前还有如下缺点: 1)表示模式。 即数据的组织问题。需要找到一种简便有效且适合于计算机表示的模式,使之能精确完整地表示整个场景; 2)获取方法。 用手持相机或者用被精确定位与控制的数控摄像机、图象采样的数量多少、采样模式及样本均匀性等都会影响问题的难度和精度。 3)失真问题 失真是由于连续图象信号的离散化、

4、采样设备的精度和质量、设备噪等多种因素而产生的。同时,工BR方法不可避免地要对场景图象进行多重采样,这样又会产生采样积累误差。 4)可见性判断。 景物间的相互遮挡会使新合成的视图中出现空洞和重叠。 5)信息压缩。 IBR方法的计算量不大,但数据量很大,合理有效的压缩及解压缩机制是一个亚待解决的问题。 6)完全漫游。 如何实现基于图象的完全实时漫游是基于IBR方法的虚拟现实系统能否走向实用的又一个关键问题。,基于图像的建模和绘制技术,基于立体视觉的方法 基于视图插值的方法 基于图像拼合和分层的方法 基于全视函数的方法,基于立体视觉的方法 基于立体视觉的视图合成方法主要利用立体视觉技术从已知的参考

5、图像中合成相对于新视点的理想图像 关键问题是找出每对已知图像之间的对应映射,即解决立体匹配问题 通过对应关系建立了一个基于图像的场景表示 将场景视图及其对应关系组成一个图结构,图中灰色摄像机代表不同物理位置的参考图像,黑色摄像机代表合成视图,双向边表示邻接视图间的立体对应关系,单向边表示对参考图像所做的变换。,基于图像的建模和绘制技术 1 基于立体视觉的方法,基于立体视觉的图像合成方法主要有以下优点: 新视图可以由两幅邻近的参考图像及它们的对应关系合成,整体的几何模型不是必需的; 图像变换比传统的图像绘制快得多,而且计算时间独立于场景复杂度; 只需知道邻接摄像机之间的相对轮廓信息,而不需要对摄

6、像机进行精确的定标。,基于立体视觉的图像合成方法也存在着立体视觉中固有的缺陷: 由于场景有可能部分和全部地被遮挡,只能掌握场景有限的信息,导致在参考图中不可见而在新图中应该可见的区域出现空洞,如何填补这些空洞是一个难以解决的问题; 由于只产生有限的深度分辨率(深度不连续),使得匹配处理出现误差。,视图插值方法可以对二维的图像按照形状插值来模拟和近似三维的图形变换。给定两幅不同视点参数的图像,用这种方法可以求出中间视点的图像,从而达到视点变化的效果。 视图插值就是利用图像变形的方法产生视点沿着一定路径变化时的中间图像,基于图像的建模和绘制技术 2 基于视图插值的方法,将同一场景的多张有重叠的图像

7、组合成一幅较大图像的处理叫做拼合(mosaic)。 图像拼合技术典型地被用于全景图的生成、改善图像分辨率、图像压缩及视频扩展等方面 图像整合(image registration), 即是把参考图像中相互重叠的部分对齐所做的变换。,基于图像的建模和绘制技术 3 图像拼合和分层的方法,全视函数(PlenOptic Function)是由Adelson和Bergen命名的 全视函数描述了观察点(而非物体或光源)接收到的所有可见光辐射的能量。用计算机图形学术语,它描述了给定场景中所有可能的环境映照集合 全视函数定义在一个七维的参数空间上 代表空间中视点的位置,视域方向和范围用仰角 方位角 定义 ,

8、代表人眼感受到的波长,t代表时间,基于图像的建模和绘制技术 4 基于全视函数的方法,全视函数的参数化,摄像机:模型及定标,摄像机模型 针孔成像模型(几何) 几种参考坐标系 成像过程(代数) 摄像机定标 线性模型摄像机定标 非线性模型摄像机定标 立体视觉摄像机定标,一、 Camera模型:针孔成像模型,图像上每一点的亮度反映了空间物体表面某点反射光的强度,而该点在图像上的位置则与空间物体表面相应点的几何位置有关。这些位置的相互关系,由摄像机成像几何模型所决定; 该几何模型的参数称为摄像机参数,必须由实验与计算来确定,实验与计算过程称为摄像机定标; 摄像机模型是光学成像几何关系的简化。最简单的模型

9、为线性模型,亦称为针孔模型 (pin-hole model),摄像机针孔模型示意图,Camera模型:四种参考坐标系,Image坐标系,camera坐标系,world坐标系,(物理/计算机),Camera模型:代数模型,成像过程,(1)从world坐标到Camera坐标,齐次坐标概念:,Camera模型:代数模型,(2)经透视投影将Camera坐标投影到实际图像平面,透视投影(中心射影):,Camera模型:代数模型,(3)将实际图像坐标转换成计算机图像坐标(缩放变换),Image坐标系,代数表达:,为计算机图像坐标(象素单位),为实际图像坐标(物理单位),Camera模型:代数模型,完整过程

10、,摄像机定标:求解,二、Camera定标,目标 基本原理 定标参照物 线性模型 非线性模型 立体视觉 自定标 (project) 实例 机器人手眼定标 主动视觉的头眼定标,Camera定标:线性模型情形,Camera的完整代数模型:,其中:,: 为3X4矩阵,称为投影矩阵;,: 由 (只与摄像机内部结构有关)决定,称为摄像机内部参数;,: 由摄像机相对于世界坐标系的方位决定,称为摄像机外部参数;,Camera定标:确定某摄像机的,条件:借助定标参照物(已知n个点),摄像机定标算法(线性模型情形),最小二乘法,Camera定标:非线性模型情形,径向畸变,离心畸变,薄棱镜畸变,如广角镜头系统,Ca

11、mera定标:立体视觉情形,极线概念,Camera定标:立体视觉情形,消去,消去,Camera定标:立体视觉情形,Camera定标,自定标 不使用定标参照物,针孔摄像机模型及坐标系,全景图像的生成,图像拼合主要包含两个问题: 一是图像整合,即把参考图像中相互重叠的部分对齐所做的变换; 二是图像缝合,即把图像经过一定的变换后,在缝合空间进行图像的局部匹配。,通过图象拼接来生成全景图象的基本过程如下: 针对某一场景,视点固定,采集一组有重叠区域的连续环视图象作为原始图象数据。 按照全景视觉一致性的要求,同时也是为了维持实际场景中的空间约束关系,先将原始图象数据转化为拼接图象数据,即:把原始图象转换

12、到用于映射全景图象的曲面上(如:圆柱面、球面、立方体表面等)。 通过图象拼接技术,将这组图象中相邻两幅图象间的重叠部分整合在一起,进而实现相邻两幅图象的拼接。当所有的图象都拼接完毕后,就会获得一幅全景图象。 当然也可以不固定视点,如:手持照相机进行拍摄,但此时要通过某种办法计算出拍摄各张相片时,照相机的位置和方位,柱面全景模型,柱面全景模型(图a)就是将环境图像表达在一个圆柱体面上,这样就很容易将它展开为简单的平面图(图b)。在水平方向上其无表面无边界,从而简化了建立图像流场所需的对应关系搜索。 通过旋转摄影的方法,可以获得一系列相互间有一定接缝的局部图像,以此作为全景图像生成的原始输入。,柱

13、面体模型和展开示意图,1、柱面正投影算法,在拼接全景图像之前必须将他们统一投影到柱面上,使现实世界中相同的景物在不同的局部图像中是相同的。 柱面正投影算法是为了将多张实景图像分别投影到一个柱面上,以柱面全景图像的形式存储,就是对于一张拍摄的实景图像I上的每一个象素点P的坐标(x, y),找到其在圆柱体上的投影点Q (u, v, w)在柱面全景图像中的坐标(x,y)。如下图2-9所示。 P在照相机坐标系下的坐标为:(x-W/2,y-H/2,-f),其中,W和H分别是实景图像I的宽度和高度。把圆柱面的中心设为照相机坐标系的原点0,以数码相机的象素焦距f作为圆柱面的半径。,柱面正投影示意图,柱面坐标

14、转换图,照相机坐标系原点0与象素点P的直线方程可以表示为参数方程(t是参数): 圆柱面的方程可以表示为: 联立上面式即可得到P点在圆柱面上投影点Q的参数坐标:,为了便于存储,将此三维的坐标转换为二维的图像坐标:,1、柱面全景图像的拼接,图像的整合 一般图像整合问题可以形式化定义为 其中I1和I2分别代表两个图像样本,M是一个平面投影变换或摄像机定点旋转拍摄时两幅重叠图像间的变换矩阵,用齐次坐标表示如下:,因为两个图像具有共同的视点,所以m9=1,即 假如M能得到,我们就可准确地将两幅图像拼合。,(1)特征点的提取及相关匹配算法,特征点的提取及匹配算法的目的是提取图像的特征点,然后对两幅图像中的

15、特征点进行尽可能准确的匹配。 主要包含以下三步: 首先提取每幅图像的特征点; 然后通过一定的相关准则对两幅图像的特征点集进行初步匹配; 最后通过全局优化策略在初始匹配集中寻找最佳匹配,(a)角点检测(Corner Detection) 选取的特征点为图像上的Harris角点,它的基本原理描述如下,建立下面的矩阵C 其中I(x, y)是亮度值,这里用灰度来表示 如果在一点上矩阵C的两个特征值很大,则在该点向任意方向上的一个很小的移动都会引起灰度值的较大的变化,角点检测的函数如下: 其中k参数设为0.04(Harris设定的最优参数)。局部区域中对应角点函数的最大值的点就是角点。 确定一个阈值,仅

16、仅选取R值大于这个阈值的点作为角点。这个阈值根据需要的角点数量确定,(2)相关匹配法 匹配过程如下:在一幅图像中选择一个角点以及角点周围小区域的像素,把这些像素同第二幅图像中候选角点及周围相同大小的区域像素进行比较,得到一些相似度量值,最后通过这些度量值确定匹配点。 角点的匹配过程是一个病态问题。一些角点不能得到匹配点,这是因为 第一,待匹配的角点有一些非常相似,可能得到错误的匹配点。 第二,两幅图像中求出的角点并不是一一对应的,存在一些角点在另一幅图像中的匹配点没有检测出来。,相关匹配法,对于图像I1中的角点m1,设其坐标为(x1, y1),并以该点为中心定义一个大小为(2n +1)(2m +1)的相关窗口。 选择第二幅图像I2中的矩形搜索窗口为在该点附近大小为(2dx +1)(2dy+1)的窗口,然后用该区域中的所有角点m2与图像I1中的角点m1在给定的相关窗口中进行相关操作,并设m2的坐标为(x2, y2)。 角

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 办公文档 > PPT模板库 > PPT素材/模板

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号