多视点视频虚拟视图的生成是视频处理领域的一个重要和热点研究方向。由于受光照变化和噪声等因素的影响,现有技术难以生成高质量的虚拟视图。因此,本项目以前期工作为出发点,在图像分析处理的理论框架下,以提高虚拟视图质量为目标,研究多视点视频虚拟生成的核心过程和关键技术,并提出新的模型和方法。本研究首先针对目标提出了视频信号的相位特征提取模型,即3D Monogenic相位尺度空间,实现了光照变化和噪声干扰环境下图像特征的准确提取。基于该模型,进一步融合对称、遮挡和平滑约束条件,提出了基于相位的立体视差计算方法,提高了视差估计的准确和稳定性。之后,根据视差计算结果生成深度信息图,提出3D Monogenic相位一致性方法以实现深度图的分层。最后基于多层深度图,融合3D Warping技术和左右视图交叉校验方法,提高了生成的虚拟视图质量,为多视点视频的虚拟生成提供了理论依据和实证分析。
Phase scale space;Depth estimation;multi-view video;Virtual image;Disparity
多视点视频虚拟视图的生成是视频处理领域的一个重要和热点研究方向。由于受光照变化和噪声等因素的影响,现有技术难以生成高质量的虚拟视图。本项目的研究目标是建立视频相位特征提取的理论模型(3D Monogenic 相位尺度空间),为光照变化和噪声干扰环境下特征的准确提取提供理论依据。提出基于相位特征的立体视差估计方法,提高计算的准确和稳定性。构建基于相位尺度空间的多视点虚拟视图生成方法,提高生成视图的质量。在国内外主要刊物及国际会议上发表论文6-8篇,其中SCI或EI 收录不少于4 篇。计划邀请国内外相关领域专家1-2 人来校进行学术交流,预计5人参加国内或国际学术会议。通过参加本课题的研究,培养硕士生2-3 人,并基于研究成果申报专利1-2项。 到目前为止,项目研究目标已经完全。在超复信号处理的理论引导下将二维Monogenic曲率尺度空间嵌入四元数表述框架,建立了3D Monogenic 相位尺度空间,具体成果发表于Optics Letters和Optics Express期刊。以相位特征作为约束条件,构建了全局能量代价函数进行立体视差估计,实现了光照变化和噪声干扰环境下深度信息的准确估计,具体成果发表于Optics Letters和Optics Express期刊。根据估计的场景深度图,通过图像绘制技术生成多视点虚拟视图。具体成果发表于IEEE International Conference on Signal and Image Processing Application和IEEE International Symposium on Multimedia。标注有本项目资助的发表论文共15篇,其中3篇被SCI收录,9篇被EI收录,3篇发表于国内核心期刊。邀请了国外相关领域专家2人来校进行学术交流,参加了1次国际学术会议和1次国内学术会议,1次到国外进行学术交流。通过本课题,培养了硕士生3人,并基于研究成果申报专利4项。