位置:立项数据库 > 立项详情页
基于深度图像的复杂虚拟场景的自动建模与绘制
  • 项目名称:基于深度图像的复杂虚拟场景的自动建模与绘制
  • 项目类别:面上项目
  • 批准号:60473105
  • 申请代码:F020501
  • 项目来源:国家自然科学基金
  • 研究期限:2005-01-01-2007-12-31
  • 项目负责人:吴恩华
  • 负责人职称:研究员
  • 依托单位:中国科学院软件研究所
  • 批准年度:2004
中文摘要:

该项目研究基于深度图象对大规模复杂虚拟场景进行自动建模和实时绘制的算法和技术。复杂虚拟场景的建模与绘制是近年来虚拟现实研究的一项挑战,而基于深度图象对其进行自动建模则又是另一难题。该项目研究工作的主要技术攻关之处正在于这两方面: 一是从任意视点的深度图象出发, 预处理和自动重建其复杂的虚拟环境, 并根据环境物体的复杂度自动分类;二是研究经过分类后物体的计算机表示及其层次细节模型和实时绘制技术。在前者的研究中, 关键问题是要通过采样数据分析, 检索和提取输入图象中精度最佳的有用信息, 而剔除大量重复的冗余信息, 并对识别的物体进行准确的自动分类。对于平面及非平面(高度细节)物体分别以多边形与点的模型进行混合表示。在后者实时绘制技术的研究中, 要重点研究基于点表示的复杂物体的绘制技术, 以及基于现代可编程图形硬件的实时加速技术。

结论摘要:

该项目研究基于深度图象复杂虚拟场景进行自动建模和实时绘制的算法和技术。深度图像易于表达复杂场景且包含三维信息,因而基于深度图象的建模与绘制成为虚拟现实研究的一项具有重要意义的课题。该项目研究工作及其成果主要在两方面: 一是研究深度图象基于视点的重建及其快速绘制新技术;二是研究基于深度图象重建的层次细节模型和实时绘制技术。在对前者的研究中, 我们提出一种新的基于深度图像的建模与绘制技术,首次将视点推广到图像空间内部使之可以从任意空间位置对场景进行绘制;对于利用深度图像的变换创建三维真实感场景,提出了一种双投影方式的圆柱面映射算法并在FPGA硬件平台上加以设计实现。在对后者(第二项)的研究中, 首次提出和实现了复杂模型通过几何图象变换实现基于GPU的动态LOD模型以及基于此算法的视点相关的渐进传输。此外还提出一种基于非均匀纹理层的毛发表示及基于GPU的毛发实时绘制方法。该项目研究成果为 IEEE CA&G, Visual Computer,IEEE VR07, CGI05 等著名杂志和著名国际会议所接受发表,其中部分成果得到国际同行的引用与关注,并受邀在数个国际会议作大会特邀报告。


成果综合统计
成果类型
数量
  • 期刊论文
  • 会议论文
  • 专利
  • 获奖
  • 著作
  • 29
  • 11
  • 0
  • 0
  • 0
相关项目
期刊论文 146 会议论文 35 获奖 2 专利 23
吴恩华的项目
期刊论文 19 会议论文 11 著作 1
期刊论文 5 会议论文 6