社交网络的流行使得网络视频爆炸式的增长,浏览海量网络视频时的一个关键任务是话题的检测与跟踪。然而现有的视频搜索引擎仅根据文本关键字的相关度进行搜索,使得用户无法从众多的结果中找出视频之间的关联并跟踪事件的发展。本课题研究大规模网络视频话题跟踪及线索关键技术。突破现有视频搜索引擎的搜索习惯,项目首先研究基于局部关键点的大规模近似图像检测算法研究,实现高效、准确、可扩展的大规模近似图像检测。在此基础上,研究文本和视觉近似图像突发性特征,探索突发性特征之间的互补与关联,结合多模态融合技术集成各信息源的优势,对话题检测与跟踪进行理论分析和研究,用以检测热点事件、跟踪事件发展、建立话题结构、构建事件-文本-代表性视频片段间的映射,提供全新的搜索功能和新颖的搜索体验,探索更加适合互联网视频话题检测与跟踪的新思想和新途径,清晰地展示事件结构,方便用户浏览与搜索。
Topic Detection and Tracking;Web Videos;Near-duplicate Image Detection;Bursty Feature;
社交网络和网络视频网站的普及和快速发展,使得网络视频的数量以指数级增长。对于海量的搜索结果,用户需要点击查看完大量相关视频后,自己再加以整理方可了解整个话题和主要事件。用户不仅要耗费大量时间来查找搜索结果,而且他们很难找到他们真正想要的搜索结果,更不用说完全陌生的话题了。因此,现在的搜索引擎并不能帮助用户抓住主要事件然后从整体上了解整个话题。这对研究如何有效挖掘主要事件提出了迫切需求。然而,少量和嘈杂的文本信息和质量较低并易受编辑的视觉信息对基于初始关键字和视觉特征的事件挖掘提出了新的挑战。本研究项目的结果包括以下几个方面(1) 大规模近似图像/片段/视频快速检测及标注方案的研究 (2) 话题结构建立的研究 (3) 文本与视觉特征轨迹的研究 (4) 文本与视觉信息融合的研究 (5) 文本信息鲁棒性提高的研究 (6) 基于概率模型的文本与视觉信息融合框架具体包括 (1) 深入研究了高效地通过局部特征搜索近似视频和从近似视频的标签集合中找寻合适的标签进行推荐。 (2) 对于视觉特征轨迹的建立、视觉特征轨迹与文本频繁项目集融合的研究取得了重要成果,特别是话题结构的建立取得了突破性进展。 (3) 分别对文本与视觉特征轨迹的优点和缺点进行了深入的分析与比较,并进一步研究了通过两者的融合进行事件挖掘的研究。 (4) 分别对文本与视觉信息的特点进行了分析与研究,并通过两者的融合进一步提高事件挖掘效率。 (5) 对文本信息鲁棒性提高做了深入的分析与研究。 (6) 经对文本与视觉特征的深入分析和研究,通过概率模型将两者融合在一起进行事件挖掘的研究。