位置:成果数据库 > 期刊 > 期刊详情页
基于扩展格框架标注的视频事件多维关联规则挖掘方法
  • ISSN号:1001-3695
  • 期刊名称:计算机应用研究
  • 时间:2013.10.1
  • 页码:3133-3138
  • 分类:TP391[自动化与计算机技术—计算机应用技术;自动化与计算机技术—计算机科学与技术]
  • 作者机构:[1]江苏大学管理学院,江苏镇江212013, [2]江苏大学计算机科学与通信工程学院,江苏镇江212013, [3]江苏大学附属医院信息科,江苏镇江212013, [4]江苏大学图书馆,江苏镇江212013
  • 相关基金:国家自然科学基金资助项目(61170126);江苏省高校研究生科研及创新项目(CX08B_097Z)
  • 相关项目:基于稀疏表示和超图的视频事件语义分析方法研究
中文摘要:

针对视频复杂运动事件进行了分析,对用于自然语言处理的格语法理论进行了扩展,增加时间格结构,并采用扩展后的格框架对复杂事件进行了标注,并将数据存储在数据立方体中,最后采用MDFP-growth方法对多维概念格进行关联规则的挖掘。在实验部分,对比了扩展后的格框架与扩展前原方法对复杂事件标注的结果,并比较扩展了时间格后的四维数据(PRED,Ag,T,Loc)和扩展前三维数据(PRED,Ag,Loc)挖掘其关联规则中系统运行时间,产生规则数对比结果及视频检测的准确率和召回率对比。实验证明,提出的方法能更加准确地标注出复杂事件,并具有更高的处理效率。

英文摘要:

This paper analyzed complex motion events of the video, extended the case grammar theory of natural language processing, and increased the time case structure. Then it used the extension method to annotate video complex events, and stored data in the data cube. Finally, it used the MDFP-growth method to mine association rule for multi-dimensional case concepts. In the experimental section, this paper compared the results of the extended case framework and the original method of annotating a complex event, and compared the four-dimensional data extended the time case to the three-dimensional data mining association rules in the system. Finally, numbers of rules between the two and the precision and recall rate of video detection had been compared. The experiments show that the proposed method can be more accurately annotated a complex event and the higher processing efficiency.

同期刊论文项目
同项目期刊论文
期刊信息
  • 《计算机应用研究》
  • 北大核心期刊(2011版)
  • 主管单位:四川省科学技术厅
  • 主办单位:四川省计算机研究院
  • 主编:刘营
  • 地址:成都市成科西路3号
  • 邮编:610041
  • 邮箱:arocmag@163.com
  • 电话:028-85210177 85249567
  • 国际标准刊号:ISSN:1001-3695
  • 国内统一刊号:ISSN:51-1196/TP
  • 邮发代号:62-68
  • 获奖情况:
  • 第二届国家期刊奖百种重点科技期刊,国内计算技术类重点核心期刊,国内外著名数据库收录期刊
  • 国内外数据库收录:
  • 俄罗斯文摘杂志,波兰哥白尼索引,英国科学文摘数据库,日本日本科学技术振兴机构数据库,中国中国科技核心期刊,中国北大核心期刊(2004版),中国北大核心期刊(2008版),中国北大核心期刊(2011版),中国北大核心期刊(2014版),中国北大核心期刊(2000版)
  • 被引量:60049