位置:成果数据库 > 期刊 > 期刊详情页
一种基于在线学习的弹道识别方法
  • ISSN号:1673-9728
  • 期刊名称:《弹箭与制导学报》
  • 时间:0
  • 分类:TP301[自动化与计算机技术—计算机系统结构;自动化与计算机技术—计算机科学与技术]
  • 作者机构:[1]中国人民解放军陆军军官学院十一系,安徽合肥230031
  • 相关基金:国家自然科学基金(No.61273296,No.60975040);安徽省自然科学基金(No.1308085QF121)
中文摘要:

COMID(Composite Objective Mlrror Descent)是一种能够保证L1正则化结构的在线算法,其随机收敛速率可由在线算法的regret界直接得到,但其最终解是T次迭代平均的形式,稀疏性很差.瞬时解具有很好的稀疏性,因此分析算法的瞬时收敛速率在随机学习中变得越来越重要.本文讨论正则化非光滑损失的随机优化问题,当正则化项为L1和L1+12时,分别证明了COMID的瞬时收敛速率.大规模数据库上的实验表明,在保证几乎相同正确率的同时,瞬时解一致地提高了稀疏性,尤其是对稀疏性较差的数据库,稀疏度甚至能够提升4倍以上.

英文摘要:

COMID is an online algorithm which can ensure the structure of L1 regularization.Its stochastic convergence rate can be obtained directly from the regret bound in online settings. However, the derived final solution has poor sparsity because it on- ly takes the form of averaging all previous T iterates. Naturally, the individual solution has nice sparisity. So it becomes more and more important to discuss in~vidual convergence rates in the stochastic learning. In this paper, we focus on the regularized non- smooth loss problems. When the regularizer are L1 and L1 + L2, we prove the individual convergence rates of COMID respectively. The extensive experiments on large-scale datasets demonstrate that the individual solution consistently improves the sparsity while keeping almost the same accuracy.For the datasets with poor sparse structure,the sparsity of solution is improved even up to four times.

同期刊论文项目
同项目期刊论文
期刊信息
  • 《弹箭与制导学报》
  • 北大核心期刊(2011版)
  • 主管单位:中国科学技术协会
  • 主办单位:中国兵工学会
  • 主编:王东
  • 地址:西安市丈八东路10号学报编辑部
  • 邮编:710065
  • 邮箱:djzdxb@126.com
  • 电话:029-88293167
  • 国际标准刊号:ISSN:1673-9728
  • 国内统一刊号:ISSN:61-1234/TJ
  • 邮发代号:
  • 获奖情况:
  • 陕西省科技期刊二等奖
  • 国内外数据库收录:
  • 波兰哥白尼索引,美国剑桥科学文摘,英国科学文摘数据库,日本日本科学技术振兴机构数据库,中国北大核心期刊(2004版),中国北大核心期刊(2008版),中国北大核心期刊(2011版),中国北大核心期刊(2014版),中国北大核心期刊(2000版)
  • 被引量:9136