位置:成果数据库 > 期刊 > 期刊详情页
A NEW DESCENT MEMORY GRADIENT METHOD AND ITS GLOBAL CONVERGENCE
  • ISSN号:1009-6124
  • 期刊名称:《系统科学与复杂性学报:英文版》
  • 时间:0
  • 分类:O224[理学—运筹学与控制论;理学—数学] O221.2[理学—运筹学与控制论;理学—数学]
  • 作者机构:[1]Department of MaShematics and Information Science, Zaozhuan9 University, Zaozhuang 277160, China., [2]School of Management, Qufu Normal University, Rizhao 276826, China
  • 相关基金:This research is supported by the National Science Foundation of China under Grant No. 70971076 and the Foundation of Shandong Provincial Education Department under Grant No. J10LA59.
中文摘要:

在这篇文章,没有重启的一个新降下记忆坡度方法为解决大规模被建议非强迫的优化问题。方法有下列吸引人的性质:1 ) 搜索方向总是是一足够地,在没有线搜索的每次重复的降下方向使用了;2 ) 搜索方向总是满足角度性质,它独立于客观功能的凸状。在温和条件下面,作者证明建议方法有全球集中,和它的集中率也被调查。数字结果证明新降下记忆方法为给定的测试问题是有效的。

英文摘要:

In this article, a new descent memory gradient method without restarts is proposed for solving large scale unconstrained optimization problems. The method has the following attractive properties: 1) The search direction is always a sufficiently descent direction at every iteration without the line search used; 2) The search direction always satisfies the angle property, which is independent of the convexity of the objective function. Under mild conditions, the authors prove that the proposed method has global convergence, and its convergence rate is also investigated. The numerical results show that the new descent memory method is efficient for the given test problems.

同期刊论文项目
同项目期刊论文
期刊信息
  • 《系统科学与复杂性学报:英文版》
  • 主管单位:中国科学院
  • 主办单位:中国科学院系统科学研究所
  • 主编:
  • 地址:北京东黄城根北街16号
  • 邮编:100080
  • 邮箱:
  • 电话:010-62541831 62541834
  • 国际标准刊号:ISSN:1009-6124
  • 国内统一刊号:ISSN:11-4543/O1
  • 邮发代号:82-545
  • 获奖情况:
  • 国内外数据库收录:
  • 俄罗斯文摘杂志,美国数学评论(网络版),德国数学文摘,荷兰文摘与引文数据库,美国工程索引,美国科学引文索引(扩展库),英国科学文摘数据库
  • 被引量:125