位置:成果数据库 > 期刊 > 期刊详情页
基于两层模糊划分的时间差分算法
  • ISSN号:1000-436X
  • 期刊名称:《通信学报》
  • 时间:0
  • 分类:TP181[自动化与计算机技术—控制科学与工程;自动化与计算机技术—控制理论与控制工程]
  • 作者机构:[1]苏州大学计算机科学与技术学院,江苏苏州215006, [2]吉林大学符号计算与知识工程教育部重点实验室,吉林长春130012
  • 相关基金:国家自然科学基金资助项目(61070223,61103045,61070122,61272005);江苏省自然科学基金资助项目(BKl2012616);江苏省高校自然科学研究基金资助项目(09KJA520002,09KJB520012);吉林大学符号计算与知识工程教育部重点实验室基金资助项目(93K172012K04)
中文摘要:

针对传统的基于查询表或函数逼近的Q值迭代算法在处理连续空间问题时收敛速度慢、且不易求解连续行为策略的问题,提出了一种基于两层模糊划分的在策略时间差分算法——DFP-OPTD,并从理论上分析其收敛性。算法中第一层模糊划分作用于状态空间,第二层模糊划分作用于动作空间,并结合两层模糊划分计算出Q值函数。根据所得的Q值函数,使用梯度下降方法更新模糊规则中的后件参数。将DFP-OPTD应用于经典强化学习问题中,实验结果表明,该算法有较好的收敛性能,且可以求解连续行为策略。

英文摘要:

When dealing with the continuous space problems, the traditional Qiteration algorithms based on lookuptable or function approximation converge slowly and are difficult to get a continuous policy. To overcome the above weak nesses, an onpolicy TD algorithm named DFPOPTD was proposed based on doublelayer fuzzy partitioning and its convergence was proved. The first layer of fuzzy partitioning was applied for state space, the second layer of fuzzy parti tioning was applied for action space, and Qvalue functions were computed by the combination of the two layer fuzzy partitioning. Based on the Qvalue function, the consequent parameters of fuzzy rules were updated by gradient descent method. Applying DFPOPTD on two classical reinforcement leaming problems, experimental results show that the algo rithm not only can be used to get a continuous action policy, but also has a better convergence performance.

同期刊论文项目
期刊论文 27 会议论文 3 专利 1
同项目期刊论文
期刊信息
  • 《通信学报》
  • 中国科技核心期刊
  • 主管单位:中国科学技术协会
  • 主办单位:中国通信学会
  • 主编:杨义先
  • 地址:北京市丰台区成寿寺4路11号邮电出版大厦8层
  • 邮编:100078
  • 邮箱:
  • 电话:010-81055478 81055481
  • 国际标准刊号:ISSN:1000-436X
  • 国内统一刊号:ISSN:11-2102/TN
  • 邮发代号:2-676
  • 获奖情况:
  • 信息产业部通信科技期刊优秀期刊二等奖
  • 国内外数据库收录:
  • 荷兰文摘与引文数据库,美国工程索引,美国剑桥科学文摘,英国科学文摘数据库,日本日本科学技术振兴机构数据库,中国中国科技核心期刊,中国北大核心期刊(2004版),中国北大核心期刊(2008版),中国北大核心期刊(2011版),中国北大核心期刊(2014版),中国北大核心期刊(2000版)
  • 被引量:25019