位置:成果数据库 > 期刊 > 期刊详情页
RBF神经网络的结构动态优化设计
  • 期刊名称:自动化学报
  • 时间:0
  • 页码:865-872
  • 语言:中文
  • 分类:TP183[自动化与计算机技术—控制科学与工程;自动化与计算机技术—控制理论与控制工程]
  • 作者机构:[1]北京工业大学电子信息与控制工程学院,北京100124
  • 相关基金:国家高技术研究发展计划(863计划)(2007AA04Z160 2009AA04Z155); 国家自然科学基金(60674066 60873043); 教育部博士点基金(200800050004); 北京市自然学基金(4092010)资助
  • 相关项目:人工神经网络结构自组织设计方法及应用研究
中文摘要:

针对径向基函数(Radial basis function,RBF)神经网络的结构设计问题,提出一种结构动态优化设计方法.利用敏感度法(Sensitivity analysis,SA)分析隐含层神经元的输出加权值对神经网络输出的影响,以此判断增加或删除RBF神经网络隐含层中的神经元,解决了RBF神经网络结构过大或过小的问题,并给出了神经网络结构动态变化过程中收敛性证明;利用梯度下降的参数修正算法保证了最终RBF网络的精度,实现了神经网络的结构和参数自校正.通过对非线性函数的逼近与污水处理过程中关键参数的建模结果,证明了该动态RBF具有良好的自适应能力和逼近能力,尤其是在泛化能力、最终网络结构等方面较之最小资源神经网络(Minimal resource allocation networks,MRAN)与增长和修剪RBF神经网络(Generalized growing and pruning radial basis function,GGAP-RBF)有较大提高.

英文摘要:

Due to the fact that the conventional radial basis function(RBF) neural network cannot change the structure on-line,a new dynamic structure RBF(D-RBF) neural network is designed in this paper.D-RBF is based on the sensitivity analysis(SA) method to analyze the output values of the hidden nodes for the network output,then the hidden nodes in the RBF neural network can be inserted or pruned.The final structure of D-RBF is not too large or small for the objectives,and the convergence of the dynamic process is investigated in this paper.The grad-descend method for the parameter adjusting ensures the convergence of D-RBF neural network.The structure of the RBF neural network is self-organizing,and the parameters are self-adaptive.In the end,D-RBF is used for the non-linear functions approximation and the non-linear systems modelling.The results show that this proposed D-RBF obtains favorable self-adaptive and approximating ability.Especially,comparisons with the minimal resource allocation networks(MRAN) and the generalized growing and pruning RBF(GGAP-RBF) reveal that the proposed algorithm is more effective in generalization and finally neural network structure.

同期刊论文项目
期刊论文 28 会议论文 12 获奖 4 著作 2
期刊论文 28 会议论文 6 专利 6
同项目期刊论文