将问题对象所蕴涵的一般性的先验信息耦合到神经网络输出误差代价函数中去,并在该新的误差代价函数中构造约束权值振荡的矫正项(adjustment term)和增加网络推广能力的促进子(promoter),以构造一种新的约束学习算法(CLA),来求解一类神经计算、模式识别、函数逼近和非线性预测等实际问题。这是神经网络领域一个崭新的研究方向。这种新的学习算法因问题先验信息的约束指导,能够最大限度地避免误差
由于仅考虑希望的输入/输出信息而没有考虑网络的结构属性和所要解决问题的先验信息或约束条件,传统的基于梯度下降的反向传播算法及其改进的算法都无法避免收敛速度慢、泛化性能差等缺陷。本课题将问题蕴涵的先验信息耦合到神经网络输出误差代价函数中去,并在该新的误差代价函数中构造约束权值振荡的矫正项和增加网络推广能力的促进子,以构造一种新的约束学习算法,来求解一类神经计算、模式识别、函数逼近和非线性预测等实际问题。这是神经网络领域一个崭新的研究方向。这种新的学习算法因问题先验信息的约束指导,能够最大限度地避免误差表面上存在的局部极小值解,使得网络权值的迭代沿着问题先验信息的方向前进,从而明显地加快了网络的收敛速度。另一方面,经过这种约束学习算法学习的神经网络也将具有很强的推广能力。该课题为与"机器学习"等有关的应用基础研究,它的深入研究必能使智能计算等领域带来更大的发展。受基金资助,我们还在基于先验信息的独立分量分析、神经网络多项式求根、RBFNN训练算法、基因微阵数据分析、蛋白质结构预测等方面进行了深入研究。主要成果:大会报告4篇、国际SCI杂志42篇(其中封面文章1篇)、发明专利7项。