本项目研究学习理论中逼近问题。运用逼近论的理论、方法和技巧研究学习算法的收敛性、误差分析和逼近度估计。研究学习算法的理论基础,涉及到数学科学、信息科学和计算机科学等多学科的融合,是富有挑战性的研究课题之一。项目组成员认真履行申请书的承诺,积极工作,取得了一些有意义的研究结果,圆满完成项目研究计划。建立了基于相依样本的经验风险最小化算法的一致和相对一致收敛速度的界。利用Rademacher复杂度得到了相依样本条件下支持向量机的推广性能以及目标稀疏程度与算法逼近阶的关系。估计了基于密度假设、聚类假设的半监督学习算法的推广误差,证明了算法收敛性与标记样本和未标记样本数目的关系。建立了基于多图Laplacian正则化的半监督分类算法的误差分析,说明了图的内在性质与推广性能的联系。提出了基于半监督Laplacian特征映射的维数约减算法,并且从理论和数据实验说明了该算法的合理性。利用Fenchel对偶理论得到贪婪算法的经验误差增量的界、停止原则以及迭代次数与贪婪算法逼近阶的关系。建立了流形学习算法(球面上正则化算法)的风险界。应用理论研究成果于模式识别和图像处理,得到有意义的应用研究结果。
英文主题词Leraning theory; Approximation; Error analysis; Risk functional; Support vector machine