位置:成果数据库 > 期刊 > 期刊详情页
UGES反向传导算法:一种新的小样本深度机器学习模型
  • ISSN号:1001-7011
  • 期刊名称:《黑龙江大学自然科学学报》
  • 时间:0
  • 分类:TP181[自动化与计算机技术—控制科学与工程;自动化与计算机技术—控制理论与控制工程]
  • 作者机构:[1]广东外语外贸大学金融学院,广州510006, [2]印第安纳大学统计学系,布卢明顿IN47408, [3]广东外语外贸大学经济贸易学院,广州510006, [4]考文垂大学商务、环境和社会学院考文垂CVl5FB
  • 相关基金:国家自然科学基金资助项目(71271061,70801020);广东省大学生科技创新培育专项资金重点资助项目(308-GK151011);广东省自然科学基金资助项目(2014A030313575);广东省哲学社会科学“十二五”规划项目(GD12XGL14);广东省公益研究与能力建设之软科学项目(2015A070704051);广东省教育厅科技创新基金资助项目(2013KJCX0072);广州市哲学社会科学发展“十二五”规划共建课题项目(14G41);2014年国家级大学生创新训练计划项目(201411846001);广东外语外贸大学教学研究重点A类项目(GYJYzDA14002)
中文摘要:

针对传统深度学习算法在样本不足时易出现过拟合的问题,提出了一类新的小样本深度学习模型:UGES反向传导模型。其基本思路是:在保留深层结构的同时,压缩需要学习参数的数量。作为一种与误差反向传导算法相容的间接编码模型,该算法对权值的随机分布特性进行重新编码,打破了不同隐含层之间的隔阂,并使用变分贝叶斯学习对网络进行全局训练。新模型的参数数目不再与输入变量维数及网络结构大小相关,同时强迫权值对于一定程度的扰动具有鲁棒性。最后,将所提出的算法用于外包软件项目风险识别这一典型的多维小样本问题中。对比实验表明,该模型达到了93.3%的样本外准确率,不仅保留了深度模型非线性表达能力,亦具备了小样本下优秀的泛化能力。

英文摘要:

Original deep neural networks are prone to over-fit when the size of training examples To address this problem, a new efficient deep machine learning algorithm is proposed for small learning. The basic idea is to compress the number of parameters tO be learned while retaining structure. To achieve this, a back-prop compatible encoding scheme (i. e. UGES Back-prop is small. sample the deep ) is pro-

同期刊论文项目
期刊论文 28 会议论文 12 获奖 1
同项目期刊论文
期刊信息
  • 《黑龙江大学自然科学学报》
  • 北大核心期刊(2011版)
  • 主管单位:黑龙江省教育厅
  • 主办单位:黑龙江大学
  • 主编:霍丽华
  • 地址:哈尔滨市学府路74号
  • 邮编:150080
  • 邮箱:hdxb@vip.sohu.com
  • 电话:0451-86608818
  • 国际标准刊号:ISSN:1001-7011
  • 国内统一刊号:ISSN:23-1181/N
  • 邮发代号:14-114
  • 获奖情况:
  • 国内外数据库收录:
  • 美国化学文摘(网络版),美国数学评论(网络版),德国数学文摘,日本日本科学技术振兴机构数据库,中国中国科技核心期刊,中国北大核心期刊(2004版),中国北大核心期刊(2008版),中国北大核心期刊(2011版),中国北大核心期刊(2014版)
  • 被引量:4204