位置:成果数据库 > 期刊 > 期刊详情页
基于数据选择模型的IB算法
  • ISSN号:0372-2112
  • 期刊名称:电子学报
  • 时间:2014
  • 页码:1839-1847
  • 分类:TP181[自动化与计算机技术—控制科学与工程;自动化与计算机技术—控制理论与控制工程]
  • 作者机构:[1]郑州大学信息工程学院,河南郑州450052, [2]信阳师范学院计算机与信息技术学院,河南信阳464000
  • 相关基金:国家自然科学基金项目(61170223)资助;河南省教育厅科学技术研究重点项目(14A520016)资助.
  • 相关项目:多变量IB方法及算法的研究
中文摘要:

通过学习特征变换矩阵,可以将样本映射到新的空间,以适应给定的样本距离测度方法.基于此,提出一种面向k近邻的特征变换方法用于提高k近邻分类算法在非平衡数据集分类问题中的分类性能.该方法最大化基于g-mean的目标函数,学习线性特征变换矩阵,使得在新空间中同类距离尽可能小而异类距离尽可能大.基于g-mean的目标函数充分考虑了稀有类数据的特征,进而有效地保证在新空间中,k近邻对稀有类数据有更好的分类性能.UCI数据集上的实验结果表明,该方法能有效提高k近邻在稀有类问题中的泛化能力;较之于传统的PCA、LDA,该变换方法也显示出明显优势.

英文摘要:

Feature transformation learning can map the original data space to a new one in which a given distance metric is suitable to calculate the distances between samples. This paper proposes a new feature transformation method to improve the performance of k nearest neighbor on imbalanced data sets. This method maximize the loss function based on g-mean metric to learn an optimal transformarion matrix such that in new space intra-class neighbors become more nearby, while extra-class neighbors become as far away from each other as possible. The loss function based on g-mean fully considers the characterisric of the rare class, which guarantees that KNN achieves better performance on rare class in the new metric space. The experiments on UCI data sets show that the proposed method effectively improves the KNN generalization ability for imbalanced problem. Besides, the proposed method presents obvious advantage compared with PCA and LDA.

同期刊论文项目
期刊论文 48 会议论文 11
同项目期刊论文
期刊信息
  • 《电子学报》
  • 中国科技核心期刊
  • 主管单位:中国科学技术协会
  • 主办单位:中国电子学会
  • 主编:郝跃
  • 地址:北京165信箱
  • 邮编:100036
  • 邮箱:new@ejournal.org.cn
  • 电话:010-68279116 68285082
  • 国际标准刊号:ISSN:0372-2112
  • 国内统一刊号:ISSN:11-2087/TN
  • 邮发代号:2-891
  • 获奖情况:
  • 2000年获国家期刊奖,2000年获国家自然科学基金志项基金支持,中国期刊方阵“双高”期刊
  • 国内外数据库收录:
  • 美国化学文摘(网络版),荷兰文摘与引文数据库,美国工程索引,美国剑桥科学文摘,日本日本科学技术振兴机构数据库,中国中国科技核心期刊,中国北大核心期刊(2004版),中国北大核心期刊(2008版),中国北大核心期刊(2011版),中国北大核心期刊(2014版),英国英国皇家化学学会文摘,中国北大核心期刊(2000版)
  • 被引量:57611