位置:成果数据库 > 期刊 > 期刊详情页
借重于人工知识库的词和义项的向量表示:以HowNet为例
  • ISSN号:1003-0077
  • 期刊名称:《中文信息学报》
  • 时间:0
  • 分类:TP391[自动化与计算机技术—计算机应用技术;自动化与计算机技术—计算机科学与技术]
  • 作者机构:[1]清华大学计算机科学与技术系,清华信息科学技术国家实验室,清华大学智能技术与系统国家重点实验室,北京100084, [2]首都师范大学,北京市成像技术高精尖创新中心,北京100048
  • 相关基金:国家社会科学基金(13&ZD190); 国家自然科学基金(61133012)
中文摘要:

该文旨在以HowNet为例,探讨在表示学习模型中引入人工知识库的必要性和有效性。目前词向量多是通过构造神经网络模型,在大规模语料库上无监督训练得到,但这种框架面临两个问题:一是低频词的词向量质量难以保证;二是多义词的义项向量无法获得。该文提出了融合HowNet和大规模语料库的义原向量学习神经网络模型,并以义原向量为桥梁,自动得到义项向量及完善词向量。初步的实验结果表明该模型能有效提升在词相似度和词义消歧任务上的性能,有助于低频词和多义词的处理。作者指出,借重于人工知识库的神经网络语言模型应该成为今后一段时期自然语言处理的研究重点之一。

英文摘要:

This paper aims to address the necessity and effectiveness of encoding a human annotated knowledge base into a neural network language model,using HowNet as a case study.Traditional word embedding is derived from neural network language model trained on a large-scale unlabeled text corpus,which suffers from the quality of resulting vectors of low frequent words is not satisfactory,and the sense vectors of polysemous words are not available.We propose neural network language models that can systematically learn embedding for all the semantic primitives defined in HowNet,and consequently,obtain word vectors,in particular for low frequent words,and word sense vectors in terms of the semantic primitive vectors.Preliminary experimental results show that our models can improve the performance in tasks of both word similarity and word sense disambiguation.It is suggested that the research on neural network language models incorporating human annotated knowledge bases would be a critical issue deserving our attention in the coming years.

同期刊论文项目
同项目期刊论文
期刊信息
  • 《中文信息学报》
  • 北大核心期刊(2011版)
  • 主管单位:中国科学技术协会
  • 主办单位:中国中文信息学会 中国科学院软件研究所
  • 主编:孙茂松
  • 地址:北京海淀中关村南四街4号中科院软件所
  • 邮编:100190
  • 邮箱:jcip@iscas.ac.cn
  • 电话:010-62562916
  • 国际标准刊号:ISSN:1003-0077
  • 国内统一刊号:ISSN:11-2325/N
  • 邮发代号:
  • 获奖情况:
  • 国内外数据库收录:
  • 日本日本科学技术振兴机构数据库,中国中国科技核心期刊,中国北大核心期刊(2004版),中国北大核心期刊(2008版),中国北大核心期刊(2011版),中国北大核心期刊(2014版),中国北大核心期刊(2000版)
  • 被引量:9136