位置:成果数据库 > 期刊 > 期刊详情页
基于多知识源的中文词法分析系统
  • 期刊名称:姜维,王晓龙,关毅,赵健,基于多知识源的中文词法分析系统,计算机学报﹒2007年第1期,137-14
  • 时间:0
  • 分类:TP391[自动化与计算机技术—计算机应用技术;自动化与计算机技术—计算机科学与技术]
  • 作者机构:[1]哈尔滨工业大学计算机科学与技术学院,哈尔滨150001
  • 相关基金:本课题得到国家自然科学基金重点项目“问答式信息检索的理论与方法”(60435020)及国家自然科学基金(60504021)资助.
  • 相关项目:面向智能化信息检索的危险式人工免疫网络理论与方法研究
中文摘要:

汉语词法分析是中文自然语言处理的首要任务.文中深入研究中文分词、词性标注、命名实体识别所面临的问题及相互之间的协作关系,并阐述了一个基于混合语言模型构建的实用汉语词法分析系统.该系统采用了多种语言模型,有针对性地处理词法分析所面临的各个问题.其中分词系统参加了2005年第二届国际汉语分词评测,在微软亚洲研究院、北京大学语料库开放测试中,分别获得F量度为97.2%与96.7%.而在北京大学标注的《人民日报》语料库的开放评测中,词性标注获得96.1%的精确率,命名实体识别获得的F量度值为88.6%.

英文摘要:

Chinese lexical analysis is the foundation task for most Chinese natural language processing. In this paper, word segmentation, POS tagging, named entity recognition and their relation are well discussed. Moreover, a pragmatic lexical analysis system based on mixed language models is presented, which adopts many models, such as n-gram, hidden Markov model, maximum entropy model, support vector machine and conditional random fields, they have good performance in the special sub-tasks. The Word Segmenter participated in the Second International Chinese Word Segmentation Bakeoff in 2005, and achieved 97.2% and 96.7%in terms of F- measure in MSR and PKU open test respectively. While the POS tagging and named entity recognition modules achieved 96.1 % in precision and 88. 6 % in F-measure respectively in open test with the corpus that came from six-month corpora of Chinese Peoples' Daily.

同期刊论文项目
同项目期刊论文