位置:成果数据库 > 期刊 > 期刊详情页
A Tensor Neural Network with Layerwise Pretraining: Towards Effective Answer Retrieval
  • ISSN号:1000-9000
  • 期刊名称:《计算机科学技术学报:英文版》
  • 时间:0
  • 分类:TP18[自动化与计算机技术—控制科学与工程;自动化与计算机技术—控制理论与控制工程] O183.2[理学—数学;理学—基础数学]
  • 作者机构:Key Laboratory of Computational Linguistics, Peking University, Beijing 100871, China
  • 相关基金:This work is supported by the National High Technology Research and Development 863 Program of China under Grant No. 2015AA015403, the National Natural Science Foundation of China under Grant Nos. 61371129 and 61572245, and the Key Program of Social Science Foundation of China under Grant No. 12&ZD227.
中文摘要:

在这份报纸,我们在基于社区的问答处理答案检索问题。为了充分捕获在问题答案之间的相互作用,配对,我们建议原来的张肌为在他们之间的关联建模的神经网络。问题和候选人答案独立被嵌进不同潜伏的语义空格,并且 3 方法张肌然后被利用为在潜伏的语义之间的相互作用建模。适当地初始化网络层,我们建议一个新奇算法打电话降噪张肌 autoencoder (DTAE ) ,然后实现用降噪嵌入张肌层上的层和 DTAE 的词上的 autoencoders (DAE ) 的 layerwise pretraining 策略。试验性的结果显示出那我们神经网络超过的张肌有另外的竞争神经网络方法的各种各样的基线,和我们的 pretraining DTAE 策略改进系统性能和坚韧性。

英文摘要:

In this paper we address the answer retrieval problem in community-based question answering. To fully capture the interactions between question-answer pairs, we propose an original tensor neural network to model the relevance between them. The question and candidate answers are separately embedded into different latent semantic spaces, and a 3-way tensor is then utilized to model the interactions between latent semantics. To initialize the network layers properly, we propose a novel algorithm called denoising tensor autoencoder (DTAE), and then implement a layerwise pretraining strategy using denoising autoencoders (DAE) on word embedding layers and DTAE on the tensor layer. The experimental results show that our tensor neural network outperforms various baselines with other competitive neural network methods, and our pretraining DTAE strategy improves the system's performance and robustness.

同期刊论文项目
同项目期刊论文
期刊信息
  • 《计算机科学技术学报:英文版》
  • 中国科技核心期刊
  • 主管单位:
  • 主办单位:中国科学院计算机技术研究所
  • 主编:
  • 地址:北京2704信箱
  • 邮编:100080
  • 邮箱:jcst@ict.ac.cn
  • 电话:010-62610746 64017032
  • 国际标准刊号:ISSN:1000-9000
  • 国内统一刊号:ISSN:11-2296/TP
  • 邮发代号:2-578
  • 获奖情况:
  • 国内外数据库收录:
  • 被引量:505