本文尝试总结出一类通过优化粗糙假设空间而学习近似目标概念的自然语言处理(NLP)问题的解决方法。自然语言的结构、意义和应用复杂多变,这使得NLP目标概念本身就不很明确,更难于从目标概念出发构造偏序假设空间。因此我们从NLP训练样本出发,以较为简单明确的语言学知识为启发,生成例(token)无偏的粗糙假设空间H,然后以型(type)频率为偏序对H进行统计优化,直至得到可以"可能近似正确"表示目标概念的变型空间H。