您的位置:首页 > 其它

笔记-2002-Combining Classifiers for Chinese Word Segmentation

2012-11-06 17:46 537 查看
Combining Classifiers for Chinese Word Segmentation

作者:Nianwen Xue,Susan P. Converse

单位:Institute for Research in Cognitive Science ;University of Pennsylvania

出处:Proceeding SIGHAN '02 Proceedings of the first SIGHAN workshop on Chinese language processing - Volume 18 Association for Computational Linguistics Stroudsburg, PA, USA ©2002

主要内容:用最大熵解决中文分词问题,抛砖引玉

引言,Introduction

模型,

1为什么用tag解决,怎么tag

2 ME模型

3 ME有标记偏置问题,Transformation-Based Learning去解决

实验

3个实验的介绍

评价及结果分析

讨论

使用最大熵工具注意几点,

1 回车换行只有10 没有13

2 测试语料不能有空行,可以对结果再行处理

3 测试语料如果第一行是测试答案,则输出一个“标记”准确率,并不是P、R、F1

4 迭代次数可以显示对训练语料的拟合程度,Xue的这篇论文拟合程度至少是0.9755
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: 
相关文章推荐