使用IK Analyzer实现中文分词(JAVA)
2012-11-29 09:51
507 查看
IK Analyzer是基于lucene实现的分词开源框架;
下载路径:http://code.google.com/p/ik-analyzer/downloads/list
需要在项目中引入:IKAnalyzer.cfg.xml 、IKAnalyzer2012.jar 、lucene-core-3.6.0.jar 、stopword.dic
IK Analyzer 示例代码如下:
lucene 示例代码如下:
下载路径:http://code.google.com/p/ik-analyzer/downloads/list
需要在项目中引入:IKAnalyzer.cfg.xml 、IKAnalyzer2012.jar 、lucene-core-3.6.0.jar 、stopword.dic
IK Analyzer 示例代码如下:
package com.haha.test; import java.io.IOException; import java.io.StringReader; import org.apache.lucene.analysis.Analyzer; import org.apache.lucene.analysis.TokenStream; import org.apache.lucene.analysis.tokenattributes.CharTermAttribute; import org.wltea.analyzer.lucene.IKAnalyzer; public class Test2 { public static void main(String[] args) throws IOException { String text="基于java语言开发的轻量级的中文分词工具包"; //创建分词对象 Analyzer anal=new IKAnalyzer(true); StringReader reader=new StringReader(text); //分词 TokenStream ts=anal.tokenStream("", reader); CharTermAttribute term=ts.getAttribute(CharTermAttribute.class); //遍历分词数据 while(ts.incrementToken()){ System.out.print(term.toString()+"|"); } reader.close(); System.out.println(); } }
lucene 示例代码如下:
package com.haha.test; import java.io.IOException; import java.io.StringReader; import org.wltea.analyzer.core.IKSegmenter; import org.wltea.analyzer.core.Lexeme; public class Test3 { public static void main(String[] args) throws IOException { String text="基于java语言开发的轻量级的中文分词工具包"; StringReader sr=new StringReader(text); IKSegmenter ik=new IKSegmenter(sr, true); Lexeme lex=null; while((lex=ik.next())!=null){ System.out.print(lex.getLexemeText()+"|"); } } }
相关文章推荐
- 中文分词之Java实现使用IK Analyzer实现
- 中文分词之Java实现使用IK Analyzer实现
- 中文分词之Java实现使用IK Analyzer实现
- 中文分词之Java实现使用IK Analyzer实现
- 中文分词之Java实现使用IK Analyzer实现
- 中文分词之Java实现使用IK Analyzer实现
- 中文分词之Java实现使用IK Analyzer实现
- 中文分词之Java实现使用IK Analyzer实现
- 中文分词之Java实现使用IK Analyzer实现
- 中文分词之Java实现使用IK Analyzer实现
- Java实现使用IK Analyzer实现中文分词
- 使用IK Analyzer实现中文分词
- 基于Tire树和最大概率法的中文分词功能的Java实现
- Java实现敏感词过滤 - IKAnalyzer中文分词工具
- Java实现敏感词过滤 - IKAnalyzer中文分词工具
- 使用Discuz关键词服务器实现PHP中文分词
- 基于Tire树和最大概率法的中文分词功能的Java实现
- 搜索引擎之中文分词实现(java版)http://dev.csdn.net/author/jnsuyun/93a3a18757e34954ad24e1a3a2a2902c.html
- Java实现敏感词过滤 - IKAnalyzer中文分词工具
- .NET使用Lucene.Net和盘古分词类库实现中文分词