JE 中文分词的实例
2013-03-03 15:44
99 查看
本文转自 http://www.blogjava.net/huamengxing/archive/2008/10/29/237314.html
字符串切分 | |
package demo.analysis; | |
import java.io.IOException; | |
import jeasy.analysis.MMAnalyzer; | |
public class Segment | |
{ | |
public static void main(String[] args) | |
{ | |
String text = "据路透社报道,印度尼西亚社会事务部一官员星期二(29日)表示," | |
+ "日惹市附近当地时间27日晨5时53分发生的里氏6.2级地震已经造成至少5427人死亡," | |
+ "20000余人受伤,近20万人无家可归。"; | |
MMAnalyzer analyzer = new MMAnalyzer(); | |
try | |
{ | |
System.out.println(analyzer.segment(text, " | ")); | |
} | |
catch (IOException e) | |
{ | |
e.printStackTrace(); | |
} | |
} | |
} | |
生成效果: | |
据 | 路透社 | 报道 | 印度尼西亚 | 社会 | 事务 | 部 | 官员 | 星期二 | 29日 | 表示 | 日惹 | 市 | 附近 | 当地时间 | 27日 | 晨 | 5时 | 53分 | 发生 | 里氏 | 6.2级 | 地震 | 已经 | 造成 | 至少 | 5427人 | 死亡 | 20000 | 余人 | 受伤 | 近 | 20万人 | 无家可归 | | |
Lucene搜索 | |
package demo.analysis; | |
import jeasy.analysis.MMAnalyzer; | |
import org.apache.lucene.analysis.Analyzer; | |
import org.apache.lucene.document.Document; | |
import org.apache.lucene.document.Field; | |
import org.apache.lucene.index.IndexWriter; | |
import org.apache.lucene.queryParser.QueryParser; | |
import org.apache.lucene.search.Hits; | |
import org.apache.lucene.search.IndexSearcher; | |
import org.apache.lucene.search.Query; | |
import org.apache.lucene.store.Directory; | |
import org.apache.lucene.store.RAMDirectory; | |
public class Segment | |
{ | |
public static void main(String[] args) | |
{ | |
String fieldName = "text"; | |
String text = "据路透社报道,印度尼西亚社会事务部一官员星期二(29日)表示," | |
+ "日惹市附近当地时间27日晨5时53分发生的里氏6.2级地震已经造成至少5427人死亡," | |
+ "20000余人受伤,近20万人无家可归。"; //检索内容 | |
//采用正向最大匹配的中文分词算法 | |
Analyzer analyzer = new MMAnalyzer(); | |
Directory directory = new RAMDirectory(); | |
//Directory directory = FSDirectory.getDirectory("/tmp/testindex", true); | |
try | |
{ | |
IndexWriter iwriter = new IndexWriter(directory, analyzer, true); | |
iwriter.setMaxFieldLength(25000); | |
Document doc = new Document(); | |
doc.add(new Field(fieldName, text, Field.Store.YES, Field.Index.TOKENIZED)); | |
iwriter.addDocument(doc); | |
iwriter.close(); | |
IndexSearcher isearcher = new IndexSearcher(directory); | |
QueryParser parser = new QueryParser(fieldName, analyzer); | |
Query query = parser.parse("印度尼西亚 6.2级地震");//检索词 | |
Hits hits = isearcher.search(query); | |
System.out.println("命中:" + hits.length()); | |
for (int i = 0; i < hits.length(); i++) | |
{ | |
Document hitDoc = hits.doc(i); | |
System.out.println("内容:" + hitDoc.get(fieldName)); | |
} | |
isearcher.close(); | |
directory.close(); | |
} | |
catch (Exception e) | |
{ | |
e.printStackTrace(); | |
} | |
} | |
} | |
生成效果: | |
命中:1 | |
内容:据路透社报道,印度尼西亚社会事务部一官员星期二(29日)表示,日惹市附近当地时间27日晨5时53分发生的 里氏6.2级地震已经造成至少5427人死亡,20000余人受伤,近20万人无家可归。 | |
搜索词加亮 | |
package demo.analysis; | |
import jeasy.analysis.MMAnalyzer; | |
import org.apache.lucene.analysis.Analyzer; | |
import org.apache.lucene.analysis.TokenStream; | |
import org.apache.lucene.document.Document; | |
import org.apache.lucene.document.Field; | |
import org.apache.lucene.index.IndexReader; | |
import org.apache.lucene.index.IndexWriter; | |
import org.apache.lucene.index.TermPositionVector; | |
import org.apache.lucene.queryParser.QueryParser; | |
import org.apache.lucene.search.Hits; | |
import org.apache.lucene.search.IndexSearcher; | |
import org.apache.lucene.search.Query; | |
import org.apache.lucene.search.highlight.Highlighter; | |
import org.apache.lucene.search.highlight.QueryScorer; | |
import org.apache.lucene.search.highlight.TokenSources; | |
import org.apache.lucene.store.Directory; | |
import org.apache.lucene.store.RAMDirectory; | |
public class Segment | |
{ | |
public static void main(String[] args) | |
{ | |
String fieldName = "text"; | |
String text = "据路透社报道,印度尼西亚社会事务部一官员星期二(29日)表示," | |
+ "日惹市附近当地时间27日晨5时53分发生的里氏6.2级地震已经造成至少5427人死亡," | |
+ "20000余人受伤,近20万人无家可归。"; //检索内容 | |
//采用正向最大匹配的中文分词算法 | |
Analyzer analyzer = new MMAnalyzer(); | |
Directory directory = new RAMDirectory(); | |
//Directory directory = FSDirectory.getDirectory("/tmp/testindex", true); | |
try | |
{ | |
IndexWriter iwriter = new IndexWriter(directory, analyzer, true); | |
iwriter.setMaxFieldLength(25000); | |
Document doc = new Document(); | |
doc.add(new Field(fieldName, text, Field.Store.YES, | |
Field.Index.TOKENIZED, | |
Field.TermVector.WITH_POSITIONS_OFFSETS)); | |
iwriter.addDocument(doc); | |
iwriter.close(); | |
IndexSearcher isearcher = new IndexSearcher(directory); | |
QueryParser parser = new QueryParser(fieldName, analyzer); | |
Query query = parser.parse("印度尼西亚 6.2级地震");//检索词 | |
Hits hits = isearcher.search(query); | |
System.out.println("命中:" + hits.length()); | |
Highlighter highlighter = new Highlighter(new QueryScorer(query)); | |
for (int i = 0; i < hits.length(); i++) | |
{ | |
text = hits.doc(i).get(fieldName); | |
TermPositionVector tpv = (TermPositionVector) IndexReader.open( | |
directory).getTermFreqVector(hits.id(i), fieldName); | |
TokenStream tokenStream = TokenSources.getTokenStream(tpv); | |
String result = highlighter.getBestFragments(tokenStream, text, 3, "..."); | |
System.out.println("内容:" + result); | |
} | |
isearcher.close(); | |
directory.close(); | |
} | |
catch (Exception e) | |
{ | |
e.printStackTrace(); | |
} | |
} | |
} | |
生成效果: | |
命中:1 | |
内容:据路透社报道,<B>印度尼西亚</B>社会事务部一官员星期二(29日)表示,日惹市附近当地时间27日晨 5时53分发生的里氏<B>6.2级</B><B>地震</B>已经造成至少5427人死亡,20000余人受伤,近20万人无家可归 |
相关文章推荐
- 一个隐马尔科夫模型的应用实例:中文分词
- java中文分词实例
- ansj_seg中文分词实例
- Lucene中文分词组件 JE-Analysis 1.5.1
- 开源php中文分词系统SCWS安装和使用实例
- 中文分词 JE-Analysis 组件使用外部自定义词典
- Bag标签之一行代码实行中文分词实例3
- 开源php中文分词系统SCWS安装和使用实例_php实例
- 一个隐马尔科夫模型的应用实例:中文分词
- Lucene中文分词组件JE-Analysis1.4.0
- mmseg4j 中文分词简单代码实例
- lucene-JE中文分词
- Lucene中文分词组件 JE-Analysis 1.5.1
- lucene2.4集成几种中文分词实例代码
- nutch-1.0添加JE中文分词-修改源码…
- Lucene中文分词组件 JE-Analysis
- 为Nutch 1.0添加JE中文分词
- je-analysis-1.4.0中文分词添加自己的词库
- Bag标签之中的一个行代码实行中文分词实例3
- python中文分词,使用结巴分词对python进行分词(实例讲解)