让Nutch支持中文分词
2007-05-24 09:27
337 查看
Nutch搜索引擎是一个构建在Lucene上的开放源代码的搜索引擎。可以通过CVS取得它的最新版本。让nutch支持中文分词的方法和Lucene类似,但是nutch很多时候调用了底层的Lucene API。因此需要我们做更多的工作。
一、修改查询分析器
需要修改的文件是:net.nutch.analysis.NutchAnalysis.java。这个文件是从NutchAnalysis.jj使用JavaCC自动生成的,但是我们可以手工修改它以支持中文。
package net.nutch.analysis;
import net.nutch.searcher.Query;
import java.io.*;
/** The JavaCC-generated Nutch lexical analyzer and query parser. */
public class NutchAnalysis {
private String queryString;
/** Construct a query parser for the text in a reader. */
public static Query parseQuery(String queryString) throws IOException {
NutchAnalysis parser =
new NutchAnalysis();
parser.queryString = queryString;
return parser.parse();
}
/** For debugging. */
public static void main(String[] args) throws Exception {
String sentence ="厦门大学艺术教育学院副院长李未明教授长期从事音乐教学,";
StringReader input= new java.io.StringReader(sentence);
BufferedReader in = new BufferedReader(input);
//while (true) {
System.out.print("Query: ");
String line = in.readLine();
System.out.println(parseQuery(line));
//}
}
/** Parse a query. */
final public Query parse() throws IOException {
Query query = new Query();
StringReader input;
input = new java.io.StringReader(queryString);
org.apache.lucene.analysis.TokenStream tokenizer = new seg.result.CnTokenizer(input);
//just a demo
for (org.apache.lucene.analysis.Token t = tokenizer.next(); t != null; t = tokenizer.next())
{
String[] array = {t.termText()};
query.addRequiredPhrase(array, t.type());
}
return query;
}
}
二、测试
在命令行执行:
>java "-Ddic.dir=D:/SSeg/Dic" -classpath D:/lucenne/lucene-1.4-final.jar;D:/SSeg/lib/seg.jar;D:/SSeg/lib/nutch.jar net.nutch.analysis.NutchAnalysis
返回的查询对象内容是:
Query: ns:厦门 n:大学 n:艺术 vn:教育 n:学院 b:副 n:院长 nr:李 nr:未明 n:教授 d:长期 v:从事 n:音乐 vn:教学 w:,
在unix的命令行下执行略有不同:
$java "-Ddic.dir=/home/nutch/Dic" -cp /home/nutch/lib/lucene-1.4-final.jar:/home/nutch/lib/seg.jar:/home/nutch/lib/nutch.jar net.nutch.analysis.NutchAnalysis
一、修改查询分析器
需要修改的文件是:net.nutch.analysis.NutchAnalysis.java。这个文件是从NutchAnalysis.jj使用JavaCC自动生成的,但是我们可以手工修改它以支持中文。
package net.nutch.analysis;
import net.nutch.searcher.Query;
import java.io.*;
/** The JavaCC-generated Nutch lexical analyzer and query parser. */
public class NutchAnalysis {
private String queryString;
/** Construct a query parser for the text in a reader. */
public static Query parseQuery(String queryString) throws IOException {
NutchAnalysis parser =
new NutchAnalysis();
parser.queryString = queryString;
return parser.parse();
}
/** For debugging. */
public static void main(String[] args) throws Exception {
String sentence ="厦门大学艺术教育学院副院长李未明教授长期从事音乐教学,";
StringReader input= new java.io.StringReader(sentence);
BufferedReader in = new BufferedReader(input);
//while (true) {
System.out.print("Query: ");
String line = in.readLine();
System.out.println(parseQuery(line));
//}
}
/** Parse a query. */
final public Query parse() throws IOException {
Query query = new Query();
StringReader input;
input = new java.io.StringReader(queryString);
org.apache.lucene.analysis.TokenStream tokenizer = new seg.result.CnTokenizer(input);
//just a demo
for (org.apache.lucene.analysis.Token t = tokenizer.next(); t != null; t = tokenizer.next())
{
String[] array = {t.termText()};
query.addRequiredPhrase(array, t.type());
}
return query;
}
}
二、测试
在命令行执行:
>java "-Ddic.dir=D:/SSeg/Dic" -classpath D:/lucenne/lucene-1.4-final.jar;D:/SSeg/lib/seg.jar;D:/SSeg/lib/nutch.jar net.nutch.analysis.NutchAnalysis
返回的查询对象内容是:
Query: ns:厦门 n:大学 n:艺术 vn:教育 n:学院 b:副 n:院长 nr:李 nr:未明 n:教授 d:长期 v:从事 n:音乐 vn:教学 w:,
在unix的命令行下执行略有不同:
$java "-Ddic.dir=/home/nutch/Dic" -cp /home/nutch/lib/lucene-1.4-final.jar:/home/nutch/lib/seg.jar:/home/nutch/lib/nutch.jar net.nutch.analysis.NutchAnalysis
相关文章推荐
- Nutch-0.9加入ICTCLAS 支持中文分词等(转)
- 让Nutch支持中文分词
- nutch-1.0添加JE中文分词-修改源码…
- 搜索引擎分词:Nutch整合Paoding中文分词步骤详解
- Nutch1.0+Solr3.6.1+IK中文分词
- lucene--5.支持中文分词
- nutch中文分词
- 7步从零开始搭建一个SOLR支持中文分词【solr3.3】
- oracle Text 全文检索功能对中文分词的支持情况
- 7步从零开始搭建一个SOLR支持中文分词【solr3.3】
- 支持中文的MySQL 5.1+ 全文检索分词插件
- Nutch中文分词(庖丁解牛)
- 实现NUTCH中文分词的代码修改方法(收藏)
- nutch集成中文分词搜索时出现空白页解决方法
- Ubuntu环境下Nutch1.2 二次开发(添加中文分词)
- (转)全文检索技术学习(三)——Lucene支持中文分词
- Nutch1.2增加IKAnalyzer中文分词
- Nutch 1.0添加JE中文分词 要修改的几处地方说明
- IKAnalyzer 中文分词支持Solr 6以上 solrj 6
- WinXP+cygwin+eclipse配置nutch-1.2,添加IKAnalyzer中文分词