您的位置:首页 > 编程语言 > Java开发

JAVA_WEB项目之Lucene检索框架实现增删查改的代码优化以及分页功能实现

2014-07-24 09:21 1056 查看
上一篇:JAVA_WEB项目之Lucene检索框架入门案例初步给出了一个入门的例子,接下来是对上一篇例子的优化和增加删除,修改document,以及通过更新索引库和删除索引库的代码。

首先还是实体类不变:Goods

package com.shop.demo;

public class Goods {

private Integer id;
private String name;
private Double price;
private String pic;
private String remark;
public Integer getId() {
return id;
}
public void setId(Integer id) {
this.id = id;
}
public String getName() {
return name;
}
public void setName(String name) {
this.name = name;
}
public Double getPrice() {
return price;
}
public void setPrice(Double price) {
this.price = price;
}
public String getPic() {
return pic;
}
public void setPic(String pic) {
this.pic = pic;
}
public String getRemark() {
return remark;
}
public void setRemark(String remark) {
this.remark = remark;
}

}


Lucene的配置类(ConfigureLucene):涉及到单例设计模式

package com.shop.demo;

import java.io.File;
import java.io.IOException;

import org.apache.lucene.analysis.Analyzer;
import org.apache.lucene.analysis.standard.StandardAnalyzer;
import org.apache.lucene.store.Directory;
import org.apache.lucene.store.FSDirectory;
import org.apache.lucene.util.Version;

public class ConfigureLucene {
private ConfigureLucene(){}
//创建索引库
private static Directory dir=null;
//创建分词器
private static Analyzer ana=null;
static{
//根据指定的路径创建索引库,如果路径不存在就会创建
try {
dir=FSDirectory.open(new File("c:/demo"));
//不同的分词器的版本不同,分词的算法不同,StandardAnalyzer只适用于英文
ana=new StandardAnalyzer(Version.LUCENE_30);
} catch (Exception e) {
// TODO Auto-generated catch block
throw new RuntimeException(e);
}
}
public static Directory getDir() {
return dir;
}
public static Analyzer getAna() {
return ana;
}

}
Lucene的工具类DocumentUtil:

package com.shop.demo;

import org.apache.lucene.document.Document;
import org.apache.lucene.document.Field;
import org.apache.lucene.document.Field.Index;
import org.apache.lucene.document.Field.Store;

public class DocumentUtil {
private DocumentUtil(){}
/**
* 把goods对象转为document对象
*/
public static Document goodsToDocument(Goods goods){
//把goods对象转为document
Document doc=new Document();
doc.add(new Field("id", goods.getId().toString(), Store.YES, Index.NOT_ANALYZED));
doc.add(new Field("name", goods.getName(), Store.YES, Index.ANALYZED));
doc.add(new Field("price", goods.getPrice().toString(), Store.YES, Index.NOT_ANALYZED));
doc.add(new Field("remark", goods.getRemark(), Store.NO, Index.ANALYZED));
return doc;
}

/**
* 把document对象转为goods对象
*/
public static Goods documentToGoods(Document doc){
Goods goods=new Goods();
goods.setId(Integer.parseInt(doc.get("id")));
goods.setName(doc.get("name"));
goods.setPrice(Double.parseDouble(doc.get("price")));
goods.setRemark(doc.get("remark"));
return goods;
}
}


接下来是Lucene的实现类HelloWordLucene:

package com.shop.demo;

import java.io.File;
import java.io.IOException;
import java.util.ArrayList;
import java.util.List;

import org.apache.lucene.analysis.Analyzer;
import org.apache.lucene.analysis.standard.StandardAnalyzer;
import org.apache.lucene.document.Document;
import org.apache.lucene.document.Field;
import org.apache.lucene.document.Field.Index;
import org.apache.lucene.document.Field.Store;
import org.apache.lucene.index.CorruptIndexException;
import org.apache.lucene.index.IndexWriter;
import org.apache.lucene.index.IndexWriter.MaxFieldLength;
import org.apache.lucene.index.Term;
import org.apache.lucene.queryParser.QueryParser;
import org.apache.lucene.search.IndexSearcher;
import org.apache.lucene.search.Query;
import org.apache.lucene.search.ScoreDoc;
import org.apache.lucene.search.TopDocs;
import org.apache.lucene.store.Directory;
import org.apache.lucene.store.FSDirectory;
import org.apache.lucene.util.Version;
/**
*  此案例实现Lucene向索引库中添加索引和查询索引的功能
* @author Administrator
*
*/
public class HelloWordLucene {

/**
* 把good商品对象添加到索引库中
* @param goods
*/
public void addDocument(Goods goods){
//创建indexWriter
IndexWriter indexwriter=null;
//创建索引库
Directory dir=null;
//创建分词器
Analyzer ana=null;
try {
//根据指定的路径创建索引库,如果路径不存在就会创建
dir=ConfigureLucene.getDir();
//不同的分词器的版本不同,分词的算法不同,StandardAnalyzer只适用于英文
ana=ConfigureLucene.getAna();
//限制Field的数量为10000
indexwriter=new IndexWriter(dir, ana, MaxFieldLength.LIMITED);
//把goods对象转为document
//Document doc=new Document();
/**
* Store配置field字段是否存储到索引库
* YES:字段存储到索引库中,以后查询的时候可以查询出来
* No:不存储到索引库中
*  Index: Lucene为提高查询效率,会像字典一样创建索引. 配置此字段是否要建立索引(建立索引的Field就是Term),
*  如果建立索引以后就可以通过此字段查询记录
*   NOT_ANALYZED: 创建索引,但是Field的不分词(不分开) 整体作为一个索引
*   ANALYZED: 不但要建立索引此Field会被分词(可能一个Field分为多个Term的情况)
*   NO: 不建立索引,以后不能通过此字段查询数据
*  Store yes Index: ANALYZED: 此Field可以存储,而且Field 关键字支持分词
*  Store yes Index: NOT_ANALYZED 此Field可以存储,但是Field不支持分词,作为一个完成Term   例如: 数字 id  price  和URL 专业词汇
*  Store yes Index: NO:  可以查询出此字段, 但是此字段不作为查询关键字
*  Store no  Index: ANALYZED:  此Field不存储,但是此Field可以做为关键字搜索
*  Store no  Index: NOT_ANALYZED: 此Field不存储,但是此Field可以做为整体(不拆分)关键字搜索
*  Store no  Index: NO:  既不建索引也不存储 没有任何意义,如果这样配置则会抛出异常
*/
//			doc.add(new Field("id", goods.getId().toString(), Store.YES, Index.NOT_ANALYZED));
//			doc.add(new Field("name", goods.getName(), Store.YES, Index.ANALYZED));
//			doc.add(new Field("price", goods.getPrice().toString(), Store.YES, Index.NOT_ANALYZED));
//			doc.add(new Field("remark", goods.getRemark(), Store.NO, Index.ANALYZED));
indexwriter.addDocument(DocumentUtil.goodsToDocument(goods));
// 如果没有提交,在没有异常的情况close()之前会自动提交
indexwriter.commit();
} catch (Exception e) {
try {
indexwriter.rollback();
throw new RuntimeException(e);
} catch (IOException e1) {
// TODO Auto-generated catch block
throw new RuntimeException(e);
}
}finally{
try {
indexwriter.close();
} catch (Exception e) {
// TODO Auto-generated catch block
throw new RuntimeException(e);
}
}
}
/**
* 根据指定的条件查询,
* @param name 指定的关键字
* @return 封装了goods对象的list集合
*/
public List<Goods> queryGoods(String name){
List<Goods> goodsList=new ArrayList<Goods>();
//创建查询对象
IndexSearcher searcher=null;
//创建索引库
Directory dir=null;
//创建分词器
Analyzer analyzer=null;
try {
dir=FSDirectory.open(new File("c:/demo"));
searcher=new IndexSearcher(dir);
// 创建分词器,给查询的关键字先做分词操作,然后在到索引库中匹配Term
analyzer=new StandardAnalyzer(Version.LUCENE_30);
//创建查询解析对象,"name"指定从索引库中的哪个field属性里面查找,也就是name到那个Term(key value)中去查询
QueryParser queryParser=new QueryParser(Version.LUCENE_30, "name", analyzer);
//  指定查询的关键字到索引库查询
Query query=queryParser.parse(name);
/**
* 根据给定的关键字查询,与索引库Term去匹配,5代表: 期望返回的结果数
*  第一次查询: indexSearcher.search 只能获取文档的索引号和匹配的数量
*  返回的结果是TopDoc类型
*  totalHits: 命中数, 数组的长度,后面用来做分页
*  ScoreDoc[]: 存储匹配的文档编号的数组
*  Score: 文档的积分,按照命中率自动算出来
*  Doc:当前文档的编号
*/
TopDocs topDocs= searcher.search(query, 5);
// 此变量/每页显示的记录数就是总页数
System.out.println("真正命中的结果数:" + topDocs.totalHits);
// 返回的是符合条件的文档编号,并不是文档本事
ScoreDoc scoreDocs[]= topDocs.scoreDocs;
for(int i=0;i<scoreDocs.length;i++){
ScoreDoc scoreDoc= scoreDocs[i];
System.out.println("真正的命中率:"+scoreDoc.score);
System.out.println("存储的是文档编号:"+scoreDoc.doc);
Document doc= searcher.doc(scoreDoc.doc);
System.out.println(doc.get("id"));
System.out.println(doc.get("name"));
System.out.println(doc.get("price"));
System.out.println(doc.get("remark"));
System.out.println("---------");
//				Goods goods=new Goods();
//				goods.setId(Integer.parseInt(doc.get("id")));
//				goods.setName(doc.get("name"));
//				goods.setPrice(Double.parseDouble(doc.get("price")));
//				goods.setRemark(doc.get("remark"));
goodsList.add(DocumentUtil.documentToGoods(doc));
}

} catch (Exception e) {
// TODO Auto-generated catch block
throw new RuntimeException(e);
}finally{
try {
searcher.close();
} catch (IOException e) {
// TODO Auto-generated catch block
throw new RuntimeException(e);
}
}
return goodsList;
}

public void deleteDocument(int id){
//创建indexWriter
IndexWriter indexwriter=null;
//创建索引库
Directory dir=null;
//创建分词器
Analyzer ana=null;
try {
//根据指定的路径创建索引库,如果路径不存在就会创建
dir=ConfigureLucene.getDir();
//不同的分词器的版本不同,分词的算法不同,StandardAnalyzer只适用于英文
ana=ConfigureLucene.getAna();
//限制Field的数量为10000
indexwriter=new IndexWriter(dir, ana, MaxFieldLength.LIMITED);
// 一般来说都是通过id来删除,所以即使是通过name查询,ID也要建索引,因为更新和删除需要id
// 根据ID把符合条件的document对象删除掉,但是索引(term) 并没有删除
indexwriter.deleteDocuments(new Term("id", id+""));
//同步删除索引库中的索引部分
indexwriter.optimize();
// 如果没有提交,在没有异常的情况close()之前会自动提交
indexwriter.commit();
} catch (Exception e) {
try {
indexwriter.rollback();
throw new RuntimeException(e);
} catch (IOException e1) {
// TODO Auto-generated catch block
throw new RuntimeException(e);
}
}finally{
try {
indexwriter.close();
} catch (Exception e) {
// TODO Auto-generated catch block
throw new RuntimeException(e);
}
}
}
public void updateDocument(Goods goods){
IndexWriter indexwriter=null;
Directory dir=null;
Analyzer analayzer=null;
try{
dir=ConfigureLucene.getDir();
analayzer=ConfigureLucene.getAna();
indexwriter=new IndexWriter(dir, analayzer, MaxFieldLength.LIMITED);
indexwriter.updateDocument(new Term("id", goods.getId().toString()), DocumentUtil.goodsToDocument(goods), analayzer);
indexwriter.optimize();
indexwriter.commit();
}catch (Exception e) {
// TODO: handle exception
try {
indexwriter.rollback();
throw new RuntimeException(e);
} catch (IOException e1) {
// TODO Auto-generated catch block
throw new RuntimeException(e);
}

}finally{
try {
indexwriter.close();
} catch (Exception e) {
// TODO Auto-generated catch block
throw new RuntimeException(e);
}
}
}
}


下面我们给出一个测试类对上面的功能进行单元测试HelloWordLuceneTest:

package com.shop.demo;

import java.util.List;

import org.junit.AfterClass;
import org.junit.BeforeClass;
import org.junit.Test;

public class HelloWordLuceneTest {

private static HelloWordLucene hellowod;
@BeforeClass
public static void setUpBeforeClass() throws Exception {
hellowod=new HelloWordLucene();
}

@AfterClass
public static void tearDownAfterClass() throws Exception {
hellowod=null;
}

@Test
public void testAddDocument() {
Goods goods=new Goods();
goods.setId(12);
goods.setName("IBM Computer12 ");
goods.setPrice(2333.9);
goods.setRemark("IBM Computer is good");
hellowod.addDocument(goods);
}

@Test
public void testquery() {
List<Goods> list= hellowod.queryGoods("ibm");
for(Goods good:list){
System.out.println("商品编号:"+good.getId()+",商品名称:"+good.getName()+
",商品价格:"+good.getPrice()+",商品的详细信息:"+good.getRemark()
);
}
}

@Test
public void testdelete() {
hellowod.deleteDocument(12);
}

@Test
public void testupdate() {
Goods goods=new Goods();
goods.setId(12);
goods.setName("HP Com");
goods.setPrice(3000.0);
goods.setRemark("HP very goods");
hellowod.updateDocument(goods);
}
}


分页的代码:

/**
* 实现分页的功能
* @param name 查询的关键字
* @param currentPage 当前的页数
* @return 记录数
*/
public List<Goods> queryByPage(String name,int currentPage){
int number=5; // 每页显示5条
List<Goods> goodsList=new ArrayList<Goods>();
IndexSearcher indexSearcher=null;
Directory directory=null;
Analyzer analyzer=null;
try {
directory=FSDirectory.open(new File("C:/demo"));
// 创建查询对象
indexSearcher=new IndexSearcher(directory);
// 创建分词器,给查询的关键字先做分词操作,然后在到索引库中匹配Term
analyzer=new StandardAnalyzer(Version.LUCENE_30);
// 查询数据的解析器, name到那个Term(key value)中去查询
QueryParser parser=new QueryParser(Version.LUCENE_30,"name",analyzer);
// 指定查询的关键字
Query query=parser.parse(name);
TopDocs topDocs=indexSearcher.search(query,currentPage*number);
// 此变量/每页显示的记录数就是总页数
System.out.println("真正命中的结果数:" + topDocs.totalHits);
int totalPage=0;
if(topDocs.totalHits%number!=0){
totalPage=topDocs.totalHits/number+1;
}else{
totalPage=topDocs.totalHits/number;
}
System.out.println("通过系统的总结果数/每页显示的数量=总页数" + totalPage);
// 返回的是符合条件的文档编号,并不是文档本事
ScoreDoc[] scoreDocs = topDocs.scoreDocs;
// 去期望值  和实际值的 最小值
System.out.println("真正查询出来的数组的长度:" + scoreDocs.length);
for(int i=(currentPage-1)*number;i<scoreDocs.length;i++){
ScoreDoc scoreDoc=scoreDocs[i];
System.out.println("存储了命中率积分:" + scoreDoc.score);
System.out.println("存储的是文档编号:" + scoreDoc.doc);
// 第二次查询: 通过文档的编号,查询真正的文档信息
Document document=indexSearcher.doc(scoreDoc.doc);
goodsList.add(DocumentUtil.documentToGoods(document));
}
} catch (Exception e) {
throw new RuntimeException(e);
}finally{
try {
indexSearcher.close();
} catch (IOException e) {
throw new RuntimeException(e);
}
}
return goodsList;
}


测试方法:

@Test
public void testqueryByPage() {
List<Goods> list= hellowod.queryByPage("ibm", 1);
for(Goods good:list){
System.out.println("商品编号:"+good.getId()+",商品名称:"+good.getName()+
",商品价格:"+good.getPrice()+",商品的详细信息:"+good.getRemark()
);
}
}
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: 
相关文章推荐