前面简单介绍了如何使用Lucene删除索引和修改索引的操作,这样子避免了索引文件的累加会产生脏数据或者数据重复 ,地址:http://blog.csdn.net/chenghui0317/article/details/10366255
在项目实战中,这还不能完全解决一些比较棘手的问题,比如:
1、前面只提供了一种打开索引文件的方式 和 一种 实现全文检索的方式,检索方式的单一性不能根据检索条件权衡筛选最优检索方式;
2、并且在检索的时候还有一点排序上的瑕疵,最优匹配的document对象并没有显示在最上面, 以及 无法实现对索引结果的操作。
接下来介绍几中检索索引的方式,比如多字段搜索、多条件搜索、模糊搜索、前缀搜索、使用过滤器过滤查询等等,使用了这些方式之后,可以更好的理解Lucene的执行原理和检索方式的多样化。 其中的好处还需要慢慢去理解和体会。
这是一种最为简单的查询方式,首先封装好QueryParser这个查询转换器,然后根据关键字封装查询对象,这个做好之后交给IndexSearch就可以返回结果了。
具体代码如下:
package com.lucene.test;
import java.io.File;
import java.io.IOException;
import java.text.SimpleDateFormat;
import java.util.ArrayList;
import java.util.List;
import org.apache.lucene.analysis.Analyzer;
import org.apache.lucene.document.Document;
import org.apache.lucene.index.CorruptIndexException;
import org.apache.lucene.index.Term;
import org.apache.lucene.queryParser.MultiFieldQueryParser;
import org.apache.lucene.queryParser.ParseException;
import org.apache.lucene.queryParser.QueryParser;
import org.apache.lucene.search.BooleanClause;
import org.apache.lucene.search.BooleanQuery;
import org.apache.lucene.search.Filter;
import org.apache.lucene.search.FilteredQuery;
import org.apache.lucene.search.IndexSearcher;
import org.apache.lucene.search.PrefixQuery;
import org.apache.lucene.search.Query;
import org.apache.lucene.search.QueryWrapperFilter;
import org.apache.lucene.search.ScoreDoc;
import org.apache.lucene.search.Sort;
import org.apache.lucene.search.SortField;
import org.apache.lucene.search.TermQuery;
import org.apache.lucene.search.TopDocs;
import org.apache.lucene.search.WildcardQuery;
import org.apache.lucene.store.Directory;
import org.apache.lucene.store.SimpleFSDirectory;
import org.apache.lucene.util.Version;
import org.wltea.analyzer.lucene.IKAnalyzer;
import com.lucene.entity.Article;
/**
* Lucene 检索各种索引的实现方式总结
* @author Administrator
*
*/
public class LuceneSearchDemo {
public static final String INDEX_DIR_PATH = "indexDir";
/* 创建简单中文分析器 创建索引使用的分词器必须和查询时候使用的分词器一样,否则查询不到想要的结果 */
private Analyzer analyzer = null;
// 索引保存目录
private File indexFile = null;
//目录对象,因为操作索引文件都要用到它,所以定义为全局变量
private Directory directory = null;
//索引搜索对象
private IndexSearcher indexSearcher;
/**
* 初始化方法
* @throws IOException
*/
public void init() throws IOException{
analyzer = new IKAnalyzer(true);
indexFile = new File(INDEX_DIR_PATH);
directory = new SimpleFSDirectory(indexFile);
indexSearcher = new IndexSearcher(directory);
System.out.println("*****************初始化成功**********************");
}
/**
* 根据传递的结果集 封装成集合后显示出来
* @param scoreDocs
* @throws IOException
* @throws CorruptIndexException
*/
public void showResult(ScoreDoc[] scoreDocs) throws CorruptIndexException, IOException{
List<Article> articles = new ArrayList<Article>();
for (int i = 0; i < scoreDocs.length; i++) {
int doc = scoreDocs[i].doc;//索引id
Document document = indexSearcher.doc(doc);
Article article = new Article();
if (document.get("id") == null) {
System.out.println("id为空");
} else {
article.setId(Integer.parseInt(document.get("id")));
article.setTitle(document.get("title"));
article.setContent(document.get("content"));
articles.add(article);
}
}
if(articles.size()!=0){
for (Article article : articles) {
System.out.println(article);
}
}else{
System.out.println("没有查到记录。");
}
}
/**
* 通过QueryParser绑定单个字段来检索索引记录
* @param keyword
* @throws ParseException
* @throws IOException
* @throws CorruptIndexException
*/
public void searchByQueryParser(String keyword) throws ParseException, CorruptIndexException, IOException{
System.out.println("*****************通过QueryParser来检索索引记录**********************");
QueryParser queryParser = new QueryParser(Version.LUCENE_36, "title", analyzer);
Query query = queryParser.parse(keyword);
// public TopFieldDocs search(Query query, int n, Sort sort)
// 参数分别表示 Query查询对象,返回的查询数目,排序对象
TopDocs topDocs = indexSearcher.search(query, 10, new Sort());
showResult(topDocs.scoreDocs);
}
public static void main(String[] args) {
LuceneSearchDemo luceneInstance = new LuceneSearchDemo();
try {
luceneInstance.init();
luceneInstance.searchByQueryParser("沪K");
} catch (CorruptIndexException e) {
e.printStackTrace();
} catch (ParseException e) {
e.printStackTrace();
} catch (IOException e) {
e.printStackTrace();
}
}
}
控制台输出显示都是满足检索条件的结果。
需要注意的是:
<1> 添加索引时用的什么分词器,那么检索的时候也必须使用这个分词器,否则查询不到任何记录。因为插入索引的时候是按照分词器规则插入的,所以检索的时候会以这种规则为匹配方式;
<2> 由于次查询方式是使用的标题为查询条件,所以内容中出现的任何字符不会作为匹配元素。如果要使用多字段作为查询条件那么就要使用MultiQueryParser绑定多个字段封装Query查询对象了。
具体代码如下:
/**
* 通过MultiQueryParser绑定多个字段来检索索引记录
* @param keyword
* @throws ParseException
* @throws IOException
* @throws CorruptIndexException
*/
public void searchByMultiFieldQueryParser(String keyword) throws ParseException, CorruptIndexException, IOException{
System.out.println("*****************通过MultiQueryParser绑定多个字段来检索索引记录**********************");
QueryParser queryParser = new MultiFieldQueryParser(Version.LUCENE_36, new String[]{"title", "content"}, analyzer);
Query query = queryParser.parse(keyword);
Sort sort = new Sort(); //不传参数则按照最优匹配来排序
//Sort sort = new Sort(new SortField("title", SortField.STRING, false)); //最后一个参数很关键,默认是降序的,如果要指定为升序改为true即可。
TopDocs topDocs = indexSearcher.search(query, 10, sort);
showResult(topDocs.scoreDocs);
}
这次使用的是多字段检索,所以两个字段都会去匹配,根据上面结果,最优匹配的第一条记录并没有第二条出现的多,可能是这样:
因为是多字段匹配,那么两个字段都要匹配到,上面传递的"沪K"关键字都要在title和content中出现才算最优匹配。所以出现了上面结果。
如果要使用排序可以使用Sort的有参数构造方法,
里面传递SortField的实例,参数个数无上限,需要说明的是它的构造方法
public SortField(String field, int type, boolean reverse)
第一个是字段名,第二个是字段的类型,第三个是排序的升降序,true表示升序,false表示降序,如果不指定默认是false
现在使用title作为排序字段降序排列,具体效果如下:
上图显示的结果是根据title降序排列的。
需要说明的是:
<1>实际开发如果是全文检索就不建议使用排序,因为排序会导致最优匹配的结果错乱,但是如果是使用单个字段查询的话 倒是没有问题。
/**
* 通过term组合检索索引记录
* @param keyword
* @throws IOException
*/
public void searchByTerm(String keyword) throws IOException{
System.out.println("*****************通过term组合检索索引记录**********************");
//Term term = new Term("title", keyword);
Term term = new Term("content", keyword);
//MultiTermQuery
Query query = new TermQuery(term);
TopDocs topDocs = indexSearcher.search(query, 10);
showResult(topDocs.scoreDocs);
}
实践证明:
这种查询方式有点怪,关键字只能是常用的词组,比如“上海”,“中文” 等等,不是常用的词组则什么都不会显示,比如:“文和”,“京津沪”等等。
另外 根据前面的经验单个Term绑定单个字段,那么MultiTermQuery就可以绑定多个字段查询了。
使用常用词组作为关键字的查询效果如下:
综合所有的因素考虑:既然用起来不方便所以要慎用。
这种实现方式主要是可以像sql语句一样使用通配符来查询想要的结果,具体代码如下:
/**
* 通过wildcard使用通配符组合检索索引记录
* @param keyword
* @throws IOException
*/
public void searchByWildcard(String keyword) throws IOException{
System.out.println("*****************通过wildcard使用通配符组合检索索引记录**********************");
//Term term = new Term("title", "*" + keyword + "*");
//Term term = new Term("content", "*" + keyword + "*");
Term term = new Term("content", "*" + keyword + "?");
Query query = new WildcardQuery(term);
TopDocs topDocs = indexSearcher.search(query, 10);
showResult(topDocs.scoreDocs);
}
<1> *代表0个或多个字符,?代表0个或一个字符 ;
<2> 这种查询方式根据通配符针对中文有效, 对英文和数字完全没有效果,任何英文和数字都不行;
<3> 该检索方式对空格不敏感,就是说 如果最后一个字符为空格,然后匹配的时候空格不会作为匹配内容。
接下来使用“中文”作为关键字运行的效果如下所示:
其实这种实现方式非常非常的好,但是就是不支持英文和数字,就太不友好了。
/** * 通过prefix作为前缀组合检索索引记录 * @param keyword * @throws IOException */ public void searchByPrefix(String keyword) throws IOException{ System.out.println("*****************通过prefix作为前缀组合检索索引记录**********************"); //Term term = new Term("title", keyword); Term term = new Term("content", keyword); Query query = new PrefixQuery(term); TopDocs topDocs = indexSearcher.search(query, 10); showResult(topDocs.scoreDocs); }
<1>如果使用的分词器是SimpleAnalyzer,那么会严格按照把关键字作为前缀去检索,但是如果使用的分词器是IKAanlayzer,那么会模糊匹配查询
<2>同样该方式针对中文有效, 对英文和数字完全没有效果,任何英文和数字都不行;
接下来使用“中文”关键字作为检索条件,运行之后的效果如下:
通过前面使用了WildcardQuery通配符的配置之后,现在这种查询方式显得有点多余的感觉。
使用这种过滤器先封装查询对象,然后过滤满足条件的结果显示出来,并且这种过滤方式支持多条件,具体代码如下:
/**
* 通过filter过滤条件组合检索索引记录
* @param keywords
* @throws IOException
*/
public void searchByFilter(String[] keywords) throws IOException{
System.out.println("*****************通过filter过滤条件组合检索索引记录**********************");
List<Filter> filterList = new ArrayList<Filter>();
Term term = new Term("content", "*" + keywords[0] + "*");
Query query = new WildcardQuery(term);
//添加过滤器
QueryWrapperFilter filter = new QueryWrapperFilter(new WildcardQuery(new Term("content","*" + keywords[1] + "*")));
filterList.add(filter);
filter = new QueryWrapperFilter(new WildcardQuery(new Term("content","*" + keywords[2] + "*")));
filterList.add(filter);
for (Filter f : filterList) {
query = new FilteredQuery(query, f); //这里面不断的构造query,传递过滤器封装最终的Query查询对象
}
TopDocs topDocs = indexSearcher.search(query, 10);
showResult(topDocs.scoreDocs);
}
如果想看看Query里面到底存放的是什么可以直接输出Query,在这个例子中传递参数 new String[]{"分词","组合","左边"} ,输出的query分别是:
content:*分词*
filtered(content:*分词*)->QueryWrapperFilter(content:*组合*)
filtered(filtered(content:*分词*)->QueryWrapperFilter(content:*组合*))->QueryWrapperFilter(content:*左边*)
接下来运行该方法的效果如下所示:
由此可见,所有的过滤条件都满足了才会被匹配到结果集中显示。
这种实现方式主要是讲多个query查询对象进行筛选,这里包括三种方式:
<1>取出他们共同的部分,即条件都满足的才会匹配;
<2>取出他们不同的部分,即条件必须不满足的才会匹配;
<3>取出他们所有部分,即满足任何一个条件即可的就可以匹配。
具体实现代码如下:
/**
* 通过boolean检索索引记录
* @param keyword
* @throws IOException
*/
public void searchByBoolean(String[] keywords) throws IOException{
System.out.println("*****************通过boolean检索索引记录**********************");
Query query1 = new WildcardQuery(new Term("content","*" + keywords[0] + "*"));
Query query2 = new WildcardQuery(new Term("content","*" + keywords[1] + "*"));
BooleanQuery query = new BooleanQuery();
query.add(query1, BooleanClause.Occur.MUST);
query.add(query2, BooleanClause.Occur.MUST);
//query.add(query2, BooleanClause.Occur.MUST_NOT);
//query.add(query2, BooleanClause.Occur.SHOULD);
System.out.println(query);
TopDocs topDocs = indexSearcher.search(query, 10);
showResult(topDocs.scoreDocs);
}
接下来,传递参数 new String[]{"分词","一个"} 运行一下,具体效果如下所示:
其实,booleanQuery的效果和filterQuery效果差不多,都是将所有的Query返回的交集记录整合在一起记录,也就是条件都要满足才行。这里的前提是使用BooleanClause.Occur.MUST这个“必须满足的”参数;
如果是使用BooleanClause.Occur.SHOULD 返回的是所有的Query返回的并集集合在一起的记录
那么,Lucene提供的几种常用的检索方式就介绍完了,最终这些检索方式好不好用还取决于自己去尝试之后,慢慢体会才能体会和领悟。