lucene上千万的数据翻页怎么这么慢啊,基本上要5s-6s。前面的页数还比较快,越到后面的页数翻页越慢。
贴上代码:
方式一:
public static void searchPage(int pageIndex,int pageSize) throws IOException, ParseException{
Date start=new Date();
Directory dir=FSDirectory.open(Paths.get("D:\\FCJS\\FCJS_bigdata_lucene5.3.0"));
IndexReader reader = DirectoryReader.open(dir);
IndexSearcher searcher=new IndexSearcher(reader);
Analyzer analyzer=new IKAnalyzer(false);//false细粒度分词,true智能分词
QueryParser parser=new QueryParser("all", analyzer);
Query query=parser.parse("all");
TopDocs tds = searcher.search(query,Integer.MAX_VALUE);
ScoreDoc[] sds = tds.scoreDocs;
int page_start = (pageIndex-1)*pageSize;
int page_end = pageIndex*pageSize;
for(int i=page_start;i<page_end;i++) {
Document doc = searcher.doc(sds[i].doc);
System.out.println(sds[i].doc+":"+doc.get("ArticleID"));
}
Date end=new Date();
System.out.println("耗时:"+(end.getTime()-start.getTime())+"ms");
}
方式二:
private static void searchPageByAfter(int pageIndex,int pageSize) throws IOException, ParseException{
Date start=new Date();
Directory dir=FSDirectory.open(Paths.get("D:\\FCJS\\FCJS_bigdata"));
IndexReader reader = DirectoryReader.open(dir);
IndexSearcher searcher=new IndexSearcher(reader);
Analyzer analyzer=new IKAnalyzer(false);//false细粒度分词,true智能分词
QueryParser parser=new QueryParser("all", analyzer);
Query query=parser.parse("all");
//获取上一页的最后一个元素
ScoreDoc lastSd = getLastScoreDoc(pageIndex, pageSize, query, searcher);
//通过最后一个元素去搜索下一页的元素
TopDocs tds = searcher.searchAfter(lastSd,query, pageSize);
for(ScoreDoc sd:tds.scoreDocs) {
Document doc = searcher.doc(sd.doc);
System.out.println(sd.doc+":"+doc.get("ArticleID"));
}
Date end=new Date();
System.out.println("耗时:"+(end.getTime()-start.getTime())+"ms");
}
检索分页本来就很慢,你没觉得百度只有前几页的数据有效,后几页的数据基本就没用或者和前几页很一样
正常情况下方法二的所用的时间应该比方法一来的短。不知道上述的方法一与方法二所耗时具体多少毫秒?
主要区别就是在于方法一中
TopDocs tds = searcher.search(query,Integer.MAX_VALUE);
每次需要查询Integer.MAX_VALUE 这么多的数据,然后再进行分页,而如果当数据量操作Integer.MAX_VALUE时,可能就无法查询出后面的数据了。
一般分页个人觉得应该采用方法二中比较合适。但不知道getLastScoreDoc(pageIndex, pageSize, query, searcher)这个方法中具体的实现是什么。
之前做过一个lucene分页,也是采用方法二中的方式,但数据量并没有达到千万级,不确定效率如何,贴下代码,可做参考
TopDocs topDocs = null;
ScoreDoc before = null;
if(pageIndex != 1){ //正常情况下pageIndex>=1
TopDocs docsBefore = searcher.search(query, (pageIndex-1)*pageSize);
ScoreDoc[] scoreDocs = docsBefore.scoreDocs;
if(scoreDocs.length > 0){
before = scoreDocs[scoreDocs.length - 1];
}
}
topDocs = searcher.searchAfter(before, query, pageSize);
还有,在新增、修改或删除数据时记得要对索引进行相应操作
private static ScoreDoc getLastScoreDoc(int pageIndex,int pageSize,Query query,IndexSearcher searcher) throws IOException{
if(pageIndex==1)return null;//如果是第一页就返回空
int num = pageSize*(pageIndex-1);//获取上一页的最后数量
TopDocs tds = searcher.search(query, num);
return tds.scoreDocs[num-1];
}