- Java 双重比较
- java - 比较器与 Apache BeanComparator
- Objective-C 完成 block 导致额外的方法调用?
- database - RESTful URI 是否应该公开数据库主键?
我想统计 Lucene 中某个字段上某个术语的文档数。我知道 3 种方法;我很好奇最好和最快的做法是什么:
我将在长类型单值字段(“字段”)中搜索术语(所以不是文本,而是编号数据!)
Directory dirIndex = FSDirectory.open('/path/to/index/');
IndexReader indexReader = DirectoryReader.open(dirIndex);
final BytesRefBuilder bytes = new BytesRefBuilder();
NumericUtils.longToPrefixCoded(Long.valueOf(longTerm).longValue(),0,bytes);
TermsEnum termEnum = MultiFields.getTerms(indexReader, "field").iterator(null);
termEnum.seekExact(bytes.toBytesRef());
int count = termEnum.docFreq();
IndexSearcher searcher = new IndexSearcher(indexReader);
TermQuery query = new TermQuery(new Term("field", bytes.toBytesRef()));
TotalHitCountCollector collector = new TotalHitCountCollector();
searcher.search(query,collector);
int count = collector.getTotalHits();
TermsEnum termEnum = MultiFields.getTerms(indexReader, "field").iterator(null);
termEnum.seekExact(bytes.toBytesRef());
Bits liveDocs = MultiFields.getLiveDocs(indexReader);
DocsEnum docsEnum = termEnum.docs(liveDocs, null);
int count = 0;
if (docsEnum != null) {
int docx;
while ((docx = docsEnum.nextDoc()) != DocIdSetIterator.NO_MORE_DOCS) {
count++;
}
}
选项 1) 赢得最短代码,但如果您更新和删除索引中的文档,则基本上无用。它计算已删除的文档,就好像它们仍然存在一样。在很多地方都没有记录(官方文档除外,但在 s.o. 的答案中没有记录)这是需要注意的事情。也许有办法解决这个问题,否则对这种方法的热情有点放错了地方。选项 2) 和 3) 确实产生了正确的结果,但应该首选哪个?或者更好 - 有没有更快的方法来做到这一点?
最佳答案
通过测试测量,使用索引获取文档而不是搜索文档(即选项 3 而不是选项 2)似乎更快(平均:选项 3)在 100 人中快 8 倍文档示例 我可以运行)。我还反转了测试以确保先运行一个测试不会影响结果:它不会。
因此,搜索者似乎正在创建相当多的开销来执行简单的文档计数,如果要查看单个术语条目的文档计数,则索引中的查找是最快的。
用于测试的代码(使用 SOLR 索引中的前 100 条记录):
import org.apache.lucene.index.IndexReader;
import org.apache.lucene.index.DirectoryReader;
import org.apache.lucene.index.Fields;
import org.apache.lucene.index.DocsEnum;
import org.apache.lucene.document.Document;
import org.apache.lucene.index.TermsEnum;
import org.apache.lucene.index.Term;
import org.apache.lucene.index.MultiFields;
import org.apache.lucene.util.BytesRef;
import org.apache.lucene.util.BytesRefBuilder;
import org.apache.lucene.util.NumericUtils;
import org.apache.lucene.queryparser.classic.ParseException;
import org.apache.lucene.store.Directory;
import org.apache.lucene.store.FSDirectory;
import org.apache.lucene.search.DocIdSetIterator;
import org.apache.lucene.search.IndexSearcher;
import org.apache.lucene.search.TermQuery;
import org.apache.lucene.search.TotalHitCountCollector;
import org.apache.lucene.util.Bits;
import org.apache.lucene.index.MultiFields;
public class ReadLongTermReferenceCount {
public static void main(String[] args) throws IOException {
Directory dirIndex = FSDirectory.open('/path/to/index/');
IndexReader indexReader = DirectoryReader.open(dirIndex);
final BytesRefBuilder bytes = new BytesRefBuilder();
TermsEnum termEnum = MultiFields.getTerms(indexReader, "field").iterator(null);
IndexSearcher searcher = new IndexSearcher(indexReader);
TotalHitCountCollector collector = new TotalHitCountCollector();
Bits liveDocs = MultiFields.getLiveDocs(indexReader);
final BytesRefBuilder bytes = new BytesRefBuilder(); // for reuse!
int maxDoc = indexReader.maxDoc();
int docsPassed = 0;
for (int i=0; i<maxDoc; i++) {
if (docsPassed==100) {
break;
}
if (liveDocs != null && !liveDocs.get(i))
continue;
Document doc = indexReader.document(i);
//get longTerm from this doc and convert to BytesRefBuilder
String longTerm = doc.get("longTerm");
NumericUtils.longToPrefixCoded(Long.valueOf(longTerm).longValue(),0,bytes);
//time before the first test
long time_start = System.nanoTime();
//look in the "field" index for longTerm and count the number of documents
int count = 0;
termEnum.seekExact(bytes.toBytesRef());
DocsEnum docsEnum = termEnum.docs(liveDocs, null);
if (docsEnum != null) {
int docx;
while ((docx = docsEnum.nextDoc()) != DocIdSetIterator.NO_MORE_DOCS) {
count++;
}
}
//mid point: test 1 done, start of test 2
long time_mid = System.nanoTime();
//do a search for longTerm in "field"
TermQuery query = new TermQuery(new Term("field", bytes.toBytesRef()));
searcher.search(query,collector);
int count = collector.getTotalHits();
//end point: test 2 done.
long time_end = System.nanoTime();
//write to stdout
System.out.println(longTerm+"\t"+(time_mid-time_start)+"\t"+(time_end-time_mid));
docsPassed++;
}
indexReader.close();
dirIndex.close();
}
}
对上面的内容稍作修改以使用 Lucene 5:
import org.apache.lucene.index.IndexReader;
import org.apache.lucene.index.DirectoryReader;
import org.apache.lucene.index.Fields;
import org.apache.lucene.index.PostingsEnum;
import org.apache.lucene.document.Document;
import org.apache.lucene.index.TermsEnum;
import org.apache.lucene.index.Term;
import org.apache.lucene.index.MultiFields;
import org.apache.lucene.util.BytesRef;
import org.apache.lucene.util.BytesRefBuilder;
import org.apache.lucene.util.NumericUtils;
import org.apache.lucene.queryparser.classic.ParseException;
import org.apache.lucene.store.Directory;
import org.apache.lucene.store.FSDirectory;
import org.apache.lucene.search.DocIdSetIterator;
import org.apache.lucene.search.IndexSearcher;
import org.apache.lucene.search.TermQuery;
import org.apache.lucene.search.TotalHitCountCollector;
import org.apache.lucene.util.Bits;
import org.apache.lucene.index.MultiFields;
public class ReadLongTermReferenceCount {
public static void main(String[] args) throws IOException {
Directory dirIndex = FSDirectory.open(Paths.get('/path/to/index/'));
IndexReader indexReader = DirectoryReader.open(dirIndex);
final BytesRefBuilder bytes = new BytesRefBuilder();
TermsEnum termEnum = MultiFields.getTerms(indexReader, "field").iterator(null);
IndexSearcher searcher = new IndexSearcher(indexReader);
TotalHitCountCollector collector = new TotalHitCountCollector();
Bits liveDocs = MultiFields.getLiveDocs(indexReader);
final BytesRefBuilder bytes = new BytesRefBuilder(); // for reuse!
int maxDoc = indexReader.maxDoc();
int docsPassed = 0;
for (int i=0; i<maxDoc; i++) {
if (docsPassed==100) {
break;
}
if (liveDocs != null && !liveDocs.get(i))
continue;
Document doc = indexReader.document(i);
//get longTerm from this doc and convert to BytesRefBuilder
String longTerm = doc.get("longTerm");
NumericUtils.longToPrefixCoded(Long.valueOf(longTerm).longValue(),0,bytes);
//time before the first test
long time_start = System.nanoTime();
//look in the "field" index for longTerm and count the number of documents
int count = 0;
termEnum.seekExact(bytes.toBytesRef());
PostingsEnum docsEnum = termEnum.postings(liveDocs, null);
if (docsEnum != null) {
int docx;
while ((docx = docsEnum.nextDoc()) != DocIdSetIterator.NO_MORE_DOCS) {
count++;
}
}
//mid point: test 1 done, start of test 2
long time_mid = System.nanoTime();
//do a search for longTerm in "field"
TermQuery query = new TermQuery(new Term("field", bytes.toBytesRef()));
searcher.search(query,collector);
int count = collector.getTotalHits();
//end point: test 2 done.
long time_end = System.nanoTime();
//write to stdout
System.out.println(longTerm+"\t"+(time_mid-time_start)+"\t"+(time_end-time_mid));
docsPassed++;
}
indexReader.close();
dirIndex.close();
}
}
关于java - 计算 Lucene 术语文档数量的最快方法,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/26423045/
我正在编写一个具有以下签名的 Java 方法。 void Logger(Method method, Object[] args); 如果一个方法(例如 ABC() )调用此方法 Logger,它应该
我是 Java 新手。 我的问题是我的 Java 程序找不到我试图用作的图像文件一个 JButton。 (目前这段代码什么也没做,因为我只是得到了想要的外观第一的)。这是我的主课 代码: packag
好的,今天我在接受采访,我已经编写 Java 代码多年了。采访中说“Java 垃圾收集是一个棘手的问题,我有几个 friend 一直在努力弄清楚。你在这方面做得怎么样?”。她是想骗我吗?还是我的一生都
我的 friend 给了我一个谜语让我解开。它是这样的: There are 100 people. Each one of them, in his turn, does the following
如果我将使用 Java 5 代码的应用程序编译成字节码,生成的 .class 文件是否能够在 Java 1.4 下运行? 如果后者可以工作并且我正在尝试在我的 Java 1.4 应用程序中使用 Jav
有关于why Java doesn't support unsigned types的问题以及一些关于处理无符号类型的问题。我做了一些搜索,似乎 Scala 也不支持无符号数据类型。限制是Java和S
我只是想知道在一个 java 版本中生成的字节码是否可以在其他 java 版本上运行 最佳答案 通常,字节码无需修改即可在 较新 版本的 Java 上运行。它不会在旧版本上运行,除非您使用特殊参数 (
我有一个关于在命令提示符下执行 java 程序的基本问题。 在某些机器上我们需要指定 -cp 。 (类路径)同时执行java程序 (test为java文件名与.class文件存在于同一目录下) jav
我已经阅读 StackOverflow 有一段时间了,现在我才鼓起勇气提出问题。我今年 20 岁,目前在我的家乡(罗马尼亚克卢日-纳波卡)就读 IT 大学。足以介绍:D。 基本上,我有一家提供簿记应用
我有 public JSONObject parseXML(String xml) { JSONObject jsonObject = XML.toJSONObject(xml); r
我已经在 Java 中实现了带有动态类型的简单解释语言。不幸的是我遇到了以下问题。测试时如下代码: def main() { def ks = Map[[1, 2]].keySet()
一直提示输入 1 到 10 的数字 - 结果应将 st、rd、th 和 nd 添加到数字中。编写一个程序,提示用户输入 1 到 10 之间的任意整数,然后以序数形式显示该整数并附加后缀。 public
我有这个 DownloadFile.java 并按预期下载该文件: import java.io.*; import java.net.URL; public class DownloadFile {
我想在 GUI 上添加延迟。我放置了 2 个 for 循环,然后重新绘制了一个标签,但这 2 个 for 循环一个接一个地执行,并且标签被重新绘制到最后一个。 我能做什么? for(int i=0;
我正在对对象 Student 的列表项进行一些测试,但是我更喜欢在 java 类对象中创建硬编码列表,然后从那里提取数据,而不是连接到数据库并在结果集中选择记录。然而,自从我这样做以来已经很长时间了,
我知道对象创建分为三个部分: 声明 实例化 初始化 classA{} classB extends classA{} classA obj = new classB(1,1); 实例化 它必须使用
我有兴趣使用 GPRS 构建车辆跟踪系统。但是,我有一些问题要问以前做过此操作的人: GPRS 是最好的技术吗?人们意识到任何问题吗? 我计划使用 Java/Java EE - 有更好的技术吗? 如果
我可以通过递归方法反转数组,例如:数组={1,2,3,4,5} 数组结果={5,4,3,2,1}但我的结果是相同的数组,我不知道为什么,请帮助我。 public class Recursion { p
有这样的标准方式吗? 包括 Java源代码-测试代码- Ant 或 Maven联合单元持续集成(可能是巡航控制)ClearCase 版本控制工具部署到应用服务器 最后我希望有一个自动构建和集成环境。
我什至不知道这是否可能,我非常怀疑它是否可能,但如果可以,您能告诉我怎么做吗?我只是想知道如何从打印机打印一些文本。 有什么想法吗? 最佳答案 这里有更简单的事情。 import javax.swin
我是一名优秀的程序员,十分优秀!