Lucene学习笔记之六:lucene索引文件

2019-03-07 16:43|来源: 领悟书生

Lucene的索引过程,就是按照全文检索的基本过程,将倒排表写成此文件格式的过程。

Lucene的搜索过程,就是按照此文件格式将索引进去的信息读出来,然后计算每篇文档打分(score)的过程。




1.   Lucene的索引结构是有层次结构的,主要分以下几个层次:

索引(Index)

在Lucene中一个索引是放在一个文件夹中的。同一文件夹中的所有的文件构成一个Lucene索引(库)。

段(Segment)

一个索引可以包含多个段,段与段之间是独立的,添加新文档可以生成新的段,不同的段可以合并。如上图,具有相同前缀文件的属同一个段,图中共两个段 "_0" 和 "_1"。segments.gen和segments_2是段的元数据文件,也即它们保存了段的属性信息。

文档(Document)

文档是我们建索引的基本单位,不同的文档是保存在不同的段中的,一个段可以包含多篇文档。新添加的文档是单独保存在一个新生成的段中,随着段的合并,不同的文档合并到同一个段中。

域(Field)

一篇文档包含不同类型的信息,可以分开索引,比如标题,时间,正文,作者等,都可以保存在不同的域里。不同域的索引方式可以不同,在真正解析域的存储的时候,我们会详细解读。

词(Term)

词是索引的最小单位,是经过词法分析和语言处理后的字符串。


2.   Lucene的索引结构中,即保存了正向信息,也保存了反向信息。

所谓正向信息:

a) 按层次保存了从索引,一直到词的包含关系:索引(Index) –> 段(segment) –> 文档(Document) –> 域(Field) –> 词(Term)

b) 也即此索引包含了那些段,每个段包含了那些文档,每个文档包含了那些域,每个域包含了那些词。

c)既然是层次结构,则每个层次都保存了本层次的信息以及下一层次的元信息,也即属性信息,比如一本介绍中国地理的书,应该首先介绍中国地理的概况,以及中国包含多少个省,每个省介绍本省的基本概况及包含多少个市,每个市介绍本市的基本概况及包含多少个县,每个县具体介绍每个县的具体情况。

d)如上图,包含正向信息的文件有:

   segments_N保存了此索引包含多少个段,每个段包含多少篇文档。

   XXX.fnm保存了此段包含了多少个域,每个域的名称及索引方式。

   XXX.fdx,XXX.fdt保存了此段包含的所有文档,每篇文档包含了多少域,每个域保存了那些信息。

所谓反向信息:

a) 保存了词典到倒排表的映射:词(Term) –> 文档(Document)

b) 如上图,包含反向信息的文件有:

   XXX.tis,XXX.tii保存了词典(TermDictionary),也即此段包含的所有的词按字典顺序的排序。

   XXX.frq保存了倒排表,也即包含每个词的文档ID列表。

   XXX.prx保存了倒排表中每个词在包含此词的文档中的位置。


_0.fdt、_0.fdx à保存了此段包含的所有文档,每篇文档包含了多少域,每个域保存了那些信息,他们的不同之处是_0.fdt只是保存了Field.Store.YES

_0.fnmà保存了此段包含了多少个域,每个域的名称及索引方式。

_0.frqà保存了倒排表,也即包含每个词的文档ID列表。

_0.nrmà存放平分信息

_0.prxà保存了倒排表中每个词在包含此词的文档中的位置(偏移量)

_0.tii、_0.tisà存了词典(Term Dictionary),也即此段包含的所有的词按字典顺序的排序

segments_1à保存了此索引包含多少个段,每个段包含多少篇文档



本文链接:Lucene学习笔记之六:lucene索引文件,领悟书生学习笔记,转载请注明出处http://www.656463.com/article/436

相关问答

更多
  • solr是基于lucene的搜索引擎而已,原生的solr不支持打开lucene的索引文件,luke是可以的,如果有报错,可能是因为luke的版本与索引的版本不一致导致的,solr对索引文件并没有做任何改动
  • lucene怎么用[2022-07-03]

    Lucene是一个全文检索系统框架,开源的。 用起来比较方便,去Lucene的官网上下一个包并导入到你的工程中就可以调用包里面的类了。 一般的书里面介绍的版本都是1.4.3或者稍微高级一点的,不过现在lucene3.0正式发布,一些函数调用方法已经改变了,你可以下载一个版本低一点的Lucene比较适合学习~ 当然你直接从3.0入手的话网上资料也是非常丰富的~
  • 您可以使用Luke或编程方式IndexReader.getFieldNames() 。 You can use Luke, or programmatically IndexReader.getFieldNames().
  • /tmp/search_index指系统root /tmp文件夹 。 使用相对于您的应用的其他路径,例如tmp/search_index 。 /tmp/search_index refers to the system root /tmp folder. Use some other path relative to your app, like tmp/search_index.
  • 如果您有一个非常大的数据集,那么我建议您维护一个备份索引的第二台服务器,这样您就不会有单点故障 。 您可以在完成重新索引时同步此“备份”,从而充当共享请求的第二个搜索服务器。 如果一个失败,那么另一个可以备份。 这是解决您问题的简单而强大的方法,建议用于中小型设置。 If you have a really large dataset, then i would recommend you to maintain a second server that has a backup of your index ...
  • 根据您访问存储字段的方式,它们可能都被加载到内存中(基本上,如果您使用FieldCache,所有内容将在首次使用后缓存到内存中)。 如果你有一个占用内存的存储空间,这对于你的实际索引来说是一个很少的工具。 根据您拥有的内存量,这可能是性能提升或性能损失。 Depending on how you access stored fields, they may all be loaded into memory (basically, if you use a FieldCache everything wil ...
  • 您可以使用StandardAnalyzer。 我通过在Lucene的TestStandardAnalyzer.java中添加以下函数来测试它: public void testBackslashes() throws Exception { assertAnalyzesTo(a, "C:\\home\\user\\research\\whitepapers\\analysis\\detail.txt", new String[]{"c","home", "user", "research","white ...
  • 要启用通配符,您应该搜索apache* ,它也与您的文件名apache_empty匹配,以获得完整语法,另请参阅Apache Lucene Query Parser 。 另一种方法是在使用的分析仪中将下划线作为单词分隔符。 To enable wildcards you should search for apache* which would also match your filename apache_empty for the complete syntax see also Apache Luce ...
  • 首先,您必须获取IndexReader的文档并迭代它们按标签搜索,然后使用每个标签的值进行搜索。 First you have to get IndexReader's documents and iterate them searching by label and then search using the value of every label.
  • 我们过去曾经遇到过困难。 添加到lucene的数据量超载了硬盘驱动器的实际容量。 重新启动应用程序时,我们有CorruptedIndexException,一切都搞砸了。 We'eve had issues in the past with our hardrives. The amount of data added to lucene was overloading the actual capacity of the hard drive to write things down. When rest ...