Lucene 6.1.0官方Demo解析
一、IndexFiles.java
之前也说过,IndexFiles类实现的是创建一个Lucene的索引。
在main()函数中,首先解析了传入的参数,然后为实例化IndexWriter做准备:打开一个Directory,然后初始化StandardAnalyzer和IndexWriterConfig.
之后就是实例化IndexWriter:
Lucene的Directory被IndexWriter用来存储index的信息,除了FSDirectory之外,我们还可以使用RAM,或者database来存储我们的索引信息。
Lucene的Analyzer将text解析成indexed tokens(索引标记),也就是将text解析成一个个词语。这些terms会被选择性地执行其他操作,如大小写转换、同义词插入,过滤掉不需要的token等等。
在Demo中使用的是StandarAnalyzer,运用的是Unicode文本分词算法,只是将tokens转换成小写,然后过滤掉一些停止词(stopwords)。Stopwords就是一些如a, an, the的词以及一些不太值得被检索的词。对于不同的语言来说采用的分词规则不一样,可以通过配置不同的Analyzer来确定。
在
lucene/analysis/common/src/java/org/apache/lucene/analysis 里面,看到了在org.apache.lucene.analysis.cjk里面看到了支持中文的分词,当然也可以采用其他的分词工具。
IndexWriterConfig实例保存了IndexWriter需要进行的配置信息,例如,我们可以设置OpenMode来确定是重新索引,还是只是将没有索引过的文件添加:
对IndexWriter实例化好之后,就可以进行indexdoc():
indexDocs(writer, docDir);
这是一个递归函数,该函数爬指定目录,并创建Document对象,这个Document是一个简单的数据对象,表示文件中文本的内容以及创建时间和所在位置。这个实例被加入到IndexWriter中,如果指定的操作是update,则OpmenMode就是设置为OpenMode.CREATE_OR_APPEND,这时候就不是将文件添加到索引中,而是通过找到具有同样的indentifier(在这里,文件路径就被看作是identifier)的已经被索引的文件,然后update,删除掉已经存在的index,然后将新的document添加到index中。
二、SearchingFiles.java
在这个类中,首先创建IndexSearcher,StandardAnalyzer以及QueryParser的实例:
index就是指定之前的索引所在位置,对查询的解析运用的是跟之前分词一样的解析方法(StandardAnalyzer):查找词语的边界,去除无用词(a, an, the)然后进行解析。
Query对象包含QueryParser的结果,我们也可以通过编程方式构建一个rich Query对象,而不使用parser,QueryParser只是为了保证将Lucene的查询语句转换为相应的Query object。
创建Query对象之后,运用IndexSearcher的search(query,n)方法,返回的是命中最多的n个Docs,按照一定的规则排序(例如相关性)。
网友评论