建立Solr引擎

作者: SODMI | 来源:发表于2018-01-05 18:12 被阅读0次

    准备安装包

    jdk-8u151-linux-x64.tar.gz:下载地址
    solr-7.1.0:下载地址
    ik-analyzer-solr7.x.zip:下载地址

    由于 ik-analyzer的版本兼容问题,此处提供的可以兼容solr7.x,如果是其他版本的,请注意此问题。

    安装jdk1.8.0

    新增配置/etc/profile如下:

    #set java environment
    export JAVA_HOME=/usr/local/jdk1.8.0
    export JRE_HOME=${JAVA_HOME}/jre  
    export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib  
    export PATH=${JAVA_HOME}/bin:$PATH
    

    安装solr7.1

    下载solr7.1后解压至需要放置的目录,我放在/usr/local/solr-7.1.0下,如下图:


    solr5之后发布版本自带jetty服务器,可以自行启动。bin/solr start [-p port],默认端口号8983。 可以通过netstat -anp | grep 8983,命令查看端口是否占用。solr引擎运行后,可以通过url:http://localhost:8983/solr/#/ ,进入solr管理列表界面,如下图:

    配置中文分词器IK Analyzer

    将ik的jar文件 拷贝到 server/solr-webapp/webapp/WEB-INF/lib 目录下

    cp ik-analyzer-solr7x.jar /usr/local/solr-7.1.0/server/solr-webapp/webapp/WEB-INF/lib
    

    将IKAnalyzer配置文件,停滞词词典拷贝到server/solr-webapp/webapp/WEB-INF/classes/

    cp stopword.dic IKAnalyzer.cfg.xml /usr/local/solr-7.1.0/server/solr-webapp/webapp/WEB-INF/classes/
    

    配置IKAnalyzer分词器的扩展词典,停止词词典

    <?xml version="1.0" encoding="UTF-8"?>
    <!DOCTYPE properties SYSTEM "http://java.sun.com/dtd/properties.dtd">
    <properties>
        <comment>IK Analyzer 扩展配置</comment>
        <!--用户可以在这里配置自己的扩展字典 
        <entry key="ext_dict">ext.dic;</entry> 
        -->
        <!--用户可以在这里配置自己的扩展停止词字典-->                    
        <entry key="ext_stopwords">stopword.dic;</entry>
    </properties>
    

    配置Solr文件引入IKAnalyzer模块
    需要新建一个core模块,进行数据管理,新建命令如下:

    bin/solr create -c ifiction
    

    执行成功后会在/usr/local/solr-7.1.0/server/solr生成ifiction文件。
    编辑/usr/local/solr-7.1.0/server/solr/ifiction/conf/managed-schema文件,添加下面代码引入IKAnalyzer模块:

        <fieldType name="text_ik" class="solr.TextField">     
            <analyzer class="org.wltea.analyzer.lucene.IKAnalyzer"/>
        </fieldType> 
    

    配置需要分词的字段:summary

        <field name="fid" type="pint" indexed="true" stored="true" multiValued="false" />
        <field name="type" type="pint" indexed="true" stored="true" multiValued="false" />
        <field name="title" type="string" indexed="true" stored="true" multiValued="false" />
        <field name="cover" type="string" indexed="true" stored="true" multiValued="false" />
        <field name="writer" type="string" indexed="true" stored="true" multiValued="false" />
        <field name="tags" type="string" indexed="true" stored="true" multiValued="false" /> 
        <field name="summary" type="text_ik" indexed="true" stored="true" multiValued="false" />
        <field name="updateline" type="pint" indexed="true" stored="true" multiValued="false" />
        <field name="sort_base" type="pint" indexed="true" stored="true" multiValued="false" /> 
                                                                                                                           
        <!-- This can be enabled, in case the client does not know what fields may be searched. It isn't enabled by default
             because it's very expensive to index everything twice. -->
        <copyField source="title" dest="_text_"/>
        <copyField source="writer" dest="_text_"/>
        <copyField source="tags" dest="_text_"/>
        <copyField source="summary" dest="_text_"/>
    

    配置完成需要重启solr引擎,sudo /usr/local/solr-7.1.0/bin/solr restart -force。
    说明:
    (1)type="text_ik",是引入IKAnalyzer模块时的name配置的,下面测试solr的中文分词如下图:


    (2)copyField 这个是复制字段,将配置的source都收集到 text 域上,可以用作全文检索,就如上述英文注释描述。

    至此,solr引擎及中文分词的模块搭建也就全部完成。

    相关文章

      网友评论

        本文标题:建立Solr引擎

        本文链接:https://www.haomeiwen.com/subject/pyysnxtx.html