这是在写淘淘商城的时候记录的,用了 IKAnalyzer 中文分词插件 也添加了自己的业务域
先解压
然后在 solr/dist/ 这个目录下又一个 war 包
把这个war包放在tomcat的 webapp 目录下
然后启动tomcat 这里是为了解压缩war包
启动完成以后 我们将tomcat关闭
然后可以选择将 war 包删除
然后我们需要将几个日志相关的jar包放到 solr 应用下
cp solr/example/lib/ext/* tomcat/webapps/solr/WEB-INF/lib
但是我们的 solr 需要一个 solrhome
这个时候在 solr/example/ 下有一个 solr
嗯,很好我们可以用solr 来当作 solrname
我们把它随便放个目录 改个名 solrhome
我们使用 cp -r 因为目录下还有目录 递归
接下来我们在 tomcat/webapps/solr/WEB_INF 下的web.xml
vim web.xml
将
<env-entry>
<env-entry-name>solr/name</env-entry-name>
<env-entry-value>改成刚才solrhome的位置</env-entry-value>
</env-entry>
接下来我们来做 solr 的业务域
我们安装一下 IKAnalyzer 中文分词插件
在 tomcat/webapps/solr/WEB-INF/classes 创建classes
我们把包里的 IKAnalyzer2012FF_u1.jar 放到 tomcat/webapps/solr/WEB-INF/lib
我们把包里的 IKAnalyzer.cfg.xml ext_stopword.dic mydict.dic 放到 tomcat/webapps/solr/WEB-INF/classes
然后我们修改 solrhome 中 collection1/conf/schema 添加我们自己的业务
<fieldType name="text_ik" class="solr.TextField">
<analyzer class="org.wltea.analyzer.lucene.IKAnalyzer"/>
</fieldType>
<field name="item_title" type="text_ik" indexed="true" stored="true"/>
<field name="item_sell_point" type="text_ik" indexed="true" stored="true"/>
<field name="item_price" type="long" indexed="true" stored="true"/>
<field name="item_image" type="string" indexed="false" stored="true" />
<field name="item_category_name" type="string" indexed="true" stored="true" />
<field name="item_desc" type="text_ik" indexed="true" stored="false" multiValued="true"/>
<field name="item_keywords" type="text_ik" indexed="true" stored="false" multiValued="true"/>
<copyField source="item_title" dest="item_keywords"/>
<copyField source="item_sell_point" dest="item_keywords"/>
<copyField source="item_category_name" dest="item_keywords"/>
<copyField source="item_desc" dest="item_keywords"/>
启动, 然后collection1中就有了text_ik,item_keywords我们测试一下分词
OK
网友评论