1.下载中文分词器IKAnalyzer
地址:http://code.google.com/p/ik-analyzer/downloads/list
2.修改schema.xml文件,加入以下配置:
<fieldType name="textik" class="solr.TextField" > <analyzer class="org.wltea.analyzer.lucene.IKAnalyzer"/> <analyzer type="index"> <tokenizer class="org.wltea.analyzer.solr.IKTokenizerFactory" isMaxWordLength="false"/> <filter class="solr.StopFilterFactory" ignoreCase="true" words="stopwords.txt"/> <filter class="solr.WordDelimiterFilterFactory" generateWordParts="1" generateNumberParts="1" catenateWords="1" catenateNumbers="1" catenateAll="0" splitOnCaseChange="1"/> <filter class="solr.LowerCaseFilterFactory"/> <filter class="solr.EnglishPorterFilterFactory" protected="protwords.txt"/> <filter class="solr.RemoveDuplicatesTokenFilterFactory"/> </analyzer> <analyzer type="query"> <tokenizer class="org.wltea.analyzer.solr.IKTokenizerFactory" isMaxWordLength="false"/> <filter class="solr.StopFilterFactory" ignoreCase="true" words="stopwords.txt"/> <filter class="solr.WordDelimiterFilterFactory" generateWordParts="1" generateNumberParts="1" catenateWords="1" catenateNumbers="1" catenateAll="0" splitOnCaseChange="1"/> <filter class="solr.LowerCaseFilterFactory"/> <filter class="solr.EnglishPorterFilterFactory" protected="protwords.txt"/> <filter class="solr.RemoveDuplicatesTokenFilterFactory"/> </analyzer> </fieldType>
然后定义需要使用中文分词功能的字段,比如我这里是title,代码如下:
<fields> <field name="title" type="textik" indexed="true" stored="true" required="true" /> </fields>
3. 将下载的IKAnalyzer目录下的IKAnalyzer3.2.8.jar放入 TOMCAT/webapps/该solr工程/WEB-INFO/lib 目录下
4. 将下载的IKAnalyzer目录下的IKAnalyzer.cfg.xml和ext_stopword.dic文件放入 TOMCAT/webapps/该solr工程/classes 目录下,你也可以自己定义停用词字典,然后在IKAnalyzer.cfg.xml中进行配置,多个停用词字典之间用逗号隔开
5. 重启tomcat,输入http://域名:端口号/该solr工程/admin/analysis.jsp,效果如下:
相关推荐
支持solr5.5 solr6.0中IK分词需要的资料
solr-ik中文分词器资源包,包括ext.dic,,IKAnalyzer.cfg.xml,,ik-analyzer-solr5-5.x.jar,,managed-schema,,solr-analyzer-ik-5.1.0.jar,,stopword.dic solr-ik分词 solr中文分词 ik分词资源
solr安装ik分词器将jar复制到solr\WEB-INF\lib 中 具体使用:https://mp.csdn.net/postedit
solr5的ik中文分词器源码,解压后需要自己打包成jar包
solr导入Ik分词专用。
NULL 博文链接:https://jsxzzliang.iteye.com/blog/852460
solr4.1版本 windows 和Linux系统的都有,IK中文分词器。
IKAnalyzer中文分词器本身已经不支持最新的solr 5,集成到solr中分词会报错,这里将解决了solr 5支持问题的最新IK包共享出来,希望能帮到各位! 附上IK在schema.xml中的配置: <fieldType name="text_ik" class=...
此为solr8的ikanalyzer中文分词包
包含内容:IKAnalyzer中文分词器V2012使用手册.pdf;机械词汇大全【官方推荐】;深蓝词库转换.exe;中文分词词库打包50万词汇;IKAnalyzer-5.0.jar
solr6.1.0的IK中文分词,可以直接用
solr5 IK-Analyzer中文分词。jar里面有IKAnalyzer.cfg.xml、stopword.dic
Solr的ik分词以及mysql-connector-java-8.0.11,没积分call我,我发给你
IK分词solr5.0.0
最新版solr4.3的IK分词器,中文分词效果良好!对付一般的大众分词没有问题
solr与IK中文分词器的安装包及配置,内有文档,介绍的很详细
Solr6.0集成IK-Analyzer分词器.docx IK-Analyzer-2015FF.jar
该压缩包中包含solr安装包与ik中文分词器,安装也很简单,按照我博客中的步骤即可,亲测有效!!!!!
这个jar包是重新编译过后的 可以使用useSmart粒度分词
NULL 博文链接:https://chengjianxiaoxue.iteye.com/blog/2282371