1、solr的优点
1)高级的全文搜索功能
2)专为高通量的网络流量进行的优化
3)基于开发接口xml和http的标准
4)综合的html管理界面
5)可伸缩性能够有效复制到另外一个solr搜索服务器
6)使用xml配置达到灵活性和适配性
7)可扩展的插件体系
2、Lucene是一个基于java的全文信息检索工具包,他不是一个完成的搜索应用程序。而是为你的程序提供索引和搜索功能。
solr底层的核心技术是使用Lucene来实现的。
lucene本质上是搜索库,不是独立的应用程序,而solr是
lucene专注于搜索底层的建设,而Solr专注于企业应用,
lucene不是负责支撑搜索服务所必须的管理,而Solr负责
安装Solr
下载Solr,我用的是solr-6.1.0
Solr从6.0之后需要Java1.8所以如果使用Solr6.0及其以上版本,请确保Java版本在1.8之上
将Solr下载之后解压在电脑的某个目录,我解压到了D盘根目录下
第一步 启动Solr
启动Solr(windws版,以下都是windows下的)
进入solr的解压目录
cd bin
solr.cmd start
Solr启动成功!
在浏览器中输入:http://localhost:8983/solr/
第二步 创建集合(collection/core)
我们创建一个articles的集合(collection),collection和core是一个概念(后面我都会用collection或集合)
solr.cmd create -c articles
第三步 配置中文分词
经过第一步和第二步我们已经创建了articles集合,这时候就可以在solr的管理控制台看到创建的articles集合了。
管理控制台地址
http://127.0.0.1:8983/solr
不过不支持中文分词
第四步 配置中文分词
下载IKAnalyzer6.5.0.jar
路径:http://how2j.cn/k/search-engine/search-engine-analyzer/1684.html#
复制到如下路劲:
D:\software\solr-7.2.1\server\solr-webapp\webapp\WEB-INF\lib
修改配置文件 managed-schema:
D:\software\solr-7.2.1\server\solr\how2java\conf\managed-schema
在<schema...> 标签下增加如下代码
<fieldType name="text_ik" class="solr.TextField">
<analyzer class="org.wltea.analyzer.lucene.IKAnalyzer"/>
</fieldType>
<field name="text_ik" type="text_ik" indexed="true" stored="true" multiValued="false" />
重启 Solr
solr.cmd stop -all
solr.cmd start
重新测试分词
如图所示,使用中文分词后,就可以看到分词的效果了。
注: FieldType 记得选增加新的字段类型 中的 text_ik
参考文献
项目中如何使用solr
JAVA 工具 / 搜索引擎技术 / SOLR7.2 可以用的中文分词器 IKANALYZER6.5.0.JAR