1

Solr概述

clipboard.png

Solr 是Apache的一个顶级开源项目,采用Java开发,它是基于Lucene的全文搜索服务器。Solr提供了比Lucene更为丰富的查询语言,同时实现了可配置、可扩展,并对索引、搜索性能进行了优化。
Solr可以独立运行在Jetty、Tomcat等这些Servlet容器中,Solr 索引的实现方法很简单,用 POST 方法向 Solr 服务器发送一个描述 Field 及其内容的 XML 文档,Solr根据xml文档添加、删除、更新索引 。Solr 搜索只需要发送 HTTP GET 请求,然后对 Solr 返回Xml、json等格式的查询结果进行解析,组织页面布局。Solr不提供构建UI的功能,Solr提供了一个管理界面,通过管理界面可以查询Solr的配置和运行情况。

Docker安装Solr服务

拉取 Solr 镜像:docker pull solr:7.4.0

启动 Solr 容器docker run --name taotao-solr -d -p 8983:8983 -t solr:7.4.0

访问 http://114.115.215.xxx:8983/

Solr界面功能
clipboard.png

新建core

docker exec -it --user=solr mysolr bin/solr create_core -c shop

安装中文分词器、并匹配业务系统Field

分词器安装参考文章:https://github.com/ik-analyzer

文件传输传输参考:Docker容器和本机之间的文件传输

传jar包和配置文件

wget方式把jar包下载到根目录:

wget https://search.maven.org/remotecontent?filepath=com/github/magese/ik-analyzer/7.7.0/ik-analyzer-7.7.0.jar

找到容器长ID:docker inspect my-solr | grep Id

将jar包放入Solr服务的webapp/WEB-INF/lib/目录下

docker cp /root/ik-analyzer-7.6.0.jar 9d7cf2c5315e405e7a8cadc40dcef93fd893f39f0cf70ad42c3b1b70729d2423:/opt/solr/server/solr-webapp/webapp/WEB-INF/lib

将resources目录下的5个配置文件放入solr服务的webapp/WEB-INF/classes/目录下;

docker cp /root/classes 638c3a0d40f58100de500fedcbb9cd1e45732770504dfb0500f5b0f97852119f:/opt/solr/server/solr-webapp/webapp/WEB-INF/
① IKAnalyzer.cfg.xml
② ext.dic
③ stopword.dic
④ ik.conf
⑤ dynamicdic.txt

配置managed-schema

进入solr容器:docker exec -it -u root my-solr /bin/bash

编辑managed-schema文件:vim /opt/solr/server/solr/shop/conf/managed-schema

把下面一段加到最后

<!-- ik分词器 -->
<fieldType name="text_ik" class="solr.TextField">
  <analyzer type="index">
      <tokenizer class="org.wltea.analyzer.lucene.IKTokenizerFactory" useSmart="false" conf="ik.conf"/>
      <filter class="solr.LowerCaseFilterFactory"/>
  </analyzer>
  <analyzer type="query">
      <tokenizer class="org.wltea.analyzer.lucene.IKTokenizerFactory" useSmart="true" conf="ik.conf"/>
      <filter class="solr.LowerCaseFilterFactory"/>
  </analyzer>
</fieldType>
<!-- 设置业务系统Field -->
<field name="item_title" type="text_ik" indexed="true" stored="true"/>
<field name="item_sell_point" type="text_ik" indexed="true" stored="true"/>
<field name="item_price"  type="plong" indexed="true" stored="true"/>
<field name="item_image" type="string" indexed="false" stored="true" />
<field name="item_category_name" type="string" indexed="true" stored="true" />
<field name="item_desc" type="text_ik" indexed="true" stored="false" />
<field name="item_keywords" type="text_ik" indexed="true" stored="false" multiValued="true"/>
<copyField source="item_title" dest="item_keywords"/>
<copyField source="item_sell_point" dest="item_keywords"/>
<copyField source="item_category_name" dest="item_keywords"/>
<copyField source="item_desc" dest="item_keywords"/>

别忘了重启容器:docker restart my-solr
代码解释:加了type="text_ik"表示这个字段使用分词器分拆,<copyField source="item_title" dest="item_keywords"/>表示把这个字段加入一个之前创建新的集合item_keywords中,以后使用这个字段检索可达到全文检索的目的。

尝试把一条商品信息导入到Solr库中

新建springboot项目,加依赖:

<dependency>
    <groupId>org.apache.solr</groupId>
    <artifactId>solr-solrj</artifactId>
    <version>7.7.1</version>
</dependency>

配置文件添加:

spring.data.solr.host=http://114.115.215.xxx:8983/solr

核心代码:


@RestController
public class HelloController {
    @Autowired
    private SolrClient client;
    @RequestMapping("/hello")
    public Object hello() throws IOException, SolrServerException {
        SolrInputDocument doc = new SolrInputDocument();
        List<ItemInfo> list= itemInfoMapper.findAll();
        doc.setField("item_title","Apple iPhone X (A1865) 64GB 深空灰色 移动联通电信4G手机");
        doc.setField("item_sell_point","【抢券立减200元!】5.8英寸视网膜全面屏,无线充电,面容ID,1200万后置双摄。");
        doc.setField("item_price",6299.00);
        doc.setField("item_category_name","手机");
        doc.setField("item_desc","单卡单待网络制式:4G LTE全网通机身内存:64GB4G LTE网络特性:移动4G");
        client.add("shop",doc);
        client.commit("shop");
        return "ok";
    }
}

测试:

clipboard.png

为什么这么多数据,不是只加了一条嘛? 我已经走完了下面一步,这里只是为了演示给你看。

把数据库中所有商品信息导入索引库

先把mysql、mybatis依赖全部加进来

新建实体类

public class Item {
    private Long id;
    private String title;
    private String sell_point;
    private Long price;
    private String image;
    private String category_name;
}

dao层

public interface ItemInfoMapper {
    @Select("SELECT\n" +
            "\ta.id,\n" +
            "\ta.title,\n" +
            "\ta.sell_point,\n" +
            "\ta.price,\n" +
            "\ta.image,\n" +
            "\tb. NAME category_name\n" +
            "FROM\n" +
            "\ttb_item a\n" +
            "LEFT JOIN tb_item_cat b ON a.cid = b.id")
    List<ItemInfo> findAll();
}

记得让springboot扫描哦

@SpringBootApplication
@MapperScan("com.yungou.shop.shopsearch.Mapper")
public class ShopSearchApplication {
    public static void main(String[] args) {
        SpringApplication.run(ShopSearchApplication.class, args);
    }
}

下面开发核心代码了,登登登登:

@RestController
public class HelloController {
    @Autowired
    private SolrClient client;
    @Autowired
    private ItemInfoMapper itemInfoMapper;
    @RequestMapping("/hello")
    public Object hello() throws IOException, SolrServerException {
        SolrInputDocument doc = new SolrInputDocument();
        List<ItemInfo> list= itemInfoMapper.findAll();
        for (ItemInfo itemInfo:list){
            doc.setField("item_title",itemInfo.getTitle());
            doc.setField("item_sell_point",itemInfo.getSell_point());
            doc.setField("item_price",itemInfo.getPrice());
            doc.setField("item_category_name",itemInfo.getCategory_name());
            client.add("shop",doc);
        }
        client.commit("shop");
        return "ok"+list.size();
    }
}

让数据加载一会,数据多的话可能要等几分钟。

回到管理界面
clipboard.png
我们看到已经有6666条数据加载进来了,大功告成,666!

总结

经过这个案例,应该是把线上部署的大多数情况都过了一遍。享受docker部署便利的同时,由于第一次操作docker文件,这里耗了点时间。最蠢的事情是明明加入的是text_ik,自己一直在搜ik,怎么搜来搜去搜不到,明明已经启动成功了呀。然后弄来弄去才发现,也费了点时间。警惕自己以后一定要细心,注意细节呀。除此之外,其他的都比较顺利。

SolrJ更新索引数据

https://blog.csdn.net/weixin_...
https://blog.csdn.net/larger5...


Nirvana
32 声望5 粉丝

整个体系复杂对我而言又陌生,每次学习对自己的脑力与知识体系都是一个巨大的挑战,也需要克服巨大的惰性;巨大的挑战同时也意味着巨大的诱惑。意味着我搞懂了,就能超越平凡的大多数,能力又上升了一个台阶。一...