SpringBoot1.5.x集成Elasticsearch

  • 分词器搜索全匹配查询
  • 低版本springboot集成es问题
  • logstash同步问题

Elasticsearch是目前比较火的搜索引擎,能够做到快速的全文检索。本文不涉及ES的原理等基础知识,只是一篇关于SpringBoot如何集成Elasticsearch、使用logstash如何同步mysql数据库中的数据到Elasticsearch的简单入门教程。

版本匹配

SpringBoot提供了spring-boot-starter-data-elasticsearchElasticsearch的使用进行了封装,可以快速方便的使用提供的API进行操作,这是最简单的集成以及操作Elasticsearch方法。但是对于SpringBoot以及Elasticsearch的版本有要求,由于目前我们公司使用的还是SpringBoot1.5.3的版本,对应的starter只能支持Elasticsearch5.0以下的版本,所以不能使用最新的7.x的Elasticsearch

SpringBoot Version x spring-boot-starter-data-elasticsearch Version y Elasticsearch Version z
x < 2.0.0 y < 2.0.0 z < 5.0
x >= 2.0.0 y >= 2.0.0 z > 5.0

升级项目中的Springboot版本不太现实,而又想使用最新的Elasticsearch,只能换一种方式集成,restClient的集成方式,这种方式对于版本的兼容性较好。restClient有两种,一种是low-level,一种是high-level,两者的原理基本一致,区别最大的是封装性,官方建议使用high-level,而且low-level将逐渐被废弃,所以我们使用elasticsearch-rest-high-level-client进行集成。

<dependency>
  <groupId>org.elasticsearch.client</groupId>
  <artifactId>elasticsearch-rest-high-level-client</artifactId>
  <version>7.6.0</version>
</dependency>

对于这种框架的整合,各种组件的版本一定要匹配上,如果不能对应,会出现各种意想不到的情况,在这里我也是走了很多弯路才搞清楚。

Elasticsearch基本使用

配置host和端口

Elasticsearch默认的端口是9200和9300,9200是提供给http方式连接的,9300对应的是tcp的方式连接,这里我们使用9200。

spring:
    elasticsearch:
    host: 192.168.3.75
    port: 9200
注入restHighLevelClient

新建一个配置类,读取hostport,并创建一个restHighLevelClientbean注入到spring容器中。

@Configuration
public class EsConfig {
    @Value("${spring.elasticsearch.port}")
    private String port;
    @Value("${spring.elasticsearch.host}")
    private String host;
    @Bean
    public RestHighLevelClient restHighLevelClient() {
        return new RestHighLevelClient(RestClient.builder(new HttpHost(host,Integer.parseInt(port))));
    }
}
使用client进行查询
SearchSourceBuilder searchSourceBuilder = new SearchSourceBuilder();
searchSourceBuilder.query(QueryBuilders.matchQuery("name","123"));
SearchRequest searchRequest = new SearchRequest("test_index");
searchRequest.source(searchSourceBuilder);
try {
  SearchResponse searchResponse = restHighLevelClient.search(searchRequest, RequestOptions.DEFAULT);
  searchResponse.getHits().forEach(i -> {
    String jsonString = i.getSourceAsString();
    //使用fastjson将json对象转化为model
    EsGoodsModel esGoodsModel = JSONObject.parseObject(jsonString,EsGoodsModel.class);
  });
} catch (IOException e) {
  e.printStackTrace();
}

这里只是简单的展示了基本的使用,具体的查询条件的封装,像分页、排序、条件查询等都差不多。

使用Logstash同步数据

关于logstash

关于搜索数据的导入,我这里使用了官方推荐的logstash,还有一些其他的方式,这里不做赘述。

使用logstash最重要的是写好conf文件。他的格式如下

input {
  
}
filter {
  
}
output {
  
}
  • input表示输入的数据来源,可以是filejdbchttpkafkalog4jredis等很多途径(具体可以查看
  • filter主要是对数据来源进行过滤,转换成json格式,然后保存到Elasticsearch中。filter里面有很多的插件,具体官网有详细的介绍,本次教程主要使用到Aggregate聚合数据。

  • output是数据输出到哪里,也有很多中,本次使用输出到Elasticsearch中。

数据要求

目前我们项目中使用到的是对商品进行检索,商品中有一些属性是来自于其他表,且可能有多条数据,类似下面的数据结构。

{
    "stock_info" : "300公斤",
  "name" : "黄瓜",
  "address" : "上海市普陀区",
  "price" : "1.59",
  "company_name" : "供应商",
  "number" : "SP484",
  "plant_area" : "50",
  "id" : "55010b5154f84a2fbec4056c185789ac",
  "sl_url" : "黄瓜1_1584424256774.jpg",
  "type" : 1,
  "goodsLabelList" : [
    {
      "dictionary_value" : "绿色"
    },
    {
      "dictionary_value" : "有机"
    }
  ],
  "attributeValueList" : [
    {
      "attribute_value" : "密刺黄瓜",
      "attribute_id" : "68a40212b85c41019f843f8934bbbda5"
    },
    {
      "attribute_value" : "严重皱缩",
      "attribute_id" : "d50368f5fab442808dd27ee2c5361048"
    },
    {
      "attribute_value" : "15~25cm",
      "attribute_id" : "58771cbc4caf41789cf747c13fe755bb"
    }
  ]
}

像这种goodsLabelList对应于Elasticsearch就是嵌套的数据类型。下面就需要配置logstash的conf文件。

input使用 jdbc插件进行输入

input {
  jdbc {
    #这里指定connector的位置
    jdbc_driver_library => "../mysql-connector-java-5.1.43-bin.jar"
    jdbc_driver_class => "com.mysql.jdbc.Driver"
    jdbc_connection_string => "jdbc:mysql://192.168.3.78:3306/guoxn_bab_test?useSSL=false&serverTimezone=UTC&rewriteBatchedStatements=true&characterEncoding=utf8"
    jdbc_user => "**"
    jdbc_password => "**"
    #定时时间,一分钟一次
    schedule => "* * * * *"
    jdbc_paging_enabled => "true"
    jdbc_page_size => "50000"
    record_last_run => true
    use_column_value => true
    #设置时区,如果默认会有8个小时的时差
    jdbc_default_timezone => "Asia/Shanghai"
    #这里保存last_update_time也可以不指定
    last_run_metadata_path => "../last_goods_record.txt"
    #根据last_update_time进行更新数据
    tracking_column => "last_update_time"
    tracking_column_type => "timestamp"
    #sql省去了具体的查询内容,主要注意 :sql_last_value 的写法
    statement => "
                SELECT .... and t1.last_update_time > :sql_last_value and t1.last_update_time < NOW() AND t1.is_delete=0 AND t1.type=1 order by t1.id desc"
    }
}

jdbc的输入基本没有什么问题,主要是下面的filter部分。

filter {
            #使用aggregate进行聚合数据
        aggregate {
                    #task_id指定任务的id,来自于上面jdbc的sql查询结果,进行聚合的时候,一定要按照id进行排序,不然可能导致数据的丢失
            task_id => "%{id}"
            code => "
                map['id'] = event.get('id')
                map['name'] = event.get('name')
                map['sl_url'] = event.get('sl_url')
                map['company_name'] = event.get('company_name')
                map['description'] = event.get('description')
                map['price'] = event.get('price')
                map['stock_info'] = event.get('stock_info')
                map['address'] = event.get('address')
                map['number'] = event.get('number')
                map['shelf_time'] = event.get('shelf_time')
                map['shelf_stock'] = event.get('shelf_stock')
                map['company_id'] = event.get('company_id')
                map['plant_area'] = event.get('plant_area')
                map['standard'] = event.get('standard')
                map['shelf_state'] = event.get('shelf_state')
                map['type'] = event.get('type')
                            #这里是关键,areaListTemp是临时集合,保存去重的数据,然后遍历到areaList中
                map['areaListTemp'] ||= []
                map['areaList'] ||= []
                if(event.get('area_id') != nil)
                    if !(map['areaListTemp'].include? event.get('area_id'))
                        map['areaListTemp'] << event.get('area_id')
                        map['areaList'] << {
                            'area_id' => event.get('area_id')
                        }
                    end
                end
                map['labelList'] ||= []
                map['goodsLabelList'] ||= []
                if(event.get('dictionary_value') != nil)
                    if !(map['labelList'].include? event.get('dictionary_value'))
                        map['labelList'] << event.get('dictionary_value')
                        map['goodsLabelList'] << {
                            'dictionary_value' => event.get('dictionary_value')
                        }
                    end
                end
                map['attributeList'] ||= []
                map['attributeValueList'] ||= []
                if(event.get('attribute_id') != nil)
                    if !(map['attributeList'].include? event.get('attribute_id'))
                        map['attributeList'] << event.get('attribute_id')
                        map['attributeValueList'] << {
                            'attribute_id' => event.get('attribute_id'),
                            'attribute_value' => event.get('attribute_value')
                        }
                    end
                end
                map['cateList'] ||= []
                map['categoryList'] ||= []
                if(event.get('category_id') != nil)
                    if !(map['cateList'].include? event.get('category_id'))
                        map['cateList'] << event.get('category_id')
                        map['categoryList'] << {
                            'category_id' => event.get('category_id')
                        }
                    end
                end
            event.cancel()"
                        #使用聚合插件
            push_previous_map_as_event => true
                        #超时时间,如果不设置,logstash不知道什么时候会结束,会导致最后一条数据丢失。这里应该有一个结束条件
                        #设置5秒是一个不严谨的办法
            timeout => 5
        }
                #这里删除保存数据的临时集合和生成的一些默认的字段
        mutate  {
            remove_field => ["@version","labelList","attributeList","cateList","areaListTemp"]
            
    }
}

踩坑记录

关于数据的聚合,这里我查找了很多资料,试了很多的写法,始终有问题要不是数据会有丢失,要不会出现数据的错乱的情况。这里有几个地方需要注意下

  • task_id 是sql查询的id,相当于每一个id是一个task,正常我们使用联表查询的时候,因为一对多的关系,会生成多条记录,areaListTemp保存了同一个id的多条数据中的label字段的值,并且进行去重, 如果id不是聚集在一起,可能导致临时的集合还没有保存完数据就被删除,导致数据的丢失。

  • logstash会使用多线程进行聚合任务,如果同一个聚合任务被多个线程分隔操作,最后聚合的过程中可能会丢失数据,这里配置pipeline.yml文件,设置工作线程为1。(这里可能出现性能问题)

    pipeline.workers: 1
    
  • 多个数据源同时输入也有有坑,我这里需要维护两个index,所以需要使用两个jdbc,搜索网上的资料都是在一个conf文件中写,然后通过type去区别不同的数据源分别处理,,类似下面的处理方法

    input {
      jdbc {
        #这里指定connector的位置
        jdbc_driver_library => "../mysql-connector-java-5.1.43-bin.jar"
        ....
        type => goods
        statement => "
                    SELECT .... and t1.last_update_time > :sql_last_value and t1.last_update_time < NOW()           AND t1.is_delete=0 AND t1.type=1 order by t1.id desc"
        }
        jdbc {
        ...
        type => category
        ...
      }
    }
    output {
      //这里根据上面配置的type进行不同的处理
      if [type] == "goods" {
         elasticsearch {
                    hosts => ["localhost: 9200"]   
                    index => "goods"
                    document_id => "%{id}"
        }
      }
        if [type] == "category" {
         elasticsearch {
                    hosts => ["localhost: 9200"]   
                    index => "category"
                    document_id => "%{id}"
        }
      }
    }
    

    但是我在7.6的版本中按照这样的格式每次只能生成一个index,也没有报错,后来我配置了两个conf文件,然后在pineline.yml中配置多个通道,进行处理

    - pipeline.id: goods
      path.config: "../config/goods.conf"
      pipeline.workers: 1
      # pipeline.batch.size: 1000
      # pipeline.output.workers: 3
      # queue.type: persisted
    
    - pipeline.id: category
      path.config: "../config/category.conf"
    

    每个pineline对应一个conf文件的解析,终于解决了问题。

  • 对于嵌套类型的数据结构,需要首先在elasticsearch中创建好indexmapping,否则logstash不能自动识别。具体mapping格式如下

    {
        "mappings": {
            "properties": {
                "address": {
                    "type": "text",
                    "fields": {
                        "keyword": {
                            "type": "keyword",
                            "ignore_above": 256
                        }
                    }
                },
                "areaList": {
                    "type": "nested",
                    "properties": {
                        "area_id": {
                            "type": "text",
                            "fields": {
                                "keyword": {
                                    "type": "keyword",
                                    "ignore_above": 256
                                }
                            }
                        }
                    }
                },
                "area_id": {
                    "type": "text",
                    "fields": {
                        "keyword": {
                            "type": "keyword",
                            "ignore_above": 256
                        }
                    }
                },
                "attributeValueList": {
                    "type": "nested",
                    "properties": {
                        "attribute_id": {
                            "type": "text",
                            "fields": {
                                "keyword": {
                                    "type": "keyword",
                                    "ignore_above": 256
                                }
                            }
                        },
                        "attribute_value": {
                            "type": "text",
                            "fields": {
                                "keyword": {
                                    "type": "keyword",
                                    "ignore_above": 256
                                }
                            }
                        }
                    }
                },
                "categoryList": {
                    "type": "nested",
                    "properties": {
                        "category_id": {
                            "type": "text",
                            "fields": {
                                "keyword": {
                                    "type": "keyword",
                                    "ignore_above": 256
                                }
                            }
                        }
                    }
                },
                "company_id": {
                    "type": "text",
                    "fields": {
                        "keyword": {
                            "type": "keyword",
                            "ignore_above": 256
                        }
                    }
                },
                "company_name": {
                    "type": "text",
                    "fields": {
                        "keyword": {
                            "type": "keyword",
                            "ignore_above": 256
                        }
                    }
                },
                "description": {
                    "type": "text",
                    "fields": {
                        "keyword": {
                            "type": "keyword",
                            "ignore_above": 256
                        }
                    }
                },
                "goodsLabelList": {
                    "type": "nested",
                    "properties": {
                        "dictionary_value": {
                            "type": "text",
                            "fields": {
                                "keyword": {
                                    "type": "keyword",
                                    "ignore_above": 256
                                }
                            }
                        }
                    }
                },
                "id": {
                    "type": "text",
                    "fields": {
                        "keyword": {
                            "type": "keyword",
                            "ignore_above": 256
                        }
                    }
                },
                "name": {
                    "type": "text",
                    "analyzer": "ik_max_word",
                    "fields": {
                        "keyword": {
                            "type": "keyword",
                            "ignore_above": 256
                        }
                    }
                },
                "number": {
                    "type": "text",
                    "fields": {
                        "keyword": {
                            "type": "keyword",
                            "ignore_above": 256
                        }
                    }
                },
                "plant_area": {
                    "type": "text",
                    "fields": {
                        "keyword": {
                            "type": "keyword",
                            "ignore_above": 256
                        }
                    }
                },
                "price": {
                    "type": "float",
                    "fields": {
                        "keyword": {
                            "type": "keyword",
                            "ignore_above": 256
                        }
                    }
                },
                "shelf_state": {
                    "type": "long"
                },
                "shelf_stock": {
                    "type": "text",
                    "fields": {
                        "keyword": {
                            "type": "keyword",
                            "ignore_above": 256
                        }
                    }
                },
                "shelf_time": {
                    "type": "date"
                },
                "sl_url": {
                    "type": "text",
                    "fields": {
                        "keyword": {
                            "type": "keyword",
                            "ignore_above": 256
                        }
                    }
                },
                "standard": {
                    "type": "text",
                    "fields": {
                        "keyword": {
                            "type": "keyword",
                            "ignore_above": 256
                        }
                    }
                },
                "stock_info": {
                    "type": "text",
                    "fields": {
                        "keyword": {
                            "type": "keyword",
                            "ignore_above": 256
                        }
                    }
                },
                "tags": {
                    "type": "text",
                    "fields": {
                        "keyword": {
                            "type": "keyword",
                            "ignore_above": 256
                        }
                    }
                },
                "type": {
                    "type": "long"
                }
            }
        }
    }
    

    这里主要注意areaList中的type设置为nested,如果需要使用分词器的话,也可以设置好,例如name字段使用了一个比较好用的中文ik分词器。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 205,386评论 6 479
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 87,939评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 151,851评论 0 341
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,953评论 1 278
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,971评论 5 369
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,784评论 1 283
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,126评论 3 399
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,765评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 43,148评论 1 300
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,744评论 2 323
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,858评论 1 333
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,479评论 4 322
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,080评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,053评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,278评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,245评论 2 352
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,590评论 2 343

推荐阅读更多精彩内容