当前位置:   article > 正文

Elasticsearch学习_indexrequest.source

indexrequest.source

关系型数据库搜索出现的问题

  • 性能瓶颈:当数据量越来越大的时候,数据库搜索的性能会有明显的下降。虽然分库分表可以来解决存储的问题,但是性能问题还是不能彻底解决,而且系统复杂度会提高、可用性下降
  • 复杂业务:有时候会有拼音、模糊等比较复杂的搜索方式
  • 并发能力:数据库是磁盘存储,虽然有缓存方案,但是并不适用,因此数据库的读写并发能力较差,难以应对高并发场景

倒排索引

全文检索:全部都检索,可以按照用户定义的查询规则任意查询,得到目标数据。
内部实现的原理就是倒排索引。
概念:

  • 文档(document):用来检索的海量数据,其中每一条数据就是每一个文档。
  • 词条(term):对于文档或者搜索出来的数据,通过相对应的算法分词,得到的词语就是词条。

原理:

  • 数据按照规则处理完成后储存到索引库(这时候会将每一个文档进行分词,一样的词条汇合成文档集合)
  • 用户输入关键词按照规则处理完成后在索引库中检索(将用户输入的关键词分词去找几个分词的文档集合交集就可以得到最终都含有分词的文档)

数据是如何分布:分片机制
数据是如何交互:平行节点 内部交互 节点对等的分布式架构
数据备份:副本机制

常见的数据类型:

  • String类型
    • 分为text,可分词
    • keyword不可分词)
  • numerical类型,数值类型,分两类
    • 基本数据类型:long,interger,short,byte,double,float,half_float
    • 浮点型 scaled_float
  • Date 日期类型
  • object类型,但是es会将对象数据扁平化处理在存储

各种Request

连接客户端

  1. //建立连接
  2. RestHighLevelClient client = new RestHighLevelClient(
  3. RestClient.builder(
  4. new HttpHost("localhost", 9200, "http"),
  5. new HttpHost("localhost", 9201, "http")));
  6. //关闭客户端
  7. client.close();

创建索引库-CreateIndexRequest

  • 创建Request对象,并制定索引库名称
  • 指定setting配置
  • 指定mapping配置
  • 发送请求,得到相应
  1. CreateIndexRequest request = new CreateIndexRequest("user");
  2. request.settings(Settings.builder()
  3. .put("index.number_of_shards", 3)
  4. .put("index.number_of_replicas", 1)
  5. );
  6. request.mapping(
  7. "{\n" +
  8. " \"properties\": {\n" +
  9. " \"id\": {\n" +
  10. " \"type\": \"long\"\n" +
  11. " },\n" +
  12. " \"name\":{\n" +
  13. " \"type\": \"keyword\"\n" +
  14. " },\n" +
  15. " \"age\":{\n" +
  16. " \"type\": \"integer\"\n" +
  17. " },\n" +
  18. " \"gender\":{\n" +
  19. " \"type\": \"keyword\"\n" +
  20. " },\n" +
  21. " \"note\":{\n" +
  22. " \"type\": \"text\",\n" +
  23. " \"analyzer\": \"ik_max_word\"\n" +
  24. " }\n" +
  25. " }\n" +
  26. " }",
  27. //指定映射的内容的类型为json
  28. XContentType.JSON);
  29. CreateIndexResponse response = client.indices()
  30. .create(request, RequestOptions.DEFAULT);

IndexRequest-文档操作

  • 准备文档数据
  • 创建IndexRequest对象,并指定索引库名称
  • 指定新增的数据id
  • 将新增的文档数据转化为json格式,发给IndexRequest
  1. User user = new User(110L, "张三", 22, "0", "翻斗小院");
  2. IndexRequest indexRequest = new IndexRequest("user");
  3. indexRequest.id(user.getId().toString());
  4. String userJson = JSON.toJSONString(user);
  5. indexRequest.source(userJson, XContentType.JSON);
  6. IndexResponse response = client.index(indexRequest, RequestOptions.DEFAULT);

注意:ES要是遇到id一致的话,实质是先删除后添加

GetRequest-查询文档

  • 新建GetRequest对象,并指定索引库名称,文档id
  • 发送请求,得到结果
  • 从结果中得到json字符串的source
  • 将json反序列化为对象
  1. GetRequest getRequest = new GetRequest("user", "110");
  2. GetResponse response = client.get(getRequest, RequestOptions.DEFAULT);
  3. String sourceAsString = response.getSourceAsString();
  4. User user = JSON.parseObject(sourceAsString, User.class);
  5. System.out.println(user);

DeleteRequest-删除文档

  • 创建DeleteRequest对象,指定索引库名称,文档ID
  • 发送请求
  1. DeleteRequest request = new DeleteRequest("user","110");
  2. DeleteResponse deleteResponse = client.delete(request,RequestOptions.DEFAULT);

BulkRequest-批量处理

  • 从数据库查询文档数据
  • 创建BulkRequest对象
  • 创建多个IndexRequest对象,组织文档数据,并添加到BulkRequest中
  • 发送请求
  1. BulkRequest bulkRequest = new BulkRequest();
  2. for (User user : userList) {
  3. bulkRequest.add(new IndexRequest("user")
  4. .id(user.getId().toString())
  5. .source(JSON.toJSONString(user), XContentType.JSON)
  6. );
  7. }
  8. BulkResponse bulkResponse = client.bulk(bulkRequest, RequestOptions.DEFAULT);

 

各种查询

  • 基本查询
  • source筛选
    • 分词查询
    • 词条查询
    • 范围查询
    • 布尔查询(Filter查询)
  • 排序
  • 分页
  • 高亮
  • 聚合

大致流程

  • 创建SearchSourceBuilder对象(添加查询条件QueryBuilders或者添加排序、分页插件)
  • 创建SearchRequest对象,并指定索引库名称
  • 添加SearchSourceBuilder对象到SearchRequest对象source中
  • 发送请求,得到结果
  • 解析SearchResponse(获取总条数,获取SearchHits数组并遍历
  1. sourceBuilder.query(
  2. QueryBuilders.matchAllQuery()
  3. );
  4. SearchRequest request = new SearchRequest("user");
  5. request.source(sourceBuilder);
  6. SearchResponse response = client.search(request, RequestOptions.DEFAULT);
  7. SearchHits searchHits = response.getHits();
  8. // 5.1.获取总条数
  9. long total = searchHits.getTotalHits().value;
  10. System.out.println("total = " + total);
  11. // 5.2.获取SearchHit数组,并遍历
  12. SearchHit[] hits = searchHits.getHits();
  13. for (SearchHit hit : hits) {
  14. //获取分数
  15. System.out.println("文档得分:"+hit.getScore());
  16. // - 获取其中的`_source`,是JSON数据
  17. String json = hit.getSourceAsString();
  18. // - 把`_source`反序列化为User对象
  19. User user = JSON.parseObject(json, User.class);
  20. System.out.println("user = " + user);
  21. }

查询所有-matchALL

  1. sourceBuilder.query(QueryBuilders.matchAllQuery());

词条查询-termQuery

ElasticSearch两个数据类型

  • text:会分词,不支持聚合
  • keyword:不会分词,将全部内容作为一个词条,支持聚合
    term查询:不会对查询条件进行分词。
sourceBuilder.query(QueryBuilders.termQuery("name", "小红"));

分词匹配查询-matchQuery

  • term query会去倒排索引中寻找确切的term,它并不知道分词器的存在。这种查询适合keyword 、numericdate
  • match query知道分词器的存在。并且理解是如何被分词的

MatchQueryBuilder queryBuilder = QueryBuilders.matchQuery("name", "小红");

模糊查询-fuzzy

设置修正的次数,最大为2

  1. FuzzyQueryBuilder queryBuilder = QueryBuilders.fuzzyQuery("note", "模糊查询");
  2. queryBuilder.fuzziness(Fuzziness.TWO);

范围&排序查询-range&sort

  1. RangeQueryBuilder queryBuilder = QueryBuilders.rangeQuery("age");
  2. // 22 <= age < 27
  3. queryBuilder.gte(22);
  4. queryBuilder.lt(27);

多条件查询-queryString

  1. QueryStringQueryBuilder queryBuilder =
  2. QueryBuilders.queryStringQuery("同学")
  3. .field("name")
  4. .field("note")
  5. // .defaultField("note") // 默认搜索域
  6. .defaultOperator(Operator.AND);
  7. printResultByQuery(queryBuilder);

bool查询&结果过滤-boolQuery

连接方式:

  • must(and):条件必须成立
  • must_not(not):条件必须不成立
  • should(or):条件可以成立
  • filter:条件必须成立,性能比must高。不会计算得分
  1. // 1.构建bool条件对象
  2. BoolQueryBuilder queryBuilder = QueryBuilders.boolQuery();
  3. // 2.构建matchQuery对象,查询相信信息`note`为: 同学
  4. MatchQueryBuilder matchQueryBuilder = QueryBuilders.matchQuery("note", "同学");
  5. queryBuilder.must(matchQueryBuilder);
  6. // 3.过滤姓名`name`包含:小武
  7. TermQueryBuilder termQueryBuilder = QueryBuilders.termQuery("name", "小武");
  8. queryBuilder.filter(termQueryBuilder);
  9. // 4.过滤年龄`age`在:23-27
  10. RangeQueryBuilder rangeQueryBuilder = QueryBuilders.rangeQuery("age").gte(23).lte(27);
  11. queryBuilder.filter(rangeQueryBuilder);

分页查询-from

  1. int page = 2; // 当前页
  2. int size = 2; // 一页显示条数
  3. int from = (page - 1) * size; // 每一页起始条数
  4. sourceBuilder.from(from);
  5. sourceBuilder.size(size);

高亮查询-highlight

高亮三要素:

  • pre_tags:前置标签,可以省略,默认是em
  • post_tags:后置标签,可以省略,默认是em
  • fields:需要高亮的字段
    • title:这里声明title字段需要高亮,后面可以为这个字段设置特有配置,也可以空
  1. HighlightBuilder highlight = SearchSourceBuilder.highlight();
  2. highlight.field("note"); // 高亮显示域
  3. highlight.preTags("<font color='red'>"); // 高亮显示前缀
  4. highlight.postTags("</font>"); // 高亮显示后缀
  5. sourceBuilder.highlighter(highlight);
  1. //要把结果解析
  2. HighlightField highlightField = searchHit.getHighlightFields().get("note"); // get("高亮显示域名称")
  3. Text[] fragments = highlightField.getFragments();
  4. String note = StringUtils.join(fragments);
  5. // 判断如果是可以获取到数据则更新到用户对象中
  6. if (StringUtils.isNotBlank(note)) {
  7. user.setNote(note);
  8. }

聚合查询-aggregation

参与聚合的字段,必须是keyword类型

桶-数据分组
度量-聚合运算

  • Avg Aggregation:求平均值
  • Max Aggregation:求最大值
  • Min Aggregation:求最小值
  • Percentiles Aggregation:求百分比
  • Stats Aggregation:同时返回avg、max、min、sum、count等
  • Sum Aggregation:求和
  • Top hits Aggregation:求前几
  • Value Count Aggregation:求总数
  1. SearchSourceBuilder sourceBuilder = new SearchSourceBuilder();
  2. sourceBuilder.aggregation(
  3. AggregationBuilders
  4. .terms("popular_color")
  5. .field("color.keyword"));
  1. TermsAggregationBuilder popularColorAggs = AggregationBuilders.terms("popular_color").field("color.keyword");
  2. // ***分组后平均价格计算
  3. AvgAggregationBuilder priceAggs = AggregationBuilders.avg("avg_price").field("price");
  4. // ***按颜色分组后添加到子聚合计算
  5. popularColorAggs.subAggregation(priceAggs);
  6. sourceBuilder.aggregation(popularColorAggs)

 

特殊类型

大多数情况下,数据都是简单的JSON对象,但是如果我们存入的ES数据比较复杂,包含对象。Lucene是不支持对象数据的,因此ES会将数据扁平化处理。
这时候需要引入一个特殊的对象,nested类型,它允许包含一组属性类似object数组的每个对象,可以被独立的搜索,互不影响。

  1. PUT my_index
  2. {
  3. "mappings": {
  4. "properties": {
  5. "user": {
  6. "type": "nested",
  7. "properties": {
  8. "first":{"type":"keyword"},
  9. "last":{"type":"keyword"}
  10. }
  11. }
  12. }
  13. }
  14. }

image20200217213003706.png

二级标题自动补全和提示Suggester

Suggester包含三种不同方式,用的Completion模式,实现自动补全和基于上下文的提示功能
1.创建一个articles的索引库,含有suggestion的字段,类型为completion

  1. PUT articles
  2. {
  3. "mappings": {
  4. "properties": {
  5. "suggestion":{
  6. "type": "completion"
  7. }
  8. }
  9. }
  10. }

组词分词器analyzer

image20200220214815975.png

  1. PUT /goods
  2. {
  3. "settings": {
  4. "analysis": {
  5. "analyzer": {
  6. "my_pinyin": {
  7. "tokenizer": "ik_smart",
  8. "filter": [
  9. "py"
  10. ]
  11. }
  12. },
  13. "filter": {
  14. "py": {
  15. "type": "pinyin",
  16. "keep_full_pinyin": false,
  17. "keep_joined_full_pinyin": true,
  18. "keep_original": true,
  19. "limit_first_letter_length": 16,
  20. "remove_duplicated_term": true
  21. }
  22. }
  23. }
  24. },
  25. "mappings": {
  26. "properties": {
  27. "id": {
  28. "type": "keyword"
  29. },
  30. "name": {
  31. "type": "completion",
  32. "analyzer": "my_pinyin",
  33. "search_analyzer": "ik_smart"
  34. },
  35. "title":{
  36. "type": "text",
  37. "analyzer": "my_pinyin",
  38. "search_analyzer": "ik_smart"
  39. },
  40. "price":{
  41. "type": "long"
  42. }
  43. }
  44. }
  45. }

实战

  1. <!--elastic客户端-->
  2. <dependency>
  3. <groupId>org.elasticsearch.client</groupId>
  4. <artifactId>elasticsearch-rest-high-level-client</artifactId>
  5. <version>7.4.2</version>
  6. </dependency>
  7. <!--日志-->
  8. <dependency>
  9. <groupId>org.apache.logging.log4j</groupId>
  10. <artifactId>log4j-core</artifactId>
  11. <version>2.11.2</version>
  12. </dependency>
  1. <?xml version="1.0" encoding="UTF-8"?>
  2. <Configuration status="WARN">
  3. <Appenders>
  4. <Console name="Console" target="SYSTEM_OUT">
  5. <PatternLayout pattern="%d{HH:mm:ss.SSS} [%t] %-5level %logger{36} - %msg%n"/>
  6. </Console>
  7. </Appenders>
  8. <Loggers>
  9. <Root level="error">
  10. <AppenderRef ref="Console"/>
  11. </Root>
  12. </Loggers>
  13. </Configuration>
  1. /**
  2. * 演示自动补全查询
  3. */
  4. @Test
  5. public void testSuggest() throws IOException {
  6. // 1.创建 查询条件工厂(封装查询条件) 的对象
  7. SearchSourceBuilder searchSourceBuilder = new SearchSourceBuilder();
  8. // 1.1.准备Suggest,需要指定四个内容:
  9. // 1)自动补全的名称:name_suggest
  10. // 2)自动补全的类型:SuggestBuilders.completionSuggestion
  11. // 3)自动补全的字段:completionSuggestion("name")
  12. // 4)自动补全的前缀:.prefix("s")
  13. SuggestBuilder suggestBuilder = new SuggestBuilder();
  14. suggestBuilder.addSuggestion("name_suggest",
  15. SuggestBuilders.completionSuggestion("name").prefix("s").size(30));
  16. // 1.2.添加suggest条件
  17. searchSourceBuilder.suggest(suggestBuilder);
  18. // 2.构建 搜索的请求 对象,把sourceBuilder放进去
  19. SearchRequest request = new SearchRequest("goods");
  20. request.source(searchSourceBuilder);
  21. // 3.发请求
  22. SearchResponse response = client.search(request, RequestOptions.DEFAULT);
  23. // 4.解析结果
  24. Suggest suggest = response.getSuggest();
  25. // 4.1.根据名称获取suggest结果
  26. Suggest.Suggestion<? extends Suggest.Suggestion.Entry<? extends Suggest.Suggestion.Entry.Option>> nameSuggest =
  27. suggest.getSuggestion("name_suggest");
  28. // 4.2.遍历结果
  29. nameSuggest.forEach(suggestion -> {
  30. // 获取其中的options
  31. List<? extends Suggest.Suggestion.Entry.Option> options = suggestion.getOptions();
  32. System.out.println("补全的结果如下: ");
  33. // 遍历options
  34. for (Suggest.Suggestion.Entry.Option option : options) {
  35. Text text = option.getText();
  36. System.out.println("\t" + text);
  37. }
  38. });
  39. }
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/很楠不爱3/article/detail/499064
推荐阅读
相关标签
  

闽ICP备14008679号