当前位置:   article > 正文

ElasticSearch之聚合操作_es的聚合操作

es的聚合操作

官网:Aggregations | Elasticsearch Guide [8.13] | Elastic

Elasticsearch除搜索以外,提供了针对ES 数据进行统计分析的功能。聚合(aggregations)可以让我们极其方便的实现对数据的统计、分析、运算。

基本语法

聚合查询的语法结构与其他查询相似,通常包含以下部分:

  • 查询条件:指定需要聚合的文档,可以使用标准的 Elasticsearch 查询语法,如 term、match、range 等等。
  • 聚合函数:指定要执行的聚合操作,如 sum、avg、min、max、terms、date_histogram 等等。每个聚合命令都会生成一个聚合结果。
  • 聚合嵌套:聚合命令可以嵌套,以便更细粒度地分析数据。
  1. GET <index_name>/_search
  2. {
  3. "aggs": {
  4. "<aggs_name>": { // 聚合名称需要自己定义
  5. "<agg_type>": {
  6. "field": "<field_name>"
  7. }
  8. }
  9. }
  10. }
  • aggs_name:聚合函数的名称
  • agg_type:聚合种类,比如是桶聚合(terms)或者是指标聚合(avg、sum、min、max等)
  • field_name:字段名称或者叫域名。

聚合的分类

  • Bucket Aggregation(桶聚合): 满足特定条件的文档的集合放置到一个桶里,每一个桶关联一个key,类比Mysql中的group by操作。
  1. SELECT size COUNT(*) FROM products GROUP BY size
  2. #bucket聚合的DSL类比实现:
  3. {
  4. "aggs": {
  5. "by_size": {
  6. "terms": {
  7. "field": "size"
  8. }
  9. }
  10. }
  • Metric Aggregation(指标聚合):数学运算,可以对文档字段进行统计分析,类比Mysql中的 min(), max(), sum() 操作。
  1. SELECT MIN(price), MAX(price) FROM products
  2. #Metric聚合的DSL类比实现:
  3. {
  4. "aggs":{
  5. "avg_price":{
  6. "avg":{
  7. "field":"price"
  8. }
  9. }
  10. }
  11. }
  • Pipeline Aggregation(管道聚合):对其他的聚合结果进行二次聚合

Metric Aggregation

  • 单值分析︰只输出一个分析结果
    • min, max, avg, sum
    • Cardinality(类似distinct Count)
  • 多值分析:输出多个分析结果
    • stats(统计), extended stats
    • percentile (百分位), percentile rank
    • top hits(排在前面的示例)

示例数据:

  1. DELETE /member
  2. #创建索引库
  3. PUT /member
  4. {
  5. "mappings": {
  6. "properties": {
  7. "age":{
  8. "type": "integer"
  9. },
  10. "gender":{
  11. "type": "keyword"
  12. },
  13. "job":{
  14. "type" : "text",
  15. "fields" : {
  16. "keyword" : {
  17. "type" : "keyword",
  18. "ignore_above" : 50
  19. }
  20. }
  21. },
  22. "name":{
  23. "type": "keyword"
  24. },
  25. "salary":{
  26. "type": "integer"
  27. }
  28. }
  29. }
  30. }
  31. PUT /member/_bulk
  32. { "index" : { "_id" : "1" } }
  33. { "name" : "Emma","age":32,"job":"Product Manager","gender":"female","salary":35000 }
  34. { "index" : { "_id" : "2" } }
  35. { "name" : "Underwood","age":41,"job":"Dev Manager","gender":"male","salary": 50000}
  36. { "index" : { "_id" : "3" } }
  37. { "name" : "Tran","age":25,"job":"Web Designer","gender":"male","salary":18000 }
  38. { "index" : { "_id" : "4" } }
  39. { "name" : "Rivera","age":26,"job":"Web Designer","gender":"female","salary": 22000}
  40. { "index" : { "_id" : "5" } }
  41. { "name" : "Rose","age":25,"job":"QA","gender":"female","salary":18000 }
  42. { "index" : { "_id" : "6" } }
  43. { "name" : "Lucy","age":31,"job":"QA","gender":"female","salary": 25000}
  44. { "index" : { "_id" : "7" } }
  45. { "name" : "Byrd","age":27,"job":"QA","gender":"male","salary":20000 }
  46. { "index" : { "_id" : "8" } }
  47. { "name" : "Foster","age":27,"job":"Java Programmer","gender":"male","salary": 20000}
  48. { "index" : { "_id" : "9" } }
  49. { "name" : "Gregory","age":32,"job":"Java Programmer","gender":"male","salary":22000 }
  50. { "index" : { "_id" : "10" } }
  51. { "name" : "Bryant","age":20,"job":"Java Programmer","gender":"male","salary": 9000}
  52. { "index" : { "_id" : "11" } }
  53. { "name" : "Jenny","age":36,"job":"Java Programmer","gender":"female","salary":38000 }
  54. { "index" : { "_id" : "12" } }
  55. { "name" : "Mcdonald","age":31,"job":"Java Programmer","gender":"male","salary": 32000}
  56. { "index" : { "_id" : "13" } }
  57. { "name" : "Jonthna","age":30,"job":"Java Programmer","gender":"female","salary":30000 }
  58. { "index" : { "_id" : "14" } }
  59. { "name" : "Marshall","age":32,"job":"Javascript Programmer","gender":"male","salary": 25000}
  60. { "index" : { "_id" : "15" } }
  61. { "name" : "King","age":33,"job":"Java Programmer","gender":"male","salary":28000 }
  62. { "index" : { "_id" : "16" } }
  63. { "name" : "Mccarthy","age":21,"job":"Javascript Programmer","gender":"male","salary": 16000}
  64. { "index" : { "_id" : "17" } }
  65. { "name" : "Goodwin","age":25,"job":"Javascript Programmer","gender":"male","salary": 16000}
  66. { "index" : { "_id" : "18" } }
  67. { "name" : "Catherine","age":29,"job":"Javascript Programmer","gender":"female","salary": 20000}
  68. { "index" : { "_id" : "19" } }
  69. { "name" : "Boone","age":30,"job":"DBA","gender":"male","salary": 30000}
  70. { "index" : { "_id" : "20" } }
  71. { "name" : "Kathy","age":29,"job":"DBA","gender":"female","salary": 20000}

查询最低最高和平均工资:

  1. POST /member/_search
  2. {
  3. "size": 0,
  4. "aggs": {
  5. "max_salary": {
  6. "max": {
  7. "field": "salary"
  8. }
  9. },
  10. "min_salary": {
  11. "min": {
  12. "field": "salary"
  13. }
  14. },
  15. "avg_salary": {
  16. "avg": {
  17. "field": "salary"
  18. }
  19. }
  20. }
  21. }

对salary进行统计:

  1. POST /member/_search
  2. {
  3. "size": 0,
  4. "aggs": {
  5. "stats_salary": {
  6. "stats": {
  7. "field":"salary"
  8. }
  9. }
  10. }
  11. }

cardinate对搜索结果去重:

  1. POST /member/_search
  2. {
  3. "size": 0,
  4. "aggs": {
  5. "cardinate": {
  6. "cardinality": {
  7. "field": "job.keyword"
  8. }
  9. }
  10. }
  11. }

Bucket Aggregation

按照一定的规则,将文档分配到不同的桶中,从而达到分类的目的。ES提供的一些常见的 Bucket Aggregation。

  • Terms,需要字段支持filedata
    • keyword 默认支持fielddata
    • text需要在Mapping 中开启fielddata,会按照分词后的结果进行分桶
  • 数字类型
    • Range / Data Range
    • Histogram(直方图) / Date Histogram
  • 支持嵌套: 也就在桶里再做分桶

桶聚合可以用于各种场景,例如:

  • 对数据进行分组统计,比如按照地区、年龄段、性别等字段进行分组统计。
  • 对时间序列数据进行时间段分析,比如按照每小时、每天、每月、每季度、每年等时间段进行分析。
  • 对各种标签信息分类,并统计其数量。

获取job的分类信息

  1. GET /member/_search
  2. {
  3. "size": 0,
  4. "aggs": {
  5. "jobs": {
  6. "terms": {
  7. "field":"job.keyword"
  8. }
  9. }
  10. }
  11. }

聚合可配置属性有:

  • field:指定聚合字段
  • size:指定聚合结果数量
  • order:指定聚合结果排序方式

默认情况下,Bucket聚合会统计Bucket内的文档数量,记为_count,并且按照_count降序排序。我们可以指定order属性,自定义聚合的排序方式:

  1. GET /member/_search
  2. {
  3. "size": 0,
  4. "aggs": {
  5. "jobs": {
  6. "terms": {
  7. "field":"job.keyword",
  8. "size": 10,
  9. "order": {
  10. "_count": "asc"
  11. }
  12. }
  13. }
  14. }
  15. }

限定聚合范围

  1. GET /member/_search
  2. {
  3. "query": {
  4. "range": {
  5. "salary": {
  6. "gte": 20000
  7. }
  8. }
  9. },
  10. "size": 0,
  11. "aggs": {
  12. "jobs": {
  13. "terms": {
  14. "field":"job.keyword",
  15. "size": 10,
  16. "order": {
  17. "_count": "asc"
  18. }
  19. }
  20. }
  21. }
  22. }

注意:对 Text 字段进行 terms 聚合查询,会失败抛出异常

解决:对 Text 字段打开 fielddata,支持terms aggregation

  1. PUT /member/_mapping
  2. {
  3. "properties" : {
  4. "job":{
  5. "type": "text",
  6. "fielddata": true
  7. }
  8. }
  9. }
  10. # 对 Text 字段进行分词,分词后的terms
  11. POST /member/_search
  12. {
  13. "size": 0,
  14. "aggs": {
  15. "jobs": {
  16. "terms": {
  17. "field":"job"
  18. }
  19. }
  20. }
  21. }

对job.keyword 和 job 进行 terms 聚合,分桶的总数并不一样

  1. POST /member/_search
  2. {
  3. "size": 0,
  4. "aggs": {
  5. "cardinate": {
  6. "cardinality": {
  7. "field": "job"
  8. }
  9. }
  10. }
  11. }

Range & Histogram

  • 按照数字的范围,进行分桶
  • 在Range Aggregation中,可以自定义Key

Range 示例:按照工资的 Range 分桶

  1. #Salary Range分桶,可以自己定义 key
  2. POST member/_search
  3. {
  4. "size": 0,
  5. "aggs": {
  6. "salary_range": {
  7. "range": {
  8. "field":"salary",
  9. "ranges":[
  10. {
  11. "to":10000
  12. },
  13. {
  14. "from":10000,
  15. "to":20000
  16. },
  17. {
  18. "key":">20000",
  19. "from":20000
  20. }
  21. ]
  22. }
  23. }
  24. }
  25. }

Histogram示例:按照工资的间隔分桶

  1. #工资05万,以 2000一个区间进行分桶
  2. POST member/_search
  3. {
  4. "size": 0,
  5. "aggs": {
  6. "salary_histrogram": {
  7. "histogram": {
  8. "field":"salary",
  9. "interval":2000,
  10. "extended_bounds":{
  11. "min":0,
  12. "max":50000
  13. }
  14. }
  15. }
  16. }
  17. }

top_hits应用场景: 当获取分桶后,桶内最匹配的顶部文档列表

  1. # 指定size,不同工种中,年纪最大的3个员工的具体信息
  2. POST /member/_search
  3. {
  4. "size": 0,
  5. "aggs": {
  6. "jobs": {
  7. "terms": {
  8. "field":"job.keyword"
  9. },
  10. "aggs":{
  11. "old_member":{
  12. "top_hits":{
  13. "size":3,
  14. "sort":[
  15. {
  16. "age":{
  17. "order":"desc"
  18. }
  19. }
  20. ]
  21. }
  22. }
  23. }
  24. }
  25. }
  26. }

嵌套聚合示例

  1. # 嵌套聚合1,按照工作类型分桶,并统计工资信息
  2. POST member/_search
  3. {
  4. "size": 0,
  5. "aggs": {
  6. "Job_salary_stats": {
  7. "terms": {
  8. "field": "job.keyword"
  9. },
  10. "aggs": {
  11. "salary": {
  12. "stats": {
  13. "field": "salary"
  14. }
  15. }
  16. }
  17. }
  18. }
  19. }
  20. # 多次嵌套。根据工作类型分桶,然后按照性别分桶,计算工资的统计信息
  21. POST member/_search
  22. {
  23. "size": 0,
  24. "aggs": {
  25. "Job_gender_stats": {
  26. "terms": {
  27. "field": "job.keyword"
  28. },
  29. "aggs": {
  30. "gender_stats": {
  31. "terms": {
  32. "field": "gender"
  33. },
  34. "aggs": {
  35. "salary_stats": {
  36. "stats": {
  37. "field": "salary"
  38. }
  39. }
  40. }
  41. }
  42. }
  43. }
  44. }
  45. }

Pipeline Aggregation

支持对聚合分析的结果,再次进行聚合分析。

Pipeline 的分析结果会输出到原结果中,根据位置的不同,分为两类:

  • Sibling - 结果和现有分析结果同级
    • Max,min,Avg & Sum Bucket
    • Stats,Extended Status Bucket
    • Percentiles Bucket
  • Parent -结果内嵌到现有的聚合分析结果之中
    • Derivative(求导)
    • Cumultive Sum(累计求和)
    • Moving Function(移动平均值 )

min_bucket示例

在员工数最多的工种里,找出平均工资最低的工种

  1. # 平均工资最低的工种
  2. POST member/_search
  3. {
  4. "size": 0,
  5. "aggs": {
  6. "jobs": {
  7. "terms": {
  8. "field": "job.keyword",
  9. "size": 10
  10. },
  11. "aggs": {
  12. "avg_salary": {
  13. "avg": {
  14. "field": "salary"
  15. }
  16. }
  17. }
  18. },
  19. "min_salary_by_job":{
  20. "min_bucket": {
  21. "buckets_path": "jobs>avg_salary"
  22. }
  23. }
  24. }
  25. }
  • min_salary_by_job结果和jobs的聚合同级
  • min_bucket求之前结果的最小值
  • 通过bucket_path关键字指定路径

Stats示例

  1. # 平均工资的统计分析
  2. POST member/_search
  3. {
  4. "size": 0,
  5. "aggs": {
  6. "jobs": {
  7. "terms": {
  8. "field": "job.keyword",
  9. "size": 10
  10. },
  11. "aggs": {
  12. "avg_salary": {
  13. "avg": {
  14. "field": "salary"
  15. }
  16. }
  17. }
  18. },
  19. "stats_salary_by_job":{
  20. "stats_bucket": {
  21. "buckets_path": "jobs>avg_salary"
  22. }
  23. }
  24. }
  25. }

percentiles示例

Percentile ranks aggregation | Elasticsearch Guide [7.17] | Elastic

  1. # 平均工资的百分位数
  2. POST member/_search
  3. {
  4. "size": 0,
  5. "aggs": {
  6. "jobs": {
  7. "terms": {
  8. "field": "job.keyword",
  9. "size": 10
  10. },
  11. "aggs": {
  12. "avg_salary": {
  13. "avg": {
  14. "field": "salary"
  15. }
  16. }
  17. }
  18. },
  19. "percentiles_salary_by_job":{
  20. "percentiles_bucket": {
  21. "buckets_path": "jobs>avg_salary"
  22. }
  23. }
  24. }
  25. }

Cumulative_sum示例

  1. #Cumulative_sum 累计求和
  2. POST member/_search
  3. {
  4. "size": 0,
  5. "aggs": {
  6. "age": {
  7. "histogram": {
  8. "field": "age",
  9. "min_doc_count": 0,
  10. "interval": 1
  11. },
  12. "aggs": {
  13. "avg_salary": {
  14. "avg": {
  15. "field": "salary"
  16. }
  17. },
  18. "cumulative_salary":{
  19. "cumulative_sum": {
  20. "buckets_path": "avg_salary"
  21. }
  22. }
  23. }
  24. }
  25. }
  26. }

聚合的作用范围

ES聚合分析的默认作用范围是query的查询结果集,同时ES还支持以下方式改变聚合的作用范围:

  • Filter
  • Post Filter
  • Global
  1. POST member/_search
  2. {
  3. "size": 0,
  4. "query": {
  5. "range": {
  6. "age": {
  7. "gte": 20
  8. }
  9. }
  10. },
  11. "aggs": {
  12. "jobs": {
  13. "terms": {
  14. "field":"job.keyword"
  15. }
  16. }
  17. }
  18. }
  19. #Filter
  20. POST member/_search
  21. {
  22. "size": 0,
  23. "aggs": {
  24. "older_person": {
  25. "filter":{
  26. "range":{
  27. "age":{
  28. "from":35
  29. }
  30. }
  31. },
  32. "aggs":{
  33. "jobs":{
  34. "terms": {
  35. "field":"job.keyword"
  36. }
  37. }
  38. }},
  39. "all_jobs": {
  40. "terms": {
  41. "field":"job.keyword"
  42. }
  43. }
  44. }
  45. }
  46. #Post field. 一条语句,找出所有的job类型。还能找到聚合后符合条件的结果
  47. POST member/_search
  48. {
  49. "aggs": {
  50. "jobs": {
  51. "terms": {
  52. "field": "job.keyword"
  53. }
  54. }
  55. },
  56. "post_filter": {
  57. "match": {
  58. "job.keyword": "Dev Manager"
  59. }
  60. }
  61. }
  62. #global
  63. POST member/_search
  64. {
  65. "size": 0,
  66. "query": {
  67. "range": {
  68. "age": {
  69. "gte": 40
  70. }
  71. }
  72. },
  73. "aggs": {
  74. "jobs": {
  75. "terms": {
  76. "field":"job.keyword"
  77. }
  78. },
  79. "all":{
  80. "global":{},
  81. "aggs":{
  82. "salary_avg":{
  83. "avg":{
  84. "field":"salary"
  85. }
  86. }
  87. }
  88. }
  89. }
  90. }

排序

指定order,按照count和key进行排序:

  • 默认情况,按照count降序排序
  • 指定size,就能返回相应的桶

  1. #排序 order
  2. #count and key
  3. POST member/_search
  4. {
  5. "size": 0,
  6. "query": {
  7. "range": {
  8. "age": {
  9. "gte": 20
  10. }
  11. }
  12. },
  13. "aggs": {
  14. "jobs": {
  15. "terms": {
  16. "field":"job.keyword",
  17. "order":[
  18. {"_count":"asc"},
  19. {"_key":"desc"}
  20. ]
  21. }
  22. }
  23. }
  24. }
  25. #排序 order
  26. #count and key
  27. POST member/_search
  28. {
  29. "size": 0,
  30. "aggs": {
  31. "jobs": {
  32. "terms": {
  33. "field":"job.keyword",
  34. "order":[ {
  35. "avg_salary":"desc"
  36. }]
  37. },
  38. "aggs": {
  39. "avg_salary": {
  40. "avg": {
  41. "field":"salary"
  42. }
  43. }
  44. }
  45. }
  46. }
  47. }
  48. #排序 order
  49. #count and key
  50. POST member/_search
  51. {
  52. "size": 0,
  53. "aggs": {
  54. "jobs": {
  55. "terms": {
  56. "field":"job.keyword",
  57. "order":[ {
  58. "stats_salary.min":"desc"
  59. }]
  60. },
  61. "aggs": {
  62. "stats_salary": {
  63. "stats": {
  64. "field":"salary"
  65. }
  66. }
  67. }
  68. }
  69. }
  70. }

ES聚合分析不精准原因

ElasticSearch在对海量数据进行聚合分析的时候会损失搜索的精准度来满足实时性的需求。

不精准的原因: 数据分散到多个分片,聚合是每个分片的取 Top X,导致结果不精准。ES 可以不每个分片Top X,而是全量聚合,但势必这会有很大的性能问题。

提高聚合精度:

方案1:设置主分片为1

注意7.x版本已经默认为1。

适用场景:数据量小的小集群规模业务场景。

方案2:调大 shard_size 值

设置 shard_size 为比较大的值,官方推荐:size*1.5+10。shard_size 值越大,结果越趋近于精准聚合结果值。此外,还可以通过show_term_doc_count_error参数显示最差情况下的错误值,用于辅助确定 shard_size 大小。

  • size:是聚合结果的返回值,客户期望返回聚合排名前三,size值就是 3。
  • shard_size: 每个分片上聚合的数据条数。shard_size 原则上要大于等于 size

适用场景:数据量大、分片数多的集群业务场景。

在Terms Aggregation的返回中有两个特殊的数值:

  • doc_count_error_upper_bound : 被遗漏的term 分桶,包含的文档,有可能的最大值
  • sum_other_doc_count: 除了返回结果 bucket的terms以外,其他 terms 的文档总数(总数-返回的总数)

方案3:将size设置为全量值,来解决精度问题

将size设置为2的32次方减去1也就是分片支持的最大值,来解决精度问题。

原因:1.x版本,size等于 0 代表全部,高版本取消 0 值,所以设置了最大值(大于业务的全量值)。

全量带来的弊端就是:如果分片数据量极大,这样做会耗费巨大的CPU 资源来排序,而且可能会阻塞网络。

适用场景:对聚合精准度要求极高的业务场景,由于性能问题,不推荐使用。

方案4:使用Clickhouse/ Spark 进行精准聚合

适用场景:数据量非常大、聚合精度要求高、响应速度快的业务场景。

Elasticsearch 聚合性能优化

启用 eager global ordinals 提升高基数聚合性能

eager_global_ordinals | Elasticsearch Guide [7.17] | Elastic

本质:以空间换时间

        为了支持聚合和其他需要按文档查找字段值的操作,Elasticsearch 使用一种称为 doc values的数据结构。基于术语的字段类型(例如)使用序数keyword映射存储其 doc values 以获得更紧凑的表示。此映射的工作原理是根据每个术语的字典顺序为其分配一个增量整数或序数 。字段的 doc values 仅存储每个文档的序数而不是原始术语,并使用单独的查找结构在序数和术语之间进行转换。
        在聚合期间使用序数可以大大提高性能。例如,terms聚合仅依靠序数将文档收集到分片级别的存储桶中,然后在跨分片组合结果时将序数转换回其原始术语值。
        每个索引段都定义自己的序数映射,但聚合会收集整个分片的数据。因此,为了能够使用序数进行聚合等分片级操作,Elasticsearch 创建了一个统一的映射,称为 全局序数。全局序数映射建立在段序数之上,通过为每个段维护从全局序数到本地序数的映射来工作。

适用场景:高基数聚合 。高基数聚合场景中的高基数含义:一个字段包含很大比例的唯一值。

global ordinals 中文翻译成全局序号,是一种数据结构,应用场景如下:

  • 基于 keyword,ip 等字段的分桶聚合,包含:terms聚合、composite 聚合等。
  • 基于text 字段的分桶聚合(前提条件是:fielddata 开启)。
  • 基于父子文档 Join 类型的 has_child 查询和 父聚合。

global ordinals 使用一个数值代表字段中的字符串值,然后为每一个数值分配一个 bucket(分桶)。

global ordinals 的本质是:启用 eager_global_ordinals 时,会在刷新(refresh)分片时构建全局序号。这将构建全局序号的成本从搜索阶段转移到了数据索引化(写入)阶段。

创建索引的同时开启:eager_global_ordinals。

  1. PUT my-index-000001/_mapping
  2. {
  3. "properties": {
  4. "tags": {
  5. "type": "keyword",
  6. "eager_global_ordinals": true
  7. }
  8. }
  9. }

注意:开启 eager_global_ordinals 会影响写入性能,因为每次刷新时都会创建新的全局序号。为了最大程度地减少由于频繁刷新建立全局序号而导致的额外开销,请调大刷新间隔 refresh_interval。

  1. PUT my-index-000001/_settings
  2. {
  3. "index": {
  4. "refresh_interval": "30s"
  5. }

插入数据时对索引进行预排序

Index Sorting | Elasticsearch Guide [7.17] | Elastic

  • Index sorting (索引排序)可用于在插入时对索引进行预排序,而不是在查询时再对索引进行排序,这将提高范围查询(range query)和排序操作的性能。
  • 在 Elasticsearch 中创建新索引时,可以配置如何对每个分片内的段进行排序。
  • 这是 Elasticsearch 6.X 之后版本才有的特性。
  1. PUT my-index-000001
  2. {
  3. "settings": {
  4. "index": {
  5. "sort.field": [ "username", "date" ],
  6. "sort.order": [ "asc", "desc" ]
  7. }
  8. },
  9. "mappings": {
  10. "properties": {
  11. "username": {
  12. "type": "keyword",
  13. "doc_values": true
  14. },
  15. "date": {
  16. "type": "date"
  17. }
  18. }
  19. }
  20. }

注意:预排序将增加 Elasticsearch 写入的成本。在某些用户特定场景下,开启索引预排序会导致大约 40%-50% 的写性能下降。也就是说,如果用户场景更关注写性能的业务,开启索引预排序不是一个很好的选择。

使用节点查询缓存

Node query cache settings | Elasticsearch Guide [7.17] | Elastic

节点查询缓存(Node query cache)可用于有效缓存过滤器(filter)操作的结果。如果多次执行同一 filter 操作,这将很有效,但是即便更改过滤器中的某一个值,也将意味着需要计算新的过滤器结果。

例如,由于 “now” 值一直在变化,因此无法缓存在过滤器上下文中使用 “now” 的查询。

那怎么使用缓存呢?通过在 now 字段上应用 datemath 格式将其四舍五入到最接近的分钟/小时等,可以使此类请求更具可缓存性,以便可以对筛选结果进行缓存。

  1. PUT /my_index/_doc/1
  2. {
  3. "create_time":"2022-05-11T16:30:55.328Z"
  4. }
  5. #下面的示例无法使用缓存
  6. GET /my_index/_search
  7. {
  8. "query":{
  9. "constant_score": {
  10. "filter": {
  11. "range": {
  12. "create_time": {
  13. "gte": "now-1h",
  14. "lte": "now"
  15. }
  16. }
  17. }
  18. }
  19. }
  20. }
  21. # 下面的示例就可以使用节点查询缓存。
  22. GET /my_index/_search
  23. {
  24. "query":{
  25. "constant_score": {
  26. "filter": {
  27. "range": {
  28. "create_time": {
  29. "gte": "now-1h/m",
  30. "lte": "now/m"
  31. }
  32. }
  33. }
  34. }
  35. }
  36. }

上述示例中的“now-1h/m” 就是 datemath 的格式。

如果当前时间 now 是:16:31:29,那么range query 将匹配 my_date 介于:15:31:00 和 15:31:59 之间的时间数据。同理,聚合的前半部分 query 中如果有基于时间查询,或者后半部分 aggs 部分中有基于时间聚合的,建议都使用 datemath 方式做缓存处理以优化性能。

使用分片请求缓存

聚合语句中,设置:size:0,就会使用分片请求缓存缓存结果。size = 0 的含义是:只返回聚合结果,不返回查询结果。

  1. GET /es_db/_search
  2. {
  3. "size": 0,
  4. "aggs": {
  5. "remark_agg": {
  6. "terms": {
  7. "field": "remark.keyword"
  8. }
  9. }
  10. }
  11. }

拆分聚合,使聚合-并行化

Multi search API | Elasticsearch Guide [7.17] | Elastic

Elasticsearch 查询条件中同时有多个条件聚合,默认情况下聚合不是并行运行的。当为每个聚合提供自己的查询并执行 msearch 时,性能会有显著提升。因此,在 CPU 资源不是瓶颈的前提下,如果想缩短响应时间,可以将多个聚合拆分为多个查询,借助:msearch 实现并行聚合。

  1. GET my-index-000001/_msearch
  2. { }
  3. {"query" : {"match" : { "message": "this is a test"}}}
  4. {"index": "my-index-000002"}
  5. {"query" : {"match_all" : {}}}
  6. #常规的多条件聚合实现
  7. GET /member/_search
  8. {
  9. "size": 0,
  10. "aggs": {
  11. "job_agg": {
  12. "terms": {
  13. "field": "job.keyword"
  14. }
  15. },
  16. "max_salary":{
  17. "max": {
  18. "field": "salary"
  19. }
  20. }
  21. }
  22. }
  23. # msearch 拆分多个语句的聚合实现
  24. GET _msearch
  25. {"index":"member"}
  26. {"size":0,"aggs":{"job_agg":{"terms":{"field": "job.keyword"}}}}
  27. {"index":"member"}
  28. {"size":0,"aggs":{"max_salary":{"max":{"field": "salary"}}}}

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/人工智能uu/article/detail/785713
推荐阅读
相关标签
  

闽ICP备14008679号