当前位置:   article > 正文

边学边实战系列(六):ElasticSearch 聚合查询原理与实践

elasticsearch桶聚合查询

8ae4249fcd4d346a31904dc586c794df.gif关注公众号,回复“1024”获取2TB学习资源!

前面介绍了技术原理安装和基础使用索引管理DSL 查询相关的知识点。今天我将详细的为大家介绍 ElasticSearch 聚合查询相关知识,希望大家能够从中收获多多!如有帮助,请点在看、转发支持一波!!!

除了查询之外,最常用的聚合了,ElasticSearch提供了三种聚合方式:桶聚合(Bucket Aggregation),指标聚合(Metric Aggregation) 和 管道聚合(Pipline Aggregation)。本文主要讲讲桶聚合(Bucket Aggregation)。

聚合查询之Bucket聚合

聚合的引入

我们在SQL结果中常有:

  1. SELECT COUNT(color) 
  2. FROM table
  3. GROUP BY color

ElasticSearch中桶在概念上类似于 SQL 的分组(GROUP BY),而指标则类似于 COUNT()SUM()MAX() 等统计方法。

进而引入了两个概念:

  • 桶(Buckets) 满足特定条件的文档的集合

  • 指标(Metrics) 对桶内的文档进行统计计算

所以ElasticSearch包含3种聚合(Aggregation)方式

  • 桶聚合(Bucket Aggregation) - 本文中详解

  • 指标聚合(Metric Aggregation) - 下文中讲解

  • 管道聚合(Pipline Aggregation) - 再下一篇讲解

    • 聚合管道化,简单而言就是上一个聚合的结果成为下个聚合的输入;

(PS:指标聚合和桶聚合很多情况下是组合在一起使用的,其实你也可以看到,桶聚合本质上是一种特殊的指标聚合,它的聚合指标就是数据的条数count)。更多关于 ElasticSearch 数据库的学习文章,请参阅:搜索引擎 ElasticSearch ,本系列持续更新中。

如何理解Bucket聚合

如果你直接去看文档,大概有几十种:d9a1332cdfaf5b96bc043fe516f3bd9e.png要么你需要花大量时间学习,要么你已经迷失或者即将迷失在知识点中...

所以你需要稍微站在设计者的角度思考下,不难发现设计上大概分为三类(当然有些是第二和第三类的融合)。bc922782454c736137c948ce8a8156f9.png(图中并没有全部列出内容,因为图要表达的意图我觉得还是比较清楚的,这就够了;有了这种思虑和认知,会大大提升你的认知效率。)。

按知识点学习聚合

我们先按照官方权威指南中的一个例子,学习Aggregation中的知识点。

准备数据

让我们先看一个例子。我们将会创建一些对汽车经销商有用的聚合,数据是关于汽车交易的信息:车型、制造商、售价、何时被出售等。

首先我们批量索引一些数据:

  1. POST /test-agg-cars/_bulk
  2. "index": {}}
  3. "price" : 10000"color" : "red""make" : "honda""sold" : "2014-10-28" }
  4. "index": {}}
  5. "price" : 20000"color" : "red""make" : "honda""sold" : "2014-11-05" }
  6. "index": {}}
  7. "price" : 30000"color" : "green""make" : "ford""sold" : "2014-05-18" }
  8. "index": {}}
  9. "price" : 15000"color" : "blue""make" : "toyota""sold" : "2014-07-02" }
  10. "index": {}}
  11. "price" : 12000"color" : "green""make" : "toyota""sold" : "2014-08-19" }
  12. "index": {}}
  13. "price" : 20000"color" : "red""make" : "honda""sold" : "2014-11-05" }
  14. "index": {}}
  15. "price" : 80000"color" : "red""make" : "bmw""sold" : "2014-01-01" }
  16. "index": {}}
  17. "price" : 25000"color" : "blue""make" : "ford""sold" : "2014-02-12" }
标准的聚合

有了数据,开始构建我们的第一个聚合。汽车经销商可能会想知道哪个颜色的汽车销量最好,用聚合可以轻易得到结果,用 terms 桶操作:

  1. GET /test-agg-cars/_search
  2. {
  3.     "size" : 0,
  4.     "aggs" : { 
  5.         "popular_colors" : { 
  6.             "terms" : { 
  7.               "field" : "color.keyword"
  8.             }
  9.         }
  10.     }
  11. }
  • 聚合操作被置于顶层参数 aggs 之下(如果你愿意,完整形式 aggregations 同样有效)。

  • 然后,可以为聚合指定一个我们想要名称,本例中是:popular_colors 。

  • 最后,定义单个桶的类型 terms。

结果如下:4f7480d5ee169a0800dbe2cbd7d823d0.png

  • 因为我们设置了 size 参数,所以不会有 hits 搜索结果返回。

  • popular_colors 聚合是作为 aggregations 字段的一部分被返回的。

  • 每个桶的 key 都与 color 字段里找到的唯一词对应。它总会包含 doc_count 字段,告诉我们包含该词项的文档数量。

  • 每个桶的数量代表该颜色的文档数量。

多个聚合

同时计算两种桶的结果:对color和对make。

  1. GET /test-agg-cars/_search
  2. {
  3.     "size" : 0,
  4.     "aggs" : { 
  5.         "popular_colors" : { 
  6.             "terms" : { 
  7.               "field" : "color.keyword"
  8.             }
  9.         },
  10.         "make_by" : { 
  11.             "terms" : { 
  12.               "field" : "make.keyword"
  13.             }
  14.         }
  15.     }
  16. }

结果如下:1cbed715d4ed81f981b60756d6db5861.png

聚合的嵌套

这个新的聚合层让我们可以将 avg 度量嵌套置于 terms 桶内。实际上,这就为每个颜色生成了平均价格。

  1. GET /test-agg-cars/_search
  2. {
  3.    "size" : 0,
  4.    "aggs": {
  5.       "colors": {
  6.          "terms": {
  7.             "field""color.keyword"
  8.          },
  9.          "aggs": { 
  10.             "avg_price": { 
  11.                "avg": {
  12.                   "field""price" 
  13.                }
  14.             }
  15.          }
  16.       }
  17.    }
  18. }

结果如下:910513465a88c5cda1decb38f8160aba.png正如 颜色 的例子,我们需要给度量起一个名字( avg_price )这样可以稍后根据名字获取它的值。最后,我们指定度量本身( avg )以及我们想要计算平均值的字段( price )。更多关于 ElasticSearch 数据库的学习文章,请参阅:NoSQL 数据库之 ElasticSearch ,本系列持续更新中。

动态脚本的聚合

这个例子告诉你,ElasticSearch还支持一些基于脚本(生成运行时的字段)的复杂的动态聚合。

  1. GET /test-agg-cars/_search
  2. {
  3.   "runtime_mappings": {
  4.     "make.length": {
  5.       "type""long",
  6.       "script""emit(doc['make.keyword'].value.length())"
  7.     }
  8.   },
  9.   "size" : 0,
  10.   "aggs": {
  11.     "make_length": {
  12.       "histogram": {
  13.         "interval"1,
  14.         "field""make.length"
  15.       }
  16.     }
  17.   }
  18. }

结果如下:72b357c4dc036cab6ac32594893ad84d.pnghistogram可以参考后文内容。

按分类学习Bucket聚合

我们在具体学习时,也无需学习每一个点,基于上面图的认知,我们只需用20%的时间学习最为常用的80%功能即可,其它查查文档而已。

前置条件的过滤:filter

在当前文档集上下文中定义与指定过滤器(Filter)匹配的所有文档的单个存储桶。通常,这将用于将当前聚合上下文缩小到一组特定的文档。

  1. GET /test-agg-cars/_search
  2. {
  3.   "size"0,
  4.   "aggs": {
  5.     "make_by": {
  6.       "filter": { "term": { "type""honda" } },
  7.       "aggs": {
  8.         "avg_price": { "avg": { "field""price" } }
  9.       }
  10.     }
  11.   }
  12. }

结果如下:89bd80ff47dca8b423ea71341af2c81b.png

对filter进行分组聚合:filters

设计一个新的例子, 日志系统中,每条日志都是在文本中,包含warning/info等信息。

  1. PUT /test-agg-logs/_bulk?refresh
  2. "index" : { "_id" : 1 } }
  3. "body" : "warning: page could not be rendered" }
  4. "index" : { "_id" : 2 } }
  5. "body" : "authentication error" }
  6. "index" : { "_id" : 3 } }
  7. "body" : "warning: connection timed out" }
  8. "index" : { "_id" : 4 } }
  9. "body" : "info: hello pdai" }

我们需要对包含不同日志类型的日志进行分组,这就需要filters:

  1. GET /test-agg-logs/_search
  2. {
  3.   "size"0,
  4.   "aggs" : {
  5.     "messages" : {
  6.       "filters" : {
  7.         "other_bucket_key""other_messages",
  8.         "filters" : {
  9.           "infos" :   { "match" : { "body" : "info"   }},
  10.           "warnings" : { "match" : { "body" : "warning" }}
  11.         }
  12.       }
  13.     }
  14.   }
  15. }

结果如下:7e5280c2ced155bbbc71faafb57ffd0d.png

对number类型聚合:Range

基于多桶值源的聚合,使用户能够定义一组范围-每个范围代表一个桶。在聚合过程中,将从每个存储区范围中检查从每个文档中提取的值,并“存储”相关/匹配的文档。请注意,此聚合包括 from 值,但不包括 to 每个范围的值。

  1. GET /test-agg-cars/_search
  2. {
  3.   "size"0,
  4.   "aggs": {
  5.     "price_ranges": {
  6.       "range": {
  7.         "field""price",
  8.         "ranges": [
  9.           { "to"20000 },
  10.           { "from"20000"to"40000 },
  11.           { "from"40000 }
  12.         ]
  13.       }
  14.     }
  15.   }
  16. }

结果如下:b5683613f5edb06eaa87c2c12de3e216.png

对IP类型聚合:IP Range

专用于IP值的范围聚合。

  1. GET /ip_addresses/_search
  2. {
  3.   "size"10,
  4.   "aggs": {
  5.     "ip_ranges": {
  6.       "ip_range": {
  7.         "field""ip",
  8.         "ranges": [
  9.           { "to""10.0.0.5" },
  10.           { "from""10.0.0.5" }
  11.         ]
  12.       }
  13.     }
  14.   }
  15. }

返回

  1. {
  2.   ...
  3.   "aggregations": {
  4.     "ip_ranges": {
  5.       "buckets": [
  6.         {
  7.           "key""*-10.0.0.5",
  8.           "to""10.0.0.5",
  9.           "doc_count"10
  10.         },
  11.         {
  12.           "key""10.0.0.5-*",
  13.           "from""10.0.0.5",
  14.           "doc_count"260
  15.         }
  16.       ]
  17.     }
  18.   }
  19. }
  • CIDR Mask分组

此外还可以用CIDR Mask分组

  1. GET /ip_addresses/_search
  2. {
  3.   "size"0,
  4.   "aggs": {
  5.     "ip_ranges": {
  6.       "ip_range": {
  7.         "field""ip",
  8.         "ranges": [
  9.           { "mask""10.0.0.0/25" },
  10.           { "mask""10.0.0.127/25" }
  11.         ]
  12.       }
  13.     }
  14.   }
  15. }

返回

  1. {
  2.   ...
  3.   "aggregations": {
  4.     "ip_ranges": {
  5.       "buckets": [
  6.         {
  7.           "key""10.0.0.0/25",
  8.           "from""10.0.0.0",
  9.           "to""10.0.0.128",
  10.           "doc_count"128
  11.         },
  12.         {
  13.           "key""10.0.0.127/25",
  14.           "from""10.0.0.0",
  15.           "to""10.0.0.128",
  16.           "doc_count"128
  17.         }
  18.       ]
  19.     }
  20.   }
  21. }
  • 增加key显示

  1. GET /ip_addresses/_search
  2. {
  3.   "size"0,
  4.   "aggs": {
  5.     "ip_ranges": {
  6.       "ip_range": {
  7.         "field""ip",
  8.         "ranges": [
  9.           { "to""10.0.0.5" },
  10.           { "from""10.0.0.5" }
  11.         ],
  12.         "keyed"true // here
  13.       }
  14.     }
  15.   }
  16. }

返回

  1. {
  2.   ...
  3.   "aggregations": {
  4.     "ip_ranges": {
  5.       "buckets": {
  6.         "*-10.0.0.5": {
  7.           "to""10.0.0.5",
  8.           "doc_count"10
  9.         },
  10.         "10.0.0.5-*": {
  11.           "from""10.0.0.5",
  12.           "doc_count"260
  13.         }
  14.       }
  15.     }
  16.   }
  17. }
  • 自定义key显示

  1. GET /ip_addresses/_search
  2. {
  3.   "size"0,
  4.   "aggs": {
  5.     "ip_ranges": {
  6.       "ip_range": {
  7.         "field""ip",
  8.         "ranges": [
  9.           { "key""infinity""to""10.0.0.5" },
  10.           { "key""and-beyond""from""10.0.0.5" }
  11.         ],
  12.         "keyed"true
  13.       }
  14.     }
  15.   }
  16. }

返回

  1. {
  2.   ...
  3.   "aggregations": {
  4.     "ip_ranges": {
  5.       "buckets": {
  6.         "infinity": {
  7.           "to""10.0.0.5",
  8.           "doc_count"10
  9.         },
  10.         "and-beyond": {
  11.           "from""10.0.0.5",
  12.           "doc_count"260
  13.         }
  14.       }
  15.     }
  16.   }
  17. }
对日期类型聚合:Date Range

专用于日期值的范围聚合。

  1. GET /test-agg-cars/_search
  2. {
  3.   "size"0,
  4.   "aggs": {
  5.     "range": {
  6.       "date_range": {
  7.         "field""sold",
  8.         "format""yyyy-MM",
  9.         "ranges": [
  10.           { "from""2014-01-01" },  
  11.           { "to""2014-12-31" } 
  12.         ]
  13.       }
  14.     }
  15.   }
  16. }

结果如下:29bdc6f3342f70ddc79d470544677636.png此聚合与Range聚合之间的主要区别在于 from和to值可以在Date Math表达式中表示,并且还可以指定日期格式,通过该日期格式将返回from and to响应字段。请注意,此聚合包括from值,但不包括to每个范围的值。更多关于 ElasticSearch 数据库的学习文章,请参阅:搜索引擎 ElasticSearch ,本系列持续更新中。

对柱状图功能:Histrogram

直方图 histogram 本质上是就是为柱状图功能设计的。

创建直方图需要指定一个区间,如果我们要为售价创建一个直方图,可以将间隔设为 20,000。这样做将会在每个 $20,000 档创建一个新桶,然后文档会被分到对应的桶中。

对于仪表盘来说,我们希望知道每个售价区间内汽车的销量。我们还会想知道每个售价区间内汽车所带来的收入,可以通过对每个区间内已售汽车的售价求和得到。

可以用 histogram 和一个嵌套的 sum 度量得到我们想要的答案:

  1. GET /test-agg-cars/_search
  2. {
  3.    "size" : 0,
  4.    "aggs":{
  5.       "price":{
  6.          "histogram":{ 
  7.             "field""price.keyword",
  8.             "interval"20000
  9.          },
  10.          "aggs":{
  11.             "revenue": {
  12.                "sum": { 
  13.                  "field" : "price"
  14.                }
  15.              }
  16.          }
  17.       }
  18.    }
  19. }
  • histogram 桶要求两个参数:一个数值字段以及一个定义桶大小间隔。

  • sum 度量嵌套在每个售价区间内,用来显示每个区间内的总收入。

如我们所见,查询是围绕 price 聚合构建的,它包含一个 histogram 桶。它要求字段的类型必须是数值型的同时需要设定分组的间隔范围。间隔设置为 20,000 意味着我们将会得到如 [0-19999, 20000-39999, ...]这样的区间。

接着,我们在直方图内定义嵌套的度量,这个 sum 度量,它会对落入某一具体售价区间的文档中 price 字段的值进行求和。这可以为我们提供每个售价区间的收入,从而可以发现到底是普通家用车赚钱还是奢侈车赚钱。

响应结果如下:731284395e9028ec2b303cb35403f6cc.png结果很容易理解,不过应该注意到直方图的键值是区间的下限。键 0 代表区间 0-19,999 ,键 20000 代表区间 20,000-39,999 ,等等。9867cb1d9a59b0a63ce0bbdc6dc40a4e.png当然,我们可以为任何聚合输出的分类和统计结果创建条形图,而不只是 直方图 桶。让我们以最受欢迎 10 种汽车以及它们的平均售价、标准差这些信息创建一个条形图。我们会用到 terms 桶和 extended_stats 度量:

  1. GET /test-agg-cars/_search
  2. {
  3.   "size" : 0,
  4.   "aggs": {
  5.     "makes": {
  6.       "terms": {
  7.         "field""make.keyword",
  8.         "size"10
  9.       },
  10.       "aggs": {
  11.         "stats": {
  12.           "extended_stats": {
  13.             "field""price"
  14.           }
  15.         }
  16.       }
  17.     }
  18.   }
  19. }

上述代码会按受欢迎度返回制造商列表以及它们各自的统计信息。我们对其中的 stats.avg 、 stats.count 和 stats.std_deviation 信息特别感兴趣,并用 它们计算出标准差:

std_err = std_deviation / count

452aa7a40770a43b72864233261c5292.png对应报表:0bb434816bb78e13890c4ec4f42f3e15.png

聚合查询之 Metric 聚合

前文主要讲了 ElasticSearch提供的三种聚合方式之桶聚合(Bucket Aggregation),本文主要讲讲指标聚合(Metric Aggregation)。

如何理解metric聚合

在bucket聚合中,我画了一张图辅助你构筑体系,那么metric聚合又如何理解呢?

如果你直接去看官方文档,大概也有十几种:3702e684cbf6264ed964c15287f38cf6.png那么metric聚合又如何理解呢?我认为从两个角度:

  • 从分类看:Metric聚合分析分为单值分析和多值分析两类

  • 从功能看:根据具体的应用场景设计了一些分析api, 比如地理位置,百分数等等

融合上述两个方面,我们可以梳理出大致的一个mind图:

  • 单值分析: 只输出一个分析结果

    • cardinality 基数(distinct去重)

    • weighted_avg 带权重的avg

    • median_absolute_deviation 中位值

    • avg 平均值

    • max 最大值

    • min 最小值

    • sum

    • value_count 数量

    • 标准stat型

    • 其它类型

  • 多值分析: 单值之外的

    • top_hits 分桶后的top hits

    • top_metrics

    • geo_bounds Geo bounds

    • geo_centroid Geo-centroid

    • geo_line Geo-Line

    • percentiles 百分数范围

    • percentile_ranks 百分数排行

    • stats 包含avg,max,min,sum和count

    • matrix_stats 针对矩阵模型

    • extended_stats

    • string_stats 针对字符串

    • stats型

    • 百分数型

    • 地理位置型

    • Top型

通过上述列表(我就不画图了),我们构筑的体系是基于分类功能,而不是具体的项(比如avg,percentiles...);这是不同的认知维度: 具体的项是碎片化,分类和功能这种是你需要构筑的体系。

单值分析: 标准stat类型
avg 平均值

计算班级的平均分

  1. POST /exams/_search?size=0
  2. {
  3.   "aggs": {
  4.     "avg_grade": { "avg": { "field""grade" } }
  5.   }
  6. }

返回

  1. {
  2.   ...
  3.   "aggregations": {
  4.     "avg_grade": {
  5.       "value"75.0
  6.     }
  7.   }
  8. }
max 最大值

计算销售最高价

  1. POST /sales/_search?size=0
  2. {
  3.   "aggs": {
  4.     "max_price": { "max": { "field""price" } }
  5.   }
  6. }

返回

  1. {
  2.   ...
  3.   "aggregations": {
  4.       "max_price": {
  5.           "value"200.0
  6.       }
  7.   }
  8. }
min 最小值

计算销售最低价

  1. POST /sales/_search?size=0
  2. {
  3.   "aggs": {
  4.     "min_price": { "min": { "field""price" } }
  5.   }
  6. }

返回

  1. {
  2.   ...
  3.   "aggregations": {
  4.     "min_price": {
  5.       "value"10.0
  6.     }
  7.   }
  8. }
sum

计算销售总价

  1. POST /sales/_search?size=0
  2. {
  3.   "query": {
  4.     "constant_score": {
  5.       "filter": {
  6.         "match": { "type""hat" }
  7.       }
  8.     }
  9.   },
  10.   "aggs": {
  11.     "hat_prices": { "sum": { "field""price" } }
  12.   }
  13. }

返回

  1. {
  2.   ...
  3.   "aggregations": {
  4.     "hat_prices": {
  5.       "value"450.0
  6.     }
  7.   }
  8. }
value_count 数量

销售数量统计

  1. POST /sales/_search?size=0
  2. {
  3.   "aggs" : {
  4.     "types_count" : { "value_count" : { "field" : "type" } }
  5.   }
  6. }

返回

  1. {
  2.   ...
  3.   "aggregations": {
  4.     "types_count": {
  5.       "value"7
  6.     }
  7.   }
  8. }
单值分析: 其它类型
weighted_avg 带权重的avg
  1. POST /exams/_search
  2. {
  3.   "size"0,
  4.   "aggs": {
  5.     "weighted_grade": {
  6.       "weighted_avg": {
  7.         "value": {
  8.           "field""grade"
  9.         },
  10.         "weight": {
  11.           "field""weight"
  12.         }
  13.       }
  14.     }
  15.   }
  16. }

返回

  1. {
  2.   ...
  3.   "aggregations": {
  4.     "weighted_grade": {
  5.       "value"70.0
  6.     }
  7.   }
  8. }
cardinality 基数(distinct去重)
  1. POST /sales/_search?size=0
  2. {
  3.   "aggs": {
  4.     "type_count": {
  5.       "cardinality": {
  6.         "field""type"
  7.       }
  8.     }
  9.   }
  10. }

返回

  1. {
  2.   ...
  3.   "aggregations": {
  4.     "type_count": {
  5.       "value"3
  6.     }
  7.   }
  8. }
median_absolute_deviation 中位值
  1. GET reviews/_search
  2. {
  3.   "size"0,
  4.   "aggs": {
  5.     "review_average": {
  6.       "avg": {
  7.         "field""rating"
  8.       }
  9.     },
  10.     "review_variability": {
  11.       "median_absolute_deviation": {
  12.         "field""rating" 
  13.       }
  14.     }
  15.   }
  16. }

返回

  1. {
  2.   ...
  3.   "aggregations": {
  4.     "review_average": {
  5.       "value"3.0
  6.     },
  7.     "review_variability": {
  8.       "value"2.0
  9.     }
  10.   }
  11. }
非单值分析:stats型
stats 包含avg,max,min,sum和count
  1. POST /exams/_search?size=0
  2. {
  3.   "aggs": {
  4.     "grades_stats": { "stats": { "field""grade" } }
  5.   }
  6. }

返回

  1. {
  2.   ...
  3.   "aggregations": {
  4.     "grades_stats": {
  5.       "count"2,
  6.       "min"50.0,
  7.       "max"100.0,
  8.       "avg"75.0,
  9.       "sum"150.0
  10.     }
  11.   }
  12. }
matrix_stats 针对矩阵模型

以下示例说明了使用矩阵统计量来描述收入与贫困之间的关系。

  1. GET /_search
  2. {
  3.   "aggs": {
  4.     "statistics": {
  5.       "matrix_stats": {
  6.         "fields": [ "poverty""income" ]
  7.       }
  8.     }
  9.   }
  10. }

返回

  1. {
  2.   ...
  3.   "aggregations": {
  4.     "statistics": {
  5.       "doc_count"50,
  6.       "fields": [ {
  7.           "name""income",
  8.           "count"50,
  9.           "mean"51985.1,
  10.           "variance"7.383377037755103E7,
  11.           "skewness"0.5595114003506483,
  12.           "kurtosis"2.5692365287787124,
  13.           "covariance": {
  14.             "income"7.383377037755103E7,
  15.             "poverty"-21093.65836734694
  16.           },
  17.           "correlation": {
  18.             "income"1.0,
  19.             "poverty"-0.8352655256272504
  20.           }
  21.         }, {
  22.           "name""poverty",
  23.           "count"50,
  24.           "mean"12.732000000000001,
  25.           "variance"8.637730612244896,
  26.           "skewness"0.4516049811903419,
  27.           "kurtosis"2.8615929677997767,
  28.           "covariance": {
  29.             "income"-21093.65836734694,
  30.             "poverty"8.637730612244896
  31.           },
  32.           "correlation": {
  33.             "income"-0.8352655256272504,
  34.             "poverty"1.0
  35.           }
  36.         } ]
  37.     }
  38.   }
  39. }
extended_stats

根据从汇总文档中提取的数值计算统计信息。

  1. GET /exams/_search
  2. {
  3.   "size"0,
  4.   "aggs": {
  5.     "grades_stats": { "extended_stats": { "field""grade" } }
  6.   }
  7. }

上面的汇总计算了所有文档的成绩统计信息。聚合类型为extended_stats,并且字段设置定义将在其上计算统计信息的文档的数字字段。更多关于 ElasticSearch 数据库的学习文章,请参阅:搜索引擎 ElasticSearch ,本系列持续更新中。

  1. {
  2.   ...
  3.   "aggregations": {
  4.     "grades_stats": {
  5.       "count"2,
  6.       "min"50.0,
  7.       "max"100.0,
  8.       "avg"75.0,
  9.       "sum"150.0,
  10.       "sum_of_squares"12500.0,
  11.       "variance"625.0,
  12.       "variance_population"625.0,
  13.       "variance_sampling"1250.0,
  14.       "std_deviation"25.0,
  15.       "std_deviation_population"25.0,
  16.       "std_deviation_sampling"35.35533905932738,
  17.       "std_deviation_bounds": {
  18.         "upper"125.0,
  19.         "lower"25.0,
  20.         "upper_population"125.0,
  21.         "lower_population"25.0,
  22.         "upper_sampling"145.71067811865476,
  23.         "lower_sampling"4.289321881345245
  24.       }
  25.     }
  26.   }
  27. }
string_stats 针对字符串

用于计算从聚合文档中提取的字符串值的统计信息。这些值可以从特定的关键字字段中检索。

  1. POST /my-index-000001/_search?size=0
  2. {
  3.   "aggs": {
  4.     "message_stats": { "string_stats": { "field""message.keyword" } }
  5.   }
  6. }

返回

  1. {
  2.   ...
  3.   "aggregations": {
  4.     "message_stats": {
  5.       "count"5,
  6.       "min_length"24,
  7.       "max_length"30,
  8.       "avg_length"28.8,
  9.       "entropy"3.94617750050791
  10.     }
  11.   }
  12. }
非单值分析:百分数型
percentiles 百分数范围

针对从聚合文档中提取的数值计算一个或多个百分位数。

  1. GET latency/_search
  2. {
  3.   "size"0,
  4.   "aggs": {
  5.     "load_time_outlier": {
  6.       "percentiles": {
  7.         "field""load_time" 
  8.       }
  9.     }
  10.   }
  11. }

默认情况下,百分位度量标准将生成一定范围的百分位:[1,5,25,50,75,95,99]

  1. {
  2.   ...
  3.  "aggregations": {
  4.     "load_time_outlier": {
  5.       "values": {
  6.         "1.0"5.0,
  7.         "5.0"25.0,
  8.         "25.0"165.0,
  9.         "50.0"445.0,
  10.         "75.0"725.0,
  11.         "95.0"945.0,
  12.         "99.0"985.0
  13.       }
  14.     }
  15.   }
  16. }
percentile_ranks 百分数排行

根据从汇总文档中提取的数值计算一个或多个百分位等级。

  1. GET latency/_search
  2. {
  3.   "size"0,
  4.   "aggs": {
  5.     "load_time_ranks": {
  6.       "percentile_ranks": {
  7.         "field""load_time",   
  8.         "values": [ 500600 ]
  9.       }
  10.     }
  11.   }
  12. }

返回

  1. {
  2.   ...
  3.  "aggregations": {
  4.     "load_time_ranks": {
  5.       "values": {
  6.         "500.0"90.01,
  7.         "600.0"100.0
  8.       }
  9.     }
  10.   }
  11. }

上述结果表示90.01%的页面加载在500ms内完成,而100%的页面加载在600ms内完成。

非单值分析:地理位置型
geo_bounds Geo bounds
  1. PUT /museums
  2. {
  3.   "mappings": {
  4.     "properties": {
  5.       "location": {
  6.         "type""geo_point"
  7.       }
  8.     }
  9.   }
  10. }
  11. POST /museums/_bulk?refresh
  12. {"index":{"_id":1}}
  13. {"location""52.374081,4.912350""name""NEMO Science Museum"}
  14. {"index":{"_id":2}}
  15. {"location""52.369219,4.901618""name""Museum Het Rembrandthuis"}
  16. {"index":{"_id":3}}
  17. {"location""52.371667,4.914722""name""Nederlands Scheepvaartmuseum"}
  18. {"index":{"_id":4}}
  19. {"location""51.222900,4.405200""name""Letterenhuis"}
  20. {"index":{"_id":5}}
  21. {"location""48.861111,2.336389""name""Musée du Louvre"}
  22. {"index":{"_id":6}}
  23. {"location""48.860000,2.327000""name""Musée d'Orsay"}
  24. POST /museums/_search?size=0
  25. {
  26.   "query": {
  27.     "match": { "name""musée" }
  28.   },
  29.   "aggs": {
  30.     "viewport": {
  31.       "geo_bounds": {
  32.         "field""location",    
  33.         "wrap_longitude"true  
  34.       }
  35.     }
  36.   }
  37. }

上面的汇总展示了如何针对具有商店业务类型的所有文档计算位置字段的边界框。

  1. {
  2.   ...
  3.   "aggregations": {
  4.     "viewport": {
  5.       "bounds": {
  6.         "top_left": {
  7.           "lat"48.86111099738628,
  8.           "lon"2.3269999679178
  9.         },
  10.         "bottom_right": {
  11.           "lat"48.85999997612089,
  12.           "lon"2.3363889567553997
  13.         }
  14.       }
  15.     }
  16.   }
  17. }
geo_centroid Geo-centroid
  1. PUT /museums
  2. {
  3.   "mappings": {
  4.     "properties": {
  5.       "location": {
  6.         "type""geo_point"
  7.       }
  8.     }
  9.   }
  10. }
  11. POST /museums/_bulk?refresh
  12. {"index":{"_id":1}}
  13. {"location""52.374081,4.912350""city""Amsterdam""name""NEMO Science Museum"}
  14. {"index":{"_id":2}}
  15. {"location""52.369219,4.901618""city""Amsterdam""name""Museum Het Rembrandthuis"}
  16. {"index":{"_id":3}}
  17. {"location""52.371667,4.914722""city""Amsterdam""name""Nederlands Scheepvaartmuseum"}
  18. {"index":{"_id":4}}
  19. {"location""51.222900,4.405200""city""Antwerp""name""Letterenhuis"}
  20. {"index":{"_id":5}}
  21. {"location""48.861111,2.336389""city""Paris""name""Musée du Louvre"}
  22. {"index":{"_id":6}}
  23. {"location""48.860000,2.327000""city""Paris""name""Musée d'Orsay"}
  24. POST /museums/_search?size=0
  25. {
  26.   "aggs": {
  27.     "centroid": {
  28.       "geo_centroid": {
  29.         "field""location" 
  30.       }
  31.     }
  32.   }
  33. }

上面的汇总显示了如何针对所有具有犯罪类型的盗窃文件计算位置字段的质心。

  1. {
  2.   ...
  3.   "aggregations": {
  4.     "centroid": {
  5.       "location": {
  6.         "lat"51.00982965203002,
  7.         "lon"3.9662131341174245
  8.       },
  9.       "count"6
  10.     }
  11.   }
  12. }
geo_line Geo-Line
  1. PUT test
  2. {
  3.     "mappings": {
  4.         "dynamic""strict",
  5.         "_source": {
  6.             "enabled"false
  7.         },
  8.         "properties": {
  9.             "my_location": {
  10.                 "type""geo_point"
  11.             },
  12.             "group": {
  13.                 "type""keyword"
  14.             },
  15.             "@timestamp": {
  16.                 "type""date"
  17.             }
  18.         }
  19.     }
  20. }
  21. POST /test/_bulk?refresh
  22. {"index": {}}
  23. {"my_location": {"lat":37.3450570"lon"-122.0499820}, "@timestamp""2013-09-06T16:00:36"}
  24. {"index": {}}
  25. {"my_location": {"lat"37.3451320"lon"-122.0499820}, "@timestamp""2013-09-06T16:00:37Z"}
  26. {"index": {}}
  27. {"my_location": {"lat"37.349283"lon"-122.0505010}, "@timestamp""2013-09-06T16:00:37Z"}
  28. POST /test/_search?filter_path=aggregations
  29. {
  30.   "aggs": {
  31.     "line": {
  32.       "geo_line": {
  33.         "point": {"field""my_location"},
  34.         "sort": {"field""@timestamp"}
  35.       }
  36.     }
  37.   }
  38. }

将存储桶中的所有 geo_point 值聚合到由所选排序字段排序的 LineString 中。

  1. {
  2.   "aggregations": {
  3.     "line": {
  4.       "type" : "Feature",
  5.       "geometry" : {
  6.         "type" : "LineString",
  7.         "coordinates" : [
  8.           [
  9.             -122.049982,
  10.             37.345057
  11.           ],
  12.           [
  13.             -122.050501,
  14.             37.349283
  15.           ],
  16.           [
  17.             -122.049982,
  18.             37.345132
  19.           ]
  20.         ]
  21.       },
  22.       "properties" : {
  23.         "complete" : true
  24.       }
  25.     }
  26.   }
  27. }
非单值分析:Top型
top_hits 分桶后的 top hits。
  1. POST /sales/_search?size=0
  2. {
  3.   "aggs": {
  4.     "top_tags": {
  5.       "terms": {
  6.         "field""type",
  7.         "size"3
  8.       },
  9.       "aggs": {
  10.         "top_sales_hits": {
  11.           "top_hits": {
  12.             "sort": [
  13.               {
  14.                 "date": {
  15.                   "order""desc"
  16.                 }
  17.               }
  18.             ],
  19.             "_source": {
  20.               "includes": [ "date""price" ]
  21.             },
  22.             "size"1
  23.           }
  24.         }
  25.       }
  26.     }
  27.   }
  28. }

返回

  1. {
  2.   ...
  3.   "aggregations": {
  4.     "top_tags": {
  5.        "doc_count_error_upper_bound"0,
  6.        "sum_other_doc_count"0,
  7.        "buckets": [
  8.           {
  9.              "key""hat",
  10.              "doc_count"3,
  11.              "top_sales_hits": {
  12.                 "hits": {
  13.                    "total" : {
  14.                        "value"3,
  15.                        "relation""eq"
  16.                    },
  17.                    "max_score": null,
  18.                    "hits": [
  19.                       {
  20.                          "_index""sales",
  21.                          "_type""_doc",
  22.                          "_id""AVnNBmauCQpcRyxw6ChK",
  23.                          "_source": {
  24.                             "date""2015/03/01 00:00:00",
  25.                             "price"200
  26.                          },
  27.                          "sort": [
  28.                             1425168000000
  29.                          ],
  30.                          "_score": null
  31.                       }
  32.                    ]
  33.                 }
  34.              }
  35.           },
  36.           {
  37.              "key""t-shirt",
  38.              "doc_count"3,
  39.              "top_sales_hits": {
  40.                 "hits": {
  41.                    "total" : {
  42.                        "value"3,
  43.                        "relation""eq"
  44.                    },
  45.                    "max_score": null,
  46.                    "hits": [
  47.                       {
  48.                          "_index""sales",
  49.                          "_type""_doc",
  50.                          "_id""AVnNBmauCQpcRyxw6ChL",
  51.                          "_source": {
  52.                             "date""2015/03/01 00:00:00",
  53.                             "price"175
  54.                          },
  55.                          "sort": [
  56.                             1425168000000
  57.                          ],
  58.                          "_score": null
  59.                       }
  60.                    ]
  61.                 }
  62.              }
  63.           },
  64.           {
  65.              "key""bag",
  66.              "doc_count"1,
  67.              "top_sales_hits": {
  68.                 "hits": {
  69.                    "total" : {
  70.                        "value"1,
  71.                        "relation""eq"
  72.                    },
  73.                    "max_score": null,
  74.                    "hits": [
  75.                       {
  76.                          "_index""sales",
  77.                          "_type""_doc",
  78.                          "_id""AVnNBmatCQpcRyxw6ChH",
  79.                          "_source": {
  80.                             "date""2015/01/01 00:00:00",
  81.                             "price"150
  82.                          },
  83.                          "sort": [
  84.                             1420070400000
  85.                          ],
  86.                          "_score": null
  87.                       }
  88.                    ]
  89.                 }
  90.              }
  91.           }
  92.        ]
  93.     }
  94.   }
  95. }
top_metrics
  1. POST /test/_bulk?refresh
  2. {"index": {}}
  3. {"s"1"m"3.1415}
  4. {"index": {}}
  5. {"s"2"m"1.0}
  6. {"index": {}}
  7. {"s"3"m"2.71828}
  8. POST /test/_search?filter_path=aggregations
  9. {
  10.   "aggs": {
  11.     "tm": {
  12.       "top_metrics": {
  13.         "metrics": {"field""m"},
  14.         "sort": {"s""desc"}
  15.       }
  16.     }
  17.   }
  18. }

返回

  1. {
  2.   "aggregations": {
  3.     "tm": {
  4.       "top": [ {"sort": [3], "metrics": {"m"2.718280076980591 } } ]
  5.     }
  6.   }
  7. }

聚合查询之Pipline聚合

前文主要讲了 ElasticSearch提供的三种聚合方式之指标聚合(Metric Aggregation),本文主要讲讲管道聚合(Pipeline Aggregation)。简单而言就是让上一步的聚合结果成为下一个聚合的输入,这就是管道。

如何理解pipeline聚合

如何理解管道聚合呢?最重要的是要站在设计者角度看这个功能的要实现的目的:让上一步的聚合结果成为下一个聚合的输入,这就是管道。

管道机制的常见场景

首先回顾下,我们之前在Tomcat管道机制中向你介绍的常见的管道机制设计中的应用场景。

责任链模式

管道机制在设计模式上属于责任链模式,如果你不理解,请参看如下文章:

责任链模式: 通过责任链模式, 你可以为某个请求创建一个对象链. 每个对象依序检查此请求并对其进行处理或者将它传给链中的下一个对象。更多关于 ElasticSearch 数据库的学习文章,请参阅:搜索引擎 ElasticSearch ,本系列持续更新中。

FilterChain

在软件开发的常接触的责任链模式是FilterChain,它体现在很多软件设计中:

  • 比如Spring Security框架中

32d3a471c6c7e5ed4cf38758c274ad75.png
  • 比如HttpServletRequest处理的过滤器中

当一个request过来的时候,需要对这个request做一系列的加工,使用责任链模式可以使每个加工组件化,减少耦合。也可以使用在当一个request过来的时候,需要找到合适的加工方式。当一个加工方式不适合这个request的时候,传递到下一个加工方法,该加工方式再尝试对request加工。

网上找了图,这里我们后文将通过Tomcat请求处理向你阐述。

8ddf1a8a56a5abf815c9be9af3ed35aa.png
ElasticSearch设计管道机制

简单而言:让上一步的聚合结果成为下一个聚合的输入,这就是管道。

接下来,无非就是对不同类型的聚合有接口的支撑,比如:c9f4e31395a02d5be097ab38714dd90d.png第一个维度:管道聚合有很多不同类型,每种类型都与其他聚合计算不同的信息,但是可以将这些类型分为两类:

  • 父级 父级聚合的输出提供了一组管道聚合,它可以计算新的存储桶或新的聚合以添加到现有存储桶中。

  • 兄弟 同级聚合的输出提供的管道聚合,并且能够计算与该同级聚合处于同一级别的新聚合。

第二个维度:根据功能设计的意图

比如前置聚合可能是Bucket聚合,后置的可能是基于Metric聚合,那么它就可以成为一类管道

进而引出了:xxx bucket(是不是很容易理解了)

  • Bucket聚合 -> Metric聚合:bucket聚合的结果,成为下一步metric聚合的输入

    • Average bucket

    • Min bucket

    • Max bucket

    • Sum bucket

    • Stats bucket

    • Extended stats bucket

对构建体系而言,理解上面的已经够了,其它的类型不过是锦上添花而言。

一些例子

这里我们通过几个简单的例子看看即可,具体如果需要使用看看文档即可。

Average bucket 聚合
  1. POST _search
  2. {
  3.   "size"0,
  4.   "aggs": {
  5.     "sales_per_month": {
  6.       "date_histogram": {
  7.         "field""date",
  8.         "calendar_interval""month"
  9.       },
  10.       "aggs": {
  11.         "sales": {
  12.           "sum": {
  13.             "field""price"
  14.           }
  15.         }
  16.       }
  17.     },
  18.     "avg_monthly_sales": {
  19. // tag::avg-bucket-agg-syntax[]               
  20.       "avg_bucket": {
  21.         "buckets_path""sales_per_month>sales",
  22.         "gap_policy""skip",
  23.         "format""#,##0.00;(#,##0.00)"
  24.       }
  25. // end::avg-bucket-agg-syntax[]               
  26.     }
  27.   }
  28. }
  • 嵌套的bucket聚合:聚合出按月价格的直方图

  • Metic聚合:对上面的聚合再求平均值。

字段类型:

  • buckets_path:指定聚合的名称,支持多级嵌套聚合。

  • gap_policy 当管道聚合遇到不存在的值,有点类似于term等聚合的(missing)时所采取的策略,可选择值为:skip、insert_zeros。

  • skip:此选项将丢失的数据视为bucket不存在。它将跳过桶并使用下一个可用值继续计算。

  • format 用于格式化聚合桶的输出(key)。

输出结果如下

  1. {
  2.   "took"11,
  3.   "timed_out"false,
  4.   "_shards": ...,
  5.   "hits": ...,
  6.   "aggregations": {
  7.     "sales_per_month": {
  8.       "buckets": [
  9.         {
  10.           "key_as_string""2015/01/01 00:00:00",
  11.           "key"1420070400000,
  12.           "doc_count"3,
  13.           "sales": {
  14.             "value"550.0
  15.           }
  16.         },
  17.         {
  18.           "key_as_string""2015/02/01 00:00:00",
  19.           "key"1422748800000,
  20.           "doc_count"2,
  21.           "sales": {
  22.             "value"60.0
  23.           }
  24.         },
  25.         {
  26.           "key_as_string""2015/03/01 00:00:00",
  27.           "key"1425168000000,
  28.           "doc_count"2,
  29.           "sales": {
  30.             "value"375.0
  31.           }
  32.         }
  33.       ]
  34.     },
  35.     "avg_monthly_sales": {
  36.       "value"328.33333333333333,
  37.       "value_as_string""328.33"
  38.     }
  39.   }
  40. }
Stats bucket 聚合

进一步的stat bucket也很容易理解了。

  1. POST /sales/_search
  2. {
  3.   "size"0,
  4.   "aggs": {
  5.     "sales_per_month": {
  6.       "date_histogram": {
  7.         "field""date",
  8.         "calendar_interval""month"
  9.       },
  10.       "aggs": {
  11.         "sales": {
  12.           "sum": {
  13.             "field""price"
  14.           }
  15.         }
  16.       }
  17.     },
  18.     "stats_monthly_sales": {
  19.       "stats_bucket": {
  20.         "buckets_path""sales_per_month>sales" 
  21.       }
  22.     }
  23.   }
  24. }

返回

  1. {
  2.    "took"11,
  3.    "timed_out"false,
  4.    "_shards": ...,
  5.    "hits": ...,
  6.    "aggregations": {
  7.       "sales_per_month": {
  8.          "buckets": [
  9.             {
  10.                "key_as_string""2015/01/01 00:00:00",
  11.                "key"1420070400000,
  12.                "doc_count"3,
  13.                "sales": {
  14.                   "value"550.0
  15.                }
  16.             },
  17.             {
  18.                "key_as_string""2015/02/01 00:00:00",
  19.                "key"1422748800000,
  20.                "doc_count"2,
  21.                "sales": {
  22.                   "value"60.0
  23.                }
  24.             },
  25.             {
  26.                "key_as_string""2015/03/01 00:00:00",
  27.                "key"1425168000000,
  28.                "doc_count"2,
  29.                "sales": {
  30.                   "value"375.0
  31.                }
  32.             }
  33.          ]
  34.       },
  35.       "stats_monthly_sales": {
  36.          "count"3,
  37.          "min"60.0,
  38.          "max"550.0,
  39.          "avg"328.3333333333333,
  40.          "sum"985.0
  41.       }
  42.    }
  43. }

来源:https://pdai.tech/md/db/nosql-es/elasticsearch-x-agg-bucket.html  https://www.pdai.tech/md/db/nosql-es/elasticsearch-x-agg-metric.html https://pdai.tech/md/db/nosql-es/elasticsearch-x-agg-pipeline.html

邀你加入技术交流群,2023 我们一起卷!

4b34ddd2fef5503f72933810ce2da250.png

535dd27058b7a784f7acf9ac7fcee526.png

推荐阅读 点击标题可跳转

413 亿收购 H3C!江山易主了

又一款轻量级监控利器!开源了

实锤!阿里集团将剥离阿里云 100% 股权

使用 Docker 搭建本地开发环境!真心强啊~

如何搭建一台永久运行的个人服务器?

微软放大招!旧 ISO 镜像全部作废。。。

41e9e4abe8c2fc09df912ce1aee5fe02.png

PS:因为公众号平台更改了推送规则,如果不想错过内容,记得读完点一下在看,加个星标,这样每次新文章推送才会第一时间出现在你的订阅列表里。点在看支持我们吧!

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/黑客灵魂/article/detail/889833
推荐阅读
相关标签
  

闽ICP备14008679号