当前位置:   article > 正文

es 聚合操作(一)_es aggregation 条件

es aggregation 条件

前言

Elasticsearch除搜索以外,提供了针对ES 数据进行统计分析的功能。聚合(aggregations)可以让我们极其方便的实现对数据的统计、分析、运算。例如:

  • 衣服品牌的受欢迎程度
  • 这些衣服的平均价格、最高价格、最低价格
  • 这些衣服的每天、每月销量如何

使用场景

聚合查询可以用于各种场景,比如商业智能、数据挖掘、日志分析等等。

  • 电商平台的销售分析:统计每个地区的销售额、每个用户的消费总额、每个产品的销售量等,以便更好地了解销售情况和趋势。
  • 社交媒体的用户行为分析:统计每个用户的发布次数、转发次数、评论次数等,以便更好地了解用户行为和趋势,同时可以将数据按照地区、时间、话题等维度进行分析。
  • 物流企业的运输分析:统计每个区域的运输量、每个车辆的运输次数、每个司机的行驶里程等,以便更好地了解运输情况和优化运输效率。
  • 金融企业的交易分析:统计每个客户的交易总额、每个产品的销售量、每个交易员的业绩等,以便更好地了解交易情况和优化业务流程。
  • 智能家居的设备监控分析:统计每个设备的使用次数、每个家庭的能源消耗量、每个时间段的设备使用率等,以便更好地了解用户需求和优化设备效能。

基本语法

聚合查询的语法结构与其他查询相似,通常包含以下部分:

  • 查询条件:指定需要聚合的文档,可以使用标准的 Elasticsearch 查询语法,如 term、match、range 等等。
  • 聚合函数:指定要执行的聚合操作,如 sum、avg、min、max、terms、date_histogram 等等。每个聚合命令都会生成一个聚合结果。
  • 聚合嵌套:聚合命令可以嵌套,以便更细粒度地分析数据。
  1. GET <index_name>/_search
  2. {
  3. "aggs": {
  4. "<aggs_name>": { // 聚合名称需要自己定义
  5. "<agg_type>": {
  6. "field": "<field_name>"
  7. }
  8. }
  9. }
  10. }
  • aggs_name:聚合函数的名称,需要自己定义
  • agg_type:聚合种类,比如是桶聚合(terms)或者是指标聚合(avg、sum、min、max等)
  • field_name:字段名称或者叫域名。

示例数据

  1. #创建索引库
  2. PUT /employees
  3. {
  4. "mappings": {
  5. "properties": {
  6. "age":{
  7. "type": "integer"
  8. },
  9. "gender":{
  10. "type": "keyword"
  11. },
  12. "job":{
  13. "type" : "text",
  14. "fields" : {
  15. "keyword" : {
  16. "type" : "keyword",
  17. "ignore_above" : 50
  18. }
  19. }
  20. },
  21. "name":{
  22. "type": "keyword"
  23. },
  24. "salary":{
  25. "type": "integer"
  26. }
  27. }
  28. }
  29. }
  30. PUT /employees/_bulk
  31. { "index" : { "_id" : "1" } }
  32. { "name" : "Emma","age":32,"job":"Product Manager","gender":"female","salary":35000 }
  33. { "index" : { "_id" : "2" } }
  34. { "name" : "Underwood","age":41,"job":"Dev Manager","gender":"male","salary": 50000}
  35. { "index" : { "_id" : "3" } }
  36. { "name" : "Tran","age":25,"job":"Web Designer","gender":"male","salary":18000 }
  37. { "index" : { "_id" : "4" } }
  38. { "name" : "Rivera","age":26,"job":"Web Designer","gender":"female","salary": 22000}
  39. { "index" : { "_id" : "5" } }
  40. { "name" : "Rose","age":25,"job":"QA","gender":"female","salary":18000 }
  41. { "index" : { "_id" : "6" } }
  42. { "name" : "Lucy","age":31,"job":"QA","gender":"female","salary": 25000}
  43. { "index" : { "_id" : "7" } }
  44. { "name" : "Byrd","age":27,"job":"QA","gender":"male","salary":20000 }
  45. { "index" : { "_id" : "8" } }
  46. { "name" : "Foster","age":27,"job":"Java Programmer","gender":"male","salary": 20000}
  47. { "index" : { "_id" : "9" } }
  48. { "name" : "Gregory","age":32,"job":"Java Programmer","gender":"male","salary":22000 }
  49. { "index" : { "_id" : "10" } }
  50. { "name" : "Bryant","age":20,"job":"Java Programmer","gender":"male","salary": 9000}
  51. { "index" : { "_id" : "11" } }
  52. { "name" : "Jenny","age":36,"job":"Java Programmer","gender":"female","salary":38000 }
  53. { "index" : { "_id" : "12" } }
  54. { "name" : "Mcdonald","age":31,"job":"Java Programmer","gender":"male","salary": 32000}
  55. { "index" : { "_id" : "13" } }
  56. { "name" : "Jonthna","age":30,"job":"Java Programmer","gender":"female","salary":30000 }
  57. { "index" : { "_id" : "14" } }
  58. { "name" : "Marshall","age":32,"job":"Javascript Programmer","gender":"male","salary": 25000}
  59. { "index" : { "_id" : "15" } }
  60. { "name" : "King","age":33,"job":"Java Programmer","gender":"male","salary":28000 }
  61. { "index" : { "_id" : "16" } }
  62. { "name" : "Mccarthy","age":21,"job":"Javascript Programmer","gender":"male","salary": 16000}
  63. { "index" : { "_id" : "17" } }
  64. { "name" : "Goodwin","age":25,"job":"Javascript Programmer","gender":"male","salary": 16000}
  65. { "index" : { "_id" : "18" } }
  66. { "name" : "Catherine","age":29,"job":"Javascript Programmer","gender":"female","salary": 20000}
  67. { "index" : { "_id" : "19" } }
  68. { "name" : "Boone","age":30,"job":"DBA","gender":"male","salary": 30000}
  69. { "index" : { "_id" : "20" } }
  70. { "name" : "Kathy","age":29,"job":"DBA","gender":"female","salary": 20000}

Metric Aggregation

—些数学运算,可以对文档字段进行统计分析,类比Mysql中的 min(), max(), sum() 操作。

  • 单值分析︰只输出一个分析结果
    • min, max, avg, sum
    • Cardinality(类似distinct Count)
  • 多值分析:输出多个分析结果
  • stats(统计), extended stats
  • percentile (百分位), percentile rank
  • top hits(排在前面的示例)

查询员工的最低、最高和平均工资

  1. POST /employees/_search
  2. {
  3. "aggs": {
  4. "max_salary": {
  5. "max": {
  6. "field": "salary"
  7. }
  8. },
  9. "min_salary": {
  10. "min": {
  11. "field": "salary"
  12. }
  13. },
  14. "avg_salary": {
  15. "avg": {
  16. "field": "salary"
  17. }
  18. }
  19. }
  20. }

注意查询的时候如果不加 size = 0 会查询出来默认的 10 条数据

如果不想要数据只想要统计结果,可以加上 size = 0

  1. POST /employees/_search
  2. {
  3. "size": 0,
  4. "aggs": {
  5. "max_salary": {
  6. "max": {
  7. "field": "salary"
  8. }
  9. },
  10. "min_salary": {
  11. "min": {
  12. "field": "salary"
  13. }
  14. },
  15. "avg_salary": {
  16. "avg": {
  17. "field": "salary"
  18. }
  19. }
  20. }
  21. }

stats 可以输出多个统计值

  1. POST /employees/_search
  2. { "size": 0,
  3. "aggs": {
  4. "stats_salary": {
  5. "stats": {
  6. "field": "salary"
  7. }
  8. }
  9. }
  10. }

cardinate 对搜索结果去重

  1. POST /employees/_search
  2. {
  3. "size": 0,
  4. "aggs": {
  5. "cardinate": {
  6. "cardinality": {
  7. "field": "job"
  8. }
  9. }
  10. }
  11. }

这里需要注意:如果需要计算的字段是 text 类型,会报错

解决方案有两种:

方案一、开启 fielddata :

然后就可以对 job 进行聚合计算了

但需要注意的是:

  1. 内存使用:为大量或高基数的 text 字段启用 fielddata 可能会导致大量的内存使用,这可能会影响到集群的性能和稳定性。
  2. 性能:加载大量的 fielddata 可能会降低查询性能。
  3. 统计值:会对 job 进行分词 然后对分词进行 terms


可以看到上面示例,分类的指标都是分词后的结果

下面的示例也是一样的,统计的值也是分词后的结果

这里可以看到 分词后分类有 10 条数,但是使用 keyword 只有 7 条数据

原因就是,fielddata 对先分词 再对分词进行分类计算

  1. PUT /employees/_mapping
  2. {
  3. "properties" : {
  4. "job":{
  5. "type": "text",
  6. "fielddata": true
  7. }
  8. }
  9. }
  10. # 对 Text 字段进行分词,分词后的terms
  11. POST /employees/_search
  12. {
  13. "size": 0,
  14. "aggs": {
  15. "jobs": {
  16. "terms": {
  17. "field":"job"
  18. }
  19. }
  20. }
  21. }

方案二、keyword类型

如果你的目的是对某个字段进行排序或聚合,但不需要全文搜索,那么考虑使用 keyword 类型而不是 text 类型可能是一个更好的选择。keyword 类型默认启用 fielddata,并更适合此类操作。

上面这个示例 keyword 不会对字段的值进行分词,统计值 7 条数据

  1. POST /employees/_search
  2. {
  3. "size": 0,
  4. "aggs": {
  5. "cardinate": {
  6. "cardinality": {
  7. "field": "job.keyword"
  8. }
  9. }
  10. }
  11. }

Bucket Aggregation

按照一定的规则,将文档分配到不同的桶中,从而达到分类的目的。ES提供的一些常见的 Bucket Aggregation。

  • Terms,需要字段支持filedata
    • keyword 默认支持fielddata
    • text需要在Mapping 中开启fielddata,会按照分词后的结果进行分桶
  • 数字类型
    • Range / Data Range
    • Histogram(直方图) / Date Histogram
  • 支持嵌套: 也就在桶里再做分桶

桶聚合可以用于各种场景,例如:

  • 对数据进行分组统计,比如按照地区、年龄段、性别等字段进行分组统计。
  • 对时间序列数据进行时间段分析,比如按照每小时、每天、每月、每季度、每年等时间段进行分析。
  • 对各种标签信息分类,并统计其数量。

获取job的分类信息

  1. GET /employees/_search
  2. {
  3. "size": 0,
  4. "aggs": {
  5. "jobs": {
  6. "terms": {
  7. "field": "job.keyword"
  8. }
  9. }
  10. }
  11. }

聚合可配置属性有:

  • field:指定聚合字段
  • size:指定聚合结果数量
  • order:指定聚合结果排序方式

默认情况下,Bucket聚合会统计Bucket内的文档数量,记为_count,并且按照_count降序排序。我们可以指定order属性,自定义聚合的排序方式:

  1. GET /employees/_search
  2. {
  3. "size": 0,
  4. "aggs": {
  5. "jobs": {
  6. "terms": {
  7. "field": "job.keyword",
  8. "size": 10,
  9. "order": {
  10. "_count": "asc"
  11. }
  12. }
  13. }
  14. }
  15. }

只对 salary 20000 以上的进行聚合

  1. #限制聚合范围
  2. POST /employees/_search
  3. {
  4. "query": {
  5. "range": {
  6. "salary": {
  7. "gte": 20000
  8. }
  9. }
  10. },
  11. "size": 0,
  12. "aggs": {
  13. "jobs": {
  14. "terms": {
  15. "field": "job.keyword",
  16. "size": 10,
  17. "order": {
  18. "_count": "asc"
  19. }
  20. }
  21. }
  22. }
  23. }

自定义范围对 salary 分桶

  1. #Salary Range分桶,可以自己定义 key
  2. POST employees/_search
  3. {
  4. "size": 0,
  5. "aggs": {
  6. "salary_range": {
  7. "range": {
  8. "field":"salary",
  9. "ranges":[
  10. {
  11. "to":10000
  12. },
  13. {
  14. "from":10000,
  15. "to":20000
  16. },
  17. {
  18. "key":">20000",
  19. "from":20000
  20. }
  21. ]
  22. }
  23. }
  24. }
  25. }

以 salary 5000 为间隔进行分桶

  1. POST /employees/_search
  2. {
  3. "size": 0,
  4. "aggs": {
  5. "salary_histrogram": {
  6. "histogram": {
  7. "field": "salary",
  8. "interval": 5000
  9. }
  10. }
  11. }
  12. }

也可以指定范围:

  1. POST /employees/_search
  2. {
  3. "size": 0,
  4. "aggs": {
  5. "salary_histrogram": {
  6. "histogram": {
  7. "field": "salary",
  8. "interval": 5000,
  9. "extended_bounds": {
  10. "min": 0,
  11. "max": 60000
  12. }
  13. }
  14. }
  15. }
  16. }

但是这种方式指定范围,好像默认也会输出到最大的那个桶,

我这里指定最大是 10000 但是也会把索引中最大的值输出,

既然默认都会输出最大值,那么指定超过最大值的数值,后面都是 0 也没有统计的必要了

这里感兴趣的小伙伴可以研究一下~

然后如果需要对指定范围的薪资进行统计,可以使用 range query

这样就只统计 20000 以内的数据了

  1. POST /employees/_search
  2. {
  3. "query": {
  4. "range": {
  5. "salary": {
  6. "gte": 0,
  7. "lte": 20000
  8. }
  9. }
  10. },
  11. "size": 0
  12. , "aggs": {
  13. "salary_histrogram": {
  14. "histogram": {
  15. "field": "salary",
  16. "interval": 5000
  17. }
  18. }
  19. }
  20. }

top_hits

应用场景: 当获取分桶后,桶内最匹配的顶部文档列表

比如:不同工种中,年纪最大的3个员工的具体信息

  1. POST /employees/_search
  2. {
  3. "size": 0,
  4. "aggs": {
  5. "jobs": {
  6. "terms": {
  7. "field":"job.keyword"
  8. },
  9. "aggs":{
  10. "old_employee":{
  11. "top_hits":{
  12. "size":3,
  13. "sort":[
  14. {
  15. "age":{
  16. "order":"desc"
  17. }
  18. }
  19. ]
  20. }
  21. }
  22. }
  23. }
  24. }
  25. }

嵌套聚合

按照工作类型分桶,并统计工资信息

  1. # 嵌套聚合1,按照工作类型分桶,并统计工资信息
  2. POST employees/_search
  3. {
  4. "size": 0,
  5. "aggs": {
  6. "Job_salary_stats": {
  7. "terms": {
  8. "field": "job.keyword"
  9. },
  10. "aggs": {
  11. "salary": {
  12. "stats": {
  13. "field": "salary"
  14. }
  15. }
  16. }
  17. }
  18. }
  19. }

根据工作类型分桶,然后按照性别分桶,计算工资的统计信息

  1. # 多次嵌套。根据工作类型分桶,然后按照性别分桶,计算工资的统计信息
  2. POST employees/_search
  3. {
  4. "size": 0,
  5. "aggs": {
  6. "Job_gender_stats": {
  7. "terms": {
  8. "field": "job.keyword"
  9. },
  10. "aggs": {
  11. "gender_stats": {
  12. "terms": {
  13. "field": "gender"
  14. },
  15. "aggs": {
  16. "salary_stats": {
  17. "stats": {
  18. "field": "salary"
  19. }
  20. }
  21. }
  22. }
  23. }
  24. }
  25. }
  26. }

感谢观看!!!感兴趣的小伙伴可以关注收藏,持续更新中~~~

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/weixin_40725706/article/detail/731931
推荐阅读
相关标签
  

闽ICP备14008679号