当前位置:   article > 正文

2.ELK之Elasticsearch常用DSL语句(kibana语句)_es dsl

es dsl

目录

什么是DSL ?

零、ES基本操作

1、查看索引/mapping

2、查看集群健康状态

3、查询ES中所有的index

4、删除索引

5、查看索引的分片情况

6、根据docid查询文档

7、常规查找——在/index/type中查找

8、限制查找条数

9、ES的基本CURD

一、ES高级查询 DSL

0、ES mapping中的数据类型

2、query DSL——查询所有(match_all)

3、query DSL——关键词查询(term)

4、query DSL——多关键词查询(terms)

5、query DSL——范围查询(range)

6、query DSL——前缀查询(prefix)

7、query DSL——通配符查询(wildcard)

8、query DSL——多id查询(ids)

9、query DSL——模糊查询(fuzzy)

10、query DSL——布尔查询(bool)  重要!!!!!

11、query DSL——match查询(match)   重要!!!!

注意文本匹配不要用term而应该用match~~~~

12、query DSL——should   

13、query DSL——multi_match查询(multi_match)   重要!!!!

14、query DSL——match_phrase查询(match_phrase)   重要!!!!

15、query DSL——查询是否包含某个字段(exists)

16、指定返回条数(size)

17、分页查询(from)

18、指定字段排序(sort)

19、指定返回字段(_source)

20、更多的查询命令: ES官网点击直达

21、理解相关性(relevance score)

二、Filter查询

三、聚合查询(Aggregation aggs)

四、条件更新/删除数据 —— _update_by_query/_delete_by_query

 1、条件删除数据

 2、条件更新数据


什么是DSL ?

DSL(Domain Specific Language)的缩写,中文翻译为领域特定语言

Wikipedia 对于 DSL 的定义还是比较简单的:

A specialized computer language designed for a specific task.

为了解决某一类任务而专门设计的计算机语言。

与 GPL 相对,DSL 与传统意义上的通用编程语言 C、Python 以及 Haskell 完全不同。通用的计算机编程语言是可以用来编写任意计算机程序的,并且能表达任何的可被计算的逻辑,同时也是 图灵完备 的。

但是在里所说的 DSL 并不是图灵完备的,它们的表达能力有限,只是在特定领域解决特定任务的。

A computer programming language of limited expressiveness focused on a particular domain.

另一个世界级软件开发大师 Martin Fowler 对于领域特定语言的定义在笔者看来就更加具体了,DSL 通过在表达能力上做的妥协换取在某一领域内的高效

而有限的表达能力就成为了 GPL 和 DSL 之间的一条界限。

零、ES基本操作

1、查看索引/mapping

  1. GET /inde_name
  2. GET /[index_name]/_mapping
  3. #例如
  4. GET /online_qd_analysis_202012
  5. GET /online_qd_analysis_202012/_mapping

2、查看集群健康状态

  1. GET /_cat/health
  2. GET /_cat/health?v #带"?v"就是列出列名的意思

 

3、查询ES中所有的index

  1. GET _cat/indices
  2. GET _cat/indices?v #带"?v"就是列出列名的意思

4、删除索引

  1. #删除指定索引
  2. DELETE index_name

5、查看索引的分片情况

  1. GET _cat/shards/index_name
  2. GET _cat/shards/index_name?v

如上,每个分片是主副分片、状态、文档数、占用存储、ip等都一目了然。

6、根据docid查询文档

  1. GET /index_name/type_name/docid
  2. #例如
  3. GET /online_qd_analysis_202012/kw/corp_uin_2852156690_2852156690_1442795696_1608777956283

7、常规查找——在/index/type中查找

 注:_search的含义是在所有数据中查找。

  1. #指定indextype;就是在这个type_name中查找的意思
  2. GET index_name/type_name/_search
  3. {
  4. "size":30,
  5. "query":{
  6. }
  7. }
  8. #指定index
  9. GET index_name/_search
  10. {
  11. "size":30,
  12. "query":{
  13. }
  14. }

8、限制查找条数

  1. #限制查找条数有两种方式.1)在get语句中限定 2)在内部参数中限定
  2. #1)GET语句中限定
  3. GET index_name/type_name/_search?size=100
  4. {
  5. "query": {
  6. "match": {
  7. "session_id":
  8. }
  9. }
  10. }
  11. #2)内部参数限定
  12. GET index_name/type_name/_search
  13. {
  14. "size":3,
  15. "query": {
  16. "match": {
  17. "session_id":
  18. }
  19. }
  20. }

具体规则可以参见:  CSDN

9、ES的基本CURD

下面以一个电商的例子,说明下es的增删改查。

(1)、插入一条数据

 指定docid,POST/PUT都可以;不指定docid,貌似只能POST。

  1. #PUT操作插入一条数据
  2. PUT /my_index/my_type/docid1111
  3. {
  4.     "name":"dior chengyi",
  5.     "desc":"shishang gaodang",
  6.     "price":7000,
  7.     "producer":"dior producer",
  8.     "tags":["shishang","shechi"]
  9. }
  10. #ES7及以后版本有所变更,格式如下。
  11. PUT /my_index/_doc/docid1111
  12. {
  13.     "name":"dior chengyi",
  14.     "desc":"shishang gaodang",
  15.     "price":7000,
  16.     "producer":"dior producer",
  17.     "tags":["shishang","shechi"]
  18. }
  19. 注:es7以后格式为"PUT /index_name/_doc/",其中的_doc是必须的标识对文档的操作。
  20. #ES7及以后 不指定docid
  21. PUT /my_index/_doc/
  22. {
  23.     "name":"dior chengyi",
  24.     "desc":"shishang gaodang",
  25.     "price":7000,
  26.     "producer":"dior producer",
  27.     "tags":["shishang","shechi"]
  28. }
  29. 注:es7以后格式为"PUT /index_name/_doc/",其中的_doc是必须的标识对文档的操作。

注:es7之后版本都要将type位置换成“_doc”;其实就是ES7将_doc作为默认type了。

(2)、根据docid查询某条记录

  1. #根据docid查询商品
  2. GET /my_index/my_type/docid1111
  3. GET /my_index/_doc/docid1111

(3)、根据其他字段查询记录

  1. GET /my_index/my_type/_search
  2. {
  3. "size":5,
  4. "query":{
  5. "match":{
  6. "name":"dior chengyi"
  7. }
  8. }
  9. }
  10. #es7及之后版本
  11. GET /my_index/_doc/_search
  12. {
  13. "size":5,
  14. "query":{
  15. "match":{
  16. "name":"dior chengyi"
  17. }
  18. }
  19. }

(4)、修改数据

(1)PUT方式修改字段——其他字段依然带上

  1. #把price改成8000.如下是ok的
  2. PUT /my_index/my_type/docid1111
  3. {
  4. "name":"dior chengyi",
  5. "desc":"shishang gaodang",
  6. "price":8000,
  7. "producer":"dior producer",
  8. "tags":["shishang","shechi"]
  9. }

(2)PUT方式仅涉及修改字段——其他字段不带上(会覆盖原来所有)

  1. #这样update是不行的.会把docid1111完全覆盖掉
  2. PUT /my_index/my_type/docid1111
  3. {
  4. "price":9000
  5. }

(3)POST/_update方式修改数据——比较理想的方法

注:先进行查询,查询后存储doc,然后在更新其中的指定的字段的字段值。

  1. #POST方式进行update.注意:"_update"、"doc"等都要有
  2. POST /my_index/my_type/docid1111/_update
  3. {
  4. "doc":{
  5. "price":8500
  6. }
  7. }
  8. POST /my_index/_doc/docid1111/_update
  9. {
  10. "doc":{
  11. "price":8500
  12. }
  13. }

5、删除商品数据

  1. #删除商品数据
  2. DELETE /my_index/my_type/docid1111

6、继续插入两条数据

  1. #再插入一条记录
  2. PUT /my_index/my_type/docid1112
  3. {
  4. "name":"hailanzhijia chenyi",
  5. "desc":"shangwu xiuxian",
  6. "price":200,
  7. "producer":"hailanzhijia producer",
  8. "tags":["xiuxian"]
  9. }
  10. #在插入一条记录
  11. PUT /my_index/my_type/docid1113
  12. {
  13. "name":"uniqlo chenyi",
  14. "desc":"jujia xiuxian",
  15. "price":150,
  16. "producer":"uniqlo producer",
  17. "tags":["jujia","xiuxian"]
  18. }

7、查看所有数据

  1. #查看所有数据
  2. GET /my_index/my_type/_search
  3. GET /my_index/_doc/_search

一、ES高级查询 DSL

0、ES mapping中的数据类型

  1. 字符串类型: keyword、text
  2. 数字类型: interger long
  3. 小数类型: float double
  4. 布尔类型: boolean
  5. 日期类型: date

①keyword一般用于关键字/词;text存储一段文本。本质区别是text会分词,keyword不会分词;

②所有类型中只有text类型会分词,其余都不分词;

③默认情况ES使用标准分词器。其分词逻辑为:中文单字分词、英文单词分词。

  1. 为了便于后续测试创建如下索引
  2. PUT products
  3. {
  4. "settings":{
  5. "number_of_shards": 1,
  6. "number_of_replicas": 0
  7. },
  8. "mappings":{
  9. "properties": {
  10. "id":{
  11. "type":"integer"
  12. },
  13. "title":{
  14. "type":"keyword"
  15. },
  16. "price":{
  17. "type":"double"
  18. },
  19. "create_at":{
  20. "type":"date"
  21. },
  22. "description":{
  23. "type":"text"
  24. }
  25. }
  26. }
  27. }
  28. 注:discription字段以下形式即为指定分词器
  29. "description":{
  30. "type":"text",
  31. "analyzer": "ik_max_word"
  32. }
  33. #并插入如下数据
  34. POST /products/_doc/1
  35. {
  36. "id":1,
  37. "title":"小浣熊",
  38. "price":0.5,
  39. "create_at":"2022-11-11",
  40. "description":"小浣熊很好吃!!"
  41. }
  42. POST /products/_doc/2
  43. {
  44. "id":2,
  45. "title":"唐僧肉",
  46. "price":1.0,
  47. "create_at":"2022-11-11",
  48. "description":"唐僧肉真不错!!很好吃!!"
  49. }
  50. POST /products/_doc/8
  51. {
  52. "id":8,
  53. "title":"大辣片",
  54. "price":1.0,
  55. "create_at":"2022-11-11",
  56. "description":"大辣片好好吃!!很好吃!!"
  57. }
  58. POST /products/_doc/
  59. {
  60. "title":"大鸡腿",
  61. "price":10,
  62. "create_at":"2022-11-11",
  63. "description":"good chicken"
  64. }
  65. POST /products/_doc/
  66. {
  67. "title":"日本豆",
  68. "price":1.5,
  69. "create_at":"2022-11-11",
  70. "description":"日本豆很好吃!!"
  71. }
  72. POST /products/_doc/
  73. {
  74. "title":"鱼豆腐",
  75. "price":3.5,
  76. "create_at":"2022-11-11",
  77. "description":"鱼豆腐nice!!很好吃!!"
  78. }

1、语法

  1. #注:ES7之前_doc为实际type,之后为_doc;不过查询的时候_doc可省略。
  2. GET /索引名/_doc/_search
  3. {
  4. json格式请求体数据
  5. }
  6. 或者省略_doc(建议)
  7. GET /索引名/_search
  8. {
  9. json格式请求体数据
  10. }

注:建议查询的时候直接省略_doc,这个时候还会有自动补齐提示。

2、query DSL——查询所有(match_all)

 match_all关键字:返回索引中的全部文档。

  1. GET /products/_search
  2. {
  3. "query":{
  4. "match_all": {}
  5. }
  6. }
  7. 注:既然是match_all后面肯定不需要限定任何条件了;但是为了满足json格式所以这里要加个"{}"

3、query DSL——关键词查询(term)

重复三遍:文本匹配不要用term!文本匹配不要用term!文本匹配不要用term!(要用match) 

term关键词:用来使用关键词查询。

①term搜索映射中的keyword类型应当使用全部内容搜索(如“大辣片”);

②text类型默认ES使用标准分词器;其分词逻辑为 对英文单词分词、对中文单字分词。

  1. #keyword搜索完整关键词是能够搜到的
  2. GET /products/_search
  3. {
  4. "query":{
  5. "term": {
  6. "title": "鱼豆腐"
  7. }
  8. }
  9. }
  10. 注:上述描述json格式的K-V都可以换成如下。
  11. "title":{
  12. "value":"鱼豆腐"
  13. }
  14. #默认分词器下text搜索完整内容也是搜不到的
  15. GET /products/_search
  16. {
  17. "query":{
  18. "term": {
  19. "description": "日本豆很好吃!!"
  20. }
  21. }
  22. }
  23. #默认分词器下text搜索单个汉字是能搜到的
  24. GET /products/_search
  25. {
  26. "query":{
  27. "term": {
  28. "description": "好"
  29. }
  30. }
  31. }
  32. #默认分词器下text搜索单个英文单词也是能搜到的
  33. GET /products/_search
  34. {
  35. "query":{
  36. "term": {
  37. "description": "nice"
  38. }
  39. }
  40. }

4、query DSL——多关键词查询(terms)

terms关键词:用于某个关键词匹配多个值的查询。和 term 有点类似,但 terms 允许指定多个匹配条件。 如果某个字段指定了多个值,那么文档需要一起去做匹配。

  1. GET /products/_search
  2. {
  3. "query":{
  4. "terms": {
  5. "title": [
  6. "大鸡腿",
  7. "大辣片"
  8. ]
  9. }
  10. }
  11. }

5、query DSL——范围查询(range)

range关键字:用来指定查询范围内的文档

  1. #查询加个范围
  2. GET /products/_search
  3. {
  4. "query":
  5. {
  6. "range": {
  7. "price": {
  8. "gte": 5,
  9. "lte": 10
  10. }
  11. }
  12. }
  13. }

6、query DSL——前缀查询(prefix)

prefix关键字:用来检索含有指定前缀的关键词的相关文档。

  1. #针对keyword类型是可以前缀查询到的
  2. GET /products/_search
  3. {
  4. "query":{
  5. "prefix": {
  6. "title": {
  7. "value": "小浣"
  8. }
  9. }
  10. }
  11. }
  12. #针对text类型如果是英文的话也是可以前缀查到的
  13. GET /products/_search
  14. {
  15. "query":{
  16. "prefix": {
  17. "description": {
  18. "value": "goo"
  19. }
  20. }
  21. }
  22. }

        prefix查询不做相关度评分,它只是将所有匹配的文档返回,并为每条结果赋予评分值1。他的行为更像是filter而不是query,只不过这里不能像filter那样缓存罢了。在我们并没有对相应字段进行特殊处理还是以精确值的方式存的情况下,prefix查询是如何工作的呢?

        个人理解应该是利用了Term Index和Term dictionary,对于邮编字段其对应的倒排表可能如下。为了支持前缀匹配就会去依次扫描Term Index中以目标前缀(如“W1”)为开头的term并收集关联文档(参见 这里 倒排索引部分)。显然,当倒排索引数据量很大的时候就会给集群带来很大的压力。总的来说当数据量比较小,或者数量不是很大但前缀又很长的情况下还是可以用的。

  1. Term: Doc IDs:
  2. -------------------------
  3. "SW5 0BE" | 5
  4. "W1F 7HW" | 3
  5. "W1V 3DG" | 1
  6. "W2F 8HW" | 2
  7. "WC1N 1LZ" | 4
  8. -------------------------

 另外,为了加速prefix查询,还可以在设置字段映射的时候,使用index_prefixes映射。ES会额外建立一个长度在min_chars和max_chars之间索引,在进行前缀匹配的时候效率会有很大的提高。

Prefix query | Elasticsearch Guide [8.9] | Elastic

index_prefixes | Elasticsearch Guide [8.9] | Elastic

7、query DSL——通配符与正则表达式查询(wildcard/regexp)

        wildcard 和 regexp 查询的工作方式与 prefix 查询完全一样,它们也需要扫描倒排索引中的词列表才能找到所有匹配的词,然后依次获取每个词相关的文档 ID ,与 prefix 查询的唯一不同是:它们能支持更为复杂的匹配模式。

        wildcard关键字:通配符查询。 ?用来匹配一个任意字符  *用来匹配多个任意字符。

 使用标准的shell通配符查询参考: ES官网点击直达

  1. #对于text类型。这样是能查到的
  2. GET /products/_search
  3. {
  4. "query":{
  5. "wildcard": {
  6. "description": {
  7. "value": "goo?"
  8. }
  9. }
  10. }
  11. }
  12. #这样是查不到的
  13. GET /products/_search
  14. {
  15. "query":{
  16. "wildcard": {
  17. "description": {
  18. "value": "go?"
  19. }
  20. }
  21. }
  22. }
  23. 注:因为good是description字段的一个分词。

     这里 建议避免使用左通配的模式匹配(如 *foo 或 .*foo 这样的正则式),其原因应该就是匹配机制会尽量充分利用Term Index的数据。显然如果是左通配的话就利用不了Term Index了,此时很有可能就完全退化成遍历Term Dictionary。 

8、query DSL——多id查询(ids)

ids关键字:值为数组类型,用来根据一组id获取多个对应的文档。

注:这里相当于指定字段就是docid,感觉用的不是很多了吧。

  1. #注:这里就是限定死查询某些docid的数据,只能是docid。
  2. GET /products/_search
  3. {
  4. "query": {
  5. "ids": {
  6. "values":["1","8"]
  7. }
  8. }
  9. }

9、query DSL——模糊查询(fuzzy)

fuzzy关键字:用来模糊查询含有指定关键字的文档。

注意:fuzzy模糊 最大模糊错误必须在0~2之间

①搜索关键词长度为2不允许存在模糊
②搜索关键词长度为3~5允许一次模糊
③搜索关键词长度大于5最大2次模糊

  1. #这样是可以查询到title为“小浣熊”的数据的
  2. GET /products/_search
  3. {
  4. "query": {
  5. "fuzzy": {
  6. "title":"小浣猫"
  7. }
  8. }
  9. }

10、query DSL——布尔查询(bool)  重要!!!!!

bool关键字:用来组合多个条件实现复杂查询,相当于逻辑操作。bool查询可以嵌套组合任意其他类型的查询,甚至继续嵌套bool查询也是可以的

实际语法为:bool下面套filter/must/should/must_not实现逻辑效果(bool包含四种子句)。
①must:相当于&& 要求同时成立;
②should:1)相当于逻辑或的关系; 2)影响评分机制,会把匹配的更多的文档评分提高。
③must_not:相当于! 取非(逻辑非);
④filter: 可以将上述term、range等诸多条件都放在filter里面

注:关于filter参见下文专门的介绍。过滤查询(filter)不计算相关度速度非常快,一般都先用filter降低目标数据集后再去计算相关度。

注:filter可以放到bool条件下面,同样bool条件也可以放在filter下面。

  1. #must 同时满足条件
  2. GET /products/_search
  3. {
  4. "query": {
  5. "bool": {
  6. "must": [
  7. {
  8. "term":{"title":"小浣熊"}
  9. },
  10. {
  11. "range": {
  12. "price": {
  13. "gte": 10,
  14. "lte": 20
  15. }
  16. }
  17. }
  18. ]
  19. }
  20. }
  21. }
  22. #should 满足一个条件即可
  23. GET /products/_search
  24. {
  25. "query": {
  26. "bool": {
  27. "should": [
  28. {
  29. "term":{"title":"小浣熊"}
  30. },
  31. {
  32. "range": {
  33. "price": {
  34. "gte": 10,
  35. "lte": 20
  36. }
  37. }
  38. }
  39. ]
  40. }
  41. }
  42. }
  43. #查询 msg_content 字段不为空的消息
  44. GET es_qidian_msg_202401/_search
  45. {
  46. "size":100,
  47. "query":{
  48. "bool":{
  49. "must_not":[
  50. {
  51. "term":{
  52. "msg_content":""
  53. }
  54. }
  55. ]
  56. }
  57. }
  58. }
  59. #进一步组合也都是可以的
  60. GET /products/_search
  61. {
  62. "bool": {
  63. "filter":[
  64. {"term":{"key1":value}}
  65. {"range":{"key2":{"gt":value1,"lt":value2}}}
  66. ]
  67. "must": { "term": { }},
  68. "must_not": { "term": { }},
  69. "should":
  70. [
  71. { "term": { }},
  72. { "term": { }}
  73. ]
  74. }
  75. }
  76. 注:must可以是数组,即[];也可以不是数组,即{}.

11、query DSL——match查询(match)   重要!!!!

match:不仅会显示精确匹配的结果也会显示相似匹配的结果,非常强大。

原理:query可以输入关键词也可以输入一段文本。它会根据你实际查询的字段的类型决定是否对query内容进行分词。①如果你查询的字段是分词的,它就会对你query的内容进行分词然后再去搜。②如果该字段是不分词的就将查询条件作为整体进行查询。

注意文本匹配不要用term而应该用match~~~~

  1. #其本质是拿‘浣’去搜,现在就能匹配到数据;然后再拿‘猫’去搜。
  2. GET /products/_search
  3. {
  4. "query": {
  5. "match": {
  6. "description": "浣猫"
  7. }
  8. }
  9. }
  10. #其本质是拿‘浣’去搜,现在就能匹配到数据;然后再拿‘鸡’去搜。显然就匹配到两条数据了。
  11. GET /products/_search
  12. {
  13. "query": {
  14. "match": {
  15. "description": "浣鸡"
  16. }
  17. }
  18. }

       对于多个match语句组合的时候bool查询采取“more-matchs-is-better”(匹配越多越好)的方式,所以每条match语句的评分结果会被加在一起,从而为每个文档提供最终的_score。对于如下案例,显然能与两条语句同时匹配的文档比只与一条语句匹配的文档的得分更高。

12、query DSL——should   

查询语句提升权重 | Elasticsearch: 权威指南 | Elastic

should是个很重要的语句,其包含两个层面的含义:

①或(or)的意思,可以同时匹配多个条件。

②影响评分机制,匹配should条件越多的文档评分就越高。

should影响相关度评分:

       查询关于“full text search”的文档,同时希望为提及"Elasticsearch"和"Lucene"的文档给予更高的权重。这里“更高的权重”是指如果文档中出现了"Elasticsearch"或"Lucene"会比没有出现这些词的文档获得更高的相关度评分_score(出现在结果集的最前面) 。

  1. #查询语句如下:
  2. GET /_search
  3. {
  4. "query": {
  5. "bool": {
  6. "must": {
  7. "match": {
  8. "content": {
  9. "query": "full text search",
  10. #content 字段必须包含 full 、 text 和 search 所有三个词。
  11. "operator": "and"
  12. }
  13. }
  14. },
  15. #如果content字段也包含 Elasticsearch 或 Lucene ,文档会获得更高的评分 _score。
  16. "should": [
  17. { "match": { "content": "Elasticsearch" }},
  18. { "match": { "content": "Lucene" }}
  19. ]
  20. }
  21. }
  22. }

should修饰符boost:

同样上述场景,如果我们想让包含 Lucene 的文档有更高的权重,并且包含 Elasticsearch 的文档与 Lucene的权重更高,此时如何处理?

此时可以通过boost来控制任何查询语句的相对权重,boost的默认值是1,大于1就会提升相对权重。

  1. GET /_search
  2. {
  3. "query": {
  4. "bool": {
  5. "must": {
  6. "match": {
  7. "content": {
  8. "query": "full text search",
  9. "operator": "and"
  10. }
  11. }
  12. },
  13. "should": [
  14. { "match": {
  15. "content": {
  16. "query": "Elasticsearch",
  17. "boost": 3 #这个条件更重要boost值为3
  18. }
  19. }},
  20. { "match": {
  21. "content": {
  22. "query": "Lucene",
  23. "boost": 2 #这个条件比默认值重要boost值为2,但不及上面的Elasticsearch
  24. }
  25. }}
  26. ]
  27. }
  28. }
  29. }

Note:

    boost 参数被用来提升一个语句的相对权重( boost 值大于 1 )或降低相对权重(boost 值处于 0 到 1 之间,但是这种提升或降低并不是线性的.换句话说,boost值为2并不能获得两倍的评分 _score 。

        相反,新的评分 _score 会在应用权重提升之后被 归一化 ,每种类型的查询都有自己的归一算法,细节此处不作介绍。简单的说,更高的boost值为我们带来更高的_score 。

        如果不基于 TF/IDF 要实现自己的评分模型,我们就需要对权重提升的过程能有更多控制,可以使用 function_score 查询操纵一个文档的权重提升方式而跳过归一化这一步骤。

13、query DSL——multi_match查询(multi_match)   重要!!!!

原理同上,只不过换成了多个字段。

  1. #如下是能搜到数据,本质上是从“description”字段搜到的。
  2. GET /products/_search
  3. {
  4. "query": {
  5. "multi_match": {
  6. "query": "浣猫",
  7. "fields": ["title","description"]
  8. }
  9. }
  10. }
  11. #确实这样去匹配keyword类型的title是不行的
  12. GET /products/_search
  13. {
  14. "query": {
  15. "multi_match": {
  16. "query": "浣猫",
  17. "fields": ["title"]
  18. }
  19. }
  20. }
  21. #description含有‘浣’和‘鸡’的都被搜出来了
  22. GET /products/_search
  23. {
  24. "query": {
  25. "multi_match": {
  26. "query": "浣鸡",
  27. "fields": ["title","description"]
  28. }
  29. }
  30. }

14、query DSL——match_phrase查询(短语匹配)   重要!!!!

match和match_phrase的区别:

match是全文检索,这里的搜索条件是针对查询的字串分词后的所有项;只要发现和搜索条件相关的数据都会出现在结果集中。如果我们不想将我们的查询条件拆分,应该怎么办呢?这个时候就可以使用match_phrase。match_phrase是“短语搜索”,他会将给定的短语(phrase)当成一个完整的查询条件。举个简单的例子,如果你要查询的是“this is”。对于match来说会查询到含有“this”的数据和含有“is”的数据,但是对于match_phrase查到的则是必须含有“this is”的数据。

match_phrase一般用于短语匹配(Phrase Matching)!!

  1. #插入如下三条数据
  2. POST /products/_doc/
  3. {
  4. "title":"apple",
  5. "price":"2.2",
  6. "create_at":"2022-08-12",
  7. "description":"this is apple"
  8. }
  9. POST /products/_doc/
  10. {
  11. "title":"orange",
  12. "price":"2.0",
  13. "create_at":"2022-08-12",
  14. "description":"orange is sour"
  15. }
  16. POST /products/_doc/
  17. {
  18. "title":"banana",
  19. "price":"1.5",
  20. "create_at":"2022-08-12",
  21. "description":"this fruit very delicious"
  22. }
  1. #返回所有包含“this”和“is”的三条数据
  2. GET /products/_search
  3. {
  4. "query": {
  5. "match": {
  6. "description": "this is"
  7. }
  8. }
  9. }
  10. #仅返回了包含“this is”的一条数据
  11. GET /products/_search
  12. {
  13. "query": {
  14. "match_phrase": {
  15. "description": "this is"
  16. }
  17. }
  18. }
  19. 注:match_phrase也可以描述为类型为“phrase”的match
  20. "match": {
  21. "title": {
  22. "query": "quick brown fox",
  23. "type": "phrase"
  24. }
  25. }

举个例子对于匹配了短语"quick brown fox"的文档,意味着同时满足下面三个条件。

  1. ①quick、brown和fox必须全部出现在某个字段中。
  2. ②brown的位置必须比quick的位置大1
  3. ③fox的位置必须比quick的位置大2

如果以上的任何一个条件没有被满足,那么文档就不能被匹配。这样看来精确的短语匹配或许太严格了。

slop参数放松匹配条件:

也许我们想要包含“quick brown fox”的文档也能够匹配“quick fox”,此时我们可以使用slop参数将灵活度引入短语匹配中。

  1. GET /my_index/my_type/_search
  2. {
  3. "query": {
  4. "match_phrase": {
  5. "title": {
  6. "query": "quick fox",
  7. "slop": 1
  8. }
  9. }
  10. }
  11. }

slop参数告诉match_phrase查询词条相隔多远时仍然能将文档视为匹配。这个“相隔多远”的意思是为了让查询和文档匹配你需要移动词条多少次。显然,使用了slop后短语匹配的所有词项仍然都需要出现,但是这些词项不用按照相同的顺序匹配了。

看一个简单的例子。 为了让查询 quick fox 能匹配一个包含 quick brown fox 的文档, 我们需要 slop 的值为 1:

            Pos 1         Pos 2         Pos 3
-----------------------------------------------
Doc:        quick         brown         fox
-----------------------------------------------
Query:      quick         fox
Slop 1:     quick                 ↳     fox

当slop值足够大的时候,就相当于按照任意顺序排列了。

为了使查询 fox quick 匹配我们的文档, 我们需要 slop 的值为 3:

            Pos 1         Pos 2         Pos 3
-----------------------------------------------
Doc:        quick         brown         fox
-----------------------------------------------
Query:      fox           quick
Slop 1:     fox|quick  ↵  
Slop 2:     quick      ↳  fox
Slop 3:     quick                 ↳     fox

注:后面还会提到通过slop参数适当的放松匹配条件。

match_phrase匹配多值字段的问题及解决 —— position_increment_gap

  1. PUT /my_index/groups/1
  2. {
  3. "names": [ "John Abraham", "Lincoln Smith"]
  4. }
  5. #运行如下对"Abraham Lincoln"的短语查询,发现居然可以匹配到上面这条数据。
  6. GET /my_index/groups/_search
  7. {
  8. "query": {
  9. "match_phrase": {
  10. "names": "Abraham Lincoln"
  11. }
  12. }
  13. }

分析:这一切归根于ES对于数组的索引方式。

  1. 在分析 John Abraham 的时候, 产生了如下信息:
  2. Position 1: john
  3. Position 2: abraham
  4. 然后在分析 Lincoln Smith 的时候, 产生了:
  5. Position 3: lincoln
  6. Position 4: smith
  7. 换句话说, Elasticsearch对以上数组分析生成了与分析单个字符串 John Abraham Lincoln Smith
  8. 几乎完全相同的语汇单元。我们的查询示例寻找相邻的 lincoln 和 abraham,而且这两个词条确实存在,
  9. 并且它们俩正好相邻,所以这个查询匹配了。

注:这个也是nested要解决的问题,参见 6.ELK之Elasticsearch嵌套(Nested)类型-CSDN博客

解决:对于这个问题我们可以通过在数组元素之间添加“假的”间隙的方式进行避免。如下:

  1. DELETE /my_index/groups/
  2. #其含义是告诉ES应该为数组中的每个元素增加词条的position,相当于指定了数据元素之间的间隙。
  3. PUT /my_index/_mapping/groups
  4. {
  5. "properties": {
  6. "names": {
  7. "type": "string",
  8. "position_increment_gap": 100
  9. }
  10. }
  11. }
  12. 于是,数据的实际组织样式如下,即abraham和lincoln之前的距离为100.
  13. Position 1: john
  14. Position 2: abraham
  15. Position 103: lincoln
  16. Position 104: smith
  17. #此时除非指定slop为100,否则就不会匹配到这条数据了。

关于性能(强大肯定有强大的代价):

(1)一个match查询仅仅是看词条是否存在与倒排索引中,而match_phrase查询是必须计算并比较多个可能重复词项的位置;显然后者更慢。

(2)Lucene nightly benchmarks表明一个简单的term查询要比一个match_phrase快10倍,比相邻查询(有slop的短语查询)大约快20倍。

(3)如何限制短语查询和slop短语查询的性能消耗?一个可行的思路是减少短语查询检查的文档总数。具体来说可以通过代价更低的match查询获取含有搜索词条的文档,而且这个文档也是排序的;接下来在利用match_phrase对其中匹配了短语查询的文档做一个额外的相关度升级就可以了

  1. #match查询决定了哪些文档会包含在最终结果集合中,并通过TF/IDF排序。
  2. #windos_size是每一分片进行重新评分的顶部文档数量;
  3. #然后在通过query查询进行重新打分。注:这个可能有其他方式了。
  4. GET /my_index/my_type/_search
  5. {
  6. "query": {
  7. "match": {
  8. "title": {
  9. "query": "quick brown fox",
  10. "minimum_should_match": "30%"
  11. }
  12. }
  13. },
  14. "rescore": {
  15. "window_size": 50,
  16. "query": {
  17. "rescore_query": {
  18. "match_phrase": {
  19. "title": {
  20. "query": "quick brown fox",
  21. "slop": 50
  22. }
  23. }
  24. }
  25. }
  26. }
  27. }

注:关于rescore参见  官网

注:10倍、20倍的说法其实更大程度上表名term有多快,实际上短语查询的耗时也没有那么夸张是完全可用的。

15、query DSL——查询是否包含某个字段(exists)

exists 过滤可以用于查找文档中是否包含指定字段或没有某个字段 

  1. #查询包含“id”字段的数据
  2. GET /products/_search
  3. {
  4. "query": {
  5. "exists": {"field":"id"}
  6. }
  7. }

16、指定返回条数(size)

 size关键字:指定查询结果中返回指定条数的数据。注:默认返回10条。

注:size的书写位置没有顺序,最前面、中间、后面都是可以的;符合json规范就成。 

  1. #满足条件的有三条,这里限定只返回2
  2. GET /products/_search
  3. {
  4. "query": {
  5. "match": {
  6. "description": "this is"
  7. }
  8. },
  9. "size":2
  10. }

17、分页查询(from)

from关键字:用来指定起始返回位置,和size连用可以实现分页效果。

  1. #第一把
  2. GET /products/_search
  3. {
  4. "query": {
  5. "match_all": {}
  6. },
  7. "from": 0,
  8. "size":5
  9. }
  10. #翻页第二把
  11. GET /products/_search
  12. {
  13. "query": {
  14. "match_all": {}
  15. },
  16. "from": 5,
  17. "size":5
  18. }

18、指定字段排序(sort)

注意:sort和最外层的query平齐!!!! 

  1. #desc:降序
  2. #asc:升序
  3. GET /products/_search
  4. {
  5. "query": {
  6. "match_all": {}
  7. },
  8. "sort": [
  9. {
  10. "price": {
  11. "order": "desc"
  12. }
  13. }
  14. ]
  15. }

注意:因为排序干扰了ES内部的默认搜索,所以一旦排序后ES的查询结果中就没有score得分了。

19、指定返回字段(_source)

_source关键字:是一个数组,在数组中指定展示哪些字段。

注意:这里的“_source”也是和最外层的“query”平齐的。

  1. GET /products/_search
  2. {
  3. "query": {
  4. "match_all": {}
  5. },
  6. "_source": ["title","price"]
  7. }

20、更多的查询命令: ES官网点击直达

21、理解相关性(relevance score)

什么是相关性? | Elasticsearch: 权威指南 | Elastic

Elasticsearch 默认使用词频/逆向文档频率(TF/IDF相似度算法。词频 是计算某个词在当前被查询文档里某个字段中出现的频率,出现的频率越高,文档越相关。 逆向文档频率 将 某个词在索引内所有文档出现的百分数 考虑在内,出现的频率越高,它的权重就越低。

被破坏的相关度! | Elasticsearch: 权威指南 | Elastic

参照这篇文档我也也应该知道相关度还是建立在数据足够大、数据均化的情境下。如果认为的去制造数据我们很容易制造出无法满足相关度排序的数据集。

22、关于ES搜索的思考

其实ES的玩法就是以空间换时间,只不过在空间利用上会采用近乎极致的压缩算法。其思想就是在搜索之前就把供搜索的数据(其实是不分词条)提前准备好,建好索引等着你去用。关于究竟事先准备哪些词条这个其实就是分词器、分词算法要做的事情,关于怎么高效精炼的键索引就是倒排索引的设计优化。

二、Filter查询

结构化搜索 | Elasticsearch: 权威指南 | Elastic

Query and filter context | Elasticsearch Guide [8.11] | Elastic

        准确来说ES中的查询实际上有两种:查询(Query context)过滤(Filter Context)

1、Query就是前面演示的用法,它默认会计算每个返回文档的得分然后还会根据得分进行排序;

2、Filter只会筛选出符合条件的文档(不计算相关度得分)所以执行速度非常快,而且Filter很容易被缓存。

记住:应当尽可能地使用过滤式(Filter)查询.

        一般玩法都是会尽量优先使用过滤(filter)尽最大可能降低操作的数据量,然后在用query进行匹配查询(相关度排序)。

  1. #filter可以放在bool内部
  2. GET /products/_search
  3. {
  4. "query":{
  5. "bool": {
  6. "filter":[
  7. {"term":{"key1":value}}
  8. {"range":{"key2":{"gt":value1,"lt":value2}}}
  9. ],
  10. "must":[
  11. { "term": { }}
  12. ],
  13. "must_not":[
  14. { "term": { }}
  15. ],
  16. "should":
  17. [
  18. { "term": { }},
  19. { "term": { }}
  20. ]
  21. }
  22. }
  23. }
  24. #bool也可以放在filter内部
  25. GET /my_store/products/_search
  26. {
  27. "query" : {
  28. "filtered" : {
  29. "filter" : {
  30. "bool" : {
  31. "should" : [
  32. { "term" : {"price" : 20}},
  33. { "term" : {"productID" : "XHDK-A-1293-#fJ3"}}
  34. ],
  35. "must_not" : {
  36. "term" : {"price" : 30}
  37. }
  38. }
  39. }
  40. }
  41. }
  42. }
  43. #同时都存在也是可以的。如下:
  44. #最外层的bool包括了filter和must;
  45. #其中的filter又是一个bool语句,其中包括了should和must_not
  46. #minimum_should_match: https://blog.csdn.net/qq_26322753/article/details/122536803
  47. #注:这个case只是演示,实际使用的时候过滤性的条件应当尽量放在filter这样效率才高。
  48. GET es_xx_flow_oa_v2_202310/session/_search?routing=2852199330
  49. {
  50. "size":300,
  51. "query":{
  52. "bool":{
  53. "filter":{
  54. "bool":{
  55. "should":[
  56. {
  57. "term":{"kfext":3007458843}
  58. },
  59. {
  60. "term":{"robotid":9936786511}
  61. }
  62. ],
  63. "minimum_should_match": 1,
  64. "must_not":[
  65. {
  66. "term":{"robotid":10400}
  67. }
  68. ]
  69. }
  70. },
  71. "must":[
  72. {
  73. "range":{
  74. "flow_time":{
  75. "lt":1696930580
  76. }
  77. }
  78. },
  79. {
  80. "match":{
  81. "msg_content":"你好"
  82. }
  83. }
  84. ]
  85. }
  86. }
  87. }

注意:在执行filter和query时,ES会先执行filter,后执行query。

注意:filter不一定针对keyword类型,对于text类型也一样可以先通过filter降低目标数据量。总之只要能降低目标数据集的范围就可以了,这才是使用filter的条件。

常见的过滤类型有:term、terms、range、exists、ids等filter。

三、聚合查询(Aggregation aggs)

简单来讲类似于sql中的group by。

注:text类型是不支持聚合的。

  1. 为了便于测试创建如下索引
  2. PUT fruit
  3. {
  4. "mappings": {
  5. "properties": {
  6. "title":{
  7. "type":"keyword"
  8. },
  9. "price":{
  10. "type":"double"
  11. },
  12. "description":{
  13. "type":"text",
  14. "analyzer": "ik_max_word"
  15. }
  16. }
  17. }
  18. }
  19. GET fruit
  20. #并插入如下数据
  21. POST fruit/_bulk
  22. {"index":{}}
  23. {"title":"面包","price":19.9,"description":"小面包很好吃"}
  24. {"index":{}}
  25. {"title":"大白兔","price":29.9,"description":"大白兔奶糖好吃"}
  26. {"index":{}}
  27. {"title":"日本豆","price":19.9,"description":"日本豆非常好吃"}
  28. {"index":{}}
  29. {"title":"旺仔小馒头","price":19.9,"description":"旺仔小曼斗很甜"}
  30. {"index":{}}
  31. {"title":"大辣片","price":9.9,"description":"大辣片很诱人"}
  32. {"index":{}}
  33. {"title":"脆司令","price":19.9,"description":"脆司令很管饿"}
  34. {"index":{}}
  35. {"title":"喜之郎果冻","price":19.9,"description":"小时候的味道"}

1、根据某个字段分组

语法:其语法就是在query平齐的位置加上一个aggs。 

  1. #如下为一个实例。
  2. #其中"shuozhuo_price_group"为此次聚合的结果随便取的一个名字;这个名字是我们自定义的。
  3. #terms也是写死的。其含义是基于那个字段进行分组。
  4. GET /fruit/_search
  5. {
  6. "query": {
  7. "match_all": {}
  8. },
  9. "aggs": {
  10. "shuozhuo_price_group": {
  11. "terms": {
  12. "field": "price"
  13. }
  14. }
  15. }
  16. }
  17. #仅返回结果,不返回原始数据
  18. GET /fruit/_search
  19. {
  20. "query": {
  21. "match_all": {}
  22. },
  23. "size":0, #
  24. "aggs": {
  25. "shuozhuo_price_group": {
  26. "terms": {
  27. "field": "price"
  28. }
  29. }
  30. }
  31. }

返回结果如下:

 整个返回中的aggregations字段就是聚合结果;

buckets是一个数组表示的就是聚合后的数组;

注:如果只想返回聚合结果不想返回查询数据的话,利用size就好了。

2、求最大值/最小值/平均值

  1. #最大值
  2. GET /fruit/_search
  3. {
  4. "query": {
  5. "match_all": {}
  6. },
  7. "size":0,
  8. "aggs": {
  9. "shuozhuo_max_price": {
  10. "max": {
  11. "field": "price"
  12. }
  13. }
  14. }
  15. }
  16. #最小值
  17. GET /fruit/_search
  18. {
  19. "query": {
  20. "match_all": {}
  21. },
  22. "size":0,
  23. "aggs": {
  24. "shuozhuo_min_price": {
  25. "min": {
  26. "field": "price"
  27. }
  28. }
  29. }
  30. }
  31. #平均值
  32. GET /fruit/_search
  33. {
  34. "query": {
  35. "match_all": {}
  36. },
  37. "size":0,
  38. "aggs": {
  39. "shuozhuo_avg_price": {
  40. "avg": {
  41. "field": "price"
  42. }
  43. }
  44. }
  45. }
  46. #求和
  47. GET /fruit/_search
  48. {
  49. "query": {
  50. "match_all": {}
  51. },
  52. "size":0,
  53. "aggs": {
  54. "shuozhuo_sum_price": {
  55. "sum": {
  56. "field": "price"
  57. }
  58. }
  59. }
  60. }

关于聚合还有很多其他字段,以如下为例说明每个字段的含义。参考  这里

  1. #如下所示的查询语句就是先利用filter过滤目标数据,然后在用must
  2. {
  3. "size" : 0,
  4. "query" : {
  5. "bool" : {
  6. "filter" : [
  7. {"range" : {"time" : {"gte" : 1511924400, "lte" : 1551595501}}},
  8. {"term" : {"kfuin" : 2852199336}}
  9. ],
  10. "must" : {
  11. "bool" : {
  12. "should" : [
  13. {"match_phrase" : { "msg.ik" : {"query" : "1", "slop" : 0}}}
  14. ],
  15. "minimum_should_match" : 1
  16. }
  17. }
  18. }
  19. },
  20. "aggs" : {
  21. "customer_msgnum_aggs" : {
  22. "terms" : {
  23. "field": "acc_aggr_field", #根据acc_aggr_field字段聚合
  24. "size" : 10, #指定返回的聚合结果数;默认返回前10个聚合结果。这个顺序是后面order指定的顺序
  25. "collect_mode" : "breadth_first",
  26. "execution_hint": "map" ,
  27. "order" : {
  28. "customer_max_time" : "desc"
  29. }
  30. },
  31. "aggs" : {
  32. "customer_max_time" : {
  33. "max" : {
  34. "field" : "time"
  35. }
  36. },
  37. "customer_msg" : {
  38. "top_hits" :{"size" : 1, "_source" : {"includes" : [ "msg", "flow_type", "time", "relation_type", "kfext"]}}
  39. }
  40. }
  41. }
  42. }
  43. }

(0)query→bool→must→match_phrase。

①query:就是你要查询的短语;

②slop:精确短语(Exact-phrase)匹配也许太过于严格了。也许我们希望含有"quick brown fox"的文档也能够匹配"quick fox"查询,即使位置并不是完全相等的。slop参数就是用来引入一些灵活性的。slop参数告诉match_phrase查询词条能够相隔多远时仍然将文档视为匹配。相隔多远的意思是,你需要移动一个词条多少次来让查询和文档匹配?

(1)query→bool→must→minimum_should_match

举个例子,用户给定5个查询词想要查找包含其中3个term以上的文档,要如何控制?

minimum_should_match就可以实现精度控制。它表示查询语句在匹配分词的时候至少应该匹配几个term。这里设为1就能保证查询的语句和命中的数据中至少有一个term是匹配的。注:查询到的数据肯定要和查询字串要有一点相关才行,就是这里保证的了。

(2)customer_msgnum_aggs:为聚合结果自定义的一个名字。

(3)size :指定返回的聚合结果数;默认返回前10个聚合结果,这个顺序是后面order指定的顺序。

(4)collect_mode:通过参数 collect_mode = breadth_first 设置可以将子聚合计算延迟到上层父级被剪切之后再计算。注:这里应该是因为后面嵌套了一个 customer_max_time 子聚合所以才额外指定一下的。

①breadth_first 模式是优先进行广度遍历计算,计算完上层的聚合结果后,再进行每个桶的聚合结果计算;
②depth_first 模式是优先进行深度遍历计算,每个分支进行一次深度遍历计算,然后再进行剪切;
③如果某个字段的 cardinality 大小比请求的 size 大或者这个字段的 cardinality 是未知的,那么默认是 breadth_first,其它默认是 depth_first

(5)Execution hint:提供了两种聚合计算的方式,map 和 global_ordinals。

①global_ordinals 模式。对于海量的数据聚合计算,ES 使用一种 global ordinals 的数据结构来进行 bucket 分配,通过有序的数值来映射每一个 term 字符串实现内存消耗的优化。
②map 模式。直接将查询结果拿到内存里通过 map 来计算,在查询数据集很小的情况下使用 map会加快计算的速度。
        默认情况下只有使用脚本计算聚合的时候才使用 map 模式来计算。即使你设置了 map,ES 也不一定能保证一定使用 map 去做计算,一般情况下不需要关心 Execution hint 设置,ES 会根据场景选择最佳的计算方式

(6)order:就是指定排序。这里指定time字段降序排列。

 一个例子如下:

  1. GET es_XXXXXX_flow_oa_20200623/session/_search?size=100
  2. {
  3. "size":30,
  4. "_source":[
  5. "qq_uin",
  6. "start_time"
  7. ],
  8. "query": {
  9. #bool过滤:可以用来合并多个多虑天剑查询结果的布尔逻辑
  10. "bool": {
  11. #相当于and,里面包括多个term时要中括号
  12. "must":[
  13. {
  14. "term": {
  15. "session_id": "staff_2854099021_2852996969_2113136800_1592497021783"
  16. }
  17. },
  18. {
  19. "term":{
  20. "msg_direction": 1
  21. }
  22. },
  23. #精确匹配文本:用match_phrase替换term即可
  24. {
  25. "match_phrase":{
  26. "CustomerNickname": "uidXXXX4759"
  27. }
  28. },
  29. {
  30. #允许按照指定范围查找
  31. "range":{
  32. "flow_time":{
  33. "gt":1592842504,#gt:大于
  34. "lt":1592842955 #lt:小于
  35. }
  36. }
  37. }
  38. ],
  39. #相当于not
  40. "must_not":
  41. {
  42. "term":{
  43. "flow_time":1592842726
  44. }
  45. }
  46. }
  47. }
  48. }

四、条件更新/删除数据 —— _update_by_query/_delete_by_query

 1、条件删除数据

(1)把GET方法换成POST方法

(2)把 _search 换成 _delete_by_query 。

(3)注意:这东西可能会有延迟,执行删除操作后query语句会完10s左右看到没有这些数据了。

  1. POST es_xxxxx_flow_oa_20210625/session/_delete_by_query
  2. {
  3. "size":1000,
  4. "query":{
  5. "bool":{
  6. "must":[
  7. {
  8. "term":{
  9. "account_type":0
  10. }
  11. },
  12. {
  13. "term":{"kfuin":2852199234}
  14. },
  15. {
  16. "range":{
  17. "flow_time":{
  18. "gte":1602642490,
  19. "lte":1642642492
  20. }
  21. }
  22. }
  23. ]
  24. }
  25. }
  26. }

 2、条件更新数据

如下所示查询语句能够查询到对应的两条数据。我现在想把其中的kfext字段更新成别的数值。

  1. GET es_qidian_flow_oa_v2_202112/session/_search?routing=2852159342
  2. {
  3. "query":{
  4. "bool": {
  5. "must":[
  6. {
  7. "term":{
  8. "kfuin":2852159342
  9. }
  10. },
  11. {
  12. "term":{
  13. "kfext":321321321
  14. }
  15. }
  16. ]
  17. }
  18. }
  19. }

更新语句如下:

  1. POST es_qidian_flow_oa_v2_202112/session/_update_by_query?routing=2852159342
  2. {
  3. "script": {
  4. "lang":"painless",
  5. "source": "ctx._source.kfext=params.kfext",
  6. "params":{
  7. "kfext":321321321
  8. }
  9. },
  10. "query":{
  11. "bool": {
  12. "must":[
  13. {
  14. "term":{
  15. "kfuin":2852159342
  16. }
  17. },
  18. {
  19. "term":{
  20. "kfext":123123123
  21. }
  22. }
  23. ]
  24. }
  25. }
  26. }
  27. 注:其中的js语句写成如下也是可以的
  28. "script": {
  29. "source": "ctx._source['kfext']=321321321"
  30. },

注意:_update_by_query关键词不要拼错了,这里拼错了es是不会给出报错的。

注意:更新操作后需要有个生效时间,理论上不超过1min就可以生效。

注意:我们可以单独根据docid来查询每条数据看看这条数据的更新情况,

  1. #根据docid GET一条数据
  2. GET es_qidian_flow_oa_v2_202112/session/AX8fyE9VFSj-ki1XGBzE?routing=2852159342
  3. 注:对于上述语句根据es版本的不同可能有的需要加type(我们这里就是session),有的可能有不需要。
  4. #其中的_version就是这条数据的版本号,没改动一次就增加1.
  5. {
  6. "_index": "es_qidian_flow_oa_v2_202112",
  7. "_type": "session",
  8. "_id": "AX8fyE9VFSj-ki1XGBzE",
  9. "_version": 3,
  10. "_routing": "2852159342",
  11. "found": true,
  12. "_source": {
  13. "account_type": 2,
  14. "flow_time": 1640148231,
  15. "session_id": "",
  16. "relation_type": 0,
  17. "kfuin": 2852159342,
  18. "robotid": 0,
  19. "account_aggr_field": "2_2852406034",
  20. "qqpub": 0,
  21. "flow_type": 2,
  22. "kfext": 123123123,
  23. "msg_content": "长时间未收到您的消息",
  24. "retract_msg": 0,
  25. "msg_type": 0,
  26. "msg_direction": 1,
  27. "account": "2852406034"
  28. }
  29. }

条件删除语句和上面差不多,如下为一个实例:

  1. POST es_qidian_flow_oa_v2_202112/session/_delete_by_query
  2. {
  3. "query":{
  4. "bool": {
  5. "must":[
  6. {
  7. "term":{
  8. "kfuin":2852159342
  9. }
  10. },
  11. {
  12. "term":{
  13. "kfext":321321321
  14. }
  15. }
  16. ]
  17. }
  18. }
  19. }

五、 索引生命周期管理(Index Lifecycle Management)

5.1、关于ILM的概念参照  

1.ELK之Elasticsearch&Kibana一篇入门(安装/分片/操作流程/常用语句/分词)_elastic和kibana-CSDN博客

5.2、ILM使用案例

5.2.1、首先创建如下策略
  1. PUT _ilm/policy/msg_record_policy
  2. {
  3. "policy": {
  4. "phases": {
  5. "delete": {
  6. "min_age": "120s",
  7. "actions": {
  8. "delete": {}
  9. }
  10. }
  11. }
  12. }
  13. }

该policy管理的索引会在120s后删除。

 

5.2.2、创建一个模板在setting中使用上述policy

  1. PUT /_template/es_qidian_msg_template
  2. {
  3. "order" : 0,
  4. "index_patterns" : [
  5. "es_qidian_msg_*"
  6. ],
  7. "settings" : {
  8. "index.lifecycle.name": "msg_record_policy",
  9. "index" : {
  10. "routing" : {
  11. "allocation" : {
  12. "include" : {
  13. "temperature" : "hot"
  14. }
  15. }
  16. },
  17. "refresh_interval" : "30s",
  18. "number_of_shards" : "9",
  19. "routing_partition_size" : "2",
  20. "translog" : {
  21. "sync_interval" : "5s",
  22. "durability" : "async"
  23. },
  24. "analysis" : {
  25. "analyzer" : {
  26. "qq_relation_ngram" : {
  27. "tokenizer" : "qq_relation_ngram_tokenizer"
  28. }
  29. },
  30. "tokenizer" : {
  31. "qq_relation_ngram_tokenizer" : {
  32. "token_chars" : [
  33. "digit",
  34. "letter"
  35. ],
  36. "min_gram" : "3",
  37. "type" : "ngram",
  38. "max_gram" : "3"
  39. }
  40. }
  41. },
  42. "number_of_replicas" : "1"
  43. }
  44. },
  45. "mappings" : {
  46. "_routing" : {
  47. "required" : true
  48. },
  49. "properties" : {
  50. "kfuin" : {
  51. "type" : "long"
  52. },
  53. "kfext" : {
  54. "type" : "keyword"
  55. },
  56. "robotid" : {
  57. "type" : "long"
  58. },
  59. "flow_time" : {
  60. "type" : "date",
  61. "format" : "epoch_second||strict_date_optional_time"
  62. },
  63. "session_id" : {
  64. "type" : "keyword"
  65. },
  66. "recep_type" : {
  67. "type" : "long"
  68. },
  69. "msg_content" : {
  70. "type" : "text",
  71. "analyzer" : "qq_relation_ngram",
  72. "fields" : {
  73. "ik" : {
  74. "type" : "text",
  75. "analyzer" : "ik_max_word"
  76. }
  77. }
  78. },
  79. "cid" : {
  80. "type" : "keyword"
  81. },
  82. "channel" : {
  83. "type" : "long"
  84. },
  85. "msg_direction" : {
  86. "type" : "long"
  87. },
  88. "msg_seq" : {
  89. "type" : "long"
  90. },
  91. "cid_aggr_field" : {
  92. "type" : "keyword"
  93. },
  94. "sort_type" : {
  95. "type" : "long"
  96. },
  97. "retract_msg" : {
  98. "type" : "long"
  99. },
  100. "relation_type" : {
  101. "type" : "long"
  102. }
  103. }
  104. },
  105. "aliases" : {
  106. "es_qidian_msg" : { }
  107. }
  108. }

接下来插入一条测试数据创建索引触发创建索引:

  1. POST es_qidian_msg_202404/_doc/2852199330_2852354899_678812630876415_1712647298023299_13364?routing=2852199330
  2. {
  3. "channel": 4,
  4. "cid": "678812630876415",
  5. "kfuin": 2852199330,
  6. "kfext": 2852354899,
  7. "session_id": "commonsession_webim_2852199330_678812630876415_1712647294083"
  8. }

查看插入的目标数据:

  1. GET es_qidian_msg_202404/_search
  2. {
  3. "size": 10,
  4. "query":{
  5. "match_all":{}
  6. }
  7. }

查看目标索引的创建时间

GET es_qidian_msg_202404

然后就是观察索引和ILM的状况了,语句如下。

  1. #查看这个索引的ILM信息
  2. GET es_qidian_msg_202404/_ilm/explain

可以看到此时是新建的状态(phrase为new)、被生命周期策略管理(managed为true)、存在时间(age为2min)等信息。

等待120s后再次查看该索引的ILM信息,发现并没有变动。

注:这个就是前面介绍说到的间隔时间问题。即es默认10min才检查一次,实时性不高。

大概率等了10min之后,状态终于变了:

进入delete阶段。

此时如果查询这个索引会发现依然存在,同样还是实时性不够;我们后续持续观察发现20min左右的时候索引真正被删除了。

至此,目标达成。

其他语句:

  1. #查看这个新建的这个索引 es_qidian_msg_202404
  2. GET es_qidian_msg_202404
  3. #查看生命周期管理策略(可以看到一些内置的policy)
  4. GET _ilm/policy
  5. #查看ILM的状态
  6. GET _ilm/status
  7. #删除特定policy
  8. DELETE _ilm/policy/msg_record_policy

参考:

https://www.kancloud.cn/pshizhsysu/elastic/2550799 https://blog.csdn.net/qq_26664043/article/details/136060484

声明:本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:【wpsshop博客】
推荐阅读
相关标签
  

闽ICP备14008679号