当前位置:   article > 正文

ElasticSearch7.x + kibana7.x使用记录_kibana查看索引数据

kibana查看索引数据

目录

查询所有索引

查询索引的mapping信息

添加索引的同时添加mapping

在原有基础上新增字段

旧的索引迁移到新的索引(使用场景:数据迁移、索引优化、数据转换)

 查询索引下的文档总数

场景1:某一个字段的值是数组,如何存放?如何查询? 

场景2:对象内嵌套了数组,数组内又嵌套了对象,如何添加?如何查询?

场景3:向量的使用?


查询所有索引

GET _cat/indices

查询索引的mapping信息

  1. # 把index_name改为你要查看的索引名
  2. GET /index_name/_mapping

添加索引的同时添加mapping

  1. # index_name为你要增加的索引名
  2. # properties内的是你的字段 在这里创建了类型为integer的name字段
  3. PUT /index_name
  4. {
  5. "mappings" : {
  6. "properties" : {
  7. "name" : {
  8. "type" : "integer"
  9. }
  10. }
  11. }
  12. }

在原有基础上新增字段

  1. # 为index_name索引新增类型为text的title字段
  2. # analyzer指定该字段的分词器,ik_max_word是IK分词器中细粒度分词的模式,与之相反的是ik_smart模式
  3. # search_analyzer指定搜索时的分词器
  4. PUT /index_name/_mapping
  5. {
  6. "properties" : {
  7. "title" : {
  8. "type" : "text",
  9. "analyzer": "ik_max_word",
  10. "search_analyzer": "ik_max_word"
  11. }
  12. }
  13. }

旧的索引迁移到新的索引(使用场景:数据迁移、索引优化、数据转换)

 es没法在原有的结构上修改,比如你原来的结构使用的是ik分词器中的ik_smart模式,后面你发现ik_max_word模式才是你需要的效果,你想在原来的结构上把ik_smart修改为ik_max_word是不行的,只能是新创建一个索引,把字段的分词器改成ik_max_word,然后再进行数据迁移即可。

  1. # old_index_name是旧的索引名,new_index_name是新的索引名
  2. # 从old_index_name数据迁移到new_index_name
  3. POST _reindex
  4. {
  5. "source":{
  6. "index": "old_index_name"
  7. },
  8. "dest":{
  9. "index": "new_index_name"
  10. }
  11. }

数据迁移后旧索引下的数据还是存在的,不是说把所有数据迁移到新的索引后旧索引的数据就没了

 查询索引下的文档总数

当我们进行数据迁移,想要查看是否迁移完成的话可以使用这个查询文档数量是否对应上即可 

  1. # 把index_name修改为你要查询的索引名
  2. GET /_cat/count/index_name?v

场景1:某一个字段的值是数组,如何存放?如何查询? 

  • 新建一个测试索引名,添加可以存放数组的字段
  1. # 跟创建普通的字段差不多,唯独多了fields,fields内指定了一个类型为keyword的name字段
  2. # fields下的name对应的就是数组当中的一个个值
  3. PUT /test_index_name
  4. {
  5. "mappings" : {
  6. "properties" : {
  7. "my_array" : {
  8. "type" : "text",
  9. "analyzer" : "ik_max_word",
  10. "search_analyzer": "ik_max_word",
  11. "fields" : {
  12. "name" : {
  13. "type" : "keyword"
  14. }
  15. }
  16. }
  17. }
  18. }
  19. }

响应:

{
  "acknowledged" : true,
  "shards_acknowledged" : true,
  "index" : "test_index_name"

  •  添加测试数据

假如我们有三个数组,分别是:

["张三", "李四"]

["橙留香", "菠萝吹雪", "陆小果"]

["疯清扬", "天山果姥", "无极"] 

单个添加: 

  1. # 为test_index_name添加一条id为1的数据
  2. PUT /test_index_name/_doc/1
  3. {
  4. "my_array": ["张三", "李四"]
  5. }

批量添加:

  1. POST /test_index_name/_bulk
  2. {"create":{"_id":"2"}}
  3. {"my_array":["橙留香", "菠萝吹雪", "陆小果"]}
  4. {"create":{"_id":"3"}}
  5. {"my_array":["疯清扬", "天山果姥", "无极"]}

通过以上步骤已经添加了三条数据,接下来让我们查询看下效果 

  • 查询方式1
  1. # 查询数组内name有张三的数据
  2. GET /test_index_name/_search
  3. {
  4. "query": {
  5. "bool": {
  6. "must": [
  7. {
  8. "term": {"my_array.name": "张三"}
  9. }
  10. ]
  11. }
  12. }
  13. }

结果:

 可以看到查询出了包含张三的数据了

  • 查询方式2
  1. GET /test_index_name/_search
  2. {
  3. "query": {
  4. "bool": {
  5. "must": [
  6. {
  7. "match": {"my_array": "疯清扬"}
  8. }
  9. ]
  10. }
  11. }
  12. }

 结果:

方式1是根据数组内的name值精确匹配。方式2是my_array字段的模糊匹配,因为我们一开始创建的my_array是text类型的,text类型会进行分词,因此可以用match进行模糊匹配,而my_array内的name是keyword类型的,keyword类型不会进行分词,它是一个整体,那么就可以用term进行精确匹配了,当然你也可以把keyword类型改成text类型,这样也可以进行模糊匹配了,可以自行探索下。使用term精确匹配text类型的字段时,可能查询没有结果,原因是因为text的所有分词中可能没有对应上的内容。

场景2:对象内嵌套了数组,数组内又嵌套了对象,如何添加?如何查询?

比如我们有两条数据是这样的:

第一条:

{

    "title": "果宝特攻",

    "data": {

        "role": "主角",

        "names": [

            {

                "name": "疯清扬"

            },

            {

                "name": "天山果姥"

            }

        ]

    }

}

第二条:

{

    "title": "倚天屠龙记",

    "data": {

        "role": "主角",

        "names": [

            {

                "name": "张无忌"

            },

            {

                "name": "张三丰"

            }

        ]

    }

}

看起来有点复杂哈,待会有你头大的,哈哈哈哈~

  • 建索引添加字段
  1. PUT /test_index_name_1
  2. {
  3. "mappings" : {
  4. "properties" : {
  5. "title" : {
  6. "type" : "keyword"
  7. },
  8. "data" : {
  9. "type" : "nested",
  10. "properties" : {
  11. "role" : {
  12. "type" : "keyword"
  13. },
  14. "names" : {
  15. "type" : "nested",
  16. "properties" : {
  17. "name" : {
  18. "type" : "keyword"
  19. }
  20. }
  21. }
  22. }
  23. }
  24. }
  25. }
  26. }

让我们把索引结构抽出来和数据结构对比看下: 

可以看到除了使用到nested类型外,其他结构和普通的结构没什么区别,nested类型可以使用在对象或数组上,具体的介绍如下:

Nested数据类型的作用 

  • 独立查询:Nested数据类型是object数据类型的特殊版本,允许对象数组被索引,这样它们可以独立地被查询。

  • 内部结构:在内部,nested对象将数组中的每个对象作为一个单独的隐藏文档来索引,这意味着可以使用nested查询独立查询每个nested对象。

  • Lucene文档:每个nested对象都被索引为一个独立的Lucene文档。例如,如果我们索引了一个包含100个user对象的单一文档,那么会创建101个Lucene文档。比如我们有以下数据:

  1. {
  2. "title": "Example Document",
  3. "users": [
  4. { "name": "Alice", "age": 30 },
  5. { "name": "Bob", "age": 25 }
  6. ]
  7. }

这个示例的有两个user对象,对应两个 Lucene文档,而包含title字段和users字段是这两个 Lucene文档的父文档,因此这个示例会创建三个 Lucene文档(一个父文档、两个user对象)

  • 使用场景:只有在需要独立查询对象数组的特殊情况下,才应该使用nested类型。对于大量、随机的键值对,可以考虑使用flattened数据类型来代替,因为它能将整个对象映射为一个字段,并允许对其内容进行简单搜索。这是因为nested文档和查询通常都比较昂贵。

  • 性能警告:由于与nested映射相关的开销,Elasticsearch设置了一些设置来防止性能问题:

    • index.mapping.nested_fields.limit:一个索引中可以有的不同nested映射的最大数量。默认值为50。
    • index.mapping.nested_objects.limit:一个文档在所有nested类型中可以包含的嵌套JSON对象的最大数量。这个限制有助于防止文档包含太多的nested对象时出现内存溢出错误。默认值是10000。

 官方文档介绍:Nested field type | Elasticsearch Guide [7.17] | Elastic

通过上面的介绍你应该理解咱们创建的索引结构了,那么接下来让我们添加数据查询试试。

  • 添加数据
  1. PUT /test_index_name_1/_doc/1
  2. {
  3. "title": "果宝特攻",
  4. "data": {
  5. "role": "主角",
  6. "names": [
  7. {
  8. "name": "疯清扬"
  9. },
  10. {
  11. "name": "天山果姥"
  12. }
  13. ]
  14. }
  15. }
  16. PUT /test_index_name_1/_doc/2
  17. {
  18. "title": "倚天屠龙记",
  19. "data": {
  20. "role": "主角",
  21. "names": [
  22. {
  23. "name": "张无忌"
  24. },
  25. {
  26. "name": "张三丰"
  27. }
  28. ]
  29. }
  30. }
  • 查询
  1. GET /test_index_name_1/_search
  2. {
  3. "query": {
  4. "bool": {
  5. "must": [
  6. {
  7. "term": {
  8. "title": "果宝特攻"
  9. }
  10. },
  11. {
  12. "nested": {
  13. "path": "data",
  14. "query": {
  15. "bool": {
  16. "must": [
  17. {
  18. "nested": {
  19. "path": "data.names",
  20. "query": {
  21. "bool": {
  22. "must": [
  23. {
  24. "term": {
  25. "data.names.name": "疯清扬"
  26. }
  27. }
  28. ]
  29. }
  30. }
  31. }
  32. }
  33. ]
  34. }
  35. }
  36. }
  37. }
  38. ]
  39. }
  40. }
  41. }

结果:

 解释查询语句:

基本上就是一层嵌套一层的去查询,看下图的解释应该就明白了:

如果我想添加role字段的查询条件呢?其实就是在data对象层添加一个条件即可,对比:

场景3:向量的使用?

在es没有添加向量的搜索方式前,搜索靠的是关键字,但是关键字的搜索结果在有些时候不是那么尽人意,因此有了向量的方式后在一定程度上可以做到语义上的搜索,不过我们需要使用Embedding将文本转为向量,效果好不好就看你的Embedding模型好不好了。

流程:

我们需要借助Embedding模型将文本转为向量,然后入库。在查询的时候将查询的问题借助Embedding转为向量,然后拿着向量去库里查。流程大概是这么个流程。

  • 建索引添加字段
  1. PUT /test_index_name_2
  2. {
  3. "mappings": {
  4. "properties": {
  5. "content": {
  6. "type": "text",
  7. "analyzer": "ik_max_word",
  8. "search_analyzer": "ik_max_word"
  9. },
  10. "my_v": {
  11. "type": "dense_vector",
  12. "dims": 1024
  13. }
  14. }
  15. }
  16. }

新建了两个字段,一个是content字段,指定了ik分词器。一个是my_v字段,类型是dense_vector,也就是向量类型,dims指的是向量的维度,因为接下来用的Embedding模型维度是1024的,因此这里的dims填1024即可,如果你用其他的Embedding模型,那么就需要看你的Embedding模型维度是多少了。一般Embedding模型的文档会说明维度是多少的。

  •  下载模型

这一步因为用到了Embedding模型,因此我们需要在代码中添加,这里就用python演示了,接下来的演示我将使用这个Embedding模型:

https://github.com/FlagOpen/FlagEmbedding

  1. git lfs install
  2. git clone https://huggingface.co/BAAI/bge-large-zh
  •  部署模型

安装依赖

pip install -U FlagEmbedding

 示例代码:

  1. # -*- coding: utf-8 -*-
  2. from FlagEmbedding import FlagModel
  3. # 模型路径
  4. MODEL_PATH = 'D:/python_project/pythonProject/bge-large-zh'
  5. if __name__ == '__main__':
  6. model = FlagModel(MODEL_PATH)
  7. my_v = model.encode("这是一个测试转向量的文本")
  8. print(my_v)
  9. print(f'向量维度:{len(my_v)}')

输出结果:

  • es入库 

 我的elasticsearch数据库是7.12.1的

安装elasticsearch依赖:

pip install elasticsearch==7.17.0

示例代码:

  1. # -*- coding: utf-8 -*-
  2. from FlagEmbedding import FlagModel
  3. from elasticsearch import Elasticsearch
  4. # 模型路径
  5. MODEL_PATH = 'D:/python_project/pythonProject/bge-large-zh'
  6. if __name__ == '__main__':
  7. content = '橙留香来自一位三流剑客之家,与果冻武术学院里的菠萝吹雪、陆小果组成“果冻三剑客”,最后三人终于打败四大恶贼,成为民族大英雄。'
  8. # 加载模型
  9. model = FlagModel(MODEL_PATH)
  10. # 初始化es连接 如果没有账户密码不填即可
  11. es = Elasticsearch([{'host': '127.0.0.1', 'port': 9200}], http_auth=('elastic', '123456789'))
  12. # 文本转向量
  13. my_v = model.encode(content)
  14. print(my_v)
  15. print(f'向量维度:{len(my_v)}')
  16. # 入库
  17. data = {
  18. "my_v": my_v,
  19. "content": content
  20. }
  21. response = es.index(index="test_index_name_2", document=data)
  22. print(response)
  • 查询

示例代码:

  1. # -*- coding: utf-8 -*-
  2. import json
  3. from FlagEmbedding import FlagModel
  4. from elasticsearch import Elasticsearch
  5. # 模型路径
  6. MODEL_PATH = 'D:/python_project/pythonProject/bge-large-zh'
  7. if __name__ == '__main__':
  8. question = '果冻三剑客是谁?'
  9. # 加载模型
  10. model = FlagModel(MODEL_PATH)
  11. # 初始化es连接 如果没有账户密码不填即可
  12. es = Elasticsearch([{'host': '127.0.0.1', 'port': 9200}], http_auth=('elastic', '123456789'))
  13. # 文本转向量
  14. my_v = model.encode(question)
  15. # 查询条件
  16. dsl = {
  17. "script_score": {
  18. "query": {
  19. "match_all": {}
  20. },
  21. "script": {
  22. "source": """
  23. if (doc.containsKey('my_v') && doc['my_v'].size() > 0 && params.query_vector != null) {
  24. return cosineSimilarity(params.query_vector, 'my_v') + 1.0
  25. }else {
  26. return 0
  27. }
  28. """,
  29. "params": {"query_vector": my_v}
  30. }
  31. }
  32. }
  33. # 查询
  34. result = es.search(index="test_index_name_2", query=dsl)
  35. print(json.dumps(result, indent=2, ensure_ascii=False))

 结果:

你可能会看到很多-0.007382424082607031这种数据,这个就是文本的向量

代码解释:


声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/黑客灵魂/article/detail/792725
推荐阅读