赞
踩
elasticsearch和kibana都是6.4.2版本
全文搜索
属于最常见的需求,开源的 Elasticsearch (以下简称 Elastic)是目前全文搜索引擎的首选。Elastic 是 Lucene 的封装
,提供了 REST API 的操作接口,开箱即用
。Elastic 本质上是一个分布式数据库,允许多台服务器协同工作,每台服务器可以运行多个 Elastic 实例。
单个 Elastic 实例称为一个节点(node)。一组节点构成一个集群(cluster)。
Elastic 会索引所有字段,经过处理后写入一个反向索引(Inverted Index)。查找数据的时候,直接查找该索引。
所以,Elastic 数据管理的顶层单位就叫做 Index(索引)。它是单个数据库的同义词。每个 Index (即数据库)的名字必须是小写。
下面的命令可以查看当前节点的所有 Index。
GET /_mapping?pretty=true
Index 里面单条的记录称为 Document(文档)。许多条 Document 构成了一个 Index。
Document 使用 JSON 格式表示,下面是一个例子。
{
"user": "张三",
"title": "工程师",
"desc": "数据库管理"
}
同一个 Index 里面的 Document,不要求有相同的结构(scheme),但是最好保持相同,这样有利于提高搜索效率。
Document 可以分组,比如 weather
这个 Index 里面,可以按城市分组(北京和上海),也可以按气候分组(晴天和雨天)。这种分组就叫做 Type,它是虚拟的逻辑分组,用来过滤 Document。
不同的 Type 应该有相似的结构(schema),举例来说,id
字段不能在这个组是字符串,在另一个组是数值。这是与关系型数据库的表的一个区别。性质完全不同的数据(比如products
和logs
)应该存成两个 Index,而不是一个 Index 里面的两个 Type(虽然可以做到)。
下面的命令可以列出每个 Index 所包含的 Type。(和上面截图一样)
GET /_mapping?pretty=true
根据规划,Elastic 6.x 版只允许每个 Index 包含一个 Type,7.x 版将会彻底移除 Type。
上面说的 集群,节点,索引,类型,文档,分片(底层封装),映射
是什么呢?
怎么区分对比 非关系型数据库 elasticsearch 和 关系型数据库呢,elasticsearch是面向文档的
如下:对关系型数据库和elasticsearch客观的对比!
关系数据库 | 非关系数据库 |
---|---|
数据库 database | 索引 index |
表 table | type(7版本彻底被弃用) |
行 rows | document |
字段 column | field |
elasticsearch(集群)中可以包含多个索引(数据库),每个索引中可以包含多个类型(表),每个类型下又包含多个文档(行),每个文档中又包含多个字段(列)。
elasticsearch 在后台把每个索引划分成多个分片,每个分片可以在集群中的不同服务器间迁移。
集群的默认名称为 elasticsearch。
一个集群至少有一个节点,而一个节点就是一个 elasticsearch 进程,节点可以有多个索引默认的,如果你创建索引,那么索引将会有5个分片(primary shard,又称为主分片)构成的,每一个主分片会有一个副本(replica shard,又称赋值分片)
索引呗分为多个分片,没份分片是一个Lucene 的索引,所以一个elasticsearch索引是由多个Lucene索引组成的。因为elasticsearch使用Lucene作为底层。
一种软件架构风格,而不是标准,只是提供了一组设计原理和约束条件,它主要用于客户端和服务器交互类的软件。基于这个风格设计的软件可以更简洁,更有层次,更易于实现缓存等机制。
基本RESTFUL 命令说明:
method | url地址 | 描述 |
---|---|---|
PUT | localhost:9200/索引名称/类型名称/文档id | 创建文档(指定文档id) |
POST | localhost:9200/索引名称/类型名称 | 创建文档(随机文档id) |
POST | localhost:9200/索引名称/类型名称/文档id/_update | 修改文档 |
DELETE | localhost:9200/索引名称/类型名称/文档id | 删除文档 |
GET | localhost:9200/索引名称/类型名称/文档id | 查询文档通过文档id |
POST | localhost:9200/索引名称/类型名称/文档id/_search | 查询所有文档 |
PUT
:一般为创建 索引、类型、文档POST
:添加数据,创建索引、类型,查询DELETE
:删除索引、文档GET
:查询PUT /weather
curl -X PUT 'localhost:9200/weather'
DELETE /weather
curl -X DELETE 'localhost:9200/weather'
elasticsearch的查询,是通过分词器先进行分词,然后再使用倒排索引去匹配查询。
分词:即把一段中文或者别的划分为一个个的关键词, 我们在搜索时候, elasticsearch 分词器会把自己的信息进行分词,会把数据库中或者索引库中的数据进行分词,然后进行一个匹配操作
,默认的中文分词是将每字看成一个词,比如“我爱冯凡利” 会被分为“我”,“爱”,“冯”,“凡”,“利”,这显然是不符合要求的,所以我们需要安装中文分词器 ik 来解决这个问题。
ES默认的分词是英文分词,对中文分词支持的并不好。如果要使用中文,建议使用ik分词器!所以我们就需要安装ik中文分词。
IK提供了两个分词算法:ik_smart
和 ik_max_word
,其中 ik_mart 为最少切分,ik_max_word为最新粒度划分!一会我们测试!
安装在第一篇博客中已经介绍,传送门:elasticsearch学习一:了解 ES,版本之间的对应。安装elasticsearch,kibana,head插件、elasticsearch-ik分词器。
ik_mart 为最少切分
ik_max_word为最新粒度划分,穷尽词库的可能。
输入超级喜欢冯安晨java
发现问题:冯安晨被分开了,
这种自己需要的词,需要自己加到我们的分词器的字典中!
ik分词器增加自己的配置!
dic
文件中进行配置即可!PUT /索引名
PUT /索引名/~类型名~/文档id
{请求体}
PUT /test1/type1/1
{
"name": "冯安晨",
"age": 18
}
字段(field)类型
PUT /test2 { "mappings": { "type2": { "properties": { "name": { "type": "text" }, "age": { "type": "long" }, "birthday": { "type": "date" } } } } }
那么上面的 name
这个字段用不用指定类型呢,毕竟我们关系型数据库是需要指定类型的!!
字符串类型
text、keyword
数值类型
long、integer、short、byte、double、float、half float、scaled float
日期类型
date
布尔值类型
boolean
二进制类型
binary
等等。。。
也就是获取看一下上面命令创建的详细情况
GET /test1
:查看索引信息test1
索引,没有指定字段类型,所以ES 默认指定类型。通过 elasticsearch 命令查看 ES 的各种信息! 通过
GET _cat/
可以获得 ES 的当前很多信息!
GET _cat/indices/?v
:查看 索引情况默认指定数据的类型
PUT /fenganchen/user/1
{
"name": "冯凡利",
"age": 18,
"desc": "一顿操作猛如虎,一看工资2500",
"tags": ["技术宅", "温暖", "直男"]
}
像添加一样,进行修改,但是这个修改类似于覆盖,如果缺少一个字段,则消失一个字段
查看 GET /fenganchen/user/1
(下面讲)
修改
PUT /fenganchen/user/1
{
"name": "冯凡利123",
"age": 18,
"desc": "一顿操作猛如虎,一看工资2500",
"tags": ["技术宅", "温暖", "直男"]
}
_version 代表被修改的次数
查看确认
GET /fenganchen/user/1
POST fenganchen/user/1/_update
{
"doc": {
"name": "冯凡利java"
}
}
2. 查看
GET fenganchen/user/1
GET /fenganchen/user/_search?q=name:冯凡利 (报错,还未找到原因)
GET /fenganchen/user/_search?q=age:18
PUT /fenganchen/user/2
{
"name": "张三",
"age": 17,
"desc": "法外狂徒张三",
"tags": ["技术宅", "温暖", "渣男"]
}
PUT /fenganchen/user/3
{
"name": "李四",
"age": 30,
"desc": "mmp 不知怎么形容了",
"tags": ["靓女", "旅游", "唱歌"]
}
query关键字
:查询match关键字
:匹配,这里的有很多选择,如:match_all:匹配全部,bool:返回布尔值,exists:是否存在等等。GET fenganchen/user/_search
{
"query": {
"match": {
"name": "冯凡利"
}
}
}
3. 再添加一个数据,便于查询测试:
PUT /fenganchen/user/4
{
"name": "冯凡利前端",
"age": 3,
"desc": "一顿操作猛如虎,一看工资2500",
"tags": ["技术宅", "温暖", "直男"]
}
hits:包括索引和文档信息、查询结果总数、查询出来具体文档
max_score:最大分数,这是下面数据中最大的匹配分数值,也是最合适的
_score:可以通过它来判断谁更加符合结果,每个数据中都有这个属性
_source:数据对象信息关键字。
不想显示那么多字段,只想显示其中的 name
和 desc
字段,可以使用 数据对象信息关键字 :_source
来限定显示的字段。
GET fenganchen/user/_search
{
"query": {
"match": {
"name": "冯凡利"
}
},
"_source": ["name", "desc"]
}
我们之后使用java操作es,所有的方法和对象就是这里面的key:这个key也就是 hits、score等关键字
GET fenganchen/user/_search
{
"query": {
"match": {
"name": "冯凡利"
}
},
"sort": [
{
"age": {
"order": "asc"
}
}
]
}
GET fenganchen/user/_search { "query": { "match": { "name": "冯凡利" } }, "sort": [ { "age": { "order": "desc" } } ], "from": 0, "size": 1 }
from: 从第几个数据开始
size:返回多少条数据(单页面的数据)
数据下标还是从0开始,和学的所有数据结构是一样的!
/search/{current}/{pagesize}
where id=1 and name=xxx
GET fengfanli/user/_search { "query": { "bool": { "must": [ { "match": { "name": "冯凡利" } }, { "match": { "age": "18" } } ] } } }
GET fenganchen/user/_search { "query": { "bool": { "should": [ { "match": { "name": "冯凡利" } }, { "match": { "age": "18" } } ] } } }
where id != 1
GET fenganchen/user/_search
{
"query": {
"bool": {
"must_not": [
{
"match": {
"age": 3
}
}
]
}
}
}
GET fenganchen/user/_search
{
"query": {
"bool": {
"must": [
{
"match": {
"name": "冯凡利"
}
}
]
}
}
}
filter
关键字,对查询的数据进行过滤。
gt
大于gte
大于等于lt
小于lte
小于等于GET fenganchen/user/_search { "query": { "bool": { "must": [ { "match": { "name": "冯凡利" } } ], "filter": { "range": { "age": { "gt": 3 } } } } } }
age 大于3 的数据
match 关键字 空格
多个条件,使用空格隔开
只要瞒住其中一个结果就可以查出
这个时候可以通过 _score 分值进行基本的判断
下面的查询语句意思:在tags 字段中找到有 男、技术 的数据给查询出来
GET fenganchen/user/_search
{
"query": {
"match": {
"tags": "男 技术"
}
}
}
term 查询
是直接通过倒排索引指定的词条进程精确的查找的!
关于分词
:
term :直接查询 精确的
match :会使用分词器解析!(先分析文档,然后再通过分析进行查询!)
两个类型 text keyword 不能被分词器使用
text类型
:可以被分词
keyword类型
:不可以被分词
先创建索引,并指定属性规则,如下:
elasticsearch 6.X 创建索引 必须要指定类型,feng_type 就是索引的类型名称
```json PUT testdb { "mappings": { "feng_type": { "properties": { "name": { "type": "text" }, "desc": { "type": "keyword" } } } } } ```
elasticsearch 7.x 创建索引 不用指定类型,因为7版本废弃了类型关键词(这里不再演示,我这里使用的是 6.4.2 版本。)
```json
PUT testdb
{
"mappings": {
"properties": {
"name": {
"type": "text"
},
"desc": {
"type": "keyword"
}
}
}
}
```
```json
PUT testdb/feng_type/1
{
"name": "冯凡利java name",
"desc": "冯凡利java desc"
}
PUT testdb/feng_type/2
{
"name": "冯凡利java name",
"desc": "冯凡利java desc2"
}
```
添加文档 1
添加文档 2
elasticsearch-head
的Google插件,查看 testdb
索引数据elasticsearch-head
的Google插件,查看 testdb
映射规则索引情况,能查看索引的 setting 详情
,和 mapperings 映射规则
包括类型、属性情况。
可以看到,name 属性 是 text 类型
的,desc 是 keyword 类型
的。
KeywordAnalyzer 把整个输入作为一个单独词汇单元
,方便特殊类型的文本进行索引和检索。针对邮政编码,地址等文本信息使用关键词分词器进行索引项建立非常方便。
使用默认的 keyword
分词器进行分词,(说一下,ik分词器是中文分词器),这里看的出来没有被分析
英文的处理能力同于StopAnalyzer,支持中文采用的方法为单字切分。他会将词汇单元转换成小写形式,并去除停用词和标点符号。
使用默认的 standard
分词器进行分词,,这里看的出来被分析了
testdb
索引中的 :
name
字段为 text类型
,
desc
字段为 keyword类型
。
但是 term 分别对其 精确查找时,却发现:
PUT testdb/feng_type/3
{
"t1": "22",
"t2": "2020-4-6"
}
PUT testdb/feng_type/4
{
"t1": "33",
"t2": "2020-4-7"
}
elasticsearch-head
的Google插件,查看 testdb
索引数据和映射规则。GET fenganchen/user/_search
{
"query": {
"match": {
"name": "冯凡利"
}
},
"highlight": {
"fields": {
"name": {}
}
}
}
GET fenganchen/user/_search
{
"query": {
"match": {
"name": "冯凡利"
}
},
"highlight": {
"pre_tags": "<p class='key style='color:red'>",
"post_tags": "</p>",
"fields": {
"name": {}
}
}
}
这些 mysql也可以做,只是mysql效率比较低
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。