赞
踩
ES是一个开源搜索引擎,具备非常多强大功能,可以帮助我们从海量数据中快速找到需要的内容
ES结合kibana、Logstash、Beats,也就是Elastic技术栈,被广泛应用在日志数据分析、实时监控等领域
ES是Elastic技术栈的核心,负责存储、搜索、处理数据
一个Java语言的搜索引擎类库,是Apache公司的顶级项目,由DougCutting于1999年研发
ES是面向文档(Document)存储的,可以是数据库中的一条商品信息,一个订单信息。
文档数据会被序列化为json格式后存储到ES中
json文档中往往包含很多字段(Field),类似于数据库中的列
索引(Index)就是相同类型的文档的集合
数据库中的表会有约束信息用来定义表的结构、字段的名称、类型等信息。因此,索引库中就有映射(mapping),这是索引文档的字段约束信息,类似表的结构约束
例:
MySQL | Elasticsearch | 说明 |
---|---|---|
Table | Index | 索引(index),就是文档的集合,类似数据库的表(table) |
Row | Document | 文档(Document),就是一条条的数据,类似数据库中的行(Row),文档都是JSON格式 |
Column | Field | 字段(Field),就是JSON文档中的字段,类似数据库中的列(Column) |
Schema | Mapping | Mapping(映射)是索引中文档的约束,例如字段类型约束。类似数据库的表结构(Schema) |
SQL | DSL | DSL是elasticsearch提供的JSON风格的请求语句,用来操作elasticsearch,实现CRUD |
所以,两者在实际使用中是结合使用的,对安全性要求较高的使用MySQL实现、对查询性能要求较高的,使用ES实现,两者再基于某种方式,实现数据的同步,保证一致性。
倒排索引是基于MySQL这样的正向索引而言的
docker network create es-net
# 因为镜像比较大,可以选择从本地上传
# 下载elasticsearch
docker pull elasticsearch:所需tag
# 下载kibana
docker pull kibana:所需tag
docker run -d \ --name es \ -e "ES_JAVA_OPTS=-Xms512m -Xmx512m" \ -e "discovery.type=single-node" \ -v es-data:/usr/share/elasticsearch/data \ -v es-plugins:/usr/share/elasticsearch/plugins \ --privileged \ --network es-net \ -p 9200:9200 \ -p 9300:9300 \ elasticsearch:7.12.1 # 命令解释 # -e "cluster.name=es-docker-cluster":设置集群名称 # -e "http.host=0.0.0.0":监听的地址,可以外网访问 # -e "ES_JAVA_OPTS=-Xms256m -Xmx256m":内存大小 # -e "discovery.type=single-node":非集群模式 # -v es-data:/usr/share/elasticsearch/data:挂载逻辑卷,绑定es的数据目录 # -v es-logs:/usr/share/elasticsearch/logs:挂载逻辑卷,绑定es的日志目录 # -v es-plugins:/usr/share/elasticsearch/plugins:挂载逻辑卷,绑定es的插件目录 # --privileged:授予逻辑卷访问权 # --network es-net:加入一个名为es-net的网络中 # -p 9200:9200:端口映射配置
docker run -d \
--name kibana \
-e ELASTICSEARCH_HOSTS=http://es:9200 \
--network=es-net \
-p 5601:5601 \
kibana:7.12.1
# 进入容器内部
docker exec -it es /bin/bash
# 在线下载并安装(下载很容易失败,如果多次尝试均失败,请自行下载现成压缩包,解压并命名文件夹为ik并上传至插件目录
# 具体目录可以通过docker volume inspect es-plugins命令查看)
./bin/elasticsearch-plugin install https://github.com/medcl/elasticsearch-analysis-ik/releases/download/v7.12.1/elasticsearch-analysis-ik-7.12.1.zip
#退出
exit
#重启容器
docker restart elasticsearch
exit
docker restart es
GET /_analyze
{
"analyzer": "ik_max_word",
"text": "ES真是太好了,太好用了了"
}
"analyzer": "ik_max_word"
搜索出来的词多,但可能不是我们想要的分词加过"analyzer": "ik_smart"
搜索出来的词少,更可能分出我们想要的词# 具体位置看个人,一般是这个
cd /var/lib/docker/volumes/es-plugins/_data/ik/config
IKAnalyzer.cfg.xml
配置文件内容添加<?xml version="1.0" encoding="UTF-8"?>
<!DOCTYPE properties SYSTEM "http://java.sun.com/dtd/properties.dtd">
<properties>
<comment>IK Analyzer 扩展配置</comment>
<!--用户可以在这里配置自己的扩展字典 *** 添加扩展词典-->
<entry key="ext_dict">ext.dic</entry>
</properties>
ext.dic
并写入扩展词(此文件必须是UTF-8格式)阿根廷冠军
docker restart es
IKAnalyzer.cfg.xml
并添加<?xml version="1.0" encoding="UTF-8"?>
<!DOCTYPE properties SYSTEM "http://java.sun.com/dtd/properties.dtd">
<properties>
<comment>IK Analyzer 扩展配置</comment>
<!--用户可以在这里配置自己的扩展字典-->
<entry key="ext_dict">ext.dic</entry>
<!--用户可以在这里配置自己的扩展停止词字典 *** 添加停用词词典-->
<entry key="ext_stopwords">stopword.dic</entry>
</properties>
stopword.dic
添加停用词答辩
docker restart elasticsearch
mapping是对索引库中文档的约束
语法:
// dsl创建的索引库,默认是1个分片、1个副本 PUT /索引库名称 { "settings": { // 可修改分片和副本的数目 "number_of_shards": 3, "number_of_replicas": 0 // 可以集群时再设置副本 }, "mappings": { "properties": { "字段名":{ "type": "text", "analyzer": "ik_smart" }, "字段名2":{ "type": "keyword", "index": "false" }, "字段名3":{ "properties": { "子字段": { "type": "keyword" } } }, // ... } } }
PUT /索引名
{
"mappings": {
"properties": {
"字段名":{
"type": "keyword",
"copy_to": "all"
}
}
}
}
语法:
GET /索引库名
因为索引库创建时json结构已经固定,所以不可修改,但是可以添加新字段
语法:
PUT /索引库名/_mapping
{
"properties": {
"新字段名":{
"type": "integer"
}
}
}
语法:
DELETE /索引库名
语法:
POST /索引库名/_doc/文档id
{
"字段1": "值1",
"字段2": "值2",
"字段3": {
"子属性1": "值3",
"子属性2": "值4"
},
// ...
}
语法:
GET /{索引库名称}/_doc/{id}
语法:
DELETE /{索引库名}/_doc/id值
PUT /{索引库名}/_doc/文档id
{
"字段1": "值1",
"字段2": "值2",
// ... 略
}
POST /{索引库名}/_update/文档id
{
"doc": {
"字段名": "新的值",
}
}
先创建索引库和映射,再添加文档
<dependency>
<groupId>org.elasticsearch.client</groupId>
<artifactId>elasticsearch-rest-high-level-client</artifactId>
<version>版本和自己的ES版本一致</version>
</dependency>
<properties>
<java.version>1.8</java.version>
<elasticsearch.version>7.12.1</elasticsearch.version>
</properties>
RestHighLevelClient client = new RestHighLevelClient(RestClient.builder(
HttpHost.create("http://ip:9200")
));
DSL语句:
private static final String MAPPING_TEMPLATE = "{\n" + " \"mappings\": {\n" + " \"properties\": {\n" + " \"id\": {\n" + " \"type\": \"keyword\"\n" + " },\n" + " \"name\":{\n" + " \"type\": \"text\",\n" + " \"analyzer\": \"ik_max_word\",\n" + " \"copy_to\": \"all\"\n" + " },\n" + " \"address\":{\n" + " \"type\": \"keyword\",\n" + " \"index\": false\n" + " },\n" + " \"price\":{\n" + " \"type\": \"integer\"\n" + " },\n" + " \"score\":{\n" + " \"type\": \"integer\"\n" + " },\n" + " \"brand\":{\n" + " \"type\": \"keyword\",\n" + " \"copy_to\": \"all\"\n" + " },\n" + " \"city\":{\n" + " \"type\": \"keyword\",\n" + " \"copy_to\": \"all\"\n" + " },\n" + " \"starName\":{\n" + " \"type\": \"keyword\"\n" + " },\n" + " \"business\":{\n" + " \"type\": \"keyword\"\n" + " },\n" + " \"location\":{\n" + " \"type\": \"geo_point\"\n" + " },\n" + " \"pic\":{\n" + " \"type\": \"keyword\",\n" + " \"index\": false\n" + " },\n" + " \"all\":{\n" + " \"type\": \"text\",\n" + " \"analyzer\": \"ik_max_word\"\n" + " }\n" + " }\n" + " }\n" + "}";
操作步骤:
private RestHighLevelClient client = new RestHighLevelClient(RestClient.builder(
HttpHost.create("http://ip :9200")));
// 1. 创建Request对象
CreateIndexRequest request = new CreateIndexRequest("hotel");
// 2, 准备请求的参数,DSL语句
request.source(MAPPING_TEMPLATE, XContentType.JSON);
// 3. 发送请求
client.indices().create(request, RequestOptions.DEFAULT);
GetIndexRequest request = new GetIndexRequest("hotel");
boolean exists = client.indices().exists(request, RequestOptions.DEFAULT);
System.out.println(exists);
DeleteIndexRequest request = new DeleteIndexRequest("hotel");
client.indices().delete(request, RequestOptions.DEFAULT);
// 取到数据
数据
// 1. 准备Request对象
IndexRequest request = new IndexRequest("索引名").id(文档id);
// 2. 准备JSON文档
request.source(JSON.toJSONString(数据), XContentType.JSON);
// 3. 发送请求
client.index(request, RequestOptions.DEFAULT);
// 1. 创建request对象
GetRequest request = new GetRequest("索引名", "文档id");
// 2. 发送请求
GetResponse response = client.get(request, RequestOptions.DEFAULT);
// 3. 解析请求
String json = response.getSourceAsString();
HotelDoc hotelDoc = JSON.parseObject(json, 实体类);
// 1. 准备Request
DeleteRequest request = new DeleteRequest("索引名", "文档id");
// 2. 发送请求
client.delete(request, RequestOptions.DEFAULT);
// 1. 准备Request
UpdateRequest request = new UpdateRequest("索引名", "文档id");
// 2. 准备请求参数
request.doc(
"字段", "新值"
);
// 3. 发送请求
client.update(request, RequestOptions.DEFAULT);
// 1. 创建Request
BulkRequest request = new BulkRequest();
// 2. 准备参数,添加多个新增的Request
for (集合) {
request.add(new IndexRequest("索引名")
.id("文档id")
.source(JSON数据, XContentType.JSON));
}
// 3. 发送请求
client.bulk(request, RequestOptions.DEFAULT);
slasticsearch的查询是基于JSON风格的DSL来实现的
match_all
match_query
multi_match_query
keyword
、数值
、日期
、boolean
等类型字段。例如:
GET /indexName/_search
{
"query": {
"match": {
"FIELD": "TEXT"
}
}
}
GET /indexName/_search
{
"query": {
"multi_match": {
"query": "TEXT",
"fields": ["FIELD1", "FIELD2"]
}
}
}
GET /indexName/_search
{
"query": {
"match": {
"FIELD": "TEXT"
}
}
}
GET /indexName/_search
{
"query": {
"multi_match": {
"query": "TEXT",
"FIELDS": ["FIELD1", "FIELD2"]
}
}
}
精确查询一般是查找keyword、数值、日期、boolean等类型字段,该字段不会对搜索条件分词
GET /indexName/_search
{
"query": {
"term": {
"FIELD": {
"value": "VALUE"
}
}
}
}
GET /indexName/_search
{
"query": {
"range": {
"FIELD": {
// 大于等于,不要等于就去掉e
"gte": VALUE1,
"lte": VALUE2
}
}
}
}
地理查询
GET /indexName/_search { "query": { "geo_bounding_box": { "FIELD": { "top_left": { "lat": 39.92, "lon": 116.39 }, "bottom_right": { "lat": 39.91, "lon": 116.40 } } } } }
GET /indexName/_search
{
"query": {
"geo_distance": {
"distance": "15km",
"FIELD": "39.92,116.4"
}
}
}
复合查询可以将其他的简单查询组合起来,实现更复杂的搜索逻辑
当我们利用match查询时,文档会根据与搜索词条的关联度打分(_score),返回结果时按照分值降序排列
可以修改文档的相关性算分(query score),根据新得到的算分排序
例:
GET /city/_search
{
"query": {
"function_score": {
"query": {"match": {"all": "北京"}},
"function": [
{
"filter": {"term": {"id": "1"}},
"weight": 10
}
],
"boost_mode": "multiply"
}
}
}
"query": {"match": {"all": "北京"}},
: 原始查询条件,搜索文档并根据相关性打分"filter": {"term": {"id": "1"}},
: 过滤条件,符合条件的文档才会被重新打分"weight": 10
: 算分函数,算分函数的结果称为function score
,将来会与query score
运算,得到新算分,常见的算分函数:weight
: 给一个常量值,作为函数结果field_value_factor
: 用文档中的某个字段值作为函数结果random_score
: 随机生成一个值,作为函数结果script_score
: 自定义计算公式,公式结果作为函数结果"boost_mode": "multiply"
: 加权模式,定义function score
与query score
的运算方式,包括:
multiply
: 两者相乘,默认replace
: 用function score
替换query score
其他
: sum
、avg
、max
、min
布尔查询是一个或多个查询子句的组合,组合方式有:
must
: 必须匹配每个子查询,类似”与“should
: 选择性匹配子查询,类似”或“must_not
: 必须不匹配,不参与算分,性能较高,类似”非“filter
: 必须匹配,不参与算分,性能较高GET /hotel/_search { "query": { "bool": { "must": [ {"term": {"city": "上海" }} ], "should": [ {"term": {"brand": "皇冠假日" }}, {"term": {"brand": "华美达" }} ], "must_not": [ { "range": { "price": { "lte": 500 } }} ], "filter": [ { "range": {"score": { "gte": 45 } }} ] } } }
ES支持对搜索结果排序,默认是根据相关度算分来排序,可以根据keyword、数值类型、日期类型、地理坐标类型等
排序之后就不再进行分数计算了
GET /indexName/_search
{
"query": {
"match_all": {}
},
"sort": [
{
"FIELD": "desc"
}
]
}
ES默认情况下只返回前十条数据,如果需要查询更多,则需要修改分页参数from和size
ES是倒排索引的,所以分页的实现方式是先查出所有的,再截取所需的部分
GET /indexName/_search
{
"query": {
"match_all": {}
},
"form": 990, // 分页开始的位置,默认为0
"size": 10, // 期望获取的文档总数
"sort": [
{"price": "asc"}
]
}
ES是分布式的,所以会面临深度分页的问题
比如获取form=990,size=10
:
进行搜索时,关键字会标红
GET /indexName/_search { "query": { "match": { "FIELD": "TEXT" } }, "highlight": { "fields": { // 指定要高亮的字段 "FIELD": { // 字段名 "require_field_match": "true", // 该字段是否在搜索字段中 "pre_tags": "<em>", // 用来标记高亮字段的前置标签 "post_tags": "</em>" // 用来标记高亮字段的后置标签 } } } }
// 1. 准备Request SearchRequest request = new SearchRequest("hotel"); // 2. 准备DSL request.source().query(QueryBuilders.matchAllQuery()); // request.source().query(QueryBuilders.matchQuery("all", "如家")); // request.source().query(QueryBuilders.multiMatchQuery("如家", "name", "brand")); // 3. 发送请求 SearchResponse response = client.search(request, RequestOptions.DEFAULT); // 4. 解析数据 SearchHits searchHits = response.getHits(); // 4.1 查询的总条数 long total = searchHits.getTotalHits().value; System.out.println("共获取到: " + total + " 条"); // 4.2 查询的结果数组 SearchHit[] hits = searchHits.getHits(); for (SearchHit hit : hits) { // 4.3 得到source String json = hit.getSourceAsString(); // 4.4 打印 System.out.println(json); }
// 1. 准备Request SearchRequest request = new SearchRequest("hotel"); // 2. 准备DSL // 2.1 准备BooleanQuery BoolQueryBuilder boolQuery = QueryBuilders.boolQuery(); // 2.2 添加term boolQuery.must(QueryBuilders.termQuery("city", "上海")); // 2.3 添加range boolQuery.filter(QueryBuilders.rangeQuery("price").lte(250)); request.source().query(boolQuery); // 或者直接链式编程 // request.source().query(QueryBuilders.boolQuery() // .must(QueryBuilders.termQuery("city", "上海")) // .filter(QueryBuilders.rangeQuery("price").lte(300))); // 3. 发送请求 SearchResponse response = client.search(request, RequestOptions.DEFAULT); // 4. 解析数据 // ...
// 1. 准备Request
SearchRequest request = new SearchRequest("hotel");
// 2. 准备DSL
request.source().query(QueryBuilders.matchQuery("city", "北京"));
// 3. 分页、排序
request.source().sort("price", SortOrder.ASC);
request.source().from(0).size(3);
// 4. 发送请求
SearchResponse response = client.search(request, RequestOptions.DEFAULT);
// 5. 解析数据
// ...
// 1.准备Request SearchRequest request = new SearchRequest("hotel"); // 2.准备DSL // 2.1.query request.source().query(QueryBuilders.matchQuery("all", "如家")); // 2.2.高亮 request.source().highlighter(new HighlightBuilder().field("name").requireFieldMatch(false)); // 3.发送请求 SearchResponse response = client.search(request, RequestOptions.DEFAULT); // 4. 解析数据 SearchHits searchHits = response.getHits(); // 4.1 查询的总条数 long total = searchHits.getTotalHits().value; System.out.println("共获取到: " + total + " 条"); // 4.2 查询的结果数组 SearchHit[] hits = searchHits.getHits(); for (SearchHit hit : hits) { // 4.3 得到source String json = hit.getSourceAsString(); // 反序列化 HotelDoc hotelDoc = JSON.parseObject(json, HotelDoc.class); // 获取高亮结果 Map<String, HighlightField> highlightFields = hit.getHighlightFields(); if (!CollectionUtils.isEmpty(highlightFields)) { // 根据字段名获取高亮结果 HighlightField highlightField = highlightFields.get("name"); if (highlightField != null) { // 获取高亮值 String name = highlightField.getFragments()[0].string(); // 覆盖非高亮结果 hotelDoc.setName(name); } } // 4.4 打印 System.out.println(hotelDoc); }
可以实现对文档数据的统计、分析、运算
参与聚合的必须使keyword、日期、数值、布尔类型等
// 默认情况下,桶聚合会统计桶内文档数量,记为_count,并且按照_count降序排序 GET /indexName/_search { // "query": { // 限定聚合范围 // }, "size": 0, // 设置size为0,结果中不包含文档,只包含聚合的结果 "aggs": { // 实现聚合 "brandAgg": { // 给聚合起个名字 "terms": { // 聚合的类型,按照品牌值聚合 "field": "brand", // 参与聚合的字段 // "order": { // 修改默认排序方式 // "_count": "asc" // }, "size": 20 // 希望获取的聚合结果数量 } } } }
GET /indexName/_search { // "query": { // 限定聚合范围 // }, "size": 0, // 设置size为0,结果中不包含文档,只包含聚合的结果 "aggs": { // 实现聚合 "brandAgg": { // 给聚合起个名字 "terms": { // 聚合的类型,按照品牌值聚合 "field": "brand", // 参与聚合的字段 // "order": { // 修改默认排序方式 // "_count": "asc" // }, "order": { "score_stats.avg": "asc" // 对聚合结果排序 } "size": 20 // 希望获取的聚合结果数量 }, "aggs": { // 是brands聚合的子聚合,也就是分组后对每组分别计算 "score_stats": { // 聚合名称 "stats": { // 聚合类型,这里stats可以计算min、max、avg等 "field": "score" // 聚合字段,这里是score } } } } } }
// 1. 准备Request SearchRequest request = new SearchRequest("hotel"); // GET /hotel/_search // 2. 准备DSL // 2.1 设置size request.source().size(0); // "size": 0 // 2.2 聚合 request.source().aggregation(AggregationBuilders .terms("brandAgg") // "brandAgg": { "term": { .field("brand") // "field": "brand" .size(10) // "size": 10 .subAggregation(AggregationBuilders.stats("scoreAgg") // "scoreAgg": { .field("score")) "field": "score" ); // 3. 发出请求 SearchResponse response = client.search(request, RequestOptions.DEFAULT); // 4. 解析结果 Aggregations aggregations = response.getAggregations(); // 结果中的"aggregations": { // 根据名称获取聚合结果 Terms terms = aggregations.get("brandAgg"); // "brandAgg": { // 获取Buckets List<? extends Terms.Bucket> buckets = terms.getBuckets(); // "buckets": { for (Terms.Bucket bucket : buckets) { System.out.println(bucket.getKeyAsString()); System.out.println(bucket.getDocCount()); Stats stats = bucket.getAggregations().get("scoreAgg"); System.out.println(stats.getCount()); System.out.println(stats.getMax()); System.out.println(stats.getMin()); System.out.println(stats.getSum()); System.out.println(stats.getAvg()); }
拼音分词器适合在创建倒排索引时使用,不适合在搜索时使用(会根据拼音生成同音词)
安装步骤和ik分词器类似,参考官方文档: elasticsearch-analysis-pinyin (注意和自己的ES版本对应)
测试:
POST /_analyze
{
"text": ["不要来学计算机,快跑!"],
"analyzer": "pinyin"
}
ES分词器的组成包含三部分:
character filters
: 在tokenizer
之前对文本进行处理(如删除字符、替换字符)tokenizer
: 将文本按照一定的规则切割成词条(term),例如: keyword,就是不分词;ik_smarttokenizer filter
: 将tokenizer
输出的词条做进一步处理,例如: 大小写转换、同义词处理、拼音处理我们可以再创建索引库时,通过settings
来配置自定义的analyzer
分词器
PUT /test { "settings": { "analysis": { "analyzer": { "my_analyzer": { // 自定义分词器 "tokenizer": "ik_max_word", // 分词器名称 "filter": "py" } }, "filter": { // 自定义tokenizer filter "py": { // 过滤器名称 "type": "pinyin", // 过滤器类型,这里是pinyin "keep_full_pinyin": false, // 具体参数可以参考官网 "keep_joined_full_pinyin": true, "keep_original": true, "limit_first_letter_length": 16, "remove_duplicated_term": true, "none_chinese_pinyin_tokenize": false } } } }, "mappings": { "properties": { "name": { "type": "text", "analyzer": "my_analyzer" } } } }
由于可能会发生两个字读音相同、意义不同的问题,所以推荐创建索引时使用自定义分词器,搜索时应该使用ik_smart
分词器,例:
PUT /test { "settings": { "analysis": { "analyzer": { "my_analyzer": { "tokenizer": "ik_max_word", "filter": "py" } }, "filter": { "py": { ... } } } }, "mappings": { "properties": { "name": { "type": "text", "analyzer": "my_analyzer", "search_analyzer": "ik_smart" } } } }
ES提供了completion suggester查询来实现自动补全功能,这个查询会匹配用户输入内容开头的词条并返回
要求:
completion
类型创建索引例:
// 创建索引 PUT /test { "mappings": { "properties": { "title": { "type": "completion" } } } } // 示例数据 POST /test/_doc { "title": ["Sony", "WH-1000XM3"] } POST /test/_doc { "title": ["XiaoMi", "XiaoMi-13"] } POST /test/_doc { "title": ["Apple", "MacBookAir2020"] }
查询例:
// 自动补全查询
GET /test/_search
{
"suggest": {
"title_suggest": {
"test": "s", // 关键字
"completion": {
"field": "title", // 补全查询的字段
"skip_duplicates": true, // 跳过重复的
"size": 10 // 获取前10条结果
}
}
}
}
// 1. 准备请求 SearchRequest request = new SearchRequest("hotel"); // 2. 请求参数 request.source() .suggest(new SuggestBuilder().addSuggestion( "mySuggestion", SuggestBuilders .completionSuggestion("title") .prefix("s") .skipDuplicates(true) .size(10) )); // 3. 请求参数 client.search(request, RequestOptions.DEFAULT);
结果解析:
// 4. 处理结果
Suggest suggest = response.getSuggest();
// 4.1 根据名称获取补全结果
CompletionSuggestion suggestion = suggest.getSuggestion("hotelSuggestion");
// 4.2 获取options并遍历
for (CompletionSuggestion.Entry.Option option : suggestion.getOptions()) {
// 4.3 获取一个Option中的text,也就是补全的词条
String text = option.getText().string();
}
ES数据来自于MySQL中时,如果MySQL数据发生改变,那么ES的数据也应该及时发生改变
canal
的方法,完全解决服务间的耦合,但是开启binlog,增加MySQL压力,实现难度高当一个集群中的主节点于其他节点失联时,其余节点会重新选出个新节点,当连接恢复后,两个主节点产生的信息可能会发生不一致,出现数据差异问题
ES7.0之前解决脑裂的方案是,要求选票超过 ( eligible节点数量 + 1 )/ 2 才能当选为主,因此eligible节点数量最好是奇数。对应配置项是discovery.zen.minimum_master_nodes
在es7.0以后,已经成为默认配置,因此一般不会发生脑裂问题
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。