当前位置:   article > 正文

ElasticSearch写入流程详解_elasticsearch数据写入流程

elasticsearch数据写入流程

​一、前言

        介绍我们在前面已经知道ElasticSearch底层的写入是基于lucence依进行doc写入的。ElasticSearch作为一款分布式系统,在写入数据时还需要考虑很多重要的事项,比如:可靠性、原子性、一致性、实时性、隔离性、性能等多个指标。

ElasticSearch是如何做到的呢?下面我们针对ElasticSearch的写入进行分析。

二、lucence写

2.1 增删改

ElasticSearch拿到一个doc后调用lucence的api进行写入的。

  1. public long addDocument();
  2. public long updateDocuments();
  3. public long deleteDocuments();

       如上面的代码所示,我们使用lucence的上面的接口就可以完成文档的增删改操作。在lucence中有一个核心的类IndexWriter负责数据写入和索引相关的工作。

  1. //1. 初始化indexwriter对象
  2. IndexWriter writer = new IndexWriter(new Directory(Paths.get("/index")), new IndexWriterConfig());
  3. //2. 创建文档
  4. Document doc = new Document();
  5. doc.add(new StringField("empName", "王某某", Field.Store.YES));
  6. doc.add(new TextField("content", "操作了某菜单", Field.Store.YES));
  7. //3. 添加文档
  8. writer.addDocument(doc);
  9. //4. 提交
  10. writer.commit();

以上代码演示了最基础的lucence的写入操作,主要涉及到几个关键点:

初始化:

        Directory是负责持久化的,他的具体实现有很多,有本地文件系统、数据库、分布式文件系统等待,ElasticSearch默认的实现是本地文件系统。

Document:

        Document就是es中的文档,FiledType定义了很多索引类型。这里列举几个常见的类型:

  1. stored:字段原始内容存储 

  2. indexOptions:

    (NONE/DOCS/DOCS_AND_FREQS/DOCS_AND_FREQS_AND_POSITIONS/DOCS_AND_FREQS_AND_POSITIONS_AND_OFFSETS),倒排索引的选项,存储词频、位置信息等。

  3. docValuesType:正排索引,建立一个docid到field的的一个列存储。

  4. 一些其它的类型

IndexWriter:

        IndexWriter在doc进行commit后,才会被持久化并且是可搜索的。

IndexWriterConfig:

        IndexWriterConfig负责了一些整体的配置参数,并提供了方便使用者进行功能定制的参数: 

  1. Similarity:这个是搜索的核心参数,实现了这个接口就能够进行自定义算分。lucence默认实现了前面文章提到的TF-IDF、BM25算法。 

  2. MergePolicy:合并的策略。我们知道ElasticSearch会进行合并,从而减少段的数量。 

  3. IndexerThreadPool:线程池的管理。

  4. FlushPolicy:flush的策略。

  5. Analyzer:定制分词器。

  6. IndexDeletionPolicy:提交管理。

PS:在ElasticSearch中,为了支持分布式的功能,新增了一些系统默认字段:

  1. _uid,主键,在写入的时候,可以指定该Doc的ID值,如果不指定,则系统自动生成一个唯一的UUID值。

  2. _version,版本字段,version来保证对文档的变更正确的执行,更新文档时有用。 

  3. _source,原始信息,如果后面维护不需要reindex索引可以关闭该字段,从而节省空间 

  4. _routiong,路由字段。 

  5. 其它的字段

2.2. 并发模型

上面我们知道indexwriter负责了ElasticSearch索引增删改查。那它具体是如何管理的呢?

(图:IndexWritter模型)

2.2.1. 基本操作

关键点:  

  • DocumentsWriter处理写请求,并分配具体的线程DocumentsWriterPerThread

  • DocumentsWriterPerThread具有独立内存空间,对文档进行处理DocumentsWriter触发一些flush的操作。

  • DocumentsWriterPerThread中的内存In-memory buffer会被flush成独立的segement文件。 

  • 对于这种设计,多线程的写入,针对纯新增文档的场景,所有数据都不会有冲突,非常适合隔离的数据写入方式

2.2.2 更新

Lucene的update和数据库的update不太一样,Lucene的更新是查询后删除再新增。  

  • 分配一个操作线程 

  • 在线程里执行删除 

  • 在线程里执行新增

2.2.3 删除

(图:IndexWritter删除模型)

        上面已经说了,在update中会删除,普通的也会删除,lucence维护了一个全局的删除表,每个线程也会维护一个删除表,他们双向同步数据

  • update的删除会先在内部记录删除的数据,然后同步到全局表中。

  • delete的删除会作用在Global级别,后异步同步到线程中。

  • Lucene Segment内部,数据实际上其实并不会被真正删除,Segment内部会维持一个文件记录,哪些是docid是删除的,在merge时,相应的doc文档会被真正的删除。

2.2.4 flush和commit

        每一个WriterPerThread线程会根据flush策略将文档形成segment文件,此时segment的文件还是不可见的,需要indexWriter进行commit后才能被搜索。 

这里需要注意:

        ElasticSearch的refresh对应于lucene的flush,ElasticSearch的flush对应于lucene的commit,ElasticSearch在refresh时通过其它方式使得segment变得可读。

2.2.5 merge

        merge是对segment文件合并的动作,这样可以提升查询的效率并且可以真正的删除的文档。

2.2.6 小结

        在这里我们稍微总结一下,一个ElasticSearch索引的一个分片对应一个完整的lucene索引, 而一个lucene索引对应多个segment。

        我们在构建同一个lucene索引的时候, 可能有多个线程在并发构建同一个lucene索引, 这个时候每个线程会对应一个DocumentsWriterPerThread, 而每个 DocumentsWriterPerThread会对应一个index buffer. 

        在执行了flush以后, 一个 DocumentsWriterPerThread会生成一个segment。

三、 ElasticSearch的写

3.1. 宏观看ElasticSearch请求

        在前面的文章已经讨论了写入的流程ElasticSearch

(图:布式整体写入流程图) 

图片来自官网 

当写入文档的时候,根据routing规则,会将文档发送至特定的Shard中建立lucence。

  • 介绍在Primary Shard上执行成功后,再从Primary Shard上将请求同时发送给多个Replica Shardgit 

  • 请求在多个Replica Shard上执行成功并返回给Primary Shard后,写入请求执行成功,返回结果给客户端

        注意上面的写入延时=主分片延时+max(Replicas Write),即写入性能如果有副本分片在,就至少是写入两个分片的延时延时之和。

3.2. 详细流程

(图:整体写入详情流程)  

3.2.1 协调节点内部流程

如上图所示:

  • 协调节点会对请求检查放在第一位,如果如果有问题就直接拒绝。主要有长度校验、必传参数、类型、版本、id等等。

  • pipeline,用户可以自定义设置处理器,比如可以对字段切割或者新增字段,还支持一些脚本语言,可以查看官方文档编写。

  • 如果允许自动创建索引(默认是允许的),会先创建索引,创建索引会发送到主节点上,必须等待master成功响应后,才会进入下一流程。

  • 请求预处理,比如是否会自动生成id、路由,获取到整个集群的信息了,并检查集群状态,比如集群master不存在,都会被拒绝。

  • 构建sharding请求,比如这一批有5个文档, 如果都是属于同一个分片的,那么就会合并到一个请求里,会根据路由算法将文档分类放到一个map里 Map> requestsByShard = new HashMap<>();路由算法默认是文档id%分片数。

  • 转发请求,有了分片会根据前面的集群状态来确定具体的ElasticSearch节点ip,然后并行去请求它们。

3.2.2 主分片节点流程

3.2.2.1 写入(index)

(图:refresh段) 

        该部分是elasticsarch的核心写入流程,在前面的文章也介绍了,请求到该节点会最终调用lucence的方法,建立lucence索引。其中主要的关键点:

  • ElasticSearch节点接收index请求,存入index buffer,同步存入磁盘translog后返回索引结果

  • Refresh定时将lucence数据生成segment,存入到操作系统缓存,此时没有fsync,清空lucence,此时就可以被ElasticSearch查询了,如果index buffer占满时,也会触发refresh,默认为jvm的10%。

  • Flush定时将缓存中的segments写入到磁盘,删除translog。如果translog满时(512m),也会触发flush。

  • 如果数据很多,segment的也很多,同时也可能由删除的文档,ElasticSearch会定期将它们合并。

3.2.2.2 update

(图:update)  

  1. 读取同id的完整Doc, 记录版本为version1。

  2. 将version1的doc和update请求的Doc合并成一个Doc,更新内存中的VersionMap。获取到完整Doc后。进入后续的操作。

  3. 后面的操作会加锁。

  4. 第二次从versionMap中读取该doc的的最大版本号version2,这里基本都会从versionMap中获取到。

  5. 检查版本是否冲突,判断版本是否一致(冲突),如果发生冲突,则回到第一步,重新执行查询doc合并操作。如果不冲突,则执行最新的添加doc请求。

  6. 介绍在add Doc时,首先将Version + 1得到V3,再将Doc加入到Lucene中去,Lucene中会先删同id下的已存在doc id,然后再增加新Doc。写入Lucene成功后,将当前V3更新到versionMap中。

  7. 释放锁,更新流程就结束了。

        介绍其实就是乐观锁的机制,每次更新一次版本号加 1 ,不像关系式数据库有事物,你在更新数据,可能别人也在更新的话,就把你的给覆盖了。

你要更新的时候,先查询出来,记住版本号,在更新的时候最新的版本号和你查询的时候不一样,说明别人先更新了。你应该读取最新的数据之后再更新。

        写成功后,会转发写副本分片,等待响应,并最后返回数据给协调节点。具体的流程:

  • 校验,校验写的分片是否存在、索引的状态是否正常等等。

  • 是否需要延迟执行,如果是则会放入到队列里等待。

  • 校验活跃的分片数是否存在,不足则拒绝写入。

  1. public boolean enoughShardsActive(final int activeShardCount) {
  2. if (this.value < 0) {
  3. throw new IllegalStateException("not enough information to resolve to shard count");
  4. }
  5. if (activeShardCount < 0) {
  6. throw new IllegalArgumentException("activeShardCount cannot be negative");
  7. }
  8. return this.value <= activeShardCount;
  9. }

为什么会要校验这个活跃的分片数呢?

  • ElasticSearch的索引层有个一waitforactiveshards参数代表写入的时候必须的分片数,默认是1。如果一个索引是每个分片3个副本的话,那么一共有4个分片,请求时至少需要校验存活的分片数至少为1,相当于提前校验了。如果对数据的可靠性要求很高,就可以调高这个值,必须要达到这个数量才会写入。

  • 调用lucence写入doc.

  • 写入translog日志。

  • 写入副本分片,循环处理副本请求,会传递一些信息。在这里需要注意,它们是异步发送到副本分片上的,并且需要全部等待响应结果,直至超时。

  • 接着上一步,如果有副本分片失败的情况,会把这个失败的分片发送给master,master会更新集群状态,这个副本分片会从可分配列表中移除。 

发送请求至副本

  1. @Override
  2. public void tryAction(ActionListener<ReplicaResponse> listener) {
  3. replicasProxy.performOn(shard, replicaRequest, primaryTerm, globalCheckpoint, maxSeqNoOfUpdatesOrDeletes, listener);
  4. }

等待结果

  1. privatevoid decPendingAndFinishIfNeeded() {
  2. assert pendingActions.get() > 0 : "pending action count goes below 0 for request [" + request + "]";
  3. if (pendingActions.decrementAndGet() == 0) {
  4. finish();
  5. }
  6. }

       在以前的版本中,其实是异步请求副本分片的,后来觉得丢失数据的风险很大,就改成同步发送了,即Primary等Replica返回后再返回给客户端。如果副本有写入失败的,ElasticSearch会进行一些重试,但最终并不强求一定要在多少个节点写入成功。

       在返回的结果中,会包含数据在多少个shard中写入成功了,多少个失败了,如果有副本上传失败,会将失败的副本上报至Master。

PS:ElasticSearch的数据副本模型和kafka副本很相似,都是采用的是ISR机制。即:ES里面有一个:in-sync copies概念,主分片会在索引的时候会同步数据至in-sync copies里面所有的节点,然后再返回ACK给client。而in-sync copies里面的节点是动态变化的,如果出现极端情况,在in-sync copies列表中只有主分片一个的话,这里很容易出现SPOF问题,这个是在ElasticSearch中是如何解决的呢?

       就是依靠上面我们分析的wait_for_active_shards参数来防止SPOF,如果配置index的wait_for_active_shards=3就会提前校验必须要有三个活跃的分片才会进行同步,否则拒绝请求。对于可靠性要求高的索引可以提升这个值。

PS:为什么是先写lucence再写入translog呢,这是因为写入lucence写入时会有数据检查,有可能会写入失败,这个是发生在内存之中的,如果先写入磁盘的translog的话,还需要回退日志,比较麻烦

3.2.3 副本分片节点流程

       这个过程和主分片节点的流程基本一样,有些校验可能略微不同,最终都会写入lucence索引。

四、总结

       本文介绍了ElasticSearch的写入流程和一些比较详细的机制,最后我们总结下开头我们提出的问题,一个分布式系统需要满足很多特性,大部分特性都能够在ElasticSearch中得到满足。

  • 可靠性:lucence只是个工具,ElasticSearch中通过自己设计的副本来保证了节点的容错,通过translog日志保证宕机后能够恢复。通过这两套机制提供了可靠性保障。

  • 一致性:ElasticSearch实现的是最终一致性,副本和主分片在同一时刻读取的数据可能不一致。比如副本的refresh频率和主分片的频率可能不一样。

  • 高性能:ElasticSearch通过多种手段来提升性能,具体包括:

  1. lucence自身独立线程维护各自的Segment,多线程需要竞争的资源更少,性能更好。 

  2. update等操作使用versionMap缓存,减少io.

  3. refresh至操作系统缓存。

  • 原子性、隔离性:使用版本的乐观锁机制保证的。

  • 实时性:ElasticSearch设计的是近实时的,如果同步进行refresh、flush将大幅降低性能,所以是”攒一部分数据“再刷入磁盘,不过实时写入的tranlog日志还是可以实时通过id查到的。


​作者更多文章

Redis系列:

Redis(一):单线程为何还能这么快

Redis(二):内存模型及回收算法

Redis(三):持久化

Redis(四):主从同步

ElasticSearch系列:

ElasticSearch:概述

ElasticSearch:核心

ElasticSearch:实战

ElasticSearch写入流程详解

RocketMQ系列:

RocketMQ—NameServer总结及核心源码剖析

RocketMQ—Producer(一)启动流程解密

Tomcat系列:

Tomcat:项目结构及架构分析

Tomcat:启动关闭流程分析

关注IT巅峰技术,私信作者,获取以下2021全球架构师峰会PDF资料。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/菜鸟追梦旅行/article/detail/717677
推荐阅读
相关标签
  

闽ICP备14008679号