当前位置:   article > 正文

Apache Paimon生产环境表模式最佳实践

apache paimon

01

前言

Apache Paimon 作为数据湖对各种场景有着完整的功能支持,看完这篇文章,你可以了解到 Paimon 有哪几种表模式。对应哪些场景。

此文部分内容来自 Paimon 官网:

https://paimon.apache.org/docs/master/

02

概览

d0b97629b33f0ca4e875546fb8473f8b.png

上图描述了大致所有表模式的配置及能力,在下文中,会逐个简单介绍下。以上的所有表模式在最新版本中已得到生产验证。

03

主键表

主键表是 Paimon 作为流式数据湖的核心,它可以接收上游来自数据库 CDC 或者 Flink Streaming 产生的 Changelog,里面包含 INSERT、UPDATE、DELTE 的数据。

主键表支持分区,它和 Hive 分区的概念完全相同,分区字段与主键字段的关系请见后面的具体说明。

主键表强制绑定 Bucket (桶) 概念,数据根据主键会被分配不同的 Bucket 中,在同一时间,同一个主键只会落到同一个 Bucket 中,每个 bucket 里面都包含一个单独的 LSM Tree 及其变更日志文件。Bucket 是最小的读写存储单元,因此 Bucket 的数量限制了最大的处理并行度。不过,这个数字不应该太大,因为这会导致大量小文件和低读取性能。一般情况下,建议每个bucket中的数据大小约为 200MB-1GB。

Paimon 采用 LSM Tree 作为文件存储的数据结构。LSM Tree 将文件组织为几个排序的 Sort Runs。Sort Runs 由一个或多个数据文件组成,数据文件中的记录按其主键进行排序。在 Sort Run 中,数据文件的主键范围从不重叠。

Compaction

主键表的 Compaction 默认在 Flink Sink 中自动完成,你不用关心它的具体过程,它会在 LSM 中生成一个 写放大 与 读放大 的基本平衡。

你需要关心的有两点:

  1. 后台运行的 Compaction 会不会阻塞写?

  2. 想要多作业同时写入一张表怎么办?

对于第一点,你可以开启全异步 Compaction:

 
 
  1. num-sorted-run.stop-trigger = 2147483647
  2. sort-spill-threshold = 10
  3. -- 此参数针对 changelog-producer=lookup的表
  4. changelog-producer.lookup-wait = false

全异步 Compaction 打开后,Compaction 永远不会阻塞 Write 的正常写入。

Paimon 支持多作业同时写入,但是并不支持多作业同时 Compaction,所以你可以给写入作业配置 write-only 为 true,避免写入作业进行后台 compaction,然后启动单独的 Dedicated Compaction Job。

固定桶主键表

 
 
  1. CREATE TABLE MyTable (
  2. user_id BIGINT,
  3. item_id BIGINT,
  4. behavior STRING,
  5. PRIMARY KEY (user_id) NOT ENFORCED
  6. ) WITH (
  7. 'bucket' = '5' -- default 1
  8. )

此模式定义固定的 Bucket 个数,上面有说过,Bucket 个数会影响并发度,影响性能,所以你需要根据表的数据量来合理定义出一个 bucket 个数,而且可能会有调整的场景:

  • 我们一般推荐直接重建表方便

  • 也可以保留已经写入的数据,详见文档 Rescale Bucket

固定 Bucket 的模式下并不支持跨分区更新,所以此模式需要你的主键包含所有的分区字段,在分区内更新:

 
 
  1. CREATE TABLE MyTable (
  2. user_id BIGINT,
  3. item_id BIGINT,
  4. behavior STRING,
  5. dt STRING,
  6. PRIMARY KEY (dt, user_id) NOT ENFORCED
  7. ) P. dt WITH (
  8. 'bucket' = '5' -- default 1
  9. )

以下三种类型的字段可以定义为主键表的分区字段:

  1. 创建时间(推荐):创建时间通常是不可变的,因此您可以放心地将其视为分区字段,并将其添加到主键中。

  2. 事件时间:事件时间是表中的一个字段。对于 CDC 数据,比如 MySQL CDC 同步的表,或者 Paimon 生成的 changelog,都是完整的 CDC 数据,包括 UPDATE_BEFORE 记录,即使声明了包含主键的分区字段,也可以达到唯一的效果(需要 'changelog-producer' = 'input')。

  3. CDC op_ts:不能定义为分区字段,因为不能知道以前的记录时间戳,需要使用跨分区更新的功能。

执行 Flink 写入的拓扑图如下:

1a85921214522ca4082d7704264e0395.png

如图所示,Writer 前会有根据 bucket 的 shuffler。

动态桶主键表

配置 'bucket' = '-1',数据如果是已经存在主键,将会落入旧的存储桶中,新的主键将落入新的存储桶。存储桶和主键的分布取决于数据到达的顺序。Paimon 会维护一个索引,以确定哪个主键对应于哪个桶。Paimon 会自动扩展bucket的数量。有两个参数你需要关心:

  1. 'dynamic-bucket.target-row-num':控制一个桶的目标数据量。

  2. 'dynamic-bucket.initial-buckets':控制桶的初始化个数。

请注意,动态桶由于需要维护索引,它并不支持多个作业同时写入,请 UNION ALL 多路到单个 Flink Sink。

普通动态桶
 
 
  1. CREATE TABLE MyTable (
  2. user_id BIGINT,
  3. item_id BIGINT,
  4. behavior STRING,
  5. dt STRING,
  6. PRIMARY KEY (dt, user_id) NOT ENFORCED
  7. ) P. dt WITH (
  8. 'bucket' = '-1'
  9. )

当您的更新不跨分区(没有分区,或者主键包含所有分区字段)时,动态桶模式使用 HASH 索引来维护从主键到桶的映射,这比固定桶模式需要更多的内存,一个分区中的1亿个条目会多占用 1GB 的内存 (整个作业,将会被分摊到多个 TaskManager 中),这内存消耗并不高,而且不再活动的分区不会占用内存。对于更新率较低的表,建议使用此模式以显著提高易用性。

执行拓扑如下:

25de20108ec5ae9f6930dd9c2b5b3f01.png

可以看到,多出来一个节点用于桶的分配。

跨分区更新动态桶
 
 
  1. CREATE TABLE MyTable (
  2. user_id BIGINT,
  3. item_id BIGINT,
  4. behavior STRING,
  5. dt STRING,
  6. PRIMARY KEY (user_id) NOT ENFORCED
  7. )  P. dt WITH (
  8. 'bucket' = '-1'
  9. )

当您需要跨分区更新(主键不包含所有分区字段)时,此模式直接维护主键到分区和 Bucket 的映射,使用本地磁盘,并在启动流写入作业时初始化索引。

Paimon 会利用诸多手段来加速初始化索引的过程,往往初始化过程非常快速。Paimon 也会默认使用 Flink Managed Memory 来当做 RocksDB 的 Block Cache,它是后续检索性能的关键。

当然,随着分区的增多,主键个数可能会越来越多,如果您的更新不依赖于太旧的数据,您可以考虑配置索引 TTL 以减少初始化时间和提升索引性能:'cross-partition-upsert.index-ttl',但请注意,如果评估不准确,它可能导致你的表产生重复数据。

执行拓扑如下:

c02303adedfd00df1a09bebdddba96a5.png

可以看到,在 assigner 前,会有 INDEX_BOOTSTRAP 节点来初始化索引,Paimon 为了正确性考虑,你没有办法跳过初始化阶段,但请放心,在大部分场景这个初始化速度非常快。

04

Append 表

如果表没有定义主键,则它是 Append 表,你只能插入 INSERT 的数据。Append 表的 Compaction 只是用来合并小文件。目前 Append 表有两种模式:Scalable 表 与 Queue 表。整体上我们推荐使用 Scalable 表,它更简单易懂。

Append Scalable 表

 
 
  1. CREATE TABLE MyTable (
  2. user_id BIGINT,
  3. item_id BIGINT,
  4. behavior STRING,
  5. dt STRING
  6. ) WITH (
  7. 'bucket' = '-1'
  8. )

当你定义 bucket 为 -1,且没有主键时,你可以认为它就是一张增强的 Hive 表,它将没有桶的概念 (虽然这种模式把数据放到 bucket-0 目录中,但是所有的读写并没有并发限制,桶被忽略了),它就是一个普通的数仓表,支持批写批读,支持流写流读,只是它的流读会有一部分乱序 (并不是完全的输入顺序)。

它有如下应用场景:

  1. 简单替换 Hive 表,在 Hive 表的基础上拥有湖存储的 ACID 特性。

  2. 你可以流写流读它,它有着非常高的吞吐,非常好的易用性。

  3. 你也可以使用对它进行批的排序,结合 z-order 等手段,它可以提供非常快速的点查范围查询。

如果你想在传统 TPC-DS 中测试 Paimon 表,请使用此模式。

执行拓扑:

fcef0303187c4ebcddf7972cabf0b819.png

图的上面部分是 Source 数据写入表,可以看到,中间并没有 Shuffler 了,它可以有着非常高的吞吐。

图的下面部分是 Compaction 拓扑,它会监控文件,进行必要性的小文件合并,它是完全非阻塞,纯异步的模式,并不会阻塞正常数据的写。如果你希望关闭它,请配置 'write-only'。

我们的建议是:在一个流写任务中保持 Compaction 拓扑的打开 (或者启动 Dedicated Compaction 作业),其它写作业统统 write-only,这是非常方便的玩法,Compaction 拓扑不但会合并小文件,还会清理过期 Snapshots 等等。

Append Queue 表

 
 
  1. CREATE TABLE MyTable (
  2. user_id BIGINT,
  3. item_id BIGINT,
  4. behavior STRING,
  5. dt STRING
  6. ) WITH (
  7. 'bucket' = '10',
  8. 'bucket-key' = 'user_id'
  9. )

在这种模式下,你可以将 Append 表视为一个由 bucket 分隔的队列。同一存储桶中的每条记录都是严格排序的,流式读取会将记录准确地按写入顺序传输到下游。你需要还可以定义 bucket 个数和 bucket-key,以实现更大的并行性 (默认 bucket 为 1)。

目前 Queue 表只能通过设置 bucket-key 的方式,Flink Kafka 默认模式 (Fixed, each Flink task ends up in at most one Kafka partition) 暂时没被支持,但是这在 Roadmap 上。

6442741b68b4b91e3b6ecda152f6d4f2.png

整张表就像 Kafka 的 Queue 一样在工作,它与 Kafka 的优劣如下:

  1. 延时分钟级,而 Kafka 可以是秒级,但是 Paimon 的成本要低得多。

  2. 数据沉淀下来,可被计算引擎 AD-HOC 查询。

  3. 流读可以进行 Projection & Filter Pushdown,这可以大大降低成本。

另外,此模式的 Compaction 只会进行 bucket 内的小文件合并,所以会造成更多的小文件,你可以配置 'compaction.max.file-num' (默认 50) 更小的此参数来更多的合并小文件。

另外,并不仅仅是顺序,Paimon 的此模式还可以让你定义 Watermark,并且支持最新的 Watermark 对齐的策略。

56a53ffd0772419aa99b737a6b35a568.png300万字!全网最全大数据学习面试社区等你来!

如果这个文章对你有帮助,不要忘记 「在看」 「点赞」 「收藏」 三连啊喂!

37384e61932c59c52ba391e4dd3316e4.png

cda8f43de6f62d52a67dde5ff5a755cb.jpeg

全网首发|大数据专家级技能模型与学习指南(胜天半子篇)

互联网最坏的时代可能真的来了

我在B站读大学,大数据专业

我们在学习Flink的时候,到底在学习什么?

193篇文章暴揍Flink,这个合集你需要关注一下

Flink生产环境TOP难题与优化,阿里巴巴藏经阁YYDS

Flink CDC我吃定了耶稣也留不住他!| Flink CDC线上问题小盘点

我们在学习Spark的时候,到底在学习什么?

在所有Spark模块中,我愿称SparkSQL为最强!

硬刚Hive | 4万字基础调优面试小总结

数据治理方法论和实践小百科全书

标签体系下的用户画像建设小指南

4万字长文 | ClickHouse基础&实践&调优全视角解析

【面试&个人成长】社招和校招的经验之谈

大数据方向另一个十年开启 |《硬刚系列》第一版完结

我写过的关于成长/面试/职场进阶的文章

当我们在学习Hive的时候在学习什么?「硬刚Hive续集」

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/weixin_40725706/article/detail/560392
推荐阅读
相关标签
  

闽ICP备14008679号