赞
踩
FlinkSQL执行INSERT INTO 时不报错,但是重复执行会产生数据重复的情况:
CREATE TABLE dwd_xxx
(
id BIGINT,
name STRING,
amount DECIMAL(10,2)
) WITH (
'connector' = 'kafka',
'topic' = 'dwd_xxx',
'scan.startup.mode' = 'earliest-offset',
'properties.bootstrap.servers' = 'cdh01:9092',
'format' = 'changelog-json'
);
在试图向这张表里做INSERT OVERWRITE时,报错如下:
[INFO] Submitting SQL update statement to the cluster...
[ERROR] Could not execute SQL statement. Reason:
org.apache.flink.table.api.ValidationException: INSERT OVERWRITE requires that the underlying DynamicTableSink of table 'default_catalog.default_database.dwd_school_meal_standard_base' implements the SupportsOverwrite interface.
经查,这个错是因为JDBC connector 不支持INSERT OVERWRITE, 官方文档里列出了目前 Flink SQL
支持的INSERT语法,但是不是所有的 connector 都支持 INSERT OVERWRITE, 目前支持的只有 Filesystem
connector 和 Hive table, 这些表一般不会有主键。其他connector 如 JDBC\ES\HBase 目前不支持 INSERT
OVERWRITE,现在 JDBC\ES\HBase connector都是支持upsert 插入的[1],
就是在connector 表上定义了PK,结果可以按照PK更新,对于DB类的系统应该都是可以满足业务需求的。
详见Flink Mail List:Re: flinksql insert overwrite 报错 INSERT OVERWRITE requires JDBC:MySQL DynamicTableSink to implement SupportsOverwrite interface
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。