当前位置:   article > 正文

Flinksql insert overwrite 报错 requires that the underlying DynamicTableSink of table_insert overwrite requires that the underlying dyna

insert overwrite requires that the underlying dynamictablesink of table

FlinkSQL执行INSERT INTO 时不报错,但是重复执行会产生数据重复的情况:

CREATE TABLE dwd_xxx
(
  id BIGINT,
  name STRING,
  amount DECIMAL(10,2)
 ) WITH (
    'connector' = 'kafka',
    'topic' = 'dwd_xxx',
    'scan.startup.mode' = 'earliest-offset',
    'properties.bootstrap.servers' = 'cdh01:9092',
    'format' = 'changelog-json'
);
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12

在这里插入图片描述

在试图向这张表里做INSERT OVERWRITE时,报错如下:

[INFO] Submitting SQL update statement to the cluster...
[ERROR] Could not execute SQL statement. Reason:
org.apache.flink.table.api.ValidationException: INSERT OVERWRITE requires that the underlying DynamicTableSink of table 'default_catalog.default_database.dwd_school_meal_standard_base' implements the SupportsOverwrite interface.
  • 1
  • 2
  • 3

经查,这个错是因为JDBC connector 不支持INSERT OVERWRITE, 官方文档里列出了目前 Flink SQL
支持的INSERT语法,但是不是所有的 connector 都支持 INSERT OVERWRITE, 目前支持的只有 Filesystem
connector 和 Hive table, 这些表一般不会有主键。其他connector 如 JDBC\ES\HBase 目前不支持 INSERT
OVERWRITE,现在 JDBC\ES\HBase connector都是支持upsert 插入的[1],
就是在connector 表上定义了PK,结果可以按照PK更新,对于DB类的系统应该都是可以满足业务需求的。

详见Flink Mail List:Re: flinksql insert overwrite 报错 INSERT OVERWRITE requires JDBC:MySQL DynamicTableSink to implement SupportsOverwrite interface

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/IT小白/article/detail/795377
推荐阅读
相关标签
  

闽ICP备14008679号