gpt4 book ai didi

python - 使用 Apache-flink 将处理后的流数据汇入数据库

转载 作者:行者123 更新时间:2023-12-04 09:19:37 25 4
gpt4 key购买 nike

是否可以使用 pyflink 将处理后的流数据沉入数据库?所有写入处理数据的方法都仅限于将它们保存为txt、csv或Json格式,并且无法将数据下沉到数据库中。

最佳答案

您可以在 pyflink 中使用 SQL DDL 来定义一个 JDBC 表接收器,然后您可以将其插入。看起来像这样

my_sink_ddl = """
CREATE TABLE MyUserTable (
id BIGINT,
name STRING,
age INT,
status BOOLEAN,
PRIMARY KEY (id) NOT ENFORCED
) WITH (
'connector' = 'jdbc',
'url' = 'jdbc:mysql://localhost:3306/mydatabase',
'table-name' = 'users'
);
"""

t_env.sql_update(my_sink_ddl)

关于python - 使用 Apache-flink 将处理后的流数据汇入数据库,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/63111948/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com