gpt4 book ai didi

python - 使用python在S3中Redshift COPY csv

转载 作者:太空宇宙 更新时间:2023-11-04 04:38:38 26 4
gpt4 key购买 nike

您好,我有以下功能来保存 csv 文件:

mysql_cur = mysql_conn.cursor()
mysql_cur.execute('select * from %s where Date > "2018-01-01";' % mysql_table_name )
description = mysql_cur.description
rows = mysql_cur.fetchall()
for row in rows:
c.writerow(row)

然后我手动将文件上传到 S3 存储桶。

最后我运行 COPY 查询:

redshift_cur = redshift_conn.cursor()

sql = """copy kpi_kpireport from 's3://clab-migration/kpi.csv'
credentials 'aws_access_key_id=ID;aws_secret_access_key=KEY/KEY/pL/KEY'
csv;"""
print(redshift_cur.execute(sql))

当我在 SQL Workbench/J 中使用 COPY 命令时,我只是不确定我在这里做错了什么,因为执行语句中的语法不复制任何行。

最佳答案

实际上,您没有在 Redshift 中看到数据的原因似乎是您没有启用自动提交,因此,您的命令已成功执行,但它确实将数据复制Redshift,但不提交。因此,当您通过 console 或您的 WorkBench/J 查询选择时,您看不到数据。

您应该明确地开始并提交事务。我只是给你一个简单的工作示例。

import psycopg2


def redshift():

conn = psycopg2.connect(dbname='**_dev_**', host='888888888888****.u.****.redshift.amazonaws.com', port='5439', user='******', password='********')
cur = conn.cursor();

# Begin your transaction
cur.execute("begin;")

cur.execute("copy kpi_kpireport from 's3://clab-migration/kpi.csv' credentials 'aws_access_key_id=ID;aws_secret_access_key=KEY/KEY/pL/KEY' csv;")
# Commit your transaction
cur.execute("commit;")
print("Copy executed fine!")

redshift();

现在,如果您运行上面的代码,您将看到复制的数据。

如果从上面的代码中删除两行,cur.execute("begin;"), cur.execute("commit;") 运行它,即使成功运行没有错误,你将不会在 Redshift 中看到数据。

关于python - 使用python在S3中Redshift COPY csv,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/51130199/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com