gpt4 book ai didi

python - 使用 python 将 BigQuery 表数据导出到具有 where 子句的 Google Cloud Storage

转载 作者:太空狗 更新时间:2023-10-30 00:12:48 24 4
gpt4 key购买 nike

我想将表数据从 BigQuery 导出到 Google Cloud Storage。问题是,我需要从 date1 到 date2 的数据,而不是整个表数据。

extract_job = client.extract_table(
table_ref,
destination_uri,
# Location must match that of the source table.
location='US') # API request
extract_job.result()

这是我在谷歌云帮助上找到的。没有空间可以使用 where 子句添加查询或限制数据。

最佳答案

不幸的是,这将是两个步骤的过程。首先你需要建立结果表,然后导出结果。从成本的角度来看,影响应该是最小的 - 您将为临时表使用的存储支付费用,但成本为每月每 GB 0.02 美元 - 因此,如果您设法在 1 小时内完成任务 - 成本将为每 GB 0.000027 美元

job_config = bigquery.QueryJobConfig()
gcs_filename = 'file_*.gzip'

table_ref = client.dataset(dataset_id).table('my_temp_table')
job_config.destination = table_ref

job_config.write_disposition = bigquery.WriteDisposition.WRITE_TRUNCATE

# Start the query, passing in the extra configuration.
query_job = client.query(
"""#standardSql
select * from `project.dataset.table` where <your_condition> ;""",
location='US',
job_config=job_config)

while not query_job.done():
time.sleep(1)

#check if table successfully written
print("query completed")
job_config = bigquery.ExtractJobConfig()
job_config.compression = bigquery.Compression.GZIP
job_config.destination_format = (
bigquery.DestinationFormat.CSV)
job_config.print_header = False

destination_uri = 'gs://{}/{}'.format(bucket_name, gcs_filename)

extract_job = client.extract_table(
table_ref,
destination_uri,
job_config=job_config,
location='US') # API request
extract_job.result()
print("extract completed")

关于python - 使用 python 将 BigQuery 表数据导出到具有 where 子句的 Google Cloud Storage,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/50794270/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com