gpt4 book ai didi

python - 使用 Python 将表从 Cloud Storage 加载到 BigQuery

转载 作者:太空宇宙 更新时间:2023-11-04 02:49:06 24 4
gpt4 key购买 nike

有人可以分享一个作业配置示例,用于将 json newline_delimited 文件上传到新的 Bigquery 表吗?

尝试根据 google 文档执行此操作,但到目前为止没有成功。

最佳答案

This example来自 GCP 存储库非常适合从 GCS 加载数据。

您唯一需要在代码中进行调整的是将 job.source_format 设置为新的分隔 json 文件,如下所示:

def load_data_from_gcs(dataset_name, table_name, source):
bigquery_client = bigquery.Client()
dataset = bigquery_client.dataset(dataset_name)
table = dataset.table(table_name)
job_name = str(uuid.uuid4())

job = bigquery_client.load_table_from_storage(
job_name, table, source)

job.source_format = 'NEWLINE_DELIMITED_JSON'
job.begin()

wait_for_job(job)

print('Loaded {} rows into {}:{}.'.format(
job.output_rows, dataset_name, table_name))

(正确的做法是在您的函数中接收此参数作为输入,但这只是一个示例)。

此外,当您运行这段代码时,该表应该已经存在(我在 Python API 中寻找模式自动检测,但似乎还没有)。

关于python - 使用 Python 将表从 Cloud Storage 加载到 BigQuery,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/44367140/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com