gpt4 book ai didi

python - 从Google Cloud Storage读取时指定读取缓冲区大小

转载 作者:太空宇宙 更新时间:2023-11-03 21:12:04 25 4
gpt4 key购买 nike

我正在尝试使用cloudstorage库打开Goog​​le Cloud Storage中的文件。
我收到模块cloudstorage没有属性“打开”的错误。

当我将文件从Google云端存储加载到Google BigQuery时,我想指定读取缓冲区的大小。这是我要使用的功能。参数需要一个类似于object的文件。

Client.load_table_from_file(file_obj, destination, rewind=False, size=None, num_retries=6, job_id=None, job_id_prefix=None, location=None, project=None, job_config=None)[source]


从类似文件的对象上载此表的内容。

还有其他方法可以将Cloud Storage文件作为对象传递给此方法吗?或者是另一种在指定读取缓冲区大小的同时将文件从云存储加载到Google BigQuery的方法。

 from google.cloud import bigquery
from google.cloud import storage
import cloudstorage as gcs
def hello_gcs(event, context):
gcs_file = gcs.open('no-trigger/transaction.csv')
job_config = bigquery.LoadJobConfig()
job_config.autodetect = False
job_config.max_bad_records=1
job_config.create_disposition = 'CREATE_IF_NEEDED'
job_config.source_format = bigquery.SourceFormat.CSV
load_job = bclient.load_table_from_file(
gcs_file,
dataset_ref.table(temptablename),
location='asia-northeast1',
size=2147483648,
job_config=job_config) # API request

最佳答案

您可以使用load_table_from_uri()方法来消除从GCS下载的需要,并在上传时提供类似文件的对象。这样的事情应该起作用:

client.load_table_from_uri(
'gs://your-bucket/path/to/file.csv',
destination
)

关于python - 从Google Cloud Storage读取时指定读取缓冲区大小,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/54994840/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com