gpt4 book ai didi

python - pyarrow 可以将多个 Parquet 文件写入 fastparquet 的 file_scheme ='hive' 选项之类的文件夹吗?

转载 作者:可可西里 更新时间:2023-11-01 14:32:37 46 4
gpt4 key购买 nike

我有一个数百万条记录的 SQL 表,我打算使用 pyarrow 库将其写入文件夹中的许多 Parquet 文件。数据内容似乎太大,无法存储在单个 parquet 文件中。

但是,我似乎无法在 pyarrow 库中找到允许我指定类似内容的 API 或参数:

file_scheme="hive"

由 fastparquet python 库支持。

这是我的示例代码:

#!/usr/bin/python

import pyodbc
import pandas as pd
import pyarrow as pa
import pyarrow.parquet as pq

conn_str = 'UID=username;PWD=passwordHere;' +
'DRIVER=FreeTDS;SERVERNAME=myConfig;DATABASE=myDB'

#----> Query the SQL database into a Pandas dataframe
conn = pyodbc.connect( conn_str, autocommit=False)
sql = "SELECT * FROM ClientAccount (NOLOCK)"
df = pd.io.sql.read_sql(sql, conn)


#----> Convert the dataframe to a pyarrow table and write it out
table = pa.Table.from_pandas(df)
pq.write_table(table, './clients/' )

这会引发错误:

File "/usr/local/lib/python2.7/dist-packages/pyarrow/parquet.py", line 912, in write_table
os.remove(where)
OSError: [Errno 21] Is a directory: './clients/'

如果我用以下内容替换最后一行,它工作正常但只写入一个大文件:

pq.write_table(table, './clients.parquet' )

关于如何使用 pyarrow 进行多文件输出有什么想法吗?

最佳答案

试试 pyarrow.parquet.write_to_dataset https://github.com/apache/arrow/blob/master/python/pyarrow/parquet.py#L938 .

我打开了https://issues.apache.org/jira/browse/ARROW-1858关于添加更多关于此的文档。

我建议在邮件列表 dev@arrow.apache.org 上寻求对 Apache Arrow 的支持。谢谢!

关于python - pyarrow 可以将多个 Parquet 文件写入 fastparquet 的 file_scheme ='hive' 选项之类的文件夹吗?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/47482434/

46 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com