gpt4 book ai didi

hdfs - Sqoop 导入为 OrC 文件

转载 作者:行者123 更新时间:2023-12-04 16:34:02 26 4
gpt4 key购买 nike

sqoop 中是否有任何选项可以从 RDMS 导入数据并将其以 ORC 文件格式存储在 HDFS 中?

尝试的替代方案:以文本格式导入并使用临时表将输入读取为文本文件并在 hive 中作为 orc 写入 hdfs

最佳答案

至少在 Sqoop 1.4.5 中存在支持 orc 文件格式(等等)的 hcatalog 集成。

例如,您可以选择

--hcatalog-storage-stanza

可以设置为
stored as orc tblproperties ("orc.compress"="SNAPPY")

例子:
sqoop import 
--connect jdbc:postgresql://foobar:5432/my_db
--driver org.postgresql.Driver
--connection-manager org.apache.sqoop.manager.GenericJdbcManager
--username foo
--password-file hdfs:///user/foobar/foo.txt
--table fact
--hcatalog-home /usr/hdp/current/hive-webhcat
--hcatalog-database my_hcat_db
--hcatalog-table fact
--create-hcatalog-table
--hcatalog-storage-stanza 'stored as orc tblproperties ("orc.compress"="SNAPPY")'

关于hdfs - Sqoop 导入为 OrC 文件,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/29978522/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com