gpt4 book ai didi

apache-spark - 如何使用自定义 Parquet 压缩算法?

转载 作者:行者123 更新时间:2023-12-04 04:09:56 24 4
gpt4 key购买 nike

是否可以在Spark中使用自定义压缩算法读写Parquet文件?

理想情况下,它应该配置如下:

sqlContext.setConf("spark.sql.parquet.compression.codec", "myalgo")

最佳答案

不,如所述in the documentation (这里指的是版本 2.2.0)唯一可接受的值是

  • 未压缩,
  • 活泼,
  • gzip
  • lzo

snappy 是默认的。

这是由于 Parquet 本身的限制,它只使用一组受限制的压缩算法,如 this enumeration 中所列。 (适用于 1.5.0 版本)。

关于apache-spark - 如何使用自定义 Parquet 压缩算法?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/48126680/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com