gpt4 book ai didi

apache-spark - 从谷歌存储 gs ://filesystem from local spark instance 读取

转载 作者:行者123 更新时间:2023-12-02 05:58:08 26 4
gpt4 key购买 nike

问题很简单:您有一个本地 spark 实例(集群或只是在本地模式下运行它)并且您想从 gs://读取

最佳答案

就我的 Spark 2.4.3 而言,我需要执行以下操作才能从 Spark 本地启用 GCS 访问。我使用了 JSON key 文件与 client.id/secret以上建议。

  • $SPARK_HOME/jars/ ,使用阴影 gcs-connector来自这里的 jar :http://repo2.maven.org/maven2/com/google/cloud/bigdataoss/gcs-connector/hadoop2-1.9.17/否则我在传递依赖方面遇到了各种失败。
  • (可选)致我的 build.sbt添加:
    "com.google.cloud.bigdataoss" % "gcs-connector" % "hadoop2-1.9.17"
    exclude("javax.jms", "jms")
    exclude("com.sun.jdmk", "jmxtools")
    exclude("com.sun.jmx", "jmxri")
  • $SPARK_HOME/conf/spark-defaults.conf , 添加:
    spark.hadoop.google.cloud.auth.service.account.enable       true
    spark.hadoop.google.cloud.auth.service.account.json.keyfile /path/to/my/keyfile

  • 一切正常。

    关于apache-spark - 从谷歌存储 gs ://filesystem from local spark instance 读取,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/40716055/

    26 4 0
    Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
    广告合作:1813099741@qq.com 6ren.com