gpt4 book ai didi

apache-spark - 使用 HDI Jupyter Spark (Scala) 笔记本配置外部 jar

转载 作者:行者123 更新时间:2023-12-01 01:53:18 25 4
gpt4 key购买 nike

我有一个外部自定义 jar,我想与 Azure HDInsight Jupyter 笔记本一起使用; HDI 中的 Jupyter 笔记本使用 Spark Magic 和 Livy。

在笔记本的第一个单元格中,我尝试使用 jars配置:

%%configure -f
{"jars": ["wasb://$container$@$account#.blob.core.windows.net/folder/my-custom-jar.jar"]}

但我收到的错误信息是:
Starting Spark application
The code failed because of a fatal error:
Status 'shutting_down' not supported by session..

Some things to try:
a) Make sure Spark has enough available resources for Jupyter to create a Spark context. For instructions on how to assign resources see http://go.microsoft.com/fwlink/?LinkId=717038
b) Contact your cluster administrator to make sure the Spark magics library is configured correctly.
Current session configs: {u'jars': [u'wasb://$container$@$account#.blob.core.windows.net/folder/my-custom-jar.jar'], u'kind': 'spark'}
An error was encountered:
Status 'shutting_down' not supported by session.

我想知道我是否只是不理解 Livy 在这种情况下是如何工作的,因为我能够在同一个集群上成功包含一个 spark-package (GraphFrames):
%%configure -f
{ "conf": {"spark.jars.packages": "graphframes:graphframes:0.3.0-spark2.0-s_2.11" }}

一些可能有用的其他引用资料(以防万一我错过了什么):
  • Jupyter notebooks kernels with Apache Spark clusters in HDInsight
  • Livy Documentation
  • Submit Spark jobs remotely to an Apache Spark cluster on HDInsight using Livy
  • 最佳答案

    哦,我能够弄清楚并忘记更新我的问题。如果您将 jar 放在 HDI 集群的默认存储帐户中,这可以工作。

    哼!

    关于apache-spark - 使用 HDI Jupyter Spark (Scala) 笔记本配置外部 jar,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/42599477/

    25 4 0
    Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
    广告合作:1813099741@qq.com 6ren.com