- iOS/Objective-C 元类和类别
- objective-c - -1001 错误,当 NSURLSession 通过 httpproxy 和/etc/hosts
- java - 使用网络类获取 url 地址
- ios - 推送通知中不播放声音
我之前使用过 Windows 版本的 HDInsight,它有一个选项卡,您可以在其中为 Zeppelin 设置每个工作节点的内核数和内存数。
我按照本教程让 Zeppelin 工作: https://azure.microsoft.com/en-us/documentation/articles/hdinsight-apache-spark-use-zeppelin-notebook/
HDInsight 的 Linux 版本使用 Ambari 来管理资源,但我似乎找不到更改 Zeppelin 设置的方法。
在左侧的服务列表中,无法将 Zeppelin 选为单独的服务。当我在操作中选择“添加服务”时,它似乎也无法添加。
我尝试使用覆盖在 Ambari 中编辑常规 spark 配置,然后将工作节点添加到我的新配置组并增加自定义 spark-defaults 中的内核和 RAM 数量。 (然后单击保存并重新启动所有受影响的服务。)
我尝试使用
编辑 spark 设置vi /etc/spark/conf/spark-defaults.conf
在头节点上,但 Ambari 未拾取它。
对于每次大约需要 1000-1100 秒的查询,Zeppelin 的性能似乎保持不变。
最佳答案
Zeppelin 不是服务,因此它不应出现在 Ambari 中。如果您致力于以这种方式管理它,您也许能够让它发挥作用 https://github.com/tzolov/zeppelin-ambari-plugin
要通过 ssh 进行编辑,您需要编辑 zeppelin-env.sh 文件。首先给自己编辑权限。
sudo chmod u+w /usr/hdp/current/incubator-zeppelin/conf/zeppelin-env.sh
然后使用
编辑 zeppelin 配置vi /usr/hdp/current/incubator-zeppelin/conf/zeppelin-env.sh
这里可以配置ZEPPELIN_JAVA_OPTS变量,添加:
-Dspark.executor.memory=1024m -Dspark.executor.cores=16
综上所述……您有什么理由不能只使用 Jupyter notebook 代替?
关于linux - 如何使用 linux HDInsight 更改 zeppelin 的资源,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/34860650/
我已在 12Gb 开发计算机上安装了 Azure HDInsight 模拟器(“HortonWorks Data Platform 2.1.3.0 For Windows”),它占用了我的所有 RAM
创建新的 HDInsight 群集后,当我提供身份验证信息并尝试访问 HDInsight Web 门户 https://{Cluster Name}.azurehdinsight.net/时,收到以下
创建新的 HDInsight 群集后,当我提供身份验证信息并尝试访问 HDInsight Web 门户 https://{Cluster Name}.azurehdinsight.net/时,收到以下
我浏览了多个文档,但无法获得与 Azure Databricks 集群相比使用 HDInsigths spark 集群的优势列表。这两者之间是否有任何关键区别。我基本上需要 HDInsights 支持
我是 Microsoft Azure 的新手。我在 Azure 上创建了一个试用帐户。安装了azure powershell并提交了默认的wordcount map reduce程序,它运行良好,并且
我正在尝试使用带有PowerShell(cmdlet Invoke-Hive)的Azure HDInsight在Hive中创建外部表,但是由于以下错误在stderr中失败: Logging initi
我正在尝试创建 Hadoop HDInsight 集群(使用我的免费套餐)。我正在尝试使用不同的默认节点设置(尝试了几种组合),但我的部署始终失败,并显示以下错误消息。 使用节点的默认设置后,部署成功
我是 Microsoft Azure 的新手。我在 Azure 上创建了一个试用帐户。安装了azure powershell并提交了默认的wordcount map reduce程序,它运行良好,并且
我们有在 Azure 上运行的 HDinsight 集群。我试图创建一台客户端计算机来连接到 HDInsight。我按照 Hortonworks 安装指南中的说明安装所有客户端组件,然后将/etc/h
我按照下面显示的链接中的步骤将 Hadoop 2.2 群集与 HDInsight 结合使用。 http://azure.microsoft.com/en-us/documentation/articl
我刚开始研究 HDInsight,但它不能正常工作.. 当我安装新的 HDInsight 时,它运行良好,但如果我重新启动或重新启动系统,服务器无法识别集群。 消息显示为“您的集群“本地 (hdfs)
我无法删除由关联Azure Datalake Store上的Python/Scala/Hive程序创建的文件。当我尝试删除这些文件夹和文件时,我收到访问被拒绝错误。我确保我对这些文件夹和文件拥有完全权
我正在尝试使用下面的 Microsoft 文档创建 Hdinsight-kafka 集群 https://learn.microsoft.com/en-us/azure/hdinsight/kafka
显然,我需要在一台群集计算机上启动一个zookeeper服务器,然后需要其他客户端计算机连接到该服务器。 我这样做的方法是,我使用ssh连接到根节点,我发现一个运行在端口2181上的zk服务器。因此,
我正在使用Hive流作业来处理HDInsight上C#中的某些数据。为了处理数据,脚本必须读取存储为Azure上的Blob的xml文件,如下所示: OperationContext o
是Microsoft“HDInsight”的免费开发下载。下面的URL表示可以下载,但是Microsoft网站上没有这样的链接,任何人都可以告诉我Microsoft“Hadoop”是否免费。 “htt
在 hdinsight hive 编辑器上使用什么命令来连接到特定的存储?通过 b.lodefault,hive 编辑器连接到错误的存储我应该给它什么命令来使用正确的存储 blob?如何使用 hive
我正在Azure HDInsight中运行一个简单的 map 缩小作业,以下是我们正在运行的命令: java -jar WordCount201.jar wasb://hexhadoopcluster
在HDInsight群集上,使用CREATE EXTERNAL语句创建一个Hive表: CREATE EXTERNAL TABLE HTable(t1 string, t2 string, t3 st
我正在考虑将Hive与HDInsight以及将数据加载到Azure Blob存储上。 历史数据和变化中的数据结合在一起。 Update , SET option in Hive中提到的解决方案也可以与
我是一名优秀的程序员,十分优秀!