- android - RelativeLayout 背景可绘制重叠内容
- android - 如何链接 cpufeatures lib 以获取 native android 库?
- java - OnItemClickListener 不起作用,但 OnLongItemClickListener 在自定义 ListView 中起作用
- java - Android 文件转字符串
我在独立模式下运行 spark-submit 或 pyspark 时遇到问题,如下所示:
spark/bin/pyspark --master spark://<SPARK_IP>:<SPARK_PORT>
这通常会使用所有节点(至少在以前的版本中)在 UI 中创建一个正在运行的 Spark 应用程序。
出于某种原因,这样做只会在主节点上运行它,尽管 UI 显示所有节点都连接到主节点。从节点上的日志中没有错误。任何人都知道可能出了什么问题?作为引用,我的 spark-env.sh 具有以下配置:
export HADOOP_CONF_DIR=/mnt/hadoop/etc/hadoop
export SPARK_PUBLIC_DNS=<PUBLIC_DNS>
export SPARK_MASTER_IP=<PRIVATE_DNS>
export SPARK_MASTER_PORT=7077
export SPARK_CLASSPATH=$SPARK_CLASSPATH:/mnt/hadoop/share/hadoop/tools/lib/*
export SPARK_JAVA_OPTS="-Djava.io.tmpdir=/mnt/persistent/hadoop"
export SPARK_TMP_DIR="/mnt/persistent/hadoop"
export SPARK_MASTER_OPTS="-Djava.io.tmpdir=/mnt/persistent/hadoop"
export SPARK_WORKER_OPTS="-Djava.io.tmpdir=/mnt/persistent/hadoop"
export SPARK_DRIVER_MEMORY=5g
export SPARK_EXECUTOR_OPTS="-Djava.io.tmpdir=/mnt/persistent/hadoop"
export SPARK_EXECUTOR_INSTANCES=2
export SPARK_EXECUTOR_MEMORY=23g
这是尝试启动 PySpark 后弹出的内容:
Python 2.7.6 (default, Jun 22 2015, 17:58:13)
[GCC 4.8.2] on linux2
Type "help", "copyright", "credits" or "license" for more information.
15/12/24 01:36:38 INFO spark.SparkContext: Running Spark version 1.5.2
15/12/24 01:36:38 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
15/12/24 01:36:38 WARN spark.SparkConf:
SPARK_JAVA_OPTS was detected (set to '-Djava.io.tmpdir=/mnt/persistent/hadoop').
This is deprecated in Spark 1.0+.
Please instead use:
- ./spark-submit with conf/spark-defaults.conf to set defaults for an application
- ./spark-submit with --driver-java-options to set -X options for a driver
- spark.executor.extraJavaOptions to set -X options for executors
- SPARK_DAEMON_JAVA_OPTS to set java options for standalone daemons (master or worker)
15/12/24 01:36:38 WARN spark.SparkConf: Setting 'spark.executor.extraJavaOptions' to '-Djava.io.tmpdir=/mnt/persistent/hadoop' as a work-around.
15/12/24 01:36:38 WARN spark.SparkConf: Setting 'spark.driver.extraJavaOptions' to '-Djava.io.tmpdir=/mnt/persistent/hadoop' as a work-around.
15/12/24 01:36:38 WARN spark.SparkConf:
SPARK_CLASSPATH was detected (set to ':/mnt/hadoop/share/hadoop/tools/lib/*').
This is deprecated in Spark 1.0+.
Please instead use:
- ./spark-submit with --driver-class-path to augment the driver classpath
- spark.executor.extraClassPath to augment the executor classpath
15/12/24 01:36:38 WARN spark.SparkConf: Setting 'spark.executor.extraClassPath' to ':/mnt/hadoop/share/hadoop/tools/lib/*' as a work-around.
15/12/24 01:36:38 WARN spark.SparkConf: Setting 'spark.driver.extraClassPath' to ':/mnt/hadoop/share/hadoop/tools/lib/*' as a work-around.
15/12/24 01:36:38 INFO spark.SecurityManager: Changing view acls to: ubuntu
15/12/24 01:36:38 INFO spark.SecurityManager: Changing modify acls to: ubuntu
15/12/24 01:36:38 INFO spark.SecurityManager: SecurityManager: authentication disabled; ui acls disabled; users with view permissions: Set(ubuntu); users with modify permissions: Set(ubuntu)
15/12/24 01:36:39 INFO slf4j.Slf4jLogger: Slf4jLogger started
15/12/24 01:36:39 INFO Remoting: Starting remoting
15/12/24 01:36:40 INFO Remoting: Remoting started; listening on addresses :[akka.tcp://sparkDriver@xx.xx.xx.xx:34065]
15/12/24 01:36:40 INFO util.Utils: Successfully started service 'sparkDriver' on port 34065.
15/12/24 01:36:40 INFO spark.SparkEnv: Registering MapOutputTracker
15/12/24 01:36:40 INFO spark.SparkEnv: Registering BlockManagerMaster
15/12/24 01:36:40 INFO storage.DiskBlockManager: Created local directory at /mnt/persistent/hadoop/blockmgr-16d59ac7-dc2d-4cf7-ad52-91ff1035a86d
15/12/24 01:36:40 INFO storage.MemoryStore: MemoryStore started with capacity 2.6 GB
15/12/24 01:36:40 INFO spark.HttpFileServer: HTTP File server directory is /mnt/persistent/hadoop/spark-c6ea28f7-13dc-4799-aea7-0638cff35936/httpd-006916ff-7f84-4ad9-8fb5-bce471d73d5a
15/12/24 01:36:40 INFO spark.HttpServer: Starting HTTP Server
15/12/24 01:36:40 INFO server.Server: jetty-8.y.z-SNAPSHOT
15/12/24 01:36:40 INFO server.AbstractConnector: Started SocketConnector@0.0.0.0:50882
15/12/24 01:36:40 INFO util.Utils: Successfully started service 'HTTP file server' on port 50882.
15/12/24 01:36:40 INFO spark.SparkEnv: Registering OutputCommitCoordinator
15/12/24 01:36:40 INFO server.Server: jetty-8.y.z-SNAPSHOT
15/12/24 01:36:40 INFO server.AbstractConnector: Started SelectChannelConnector@0.0.0.0:4040
15/12/24 01:36:40 INFO util.Utils: Successfully started service 'SparkUI' on port 4040.
15/12/24 01:36:40 INFO ui.SparkUI: Started SparkUI at http://xx.xx.xx.xx:4040
15/12/24 01:36:40 WARN metrics.MetricsSystem: Using default name DAGScheduler for source because spark.app.id is not set.
15/12/24 01:36:40 INFO client.AppClient$ClientEndpoint: Connecting to master spark://xx.xx.xx.xx:7077...
15/12/24 01:36:41 INFO cluster.SparkDeploySchedulerBackend: Connected to Spark cluster with app ID app-20151224013641-0001
15/12/24 01:36:41 INFO client.AppClient$ClientEndpoint: Executor added: app-20151224013641-0001/0 on worker-20151224013503-xx.xx.xx.xx-40801 (xx.xx.xx.xx:40801) with 4 cores
15/12/24 01:36:41 INFO cluster.SparkDeploySchedulerBackend: Granted executor ID app-20151224013641-0001/0 on hostPort xx.xx.xx.xx:40801 with 4 cores, 23.0 GB RAM
15/12/24 01:36:41 INFO client.AppClient$ClientEndpoint: Executor updated: app-20151224013641-0001/0 is now LOADING
15/12/24 01:36:41 INFO client.AppClient$ClientEndpoint: Executor updated: app-20151224013641-0001/0 is now RUNNING
15/12/24 01:36:41 INFO util.Utils: Successfully started service 'org.apache.spark.network.netty.NettyBlockTransferService' on port 58297.
15/12/24 01:36:41 INFO netty.NettyBlockTransferService: Server created on 58297
15/12/24 01:36:41 INFO storage.BlockManagerMaster: Trying to register BlockManager
15/12/24 01:36:41 INFO storage.BlockManagerMasterEndpoint: Registering block manager xx.xx.xx.xx:58297 with 2.6 GB RAM, BlockManagerId(driver, xx.xx.xx.xx, 58297)
15/12/24 01:36:41 INFO storage.BlockManagerMaster: Registered BlockManager
15/12/24 01:36:41 INFO cluster.SparkDeploySchedulerBackend: SchedulerBackend is ready for scheduling beginning after reached minRegisteredResourcesRatio: 0.0
Welcome to
____ __
/ __/__ ___ _____/ /__
_\ \/ _ \/ _ `/ __/ '_/
/__ / .__/\_,_/_/ /_/\_\ version 1.5.2
/_/
Using Python version 2.7.6 (default, Jun 22 2015 17:58:13)
SparkContext available as sc, HiveContext available as sqlContext.
>>> 15/12/24 01:36:44 INFO cluster.SparkDeploySchedulerBackend: Registered executor: AkkaRpcEndpointRef(Actor[akka.tcp://sparkExecutor@xx.xx.xx.xx:38929/user/Executor#412940208]) with ID 0
15/12/24 01:36:44 INFO storage.BlockManagerMasterEndpoint: Registering block manager xx.xx.xx.xx:44977 with 11.9 GB RAM, BlockManagerId(0, xx.xx.xx.xx, 44977)
提前致谢, jack
最佳答案
我遇到了类似的问题,主人默默地忽略了一些奴隶。它归结为以下内容:
如果应用程序需要为其执行器提供一些资源,而某些从属服务器无法满足这些资源,这些从属服务器会在没有警告的情况下自动排除。
例如,如果应用程序需要一个 6 核和 11g RAM 的执行器,而一个从机只提供 3 个核,那么从机不会从该应用程序中获取任何任务。如果应用程序设置中未指定内核数,则应用程序将使用每个从站允许的最大内核数。然而,这不适用于内存。
关于python - Spark 1.5.2 + Hadoop 2.6.2 spark-submit 和 pyspark 不使用独立的所有节点,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/34445632/
目前正在学习 Spark 的类(class)并了解到执行者的定义: Each executor will hold a chunk of the data to be processed. Thisc
阅读了有关 http://spark.apache.org/docs/0.8.0/cluster-overview.html 的一些文档后,我有一些问题想要澄清。 以 Spark 为例: JavaSp
Spark核心中的调度器与以下Spark Stack(来自Learning Spark:Lightning-Fast Big Data Analysis一书)中的Standalone Schedule
我想在 spark-submit 或 start 处设置 spark.eventLog.enabled 和 spark.eventLog.dir -all level -- 不要求在 scala/ja
我有来自 SQL Server 的数据,需要在 Apache Spark (Databricks) 中进行操作。 在 SQL Server 中,此表的三个键列使用区分大小写的 COLLATION 选项
所有这些有什么区别和用途? spark.local.ip spark.driver.host spark.driver.bind地址 spark.driver.hostname 如何将机器修复为 Sp
我有大约 10 个 Spark 作业,每个作业都会进行一些转换并将数据加载到数据库中。必须为每个作业单独打开和关闭 Spark session ,每次初始化都会耗费时间。 是否可以只创建一次 Spar
/Downloads/spark-3.0.1-bin-hadoop2.7/bin$ ./spark-shell 20/09/23 10:58:45 WARN Utils: Your hostname,
我是 Spark 的完全新手,并且刚刚开始对此进行更多探索。我选择了更长的路径,不使用任何 CDH 发行版安装 hadoop,并且我从 Apache 网站安装了 Hadoop 并自己设置配置文件以了解
TL; 博士 Spark UI 显示的内核和内存数量与我在使用 spark-submit 时要求的数量不同 更多细节: 我在独立模式下运行 Spark 1.6。 当我运行 spark-submit 时
spark-submit 上的文档说明如下: The spark-submit script in Spark’s bin directory is used to launch applicatio
关闭。这个问题是opinion-based .它目前不接受答案。 想改善这个问题吗?更新问题,以便可以通过 editing this post 用事实和引文回答问题. 6 个月前关闭。 Improve
我想了解接收器如何在 Spark Streaming 中工作。根据我的理解,将有一个接收器任务在执行器中运行,用于收集数据并保存为 RDD。当调用 start() 时,接收器开始读取。需要澄清以下内容
有没有办法在不同线程中使用相同的 spark 上下文并行运行多个 spark 作业? 我尝试使用 Vertx 3,但看起来每个作业都在排队并按顺序启动。 如何让它在相同的 spark 上下文中同时运行
我们有一个 Spark 流应用程序,这是一项长期运行的任务。事件日志指向 hdfs 位置 hdfs://spark-history,当我们开始流式传输应用程序时正在其中创建 application_X
我们正在尝试找到一种加载 Spark (2.x) ML 训练模型的方法,以便根据请求(通过 REST 接口(interface))我们可以查询它并获得预测,例如http://predictor.com
Spark newb 问题:我在 spark-sql 中进行完全相同的 Spark SQL 查询并在 spark-shell . spark-shell版本大约需要 10 秒,而 spark-sql版
我正在使用 Spark 流。根据 Spark 编程指南(参见 http://spark.apache.org/docs/latest/programming-guide.html#accumulato
我正在使用 CDH 5.2。我可以使用 spark-shell 运行命令。 如何运行包含spark命令的文件(file.spark)。 有没有办法在不使用 sbt 的情况下在 CDH 5.2 中运行/
我使用 Elasticsearch 已经有一段时间了,但使用 Cassandra 的经验很少。 现在,我有一个项目想要使用 Spark 来处理数据,但我需要决定是否应该使用 Cassandra 还是
我是一名优秀的程序员,十分优秀!