- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
您好,我在 JAVA 中的 Spark 配置是:
ss=SparkSession.builder()
.config("spark.driver.host", "192.168.0.103")
.config("spark.driver.port", "4040")
.config("spark.dynamicAllocation.enabled", "false")
.config("spark.cores.max","1")
.config("spark.executor.memory","471859200")
.config("spark.executor.cores","1")
//.master("local[*]")
.master("spark://kousik-pc:7077")
.appName("abc")
.getOrCreate();
现在,当我从内部代码提交任何作业(不是提交 jar)时,我收到警告:
TaskSchedulerImpl: Initial job has not accepted any resources; check your cluster UI to ensure that workers are registered and have sufficient resources
屏幕截图中的工作程序是从命令启动的:
~/spark/sbin/start-slave.sh
所有处于等待阶段的四个作业都是从java代码提交的。尝试了所有站点的所有解决方案。任何想法请。
最佳答案
根据我的理解,您想仅使用一个执行器核心来运行 Spark 作业,您不必指定 spark.executor.cores
。
spark.cores.max
应该只为每个作业分配一个核心,因为它的值为 1。
在 spark-submit command
中提供诸如主控、执行程序内存/核心等配置详细信息始终是一种良好的做法。如下所示:
./bin/spark-submit \
--class org.apache.spark.examples.SparkPi \
--master spark://xxx.xxx.xxx.xxx:7077 \
--executor-memory 20G \
--total-executor-cores 100 \
/path/to/examples.jar \
1000
如果您想明确指定每个作业的执行器数量,请使用 --total-executor-cores
在你的spark-submit
命令
查看文档 here
关于java - 无法从spark中的java代码启 Action 业;初始作业尚未接受任何资源,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/42045847/
我很好奇为什么 Start-Job 会成倍增加。我担心的是我做错了什么,使新工作的 ID 跳了 2。 Start-Job -ScriptBlock {Get-WinEvent -LogName sys
有没有办法为 Start-Job 命令指定工作目录? 用例: 我在一个目录中,我想使用 Emacs 打开一个文件进行编辑。如果我直接执行此操作,它将阻止 PowerShell,直到我关闭 Emacs。
我正在尝试在 PowerShell 2.0 中执行基本的后台作业,并且我在 start-job 和 invoke-command -asjob 中看到了不同的东西。 如果我这样做: start-job
我正在尝试通过 Jenkins DSL 启动一个项目,但不需要等待它完成。基本上我希望它能够启动一项孤儿工作。 node("slave-node") { // Launch pipeline
我正在尝试在 OS X Mountain Lion 10.8.3 中安排一个简单的任务 launchctl start nextstopsun.helloworld 命令不执行脚本并向控制台抛出消息
我在Hadoop集群上运行MRJob,并且出现以下错误: No configs found; falling back on auto-configuration Looking for hadoop
我已经能够很好地使用 elastic-mapreduce ruby 库启动工作流程。现在我有一个实例在它的工作完成后仍然“活着”。我已经使用 SSH 登录并想开始另一项工作,但是我的各种尝试都失败
我是 hadoop 和 mrjob 的新手,这本书对我的学习帮助很大。我试图在 hadoop 上运行 mrSVM.py,因为它在本地运行良好。 但我运行了以下命令:python mrSVM.py -r
我有一个简单的 Powershell 脚本(正在 Octopus 部署的一个步骤中运行),我正试图以另一个用户的身份运行它。我们在以后的步骤中需要它(我们平台上的每个应用程序都以其自己的用户帐户运行,
我目前正在尝试使用 powershell 构建一个从 IIS 启动的线程清理脚本。我使用 powershell 远程处理创建了一个线程“由所有者终止进程”,从与我的清理脚本相同的服务器列表运行,并且没
我是一名优秀的程序员,十分优秀!