作者热门文章
- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我要改Typesafe config开发/生产环境中的 Spark 作业。在我看来,实现这一点的最简单方法是通过 -Dconfig.resource=ENVNAME
去工作。然后 Typesafe 配置库将为我完成这项工作。
有没有办法将该选项直接传递给作业?或者也许有更好的方法在运行时更改作业配置?
编辑:
--conf "spark.executor.extraJavaOptions=-Dconfig.resource=dev"
时什么也没有发生spark-submit 命令的选项。Error: Unrecognized option '-Dconfig.resource=dev'.
当我经过-Dconfig.resource=dev
时spark-submit 命令。最佳答案
更改spark-submit
命令行添加三个选项:
--files <location_to_your_app.conf>
--conf 'spark.executor.extraJavaOptions=-Dconfig.resource=app'
--conf 'spark.driver.extraJavaOptions=-Dconfig.resource=app'
关于scala - 如何将-D参数或环境变量传递给Spark作业?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/28166667/
我是一名优秀的程序员,十分优秀!