gpt4 book ai didi

apache-spark - 在 spark-submit 中为 spark 应用程序提供带有空格的参数/arg 的正确方法

转载 作者:行者123 更新时间:2023-12-02 03:25:17 27 4
gpt4 key购买 nike

我有类似以下内容的 shell 脚本:

FOO="bar gum"
$ spark-submit --verbose --class SomeApp some.jar "$FOO"

然而,这将导致:
Main class:
SomeApp
Arguments:
bar
gum

正如我所料,“酒吧口香糖”的单一论点

/更新

把这个问题简单化了这么多

我真正拥有的是:
FOO="bar gum"
$ ssh host spark-submit --verbose --class SomeApp some.jar "$FOO"

这应该是:
FOO="bar gum"
$ ssh host spark-submit --verbose --class SomeApp some.jar \"$FOO\"

最佳答案

当您通过 ssh 命令发送命令时,任何双引号都由您本地的当前 shell 解释。
假设您有一个简单的脚本,在 Remote 上 print-first-arg.sh:

#!/bin/bash
echo $1
然后
$ ssh host print-first-arg.sh "hello world"
结果是
$ host print-first-arg.sh hello world
hello
在 Remote 上。
用:
$ ssh host echo \"hello world\"
结果是:
$ ssh host print-first-arg.sh "hello world"
hello world
在 Remote 上

关于apache-spark - 在 spark-submit 中为 spark 应用程序提供带有空格的参数/arg 的正确方法,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/30718967/

27 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com