gpt4 book ai didi

windows - Spark 发射 : find version

转载 作者:可可西里 更新时间:2023-11-01 11:28:11 26 4
gpt4 key购买 nike

我的环境是 Windows 7,安装了 scala 2.11.4(运行良好),Java 1.8

我已经尝试过 spark-1.2.0-bin-hadoop2.4 和 spark-1.2.1-bin-hadoop2.4 并且每次我都放

bin\spark-shell.cmd

我刚刚收到来自 Windows 的错误:

find: 'version': No such file or directory
else was unexpected at this time.

这里有什么我忽略的吗?

非常感谢。

更新:(来自 spark-class2.cmd)

C:\Users\spark-1.2.1-bin-hadoop2.4>for /F "tokens=3" %i in ('java -version 2>&1 | find "version"') do set jversi on=%i
find: 'version': No such file or directory
else was unexpected at this time.

如果我尝试 java -version,它似乎在 java 端工作

C:\Users\spark-1.2.1-bin-hadoop2.4>java -version
java version "1.8.0_31"
Java(TM) SE Runtime Environment (build 1.8.0_31-b13)
Java HotSpot(TM) 64-Bit Server VM (build 25.31-b07, mixed mode)

最佳答案

我已经解决了这个问题。这是我的解决方案。

我安装了 cygwin 并且 PATH 系统变量指向 C:\cygwin64\bin\其中有一个 find.exe。

因此,spark-class2.cmd中的一行

for /f "tokens=3" %%i in ('java -version 2^>^&1 ^| find "version"') do set jversion=%%i

没有使用正确的“查找”可执行文件。

将这一行改成这个

for /f "tokens=3" %%i in ('java -version 2^>^&1 ^| C:\Windows\System32\find.exe "version"') do set jversion=%%i

解决了我的问题。

关于windows - Spark 发射 : find version,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/28747795/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com