gpt4 book ai didi

ssh - 通过SSH隧道通过YARN连接到运行的Spark

转载 作者:行者123 更新时间:2023-12-02 14:10:28 24 4
gpt4 key购买 nike

我有一个Spark安装在远程集群上的YARN下运行,并且我和根节点之间有防火墙。我可以使用ssh隧道访问头节点:

> ssh -N -f -L 10000:remotenode:10000 between_machine

例如,此设置可用于访问在 remotenote上运行的HiveServer2。如果Spark在集群模式下运行,则需要对7077端口执行相同的操作,并使用以下命令将 pyspark客户端定向到 localhost:
> ssh -N -f -L 7077:remotenode:7077 between_machine
> ./pyspark --master spark://localhost:7077

如何在YARN调度程序下运行Spark?

最佳答案

如果您正在寻找要连接的端口,这是doc的引用:

You can access this interface by simply opening http://:4040 in a web browser. If multiple SparkContexts are running on the same host, they will bind to successive ports beginning with 4040 (4041, 4042, etc).



如果您只是想通过ssh“隧道”到达主机的更通用方法,则可以尝试使用ssh作为socks代理:
ssh user@host -D 20000

然后将浏览器配置为通过 socks 代理(主机-本地主机,端口-20000)进行连接。

关于ssh - 通过SSH隧道通过YARN连接到运行的Spark,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/34766443/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com