gpt4 book ai didi

docker - 如何使用 Docker 创建分布式 spark 集群

转载 作者:行者123 更新时间:2023-12-05 07:30:12 27 4
gpt4 key购买 nike

我正在尝试使用这个 docker-compose 创建一个只有一个工作人员的分布式 spark 集群

    master:
image: gettyimages/spark:2.0.0-hadoop-2.7
command: bin/spark-class org.apache.spark.deploy.master.Master -h master
hostname: master
container_name: spark-master
environment:
SPARK_CONF_DIR: /conf
SPARK_PUBLIC_DNS: <MASTER IP>
expose:
- 7001
- 7002
- 7003
- 7004
- 7005
- 7077
- 6066
ports:
- 4040:4040
- 6066:6066
- 7077:7077
- 8080:8080
volumes:
- ./conf/master:/conf
- ./data:/tmp/data
- ~/spark/data/:/spark/data/

worker:
image: gettyimages/spark:2.0.0-hadoop-2.7
command: bin/spark-class org.apache.spark.deploy.worker.Worker spark://master:7077
hostname: worker
container_name: spark-worker
environment:
SPARK_CONF_DIR: /conf
SPARK_WORKER_CORES: 2
SPARK_WORKER_MEMORY: 1g
SPARK_WORKER_PORT: 8881
SPARK_WORKER_WEBUI_PORT: 8081
SPARK_PUBLIC_DNS: <WORKER IP>
links:
- master
expose:
- 7012
- 7013
- 7014
- 7015
- 8881
ports:
- 8081:8081
volumes:
- ./conf/worker:/conf
- ./data:/tmp/data
- ~/apps/sparkapp/worker/data:/spark/data/

但问题是 docker 守护进程正在同一台机器上创建容器。这消除了拥有分布式网络的全部意义。我如何使用 docker 创建分布式 spark 集群

最佳答案

如果问题出在Spark workers的同一个端口,实际上你有两个选择:

  1. 完全不要公开工作人员的端口 - 工作人员不需要它们连接到 master 和 work。但这可能不方便,因为您无法访问工作人员的 WebUI
  2. 使用像“8081-8999:8081”这样的特殊语法,这样每个以 docker-compose up --scale worker=2 开始的下一个 worker 将使用不同的端口。

关于docker - 如何使用 Docker 创建分布式 spark 集群,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/52404139/

27 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com