gpt4 book ai didi

hadoop - Mapreduce作业提交与Spark作业提交

转载 作者:行者123 更新时间:2023-12-02 22:00:54 27 4
gpt4 key购买 nike

我正在浏览各种文档,以了解Spark作业提交与mapreduce作业提交有何不同,hadoop最终指南中是否有图表说明mapreduce作业提交?

而且,spark应用程序也将像在mapreduce中一样从边缘节点提交(没有严格的规则,但我想这是遵循的实践)

最佳答案

MapReduce提交:

您可以将MapReduce v1作业和YARN应用程序(MapReduce v2和在YARN上运行的其他应用程序)提交到同一群集。可以通过以下方式将作业或应用程序提交到集群:

  • hadoop jar命令提交MapReduce v1作业或MapReduce v2
    应用。
  • yarn jar命令提交一个应用程序。
  • 外部应用程序提交MapReduce v1作业或应用程序。
  • 生态系统组件生成并提交应用程序或
    MapReduce v1作业。
  • hadoop作业命令提交MapReduce v1作业或MapReduce v2
    应用。
  • mapred job命令提交MapReduce v2应用程序。

  • MapReduce提交示例:
    ./yarn jar $YARN_EXAMPLES/hadoop-mapreduce-examples-2.2.0.jar

    提交Spark申请

    bundle 用户应用程序后,可以使用bin / spark-submit脚本启动它。该脚本负责使用Spark及其依赖项设置类路径,并可以支持不同的集群管理器和Spark支持的部署模式
  • 在8核上本地运行应用程序

  • ./bin/spark-submit \
    --class org.apache.spark.examples.SparkPi \
    --master local[8] \
    /path/to/examples.jar \
    100
  • 在客户端部署模式下在Spark独立集群上运行

  • ./bin/spark-submit \
    --class org.apache.spark.examples.SparkPi \
    --master spark://207.184.161.138:7077 \
    --executor-memory 20G \
    --total-executor-cores 100 \
    /path/to/examples.jar \
    1000
  • 在Spark独立集群上以集群部署模式运行
    监督

  • ./bin/spark-submit \
    --class org.apache.spark.examples.SparkPi \
    --master spark://207.184.161.138:7077 \
    --deploy-mode cluster \
    --supervise \
    --executor-memory 20G \
    --total-executor-cores 100 \
    /path/to/examples.jar \
    1000
  • 在YARN群集上运行

  • export HADOOP_CONF_DIR=XXX
    ./bin/spark-submit \
    --class org.apache.spark.examples.SparkPi \
    --master yarn \
    --deploy-mode cluster \ # can be client for client mode
    --executor-memory 20G \
    --num-executors 50 \
    /path/to/examples.jar \
    1000
  • 在Spark独立集群上运行Python应用程序

  • ./bin/spark-submit \
    --master spark://207.184.161.138:7077 \
    examples/src/main/python/pi.py \
    1000
  • 通过监督
  • 以集群部署模式在Mesos集群上运行

    ./bin/spark-submit \
    --class org.apache.spark.examples.SparkPi \
    --master mesos://207.184.161.138:7077 \
    --deploy-mode cluster \
    --supervise \
    --executor-memory 20G \
    --total-executor-cores 100 \
    http://path/to/examples.jar \
    1000

    关于hadoop - Mapreduce作业提交与Spark作业提交,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/46291140/

    27 4 0
    Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
    广告合作:1813099741@qq.com 6ren.com