- 使用 Spring Initializr 创建 Spring Boot 应用程序
- 在Spring Boot中配置Cassandra
- 在 Spring Boot 上配置 Tomcat 连接池
- 将Camel消息路由到嵌入WildFly的Artemis上
本文分享自华为云社区《Yarn为何能坐实资源调度框架之王?》,作者: JavaEdge。
Hadoop主要组成:
Yarn的出现伴随着Hadoop的发展,使Hadoop从一个单一的大数据计算引擎,成为一个集存储、计算、资源管理为一体的完整大数据平台,进而发展出自己的生态体系,成为大数据的代名词。
在MapReduce应用程序的启动过程中,最重要的就是把MapReduce程序分发到大数据集群的服务器,Hadoop 1中,这个过程主要是通过TaskTracker和JobTracker通信完成。
服务器集群资源调度管理和MapReduce执行过程耦合在一起,如果想在当前集群中运行其他计算任务,比如Spark或者Storm,就无法统一使用集群中的资源。
Hadoop早期,大数据技术就只有Hadoop,这缺点不明显。但随大数据发展,各种新计算框架出现,我们不可能为每种计算框架部署一个服务器集群,而且就算能部署新集群,数据还是在原来集群的HDFS上。所以需要把MapReduce的资源管理和计算框架分开,这也是Hadoop2最主要变化:将Yarn从MapReduce中分离出来,成为一个独立的资源调度框架。
Yarn,Yet Another Resource Negotiator,另一种资源调度器。在Hadoop社区决定将资源管理从Hadoop1中分离出来,独立开发Yarn时,业界已有一些大数据资源管理产品,比如Mesos,所以Yarn开发者索性管自己的产品叫“另一种资源调度器”。比如Java的Ant就是“Another Neat Tool”缩写,另一种整理工具。
Yarn包括:
NodeManager进程,负责具体服务器上的资源和任务管理,在集群的每一台计算服务器上都会启动,和HDFS的DataNode进程一起出现
ResourceManager进程,负责整个集群的资源调度管理,通常部署在独立的服务器
资源管理器包括两个主要组件:
调度器
就是个资源分配算法,根据Client应用程序提交的资源申请和当前服务器集群的资源状况进行资源分配。
Yarn内置的资源调度算法
包括Fair Scheduler、Capacity Scheduler等,也可以自行开发供Yarn调用。
Yarn进行资源分配的单位是容器(Container),每个容器包含了一定量的内存、CPU等计算资源,默认配置下,每个容器包含一个CPU核心。容器由NodeManager进程启动和管理,NodeManger进程会监控本节点上容器的运行状况并向ResourceManger进程汇报。
应用程序管理器
应用程序管理器负责应用程序的提交、监控应用程序运行状态等。应用程序启动后需要在集群中运行一个ApplicationMaster,ApplicationMaster也需要运行在容器里面。每个应用程序启动后都会先启动自己的ApplicationMaster,由ApplicationMaster根据应用程序的资源需求进一步向ResourceManager进程申请容器资源,得到容器以后就会分发自己的应用程序代码到容器上启动,进而开始分布式计算。
1、向Yarn提交应用程序,包括
2、ResourceManager进程和NodeManager进程通信,根据集群资源,为用户程序分配第一个容器,并将MapReduce ApplicationMaster分发到这个容器,并在容器里启动MapReduce ApplicationMaster
3、MapReduce ApplicationMaster启动后立即向ResourceManager进程注册,并为自己的应用程序申请容器资源。
4、MapReduce ApplicationMaster申请到需要的容器后,立即和相应的NodeManager进程通信,将用户MapReduce程序分发到NodeManager进程所在服务器,并在容器中运行,运行的就是Map或者Reduce任务。
5、Map或者Reduce任务在运行期和MapReduce ApplicationMaster通信,汇报自己的运行状态,若运行结束,MapReduce ApplicationMaster向ResourceManager进程注销并释放所有的容器资源。
MapReduce若想在Yarn运行,需开发遵循Yarn规范的MapReduce ApplicationMaster,其他大数据计算框架也能开发遵循Yarn规范的ApplicationMaster,这样在一个Yarn集群中就能同时并发执行不同的大数据计算框架,实现资源的统一调度管理。
框架遵循依赖倒转原则:高层模块不能依赖低层模块,它们应共同依赖一个抽象,这个抽象由高层模块定义,由低层模块实现。
高、低层模块的划分:调用链上,前面的是高层,后面的是低层。以Web应用为例,用户请求到Server后:
Tomcat相比Spring MVC就是高层模块,Spring MVC相比应用程序也是高层模块。虽然Tomcat会调用Spring MVC,因为Tomcat要把Request交给Spring MVC处理,但Tomcat并未依赖Spring MVC,那Tomcat如何做到不依赖Spring MVC,却能调用Spring MVC?
Tomcat和Spring MVC都依赖J2EE规范,Spring MVC实现了J2EE规范的HttpServlet抽象类,即DispatcherServlet,并配置在web.xml中。这样,Tomcat就能调用DispatcherServlet处理用户发来的请求。
同样Spring MVC也不需要依赖我们写的Java代码,而是通过依赖Spring MVC的配置文件或Annotation抽象,来调用我们的Java代码。所以,Tomcat或者Spring MVC都可以称作是框架,它们都遵循依赖倒转原则。
类似的,实现MapReduce编程接口、遵循MapReduce编程规范就能被MapReduce框架调用,在分布式集群中计算大规模数据;实现了Yarn的接口规范,比如Hadoop2的MapReduce,就能被Yarn调度管理,统一安排服务器资源。所以MapReduce和Yarn都是框架。
HDFS就不是框架,使用HDFS就是直接调用HDFS提供的API接口,HDFS作为底层模块被直接依赖。
Yarn,大数据资源调度框架,调度的是大数据计算引擎本身,不像MapReduce或Spark编程,每个大数据应用开发者都需根据需求开发自己的MapReduce程序或者Spark程序。
大数据计算引擎所使用的Yarn模块,也早被这些计算引擎开发者做出来供使用。普通大数据开发者没有机会编写Yarn相关程序。
我有一个带有一些功能的perl对象。每个功能从主程序中调用一次。我想并行运行某些功能以节省时间。由于某些功能取决于先前功能的结果,因此我无法将它们全部一起运行。 我想到了这样的事情: 对于每个函数,保
首先,我的代码在这里: import schedule # see https://github.com/dbader/schedule import crawler def job(): p
从 11 月 1 日开始,我必须使用quartz调度程序每4个月安排一次任务。我使用 cronExpression 来实现同样的目的。但 cronExpression 每年都会重置。所以我的任务将在
我有以下代码块,它调用两个请求,但略有延迟。 final ActorRef actor1 = getContext().actorOf( ActorClass.prop
考虑到 Linux 的情况,我们为每个用户堆栈都有一个内核堆栈,据我所知,每当发生上下文切换时,我们都会切换到当前进程的内核模式。 这里我们保存当前进程的当前状态,寄存器,程序数据等,然后调度器(不确
我有将东西移植到 OpenBSD 的奇怪爱好。我知道它有 pthreads 问题,但在 2013 年 5 月发布版本之前我不会升级。我使用的是 5.0,我对 pthreads 还很陌生。我已经学习了
给定一组任务: T1(20,100) T2(30,250) T3(100,400) (execution time, deadline=peroid) 现在我想将截止日期限制为 Di = f * Pi
使用 Django 开发一个小型日程安排 Web 应用程序,在该应用程序中,人们被分配特定的时间与他们的上级会面。员工存储为模型,与表示时间范围和他们有空的星期几的模型具有 OneToMany 关系。
我想了解贪婪算法调度问题的工作原理。 所以我一直在阅读和谷歌搜索一段时间,因为我无法理解贪心算法调度问题。 我们有 n 个作业要安排在单个资源上。作业 (i) 有一个请求的开始时间 s(i) 和结束时
这是流行的 El Goog 问题的变体。 考虑以下调度问题:有 n 个作业,i = 1..n。有 1 台 super 计算机和无限的 PC。每个作业都需要先经过 super 计算机的预处理,然后再在P
假设我有一个需要运行多次的蜘蛛 class My_spider(Scrapy.spider): #spider def 我想做这样的事 while True: runner = Cra
我已将 podAntiAffinity 添加到我的 DeploymentConfig 模板中。 但是,pod 被安排在我预计会被规则排除的节点上。 我如何查看 kubernetes 调度程序的日志以了
我已经使用 React - Redux - Typescript 堆栈有一段时间了,到目前为止我很喜欢它。但是,由于我对 Redux 很陌生,所以我一直在想这个特定的话题。 调度 Redux 操作(和
我想按照预定的计划(例如,周一至周五,美国东部时间晚上 9 点至 5 点)运行单个 Azure 实例以减少账单,并且想知道最好的方法是什么。 问题的两个部分: 能否使用服务管理 API [1] 按预定
假设最小模块安装(为了简单起见),Drupal 的 index.php 中两个顶级功能的核心“职责”是什么? ? drupal_bootstrap(DRUPAL_BOOTSTRAP_FULL); me
我正在尝试使用 Racket(以前称为 PLT Scheme)连接 URL 调度。我查看了教程和服务器文档。我不知道如何将请求路由到相同的 servlet。 具体例子: #lang 方案 (需要网络服
我想在 Airflow (v1.9.0) 上运行计划。 我的DAG需要在每个月底运行,但我不知道如何编写设置。 my_dag = DAG(dag_id=DAG_ID, cat
我正在尝试在“httpTrigger”类型函数的 function.json 中设置计划字段,但计时器功能似乎未运行。我的目标是拥有一个甚至可以在需要时进行调度和手动启动的功能,而不必仅为了调度而添加
我正在尝试制定每周、每月的 Airflow 计划,但不起作用。有人可以报告可能发生的情况吗?如果我每周、每月进行安排,它就会保持静止,就好像它被关闭一样。没有错误信息,只是不执行。我发送了一个代码示例
我希望每两周自动更新一次我的表格。我希望我的函数能够被 firebase 调用。 这可能吗? 我正在使用 Angular 2 Typescript 和 Firebase。 最佳答案 仅通过fireba
我是一名优秀的程序员,十分优秀!