- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我们在 Spark thrift 服务器上遇到的问题很少
从日志中我们可以看到:Failed to send RPC 9053901149358924945 to/DATA NODE MACHINE:50149
请告知为什么会发生这种情况,解决方案是什么?
Failed to send RPC 9053901149358924945 to /DATA NODE MACHINE:50149: java.nio.channels.ClosedChannelException
more spark-hive-org.apache.spark.sql.hive.thriftserver.HiveThriftServer2-1-master03.sys67.com.out
Spark Command: /usr/jdk64/jdk1.8.0_112/bin/java -Dhdp.version=2.6.0.3-8 -cp /usr/hdp/current/spark2-thriftserver/conf/:/usr/hdp/current/spark2-thriftserver/jars/*:/usr/hdp/c
urrent/hadoop-client/conf/ -Xmx10000m org.apache.spark.deploy.SparkSubmit --conf spark.driver.memory=15g --properties-file /usr/hdp/current/spark2-thriftserver/conf/spark-th
rift-sparkconf.conf --class org.apache.spark.sql.hive.thriftserver.HiveThriftServer2 --name Thrift JDBC/ODBC Server --executor-cores 7 spark-internal
========================================
Warning: Master yarn-client is deprecated since 2.0. Please use master "yarn" with specified deploy mode instead.
18/02/07 17:55:21 ERROR TransportClient: Failed to send RPC 9053901149358924945 to /12.87.2.64:50149: java.nio.channels.ClosedChannelException
java.nio.channels.ClosedChannelException
at io.netty.channel.AbstractChannel$AbstractUnsafe.write(...)(Unknown Source)
18/02/07 17:55:21 ERROR YarnSchedulerBackend$YarnSchedulerEndpoint: Sending RequestExecutors(2,0,Map()) to AM was unsuccessful
java.io.IOException: Failed to send RPC 9053901149358924945 to /12.87.2.64:50149: java.nio.channels.ClosedChannelException
at org.apache.spark.network.client.TransportClient$3.operationComplete(TransportClient.java:249)
at org.apache.spark.network.client.TransportClient$3.operationComplete(TransportClient.java:233)
at io.netty.util.concurrent.DefaultPromise.notifyListener0(DefaultPromise.java:514)
at io.netty.util.concurrent.DefaultPromise.notifyListenersNow(DefaultPromise.java:488)
at io.netty.util.concurrent.DefaultPromise.access$000(DefaultPromise.java:34)
at io.netty.util.concurrent.DefaultPromise$1.run(DefaultPromise.java:438)
at io.netty.util.concurrent.SingleThreadEventExecutor.runAllTasks(SingleThreadEventExecutor.java:408)
at io.netty.channel.nio.NioEventLoop.run(NioEventLoop.java:455)
at io.netty.util.concurrent.SingleThreadEventExecutor$2.run(SingleThreadEventExecutor.java:140)
at io.netty.util.concurrent.DefaultThreadFactory$DefaultRunnableDecorator.run(DefaultThreadFactory.java:144)
at java.lang.Thread.run(Thread.java:745)
Caused by: java.nio.channels.ClosedChannelException
at io.netty.channel.AbstractChannel$AbstractUnsafe.write(...)(Unknown Source)
18/02/07 17:55:21 ERROR SparkContext: Error initializing SparkContext.
我们也尝试从这个链接中捕捉一些好的观点 - https://thebipalace.com/2017/08/23/spark-error-failed-to-send-rpc-to-datanode/
但这是一个新的 ambari 集群,我们认为这篇文章不适合这个特定问题(我们的 ambari 集群上现在没有运行 spark 作业)
最佳答案
可能是磁盘空间不足。就我而言,我在 AWS EMR 中使用 1 个 r4.2xlarge(主)和 2 个 r4.8xlarge(核心)运行 Spark 作业。 Spark 调整和增加从属节点解决了我的问题。最常见的问题是内存压力、错误配置的 bcoz(即错误大小的执行程序)、长时间运行的任务以及导致笛卡尔运算的任务。您可以通过适当的缓存和允许数据倾斜来加速作业。为获得最佳性能,请监控和审查长时间运行且耗费资源的 Spark 作业执行。希望对您有所帮助。
关于hadoop - Spark 错误 : Failed to Send RPC to Datanode,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/48668533/
我在简单的两台机器hadoop集群中面临以下错误。 ERROR org.apache.hadoop.hdfs.server.datanode.DataNode: java.io.IOException
我有Hadoop 2.7.1 e,它可以成功运行。接下来,我下载了apache-hive-2.1.1-bin,并编辑了“.bashrc”文件以更新用户的环境变量。现在,当我使用命令“* / sbin
我在将本地文件部署到 hdfs 时遇到问题,发现我应该为数据节点和名称节点设置“drwx------”。hdfs中datanode和namenode的初始权限状态。 drwx------ 3 hdus
在我的主节点中运行 Hive 查询时,我遇到了一些严重的问题。我有 3 个集群设置(1 个名称节点,2 个数据节点)。 版本: Hadoop:2.7.3 hive :2.1.0 Java:openjd
我是 apache hadoop 的新手。我正在安装多节点集群,但出现两个错误。我不知道这些是什么类型的错误以及它们产生的原因。我在谷歌上搜索了很多关于这些错误的信息,但我无法找出错误产生背后的原因。
我设置了一个运行良好的 HA Hadoop 集群。但是添加Kerberos认证后datanode无法连接namenode。 验证 Namenode 服务器成功启动并且没有记录错误。我用用户 'hdus
在启动计算机上设置的单节点集群时,启动数据节点时出现错误 ************************************************************/ 2013-0
我在我的namenode上收到以下日志并将其从执行中删除我的datanode 2013-02-08 03:25:54,345 WARN namenode.NameNode (NameNodeRpcS
我之前已经成功启动了datanode,但是当我今天尝试时,它显示了以下信息。听起来我还没有mkdir / home / hadoop / appdata / hadoopdata目录,但是我确认该目录
目前,我已经在我的 Ubuntu 系统中安装了 Hadoop。我开始了。以下是详细信息: krish@krish-VirtualBox:~$ start-dfs.sh 20 年 14 月 10 日 1
我收到连接拒绝错误即使我拥有正确的权限,我的名称节点和数据节点也无法启动。服务给出以下错误:(连接失败:[Errno 111]连接被拒绝到0.0.0.0:50010)。 最佳答案 可能是因为您没有配置
我正在构建一个 hadoop 集群。我有 3 个机架,每个机架包含几个虚拟机。如何配置hadoop让它有rack awareness?有人建议使用“topology.script.file.name”
这几天一直在尝试安装hadoop集群。有时成功,但大多数时候失败。我根据官方文档和一些貌似高质量的博客进行了配置。 我遇到的问题是:所有进程(包括namenode、datanode、nodemanag
当我使用伪节点配置时,所有守护进程都在启动,但任何时候我创建一个完全分布式模式的集群时,DataNode 守护进程都不会在任何节点上启动,包括主节点。 可能导致此行为的原因是什么? 最佳答案 确保 n
我正在尝试安装 hadoop 2.2.0,但在启动 dataenode 服务时出现以下错误,请帮助我解决此问题。在此先致谢。 2014-03-11 08:48:16,406 信息 org.apache
我正在尝试以伪分布式模式安装 Hadoop 2.2.0。当我尝试启动数据节点服务时显示以下错误,谁能告诉我如何解决这个问题? **2**014-03-11 08:48:15,916 INFO org.
在给出命令jps时: 它只显示 some _pid jps 没有显示别人喜欢的服务 Namenode Datanode ResourceManager etc 最佳答案 您是否已启动服务。如果服务
我已经使用HDFS API构建了一个存储系统。我现在正在对系统进行一些性能测试。我通过SIEGE创建了大量并发文件检索请求(例如:siege -c 500 -r 1 "http://bucket1.s
我们重新启动集群上的数据节点 我们在 ambari 集群中有 15 台数据节点机器而每台datanode机器有128G RAM 版本 -(HDP - 2.6.4 和 ambari 版本 2.6.1)
Hadoop/Datanode 目录下当前和以前的目录有什么意义? hadoop 如何使用它们? 我在本地文件系统的所有磁盘上的路径/hadoop/datanode 下有一个/current 目录。
我是一名优秀的程序员,十分优秀!