- android - RelativeLayout 背景可绘制重叠内容
- android - 如何链接 cpufeatures lib 以获取 native android 库?
- java - OnItemClickListener 不起作用,但 OnLongItemClickListener 在自定义 ListView 中起作用
- java - Android 文件转字符串
当我的spark程序调用JavaSparkContext.stop()时,出现如下错误。
14/12/11 16:24:19 INFO Main: sc.stop {
14/12/11 16:24:20 ERROR ConnectionManager: Corresponding SendingConnection to ConnectionManagerId(cluster02,38918) not found
14/12/11 16:24:20 ERROR SendingConnection: Exception while reading SendingConnection to ConnectionManagerId(cluster04,59659)
java.nio.channels.ClosedChannelException
at sun.nio.ch.SocketChannelImpl.ensureReadOpen(SocketChannelImpl.java:252)
at sun.nio.ch.SocketChannelImpl.read(SocketChannelImpl.java:295)
at org.apache.spark.network.SendingConnection.read(Connection.scala:390)
at org.apache.spark.network.ConnectionManager$$anon$6.run(ConnectionManager.scala:205)
at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1145)
at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:615)
at java.lang.Thread.run(Thread.java:745)
14/12/11 16:24:20 ERROR ConnectionManager: Corresponding SendingConnection to ConnectionManagerId(cluster03,59821) not found
14/12/11 16:24:20 ERROR ConnectionManager: Corresponding SendingConnection to ConnectionManagerId(cluster02,38918) not found
14/12/11 16:24:20 WARN ConnectionManager: All connections not cleaned up
14/12/11 16:24:20 INFO Main: sc.stop }
我该如何解决这个问题?
配置如下:
更新
Spark客户端在Linux上运行时,出现如下错误。 (我认为基本上都是一样的错误)
14/12/12 11:32:02 INFO Main: sc.stop {
14/12/12 11:32:02 INFO SparkUI: Stopped Spark web UI at http://clientmachine:4040
14/12/12 11:32:02 INFO DAGScheduler: Stopping DAGScheduler
14/12/12 11:32:02 INFO YarnClientSchedulerBackend: Shutting down all executors
14/12/12 11:32:02 INFO YarnClientSchedulerBackend: Asking each executor to shut down
14/12/12 11:32:02 INFO YarnClientSchedulerBackend: Stopped
14/12/12 11:32:03 INFO ConnectionManager: Removing SendingConnection to ConnectionManagerId(cluster04,52869)
14/12/12 11:32:03 INFO ConnectionManager: Removing ReceivingConnection to ConnectionManagerId(cluster04,52869)
14/12/12 11:32:03 ERROR ConnectionManager: Corresponding SendingConnection to ConnectionManagerId(cluster04,52869) not found
14/12/12 11:32:03 INFO ConnectionManager: Removing SendingConnection to ConnectionManagerId(cluster03,57334)
14/12/12 11:32:03 INFO ConnectionManager: Removing ReceivingConnection to ConnectionManagerId(cluster03,57334)
14/12/12 11:32:03 ERROR ConnectionManager: Corresponding SendingConnection to ConnectionManagerId(cluster03,57334) not found
14/12/12 11:32:03 INFO ConnectionManager: Removing SendingConnection to ConnectionManagerId(cluster02,54205)
14/12/12 11:32:03 INFO ConnectionManager: Removing ReceivingConnection to ConnectionManagerId(cluster02,54205)
14/12/12 11:32:03 ERROR ConnectionManager: Corresponding SendingConnection to ConnectionManagerId(cluster02,54205) not found
14/12/12 11:32:03 INFO MapOutputTrackerMasterActor: MapOutputTrackerActor stopped!
14/12/12 11:32:03 INFO ConnectionManager: Selector thread was interrupted!
14/12/12 11:32:03 INFO ConnectionManager: Removing ReceivingConnection to ConnectionManagerId(cluster02,54205)
14/12/12 11:32:03 ERROR ConnectionManager: Corresponding SendingConnection to ConnectionManagerId(cluster02,54205) not found
14/12/12 11:32:03 INFO ConnectionManager: Removing ReceivingConnection to ConnectionManagerId(cluster04,52869)
14/12/12 11:32:03 ERROR ConnectionManager: Corresponding SendingConnection to ConnectionManagerId(cluster04,52869) not found
14/12/12 11:32:03 WARN ConnectionManager: All connections not cleaned up
14/12/12 11:32:03 INFO ConnectionManager: ConnectionManager stopped
14/12/12 11:32:03 INFO MemoryStore: MemoryStore cleared
14/12/12 11:32:03 INFO BlockManager: BlockManager stopped
14/12/12 11:32:03 INFO BlockManagerMaster: BlockManagerMaster stopped
14/12/12 11:32:03 INFO SparkContext: Successfully stopped SparkContext
14/12/12 11:32:03 INFO Main: sc.stop }
最佳答案
有些线程建议在执行 Spark 上下文“停止”之前放置一个 Thread.sleep。看看是否有帮助。
关于hadoop - Apache Spark : Error on JavaSparkContext. 停止(),我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/27417573/
我将 spark 与 cassandra 一起使用,我有一个 JavaRDD客户。对于每个客户,我想从 cassandra 中选择他这样的交互: avaPairRDD> a = client.mapT
我有一个 SparkConf 对象: final SparkConf conf = new SparkConf(); 从该配置中,我实例化了我的 JavaSparkContext: JavaSpark
我有多个文本文件要用 JavaSparkContext 读取,每个文件可能略有不同并且包含多行记录,所以我想使用正则表达式分隔符来查找记录。是否可以使用正则表达式配置 textinputformat
SparkContext, JavaSparkContext, SQLContext 和 SparkSession 有什么区别? 是否有任何方法可以使用 SparkSession 转换或创建上下文?
我有一个 Spring Boot 应用程序,我已向其中添加了 Spark Core 依赖项,因为我想在其中使用 JavaSparkContext。 不幸的是,当我尝试初始化应用程序时,我收到此NoCl
我正在使用 SparkSession 来运行我的 spark 应用程序,因为我使用了很多 spark-sql 功能。我想使用 JavaSparkContext 从列表中创建 RDD。但是通过 Sess
我正在尝试添加过滤器,如the examples所示到我的程序: val logFile = "/tmp/master.txt" val sc = new JavaSparkContext("loca
我们可以调用JavaSparkContext.wholeTextFiles并得到JavaPairRDD ,其中第一个字符串是文件名,第二个字符串是整个文件内容。 Dataset API中是否有类似的方
在我的应用程序中,有一个 Web UI 应用程序在完成向 Kafka 的文件上传过程后发送文件路径。 我有一个 Spark Streaming 应用程序,它使用 JavaSparkContext 和
当我的spark程序调用JavaSparkContext.stop()时,出现如下错误。 14/12/11 16:24:19 INFO Main: sc.stop { 14/12/11 16:24:2
我正在尝试在 Google Dataproc 上运行 Spark 作业。但是,正如通常所见,Spark Driver 的初始化占用了大量的执行时间。我想知道什么是使用相同的 JavaSparkCont
我有一个包含多个类的 spark 应用程序。我在我的主类中创建 JavaSparkContext 并使用它从 hdfs (sc.textFile) 获取数据。然后这个数据被传递给另一个正在处理它的对象
我在将 Spark 示例转换为可运行代码时遇到了相当大的困难(正如我之前的问题 here 所证明的那样)。 那里提供的答案帮助我解决了那个特定的例子,但现在我正在尝试使用 the Multilayer
当我运行 PySpark 时,执行 sc._gateway.help(sc._jsc) 成功地给了我一些不错的输出,比如 JavaSparkContext extends org.apache.spa
我正在尝试使用 JavaSparkContext 对象创建 SQL 上下文对象,因为它的参数如下: SparkConf sparkConf=new SparkConf().setMaster("loc
我正在尝试运行以下简单的 Spark 代码: Gson gson = new Gson(); JavaRDD stringRdd = jsc.textFile("src/main/resources/
最近我一直在努力让 Spark 在我的 Windows 10 设备上运行,但没有成功。我只是想试用 Spark 并能够按照教程进行操作,因此我目前无法访问要连接的集群。为了安装 Spark,我完成了以
我尝试在 springboot 中编写一个简单的休息 Controller ,它接受一个文件和一个字符串,并在该文件中搜索该字符串被找到的次数,基本上是单词搜索和计数。 我的电脑上运行着 master
最近我一直在努力让 Spark 在我的 Windows 10 设备上运行,但没有成功。我只是想试用 Spark 并能够按照教程进行操作,因此我目前无法访问要连接的集群。为了安装 Spark,我完成了以
我是一名优秀的程序员,十分优秀!