gpt4 book ai didi

java - 启动 java Spark-streaming 应用程序时出现异常

转载 作者:太空宇宙 更新时间:2023-11-04 06:25:52 25 4
gpt4 key购买 nike

应用程序抛出java.lang.NoSuchMethodException

堆栈跟踪

DAGScheduler: Failed to run runJob at ReceiverTracker.scala:275
Exception in thread "Thread-33" org.apache.spark.SparkException: Job aborted due to stage failure: Task 0 in stage 6.0 failed 4 times, most recent failure: Lost task 0.3 in stage 6.0 (TID 77, 172.20.7.60): java.lang.NoSuchMethodException: org.apache.spark.examples.streaming.KafkaKeyDecoder.<init>(kafka.utils.VerifiableProperties)
java.lang.Class.getConstructor0(Class.java:2810)
java.lang.Class.getConstructor(Class.java:1718)
org.apache.spark.streaming.kafka.KafkaReceiver.onStart(KafkaInputDStream.scala:106)
org.apache.spark.streaming.receiver.ReceiverSupervisor.startReceiver(ReceiverSupervisor.scala:121)
org.apache.spark.streaming.receiver.ReceiverSupervisor.start(ReceiverSupervisor.scala:106)
org.apache.spark.streaming.scheduler.ReceiverTracker$ReceiverLauncher$$anonfun$9.apply(ReceiverTracker.scala:264)
org.apache.spark.streaming.scheduler.ReceiverTracker$ReceiverLauncher$$anonfun$9.apply(ReceiverTracker.scala:257)
org.apache.spark.SparkContext$$anonfun$runJob$4.apply(SparkContext.scala:1121)
org.apache.spark.SparkContext$$anonfun$runJob$4.apply(SparkContext.scala:1121)
org.apache.spark.scheduler.ResultTask.runTask(ResultTask.scala:62)
org.apache.spark.scheduler.Task.run(Task.scala:54)
org.apache.spark.executor.Executor$TaskRunner.run(Executor.scala:177)
java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1145)
java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:615)
java.lang.Thread.run(Thread.java:745)

按照此 Link 似乎问题已在 Spark 1.1.0 中得到修复

Spark :1.1.0
卡夫卡:0.8.1.1

最佳答案

就我而言,正如评论中所解释的,通过消除库冲突,我能够正确使用 kafka 中的数据并将其存储到 cassandra,将作业部署到 Datastax Analytics 解决方案中。我发现与开源不同的是,streaming_kafka jar 和所有 scala 库已经包含在执行器类路径中。

所以我建议如下:

  1. 确保您使用与 Spark 相同版本的 scala 编译器。
  2. 确保 kafka 和 Streaming_kafka jar 编译为相同版本。
  3. 检查 scala 库是否已包含在执行程序类路径中,而不是包含在您的包中。

我假设您正在构建一个尝试部署的 uber jar。

关于java - 启动 java Spark-streaming 应用程序时出现异常,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/26799398/

25 4 0