gpt4 book ai didi

apache-spark - 为什么加载 Cobol Copybook 文件失败并显示 "ClassNotFoundException: java.time.temporal.TemporalAccessor"?

转载 作者:行者123 更新时间:2023-12-02 00:56:14 25 4
gpt4 key购买 nike

我有以下 spark 程序,我试图运行它的目的是将 copybok 文件转换为 Parquet 文件。(Cobrix 的程序链接 https://github.com/AbsaOSS/cobrix)在这个我只是想运行一个名为 CobolCopybookExample1.scala 的文件(这是在 cobrix-master\cobrix-master\spark-cobol\src\main\scala\za\co\absa\cobrix\spark\cobol\examples 中)

它的源文件copybook文件在(cobrix-master\cobrix-master\examples\example_data)

我们知道 Spark 没有提供用于 Copybook 数据转换的内置库。为此,有一个名为 Cobrix 的开源库,它已通过 Apache Spark Foundation 认证,这就是我在我的程序中使用的库。

按照我到目前为止所遵循的步骤并出现错误。

我需要 4 个先决条件 jar 文件,它们是

spark-cobol-0.3.0.jar
cobol-parser-0.3.0.jar
scodec-core_2.11-1.10.3.jar
scodec-bits_2.11-1.1.4.jar

1).我下载了这些 jar 并将其保存在我的 VM 桌面文件夹 Cobol 中

2).我从 jar 位置使用以下命令启动了 spark-shell。启动成功。

spark-shell --master yarn --deploy-mode client --driver-cores 4 --driver-memory 4G --jars spark-cobol-0.3.0.jar,cobol-parser-0.3.0.jar,scodec-core_2.11-1.10.3.jar,scodec-bits_2.11-1.1.4.jar

3) 现在我需要导入 2 个库才能启动我的 spark Reader 功能。所以我做了

import org.apache.spark.sql.{SaveMode, SparkSession}
import za.co.absa.cobrix.spark.cobol.utils.SparkUtils

4) 现在我必须启动我的 spark DF 并遇到我在这封电子邮件中提到的错误。在我看来这是一个环境错误,但我想听取您的建议。我正在努力解决它们。

val df = spark.read
.format("za.co.absa.cobrix.spark.cobol.source")
.option("copybook", "file:///home/bigdata/Desktop/Cobol/example_data/raw_file.cob")
.load("file:///home/bigdata/Desktop/Cobol/example_data/raw_data")

然后我得到这个错误

java.lang.NoClassDefFoundError: java/time/temporal/TemporalAccessor
at za.co.absa.cobrix.spark.cobol.reader.fixedlen.FixedLenNestedReader.loadCopyBook(FixedLenNestedReader.scala:76)
at za.co.absa.cobrix.spark.cobol.reader.fixedlen.FixedLenNestedReader.<init>(FixedLenNestedReader.scala:42)
at za.co.absa.cobrix.spark.cobol.source.DefaultSource.createFixedLengthReader(DefaultSource.scala:83)
at za.co.absa.cobrix.spark.cobol.source.DefaultSource.buildEitherReader(DefaultSource.scala:70)
at za.co.absa.cobrix.spark.cobol.source.DefaultSource.createRelation(DefaultSource.scala:54)
at za.co.absa.cobrix.spark.cobol.source.DefaultSource.createRelation(DefaultSource.scala:45)
at org.apache.spark.sql.execution.datasources.DataSource.resolveRelation(DataSource.scala:330)
at org.apache.spark.sql.DataFrameReader.load(DataFrameReader.scala:152)
at org.apache.spark.sql.DataFrameReader.load(DataFrameReader.scala:135)
... 50 elided
Caused by: java.lang.ClassNotFoundException: java.time.temporal.TemporalAccessor
at java.net.URLClassLoader$1.run(URLClassLoader.java:366)
at java.net.URLClassLoader$1.run(URLClassLoader.java:355)
at java.security.AccessController.doPrivileged(Native Method)
at java.net.URLClassLoader.findClass(URLClassLoader.java:354)
at java.lang.ClassLoader.loadClass(ClassLoader.java:425)
at java.lang.ClassLoader.loadClass(ClassLoader.java:358)
... 59 more

我还附加了我的 Scala 程序

最佳答案

您能否尝试使用 SBT 或 Maven 重建您的 Scala 项目,here是一篇有趣的文章。您需要一个 Fat JAR(这样您就不需要在 spark submit 中使用 --jars)。该错误似乎是因为其中一个 JAR 依赖于另一个 JAR。例如,检查 Cobol Parser 是否需要一些编译依赖项才能正常工作。

enter image description here

关于apache-spark - 为什么加载 Cobol Copybook 文件失败并显示 "ClassNotFoundException: java.time.temporal.TemporalAccessor"?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/54006797/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com