- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
做的时候:
new MiniDFSCluster.Builder(config).build()
我得到这个异常:
java.lang.UnsatisfiedLinkError: org.apache.hadoop.io.nativeio.NativeIO$Windows.access0(Ljava/lang/String;I)Z
at org.apache.hadoop.io.nativeio.NativeIO$Windows.access0(Native Method)
at org.apache.hadoop.io.nativeio.NativeIO$Windows.access(NativeIO.java:557)
at org.apache.hadoop.fs.FileUtil.canWrite(FileUtil.java:996)
at org.apache.hadoop.hdfs.server.common.Storage$StorageDirectory.analyzeStorage(Storage.java:490)
at org.apache.hadoop.hdfs.server.namenode.FSImage.recoverStorageDirs(FSImage.java:308)
at org.apache.hadoop.hdfs.server.namenode.FSImage.recoverTransitionRead(FSImage.java:202)
at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.loadFSImage(FSNamesystem.java:1020)
at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.loadFromDisk(FSNamesystem.java:739)
at org.apache.hadoop.hdfs.server.namenode.NameNode.loadNamesystem(NameNode.java:536)
at org.apache.hadoop.hdfs.server.namenode.NameNode.initialize(NameNode.java:595)
at org.apache.hadoop.hdfs.server.namenode.NameNode.<init>(NameNode.java:762)
at org.apache.hadoop.hdfs.server.namenode.NameNode.<init>(NameNode.java:746)
at org.apache.hadoop.hdfs.server.namenode.NameNode.createNameNode(NameNode.java:1438)
at org.apache.hadoop.hdfs.MiniDFSCluster.createNameNode(MiniDFSCluster.java:1107)
at org.apache.hadoop.hdfs.MiniDFSCluster.createNameNodesAndSetConf(MiniDFSCluster.java:978)
at org.apache.hadoop.hdfs.MiniDFSCluster.initMiniDFSCluster(MiniDFSCluster.java:807)
at org.apache.hadoop.hdfs.MiniDFSCluster.<init>(MiniDFSCluster.java:467)
at org.apache.hadoop.hdfs.MiniDFSCluster$Builder.build(MiniDFSCluster.java:426)
我想使用 Hadoop Minicluster 来测试我的 Hadoop HDFS(它不会抛出此异常,请参阅 java.lang.UnsatisfiedLinkError: org.apache.hadoop.io.nativeio.NativeIO$Windows.createDirectoryWithMode0 )。
在我的 Maven pom.xml 中,我有以下依赖项:
<dependency>
<groupId>org.apache.hadoop</groupId>
<artifactId>hadoop-common</artifactId>
<version>2.6.0</version>
</dependency>
<!-- for unit testing -->
<dependency>
<groupId>org.apache.hadoop</groupId>
<artifactId>hadoop-common</artifactId>
<version>2.6.0</version>
<type>test-jar</type>
</dependency>
<dependency>
<groupId>org.apache.hadoop</groupId>
<artifactId>hadoop-hdfs</artifactId>
<version>2.6.0</version>
</dependency>
<!-- for unit testing -->
<dependency>
<groupId>org.apache.hadoop</groupId>
<artifactId>hadoop-hdfs</artifactId>
<version>2.6.0</version>
<scope>test</scope>
<classifier>tests</classifier>
</dependency>
我明白,我不需要特定的“hadoop-minicluster”依赖项,因为它已经附带了上面包含的 hadoop-hdfs。
我正在尝试在我的 @BeforeAll 中构建 MiniDFSCluster。
我为构建器使用了不同的配置:
config = new HdfsConfiguration(); / config = new Configuration();
以及为 baseDir 创建路径的不同方法:
config.set(miniDfsClusterHD.HDFS_MINIDFS_BASEDIR, baseDir);
此外,我还下载了 v2.6.0 中的 hadoop.dll 和 hdfs.dll 以及 winuntils.exe,并将路径添加到我的环境变量中。
我研究了我在 stackoverflow 中可以找到的所有相关问题(显然没有成功)以及我可以在互联网上找到的所有指南和代码示例(有一些,但它们的做法都不同。)
请以某种方式帮助我,我没有主意。
更新:
我正在使用以下虚拟机选项运行测试(我认为这不是必需的):
-Dhadoop.home.dir=C:/Temp/hadoop
-Djava.library.path=C:/Temp/hadoop/bin
我还尝试直接设置环境变量(使用虚拟机选项时不需要这样做):
System.setProperty("hadoop.home.dir", "C:\\Temp\\hadoop-2.6.0");
System.setProperty("java.library.path", "C:\\Temp\\hadoop-2.6.0\\bin");
最佳答案
我通过下载源文件(org.apache.hadoop.io.nativeio.NativeIO.java)并修改中的行解决了这个问题函数访问(在您的情况下为 557)来自:
return access0(path, desiredAccess.accessRight());
至
return true;
关于java - MiniDFSCluster UnsatisfiedLinkError org.apache.hadoop.io.nativeio.NativeIO$Windows.access0,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/51382722/
做的时候: new MiniDFSCluster.Builder(config).build() 我得到这个异常: java.lang.UnsatisfiedLinkError: org.apache
我已经在 Windows hadoop-2.6.0 上安装/配置了 Hadoop 我无法成功启动“sbin\start-dfs”运行命令。 我遇到了错误 16/12/20 13:03:56 FATAL
我无法解决这个异常,我已经阅读了 hadoop 文档和我能找到的所有相关的 stackoverflow 问题。 我的 fileSystem.mkdirs(***) 抛出: Exception in t
在 Win10 中,在 IntelliJ 中,此路径(“C:/hive/Orders_[0-9]*.csv”)作为独立的 java Spark 作业运行时效果很好。但不作为 Spring Boot S
我使用了以下依赖项: 1.8 1.8 3.2.1 org.apache.avro avro 1.8.2
我在这里尝试使用 Apache Kafka 执行基于结构化的流。但是在这里不工作并执行错误(错误 MicroBatchExecution:查询 [id = daae4c34-9c8a-4c28-9e2
尝试在 eclipse 中的 windows 7 64 位中运行 MR 程序版本(2.7),同时运行上述异常发生。 我验证了使用 64 位 1.8 java 版本并观察到所有 hadoop 守护进程都
我是Hadoop新手,我已经下载了hadoop tar文件,并为Windows个人笔记本电脑进行了设置。我可以使用hdfs dfs -mkdir /testDirHadoop2命令在C驱动器中创建目录
我有一个最近用来工作的 Spark 项目。 该项目获取一个 CSV,并向其添加两个字段,然后它使用 saveasTextfile() 输出 JavaPairRdd 的内容。 我的 Spark 版本是:
While I am running Apache Nutch 1.14 I am getting following exception. Injector: starting at 2018-07
我已经通过引用https://github.com/MuhammadBilalYar/Hadoop-On-Window/wiki/Step-by-step-Hadoop-2.8.0-installat
我发现 mapreduce 作业似乎由于 RawLocalFileSystem 中的某些问题而无法启动。 我该如何调试这个错误?似乎没有与 NativeIO chmod 异常关联的目录或命令的踪迹。
我将 mapreduce 作业从运行在 Windows 上的 java 应用程序提交到运行在 ubuntu 上的 hadoop 2.2 集群。在 hadoop 1.x 中这按预期工作但在 hadoop
我是一名优秀的程序员,十分优秀!