- android - RelativeLayout 背景可绘制重叠内容
- android - 如何链接 cpufeatures lib 以获取 native android 库?
- java - OnItemClickListener 不起作用,但 OnLongItemClickListener 在自定义 ListView 中起作用
- java - Android 文件转字符串
我正在尝试在我的本地机器上运行以下 MapReduce 代码: https://github.com/Jeffyrao/warcbase/blob/extract-links/src/main/java/org/warcbase/data/ExtractLinks.java
但是,我遇到了这个异常:
[main] ERROR UserGroupInformation - PriviledgedActionException as:jeffy (auth:SIMPLE) cause:java.io.IOException: java.util.concurrent.ExecutionException: java.io.IOException: Resource file:/Users/jeffy/Documents/Eclipse/warcbase/map_backup.txt is not publicly accessable and as such cannot be part of the public cache.
Exception in thread "main" java.io.IOException: java.util.concurrent.ExecutionException: java.io.IOException: Resource file:/Users/jeffy/Documents/Eclipse/warcbase/map_backup.txt is not publicly accessable and as such cannot be part of the public cache.
at org.apache.hadoop.mapred.LocalDistributedCacheManager.setup(LocalDistributedCacheManager.java:144)
at org.apache.hadoop.mapred.LocalJobRunner$Job.<init>(LocalJobRunner.java:155)
at org.apache.hadoop.mapred.LocalJobRunner.submitJob(LocalJobRunner.java:625)
at org.apache.hadoop.mapreduce.JobSubmitter.submitJobInternal(JobSubmitter.java:391)
at org.apache.hadoop.mapreduce.Job$11.run(Job.java:1269)
at org.apache.hadoop.mapreduce.Job$11.run(Job.java:1266)
at java.security.AccessController.doPrivileged(Native Method)
at javax.security.auth.Subject.doAs(Subject.java:394)
at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1408)
at org.apache.hadoop.mapreduce.Job.submit(Job.java:1266)
at org.apache.hadoop.mapreduce.Job.waitForCompletion(Job.java:1287)
at org.warcbase.data.ExtractLinks.run(ExtractLinks.java:254)
at org.apache.hadoop.util.ToolRunner.run(ToolRunner.java:70)
at org.apache.hadoop.util.ToolRunner.run(ToolRunner.java:84)
at org.warcbase.data.ExtractLinks.main(ExtractLinks.java:270)
Caused by: java.util.concurrent.ExecutionException: java.io.IOException: Resource file:/Users/jeffy/Documents/Eclipse/warcbase/map_backup.txt is not publicly accessable and as such cannot be part of the public cache.
at java.util.concurrent.FutureTask$Sync.innerGet(FutureTask.java:222)
at java.util.concurrent.FutureTask.get(FutureTask.java:83)
at org.apache.hadoop.mapred.LocalDistributedCacheManager.setup(LocalDistributedCacheManager.java:140)
... 14 more
我认为这个问题是因为我试图将文件添加到 DistributedCache(查看我的代码第 81-86 行和第 235 行)。欢迎任何建议。谢谢!
最佳答案
在本地环境中添加 DistributedCache 运行 Hadoop 2 作业时,我遇到了类似的问题。最后,我的问题的原因是 Hadoop 2 不仅验证路径本身具有公共(public)执行和读取访问权限,而且还验证其所有祖先目录都应具有执行权限。在这种情况下,如果 "/"
或 "/Users"
没有 755 权限,文件仍然无法添加到公共(public)缓存。
参见方法 static boolean ancestorsHaveExecutePermissions(FileSystem fs,
在 Hadoop 类 FSDownload.java
Path path, LoadingCache<Path,Future<FileStatus>> statCache)
一种解决方案是授予对所有目录的权限(听起来不安全)。
更好的解决方案是确保所有要缓存的资源文件都在 /tmp
中默认具有 >755 权限的文件夹或任何其他文件夹。
关于hadoop - MapReduce 错误 UserGroupInformation - PriviledgedActionException,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/23903113/
我一步一步地在这里设置hadoop http://hadoop.apache.org/docs/stable/single_node_setup.html 我使用根帐户在redhat中设置hadoop
我有没有 cygwin 的窗口和 mahout 的单元测试,并且这个测试在它期间启动 hadoop 作业我有下一个异常(exception): Jul 9, 2013 5:21:23 AM org.a
我正在尝试在HDInsights上学习Hadoop 1.1.0版。我按照分步说明在Hadoop命令行上运行命令。我首先编译Java代码,然后创建一个jar文件,然后执行map reduce命令。但是当
我正在尝试在我的本地机器上运行以下 MapReduce 代码: https://github.com/Jeffyrao/warcbase/blob/extract-links/src/main/jav
每当我尝试执行 map reduce 作业以写入 Hbase 表时,我都会在控制台中收到以下错误。我正在从用户帐户运行 MR 作业。 错误 security.UserGroupInformation:
我在eclipse中将hadoop的WordCount代码编写为java应用程序来测试hadoop是否运行应用程序,但是当我尝试以hdfs用户身份运行它时,会出现此错误: ./hadoop jar /
Pig/hadoop 新手.. 在本地跑 pig 。 java -Xmx512m -Xmx1024m -cp $PIGDIR/pig.jar org.apache.pig.Main -Dpig.te
我正在使用 Hadoop 2.2.0。 hadoop-mapreduce-examples-2.2.0.jar 在 hdfs 上运行良好。 我在 eclipse 中制作了一个 wordcount 程序
我有一个版本 5 的 Cloudera 集群 启用 Hadoop 安全后我遇到了一个问题 Hadoop 服务没有启动。 我在 YARN 上遇到错误: PriviledgedActionExceptio
我正在运行一个简单的流式 map-reduce 作业,但似乎无法解决此错误。 hadoop jar $HADOOP_HOME/contrib/streaming/hadoop-streaming-1.
我已经安装了 cloudera cdh4 release 我正在尝试在上面运行 mapreduce 作业。我收到以下错误 --> 2012-07-09 15:41:16 ZooKeeperSaslCl
我使用 Hadoop 发行版 1.1.2。当我尝试运行示例 wordcount 例程时,出现以下错误。 输入命令: 'D:/Files/hadoop-1.1.2/hadoop-1.1.2/bin/ha
我是一名优秀的程序员,十分优秀!