- android - RelativeLayout 背景可绘制重叠内容
- android - 如何链接 cpufeatures lib 以获取 native android 库?
- java - OnItemClickListener 不起作用,但 OnLongItemClickListener 在自定义 ListView 中起作用
- java - Android 文件转字符串
我是 nutch 和 solr 集成方面的新手。
我想抓取新的 url,所以我在 ubuntu 中安装了 solr 4.6.0 版和 nutch 1.6 版。首先我从一些配置开始,但我仍然得到这个错误:
org.apache.hadoop.mapred.InvalidInputException: Input path does not exist: File:/home/cloudera/apache-nutch-1.6/bin/20150529030452/crawl_fetch
Input path does not exist: file:/home/cloudera/apache-nutch-1.6/bin /20150529030452/crawl_parse
Input path does not exist: file:/home/cloudera/apache-nutch-1.6/bin/20150529030452/parse_data
Input path does not exist: file:/home/cloudera/apache-nutch-1.6/bin/20150529030452/parse_text
在文件日志中我得到这个错误:
2015-05-29 03:05:41,153 ERROR security.UserGroupInformation -PriviledgedActionException as:cloudera
cause:org.apache.hadoop.mapred.InvalidInputException: Input path does not exist: file:/home/cloudera/apache-nutch-1.6/bin/20150529030452/crawl_fetch
Input path does not exist: file:/home/cloudera/apache-nutch-1.6/bin/20150529030452/crawl_parse
Input path does not exist: file:/home/cloudera/apache-nutch-1.6/bin/20150529030452/parse_data
Input path does not exist: file:/home/cloudera/apache-nutch-1.6/bin/20150529030452/parse_text
2015-05-29 03:05:41,153 ERROR solr.SolrIndexer - org.apache.hadoop.mapred.InvalidInputException: Input path does not exist: file:/home/cloudera/apache-nutch-1.6/bin/20150529030452/crawl_fetch
Input path does not exist: file:/home/cloudera/apache-nutch-1.6/bin/20150529030452/crawl_parse
Input path does not exist: file:/home/cloudera/apache-nutch-1.6/bin/20150529030452/parse_data
Input path does not exist: file:/home/cloudera/apache-nutch-1.6/bin/20150529030452/parse_text
这是什么意思,你能解释一下问题是什么吗,我该如何解决。
非常感谢您的帮助。
最佳答案
如果您在 Mac OS 或任何基于 Unix 的操作系统(如 FreeBSD)中使用 bin/crawl
,请切换到 Ubuntu。我相信这是抓取脚本的错误。我以前遇到过这个问题并改用 Ubuntu。
关于java - 错误: org. apache.hadoop.mapred.InvalidInputException:输入路径不存在,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/30527212/
运行MapReduce作业时出现以下异常: 15/12/25 16:00:07 INFO jvm.JvmMetrics: Initializing JVM Metrics with processNa
我是 Hadoop 和 Map Reduce 的新手。对于起始基地,我执行了字数统计程序。它执行得很好,但是当我尝试将 csv 文件运行到 Htable 时,我遵循了 [Csv 文件][1]它让我陷入
我已经使用Hadoop的单节点设置了Apache Nutch。当我执行爬网命令时,它将开始爬网。但是,几分钟后会抛出异常。 原因:org.apache.hadoop.mapred.InvalidInp
我在centos7中安装了Hadoop 2.6,运行良好。但是当我运行从 Eclipse 导出的 jar 时,出现以下错误: [root@myspark ~]# hadoop jar fengcoun
我是 nutch 和 solr 集成方面的新手。 我想抓取新的 url,所以我在 ubuntu 中安装了 solr 4.6.0 版和 nutch 1.6 版。首先我从一些配置开始,但我仍然得到这个错误
有人可以帮我解决这个一般异常吗?有任何想法吗?到目前为止,AWS 消息非常有帮助,但现在我陷入了困境。 com.amazonaws.services.route53.model.InvalidInpu
当我执行 nutch 命令创建 crawdb 文件夹和内容时: soporte@CNEOSYLAP /usr/local/apache-nutch-2.2.1/runtime/local $ bin/
我正在开发一个Java程序。 Java程序将数据从配置单元导出到mysql。 首先,我写代码 ProcessBuilder pb = new ProcessBuilder("sqoop-export"
我在尝试将文件从 hdfs 读取到 Spark 时遇到错误。文件 README.md 存在于 hdfs 中 spark@osboxes hadoop]$ hdfs dfs -ls README.md
我有一个 cloudformation 堆栈,它导出此角色并附加了一些策略: CodeBuildRole: Type: AWS::IAM::Role Pro
这是我的一个问题already asked在 spark 用户邮件列表上,我希望在这里取得更大的成功。 我不确定它是否与 spark 直接相关,尽管 spark 与我无法轻易解决该问题的事实有关。 我
我已经创建了输入文本文件 test.txt 并将其作为/user/yogesh/Input/test.txt 放入 HDFS 在 HDFS 上创建输出路径为/user/yogesh/Output 在本
我是一名优秀的程序员,十分优秀!