- android - RelativeLayout 背景可绘制重叠内容
- android - 如何链接 cpufeatures lib 以获取 native android 库?
- java - OnItemClickListener 不起作用,但 OnLongItemClickListener 在自定义 ListView 中起作用
- java - Android 文件转字符串
我正在尝试在装有 Windows 10 家庭版的开发计算机上构建以下 hadoop 版本
hadoop-2.7.3-src
以下是我本地开发环境的详细信息:
-Windows 10 家庭版
-英特尔酷睿 i5-6200U CPU @2.30GHz
-RAM 16 GB
-64 位操作系统,基于 x64 的处理器
-Microsoft Visual Studio Community 2015 版本 14.0.25431.01 更新 3
-.NET Framework 4.6.01586
-cmake 版本 3.7.2
-CYGWIN_NT-10.0 LTPBCV82DUG 2.7.0(0.306/5/3) 2017-02-12 13:18 x86_64 Cygwin
-java 版本“1.8.0_121”
-Java(TM) SE 运行时环境(build 1.8.0_121-b13)
-Java HotSpot(TM) 64 位服务器 VM(构建 25.121-b13,混合模式)
-Apache Maven 3.3.9 (bb52d8502b132ec0a5a3f4c09453c07478323dc5; 2015-11-10T11:41:47-05:00)
-Google Protocol Buffers protoc --version libprotoc 2.5.0
我打开了 Visual Studio 2015 (VS2015) 的开发者命令提示符
c:\hadoop\hadoop-2.7.3-src> mvn package -Pdist,native-win -DskipTests -Dtar -X
不幸的是,我收到以下错误:
[INFO] ------------------------------------------------------------------------
[INFO] BUILD FAILURE
[INFO] ------------------------------------------------------------------------
[INFO] Total time: 06:27 min
[INFO] Finished at: 2017-03-15T19:26:50-04:00
[INFO] Final Memory: 102M/1591M
[INFO] ------------------------------------------------------------------------
[ERROR] Failed to execute goal org.apache.maven.plugins:maven-antrun-plugin:1.7:run (make) on project hadoop-hdfs: An Ant BuildException has occured: exec returned: 1
[ERROR] around Ant part ...<exec failonerror="true" dir="C:\hadoop\hadoop-2.7.3-src\hadoop-hdfs-project\hadoop-hdfs\target/native" executable="cmake">... @ 8:126 in C:\hadoop\hadoop-2.7.3-src\hadoop-hdfs-project\hadoop-hdfs\target\antrun\build-main.xml
[ERROR] -> [Help 1]
org.apache.maven.lifecycle.LifecycleExecutionException: Failed to execute goal org.apache.maven.plugins:maven-antrun-plugin:1.7:run (make) on project hadoop-hdfs: An Ant BuildException has occured: exec returned: 1
around Ant part ...<exec failonerror="true" dir="C:\hadoop\hadoop-2.7.3-src\hadoop-hdfs-project\hadoop-hdfs\target/native" executable="cmake">... @ 8:126 in C:\hadoop\hadoop-2.7.3-src\hadoop-hdfs-project\hadoop-hdfs\target\antrun\build-main.xml
at org.apache.maven.lifecycle.internal.MojoExecutor.execute(MojoExecutor.java:212)
at org.apache.maven.lifecycle.internal.MojoExecutor.execute(MojoExecutor.java:153)
at org.apache.maven.lifecycle.internal.MojoExecutor.execute(MojoExecutor.java:145)
at org.apache.maven.lifecycle.internal.LifecycleModuleBuilder.buildProject(LifecycleModuleBuilder.java:116)
at org.apache.maven.lifecycle.internal.LifecycleModuleBuilder.buildProject(LifecycleModuleBuilder.java:80)
at org.apache.maven.lifecycle.internal.builder.singlethreaded.SingleThreadedBuilder.build(SingleThreadedBuilder.java:51)
at org.apache.maven.lifecycle.internal.LifecycleStarter.execute(LifecycleStarter.java:128)
at org.apache.maven.DefaultMaven.doExecute(DefaultMaven.java:307)
at org.apache.maven.DefaultMaven.doExecute(DefaultMaven.java:193)
at org.apache.maven.DefaultMaven.execute(DefaultMaven.java:106)
at org.apache.maven.cli.MavenCli.execute(MavenCli.java:863)
at org.apache.maven.cli.MavenCli.doMain(MavenCli.java:288)
at org.apache.maven.cli.MavenCli.main(MavenCli.java:199)
at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62)
at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
at java.lang.reflect.Method.invoke(Method.java:498)
at org.codehaus.plexus.classworlds.launcher.Launcher.launchEnhanced(Launcher.java:289)
at org.codehaus.plexus.classworlds.launcher.Launcher.launch(Launcher.java:229)
at org.codehaus.plexus.classworlds.launcher.Launcher.mainWithExitCode(Launcher.java:415)
at org.codehaus.plexus.classworlds.launcher.Launcher.main(Launcher.java:356)
Caused by: org.apache.maven.plugin.MojoExecutionException: An Ant BuildException has occured: exec returned: 1
around Ant part ...<exec failonerror="true" dir="C:\hadoop\hadoop-2.7.3-src\hadoop-hdfs-project\hadoop-hdfs\target/native" executable="cmake">... @ 8:126 in C:\hadoop\hadoop-2.7.3-src\hadoop-hdfs-project\hadoop-hdfs\target\antrun\build-main.xml
at org.apache.maven.plugin.antrun.AntRunMojo.execute(AntRunMojo.java:355)
at org.apache.maven.plugin.DefaultBuildPluginManager.executeMojo(DefaultBuildPluginManager.java:134)
at org.apache.maven.lifecycle.internal.MojoExecutor.execute(MojoExecutor.java:207)
... 20 more
Caused by: C:\hadoop\hadoop-2.7.3-src\hadoop-hdfs-project\hadoop-hdfs\target\antrun\build-main.xml:8: exec returned: 1
at org.apache.tools.ant.taskdefs.ExecTask.runExecute(ExecTask.java:646)
at org.apache.tools.ant.taskdefs.ExecTask.runExec(ExecTask.java:672)
at org.apache.tools.ant.taskdefs.ExecTask.execute(ExecTask.java:498)
at org.apache.tools.ant.UnknownElement.execute(UnknownElement.java:291)
at sun.reflect.GeneratedMethodAccessor21.invoke(Unknown Source)
at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
at java.lang.reflect.Method.invoke(Method.java:498)
at org.apache.tools.ant.dispatch.DispatchUtils.execute(DispatchUtils.java:106)
at org.apache.tools.ant.Task.perform(Task.java:348)
at org.apache.tools.ant.Target.execute(Target.java:390)
at org.apache.tools.ant.Target.performTasks(Target.java:411)
at org.apache.tools.ant.Project.executeSortedTargets(Project.java:1399)
at org.apache.tools.ant.Project.executeTarget(Project.java:1368)
at org.apache.maven.plugin.antrun.AntRunMojo.execute(AntRunMojo.java:327)
... 22 more
[ERROR]
[ERROR]
[ERROR] For more information about the errors and possible solutions, please read the following articles:
[ERROR] [Help 1] http://cwiki.apache.org/confluence/display/MAVEN/MojoExecutionException
[ERROR]
[ERROR] After correcting the problems, you can resume the build with the command
[ERROR] mvn <goals> -rf :hadoop-hdfs
最佳答案
在构建 hadoop-common 时,我在 CentOS 7.2 上遇到了同样的错误在我做完之后就消失了sudo yum -y 安装 zlibsudo yum -y 安装 zlib-devel
在 hadoop-pipes 模块中得到另一个之后,我做了sudo yum -y install -y openssl-devel
并成功完成我的构建。
希望有用。
关于windows - 无法在项目 hadoop-hdfs :1. 上执行目标 maven maven-antrun-plugin : An Ant BuildException around Ant part hadoop-hdfsproject hadoop-hdfs:? 7,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/42823114/
我正在尝试为插件创建一个 fat jar 以便在本地使用它(因为我位于公司网络后面并且并不总是能够访问开放的互联网)。 不幸的是,打包过程失败的原因是: Failed to execute g
我在 Windows 上更新到 Android Studio (AS) 3.0 RC1。当我尝试通过 AS 或终端使用 gradle 构建我们的项目时,它停止了,Stacktrace 在最后。奇怪的是
我正在使用maven-antrun-plugin下载jre。如果我的配置是,我可以下载 org.apache.maven.plugins
我写了一个ant任务(bnd),需要提示失败。我发现指示失败的唯一方法是抛出 BuildException/ExitStatusException。但是,我不想要堆栈跟踪,因为它只会占用不必要的屏幕空
目前,我正在通过 Eclipse Neo 和 STS Gradle Plugin 运行 Gradle 2.x/3.x 构建。 。如果构建时出现问题,例如在compileJava任务中,我得到了错误的详
我试图在 Windows 7 上从源代码安装 Hadoop 2.4.1,在最后阶段出现以下错误。我搜索了解决方案,但无济于事。 操作系统 Windows 7:6.1(32 位) Java:Java 版
我在使用 Maven 3.1.1 构建 Hadoop 2.2.0 时遇到了问题,这是我得到的输出的一部分(完整日志位于 http://pastebin.com/FE6vu46M ): [INFO] -
尝试通过运行 Maven 3.2.2 在 Windows Server 2012 上构建 Hadoop 2.4.1 mvn package -Pdist,native-win -DskipTests
我正在尝试在 Android Studio 上制作 dlib-android。它是从以下位置下载的: https://github.com/tzutalin/dlib-android . 在更改了一些
我试图在Eclipse IDE中创建新的Gradle项目。但是我收到以下异常“org.gradle.tooling.BuildException:无法使用Gradle发行版'https://servi
当我通过终端或使用Grails / Groovy工具套件运行grails run-app时,会出现“编译错误” `Error Fatal error during compilation org.ap
问题出现在 Android Studio 3.0 中。 当我创建一个新项目时,一切正常,但一段时间后,出现错误 Error:org.gradle.tooling.BuildException: Fai
我在 gradle 构建过程中遇到了这个问题: org.gradle.tooling.BuildException: Failed to execute aapt at com.and
我面对WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using built
我正在尝试为我的应用程序生成 apk,并且运行了以下命令: 所有错误: org.gradle.tooling.BuildException: Failed to process resources,
将我的 AS 升级到 3.0 Canary 3 后,我无法编译我的应用程序。以下是堆栈跟踪: * Exception is: org.gradle.api.tasks.TaskExecutionExc
我正在尝试让 Maven 为一些遗留代码调用 ANT 构建。 ant 构建通过 ant 正确构建。但是,当我使用 maven ant 插件调用它时,它失败并出现以下错误: [ERROR] Failed
您好,我正在尝试在 Windows 8.1 上构建 hadoop 2.6.0。不幸的是到目前为止没有运气。 我已经安装了: jdk1.7.0_71(将值为 C:\Program Files\Java\
我有一个 2.2.4 Grails 项目 手数域类(~360),我正在使用 GGTS 3.3.0。 这些 360 个域类是由逆向工程插件生成的。 问题是我无法在GGTS中编译我的项目,接收 Error
我正在尝试在装有 Windows 10 家庭版的开发计算机上构建以下 hadoop 版本 hadoop-2.7.3-src 以下是我本地开发环境的详细信息: -Windows 10 家庭版 -英特尔酷
我是一名优秀的程序员,十分优秀!