- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我一辈子都想不出如何让Spring项目在IDE之外运行。我正在使用Gradle。我上下搜索,包括pply插件:“应用程序”字样,我看到生成了Jars,但是当我通过gradlew run运行时,它死于说找不到文件。
1)我需要一个单独的build.gradle文件来运行它吗?在尝试运行之前,我不得不取出大量其他项目内容(必须使用#删除所有内容)
2)为什么不起作用?我什至需要一个build.gradle文件吗?您如何从Spring IDE转到以最简单的方式在命令行上运行的程序?
apply plugin: 'application'
dependencies {
compile project(':caffeine')#
compile libraries.guava#
testCompile test_libraries.junit#
testCompile test_libraries.truth#
testCompile test_libraries.easymock#
testCompile test_libraries.guava_testlib#
compile group: 'org.apache.activemq', name: 'activemq-kahadb-store', version: '5.13.3'
compile group: 'org.apache.activemq', name: 'activemq-all', version: '5.13.3'
}
jar.manifest {#
name 'com.github.ben-manes.caffeine.guava'#
instruction 'Import-Package',#
'com.google.common.cache',#
'com.github.benmanes.caffeine.cache',#
'com.github.benmanes.caffeine.cache.stats'#
instruction 'Export-Package',#
'com.github.benmanes.caffeine.guava'#
}#
jar {
baseName = 'gs-gradle'
version = '0.1.0'
}
tasks.withType(Javadoc) {
options.addStringOption('Xdoclint:none', '-quiet')
}
repositories {
mavenCentral()
}
test {#
systemProperty 'guava.osgi.version', versions.guava#
systemProperty 'caffeine.osgi.jar',
project(':caffeine').jar.archivePath.path#
systemProperty 'caffeine-guava.osgi.jar',#
project(':guava').jar.archivePath.path#
}#
mainClassName = 'org.apache.activemq.store.kahadb.disk.util.DiskMark'
Total time: 0.579 secs
tareks-MacBook-Pro:distributions tarekzegar$ gradlew run --stacktrace
:compileJava UP-TO-DATE
:processResources UP-TO-DATE
:classes UP-TO-DATE
:run
Error: Could not find or load main class org.apache.activemq.store.kahadb.disk.util.DiskMark
:run FAILED
FAILURE: Build failed with an exception.
* What went wrong:
Execution failed for task ':run'.
> Process 'command '/Library/Java/JavaVirtualMachines/jdk1.8.0_91.jdk/Contents/Home/bin/java'' finished with non-zero exit value
package org.apache.activemq.store.kahadb.disk.util;
import java.io.File;
import java.io.RandomAccessFile;
import java.util.ArrayList;
import java.util.Arrays;
import java.util.concurrent.Callable;
import java.util.concurrent.ExecutionException;
import java.util.Random;
import java.util.Iterator;
import com.github.benmanes.caffeine.cache.Caffeine;
import com.github.benmanes.caffeine.cache.RemovalCause;
import com.github.benmanes.caffeine.cache.RemovalListener;
import com.github.benmanes.caffeine.guava.CaffeinatedGuava;
import com.google.common.cache.Cache;
import org.apache.activemq.util.RecoverableRandomAccessFile;
/**
* This class is used to get a benchmark the raw disk performance.
*/
public class DiskMark {
private static final boolean SKIP_METADATA_UPDATE =
Boolean.getBoolean("org.apache.activemq.file.skipMetadataUpdate");
boolean verbose;
// reads and writes work with 4k of data at a time.
int bs = 1024 * 4;
// Work with 100 meg file.
long size = 1024 * 1024 * 500;
long sampleInterval = 10 * 1000;
static Cache<Long, byte[]> cache;
static Callable<byte[]> loader;
static ArrayList<Long> longIndexList;
boolean enableCache = true;
public static void main(String[] args) {
/**
* Guava compatibility adapter.
*
* The tests are forked from Guava commit e370dde.
*/
apply plugin: 'application'
dependencies {
compile project(':caffeine')
compile libraries.guava
testCompile test_libraries.junit
testCompile test_libraries.truth
testCompile test_libraries.easymock
testCompile test_libraries.guava_testlib
compile group: 'org.apache.activemq', name: 'activemq-kahadb-store', version: '5.13.3'
compile group: 'org.apache.activemq', name: 'activemq-all', version: '5.13.3'
}
jar.manifest {
name 'com.github.ben-manes.caffeine.guava'
instruction 'Import-Package',
'com.google.common.cache',
'com.github.benmanes.caffeine.cache',
'com.github.benmanes.caffeine.cache.stats'
instruction 'Export-Package',
'com.github.benmanes.caffeine.guava'
}
jar {
baseName = 'gs-gradle'
version = '0.1.0'
}
tasks.withType(Javadoc) {
options.addStringOption('Xdoclint:none', '-quiet')
}
repositories {
mavenCentral()
}
test {
systemProperty 'guava.osgi.version', versions.guava
systemProperty 'caffeine.osgi.jar', project(':caffeine').jar.archivePath.path
systemProperty 'caffeine-guava.osgi.jar', project(':guava').jar.archivePath.path
}
mainClassName = 'DiskCharacterize.DiskMark'
/**
* Guava compatibility adapter.
*
* The tests are forked from Guava commit e370dde.
*/
apply plugin: 'application'
/*dependencies {
compile project(':caffeine')
compile libraries.guava
testCompile test_libraries.junit
testCompile test_libraries.truth
testCompile test_libraries.easymock
testCompile test_libraries.guava_testlib
compile group: 'org.apache.activemq', name: 'activemq-kahadb-store', version: '5.13.3'
compile group: 'org.apache.activemq', name: 'activemq-all', version: '5.13.3'
}
jar.manifest {
name 'com.github.ben-manes.caffeine.guava'
instruction 'Import-Package',
'com.google.common.cache',
'com.github.benmanes.caffeine.cache',
'com.github.benmanes.caffeine.cache.stats'
instruction 'Export-Package',
'com.github.benmanes.caffeine.guava'
}*/
jar {
baseName = 'gs-gradle'
version = '0.1.0'
}
tasks.withType(Javadoc) {
options.addStringOption('Xdoclint:none', '-quiet')
}
repositories {
mavenCentral()
}
/*test {
systemProperty 'guava.osgi.version', versions.guava
systemProperty 'caffeine.osgi.jar', project(':caffeine').jar.archivePath.path
systemProperty 'caffeine-guava.osgi.jar', project(':guava').jar.archivePath.path
}*/
mainClassName = 'DiskCharacterize.DiskMark'
xxxxxx$ gradlew run
:compileJava UP-TO-DATE
:processResources UP-TO-DATE
:classes UP-TO-DATE
:run
Error: Could not find or load main class DiskCharacterize.DiskMark
:run FAILED
FAILURE: Build failed with an exception.
* What went wrong:
Execution failed for task ':run'.
> Process 'command '/Library/Java/JavaVirtualMachines/jdk1.8.0_91.jdk/Contents/Home/bin/java'' finished with non-zero exit value 1
最佳答案
根据新信息编辑的答案:
基于Gradle Application Plugin Documentation,运行命令针对“主源集”运行。您尝试运行的类位于src / test下,这不是Gradle默认源位置的一部分(并且基于名称,如果是,则将成为测试源位置的一部分)。请查看Gradle Java Plugin文档(45.2),以获取关于什么是源集以及如何更改它们的更好的描述,这比我在这里可能给出的要好:)
简短的回答/建议:将包和文件从src / test移到名为src / main / java的源文件夹中,以允许Gradle运行找到所需的类(您可以替代地重新配置源集,但这似乎有点过头了对于你的情况)
旧答案(基于对Typo尝试使用库提供的类的错误评估):
I am assuming that you are trying to run the class
org.apache.activemq.store.kahadb.disk.util.DiskMark
as your main class. Based on the name of the class, I am guessing you are trying to use this from the activemq-kahadb dependency in your build.gradle file (as opposed to writing it yourself with a nearly identical package structure to the activemq-kahadb structure)For the version you are dependent on, there does not appear to be a class with that name (based on the package tree). I didn't find any version of ActiveMQ with a class of that name. There is a class called
org.apache.activemq.store.kahadb.disk.util.DiskBenchmark
which contains a main method - was that what you meant to invoke?
关于java - Spring项目不会从命令行运行,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/37735483/
关闭。这个问题是off-topic .它目前不接受答案。 想改进这个问题吗? Update the question所以它是on-topic用于堆栈溢出。 关闭 9 年前。 Improve this
我有一系列 SQL 命令,我想在大约 40 个不同的表上运行。必须有一种方法可以在不编写 40 条不同命令的情况下执行此操作... 我在 SQL Server 中运行它。所有表都有不同的名称,我要操作
我习惯在 PHP 中使用命令“mysql_insert_id()”来返回插入到我的数据库中的最后一行的 id。 在 C# 中的 SQLite 中是否有等效的命令? 谢谢! -阿德娜 最佳答案 选择 l
试图找出一种方法来回填 ds 分区 Hive 表的分区。 我知道如何从 CLI 运行 Hive 命令,例如 $HIVE_HOME/bin/hive -e 'select a.col from tab1
我有 .bat 文件。看起来像下一个 ....many commands1 ftp -i -s:copy.txt ...many commands2 copy.txt 包含下一个命令 open ...
基本上我想输入 show 并检查是否有 show 命令或别名已定义并触发它,如果未定义则触发 git show 。 例如 rm 应该执行 rm 但 checkout 应该执行 git checkout
我公司的主数据库是 iSeries 机器,我已经非常习惯使用 DB2 命令和结构。我现在正在尝试做一个小项目,更新一个包含超过 300 万条记录的表。我想出一种比较和“清理”数据的更快方法是使用 My
我想在带有 Node 的终端中制作一个简单的按钮板,并“blessed”用于连接或运行不同的命令。 ----------------------------------------------- _
我们有一个 selenium IDE 脚本,正在转换为 python webdriver。以下命令未转换: [openWindow | http://mywebsite.com/index.php |
我正在学习这个关于从 GIT HUB 下载和安装 Web 文件的在线教程。我进入主题:启动我们的静态网站,系统提示我输入命令以下载和安装 Web 文件。但是,当我输入命令 yarn install 时
我在 shell 脚本中使用 elif 命令时遇到问题,就像在 fortran 中一样。 我有 100 家公司的员工名单。我想屏蔽那些员工少于 500 人的公司。我的脚本是 rm -f categor
我有一些 Linux 命令可以生成 token 。我在 Linux 机器上使用操作系统库形式的 Python 自动化了这些命令。它工作正常。 但是,当我在 Windows 中尝试相同的代码时,它没有返
本文分享自华为云社区《Git你有可能不知道交互式暂存》,作者:龙哥手记。 本节中的几个交互式 Git 命令可以帮助你将文件的特定部分组合成提交。 当你在修改了大量文件后,希望这些改动能拆分为若干提交而
我想知道如何使用 IN 比较语法来做到这一点。 当前的 SQL 查询是: select * from employee where (employeeName = 'AJAY' and month(e
我在这个位置安装了 Hadoop /usr/local/hadoop$ 现在我想列出 dfs 中的文件。我使用的命令是: hduser@ubuntu:/usr/local/hadoop$ bin/ha
是否有一个单一的 docker 命令可用于清除所有内容?如果正在运行,请停止所有容器、删除所有图像、删除所有卷...等。 最佳答案 我认为没有一个命令可以做到这一点。您首先需要停止所有容器使用 $ d
我基本上是在 clojure/nrepl 模式中寻找与 C-u C-x C-e 或 C-c C-p 等效的 Scheme。 我想要一个 C-x C-e 将输出打印到缓冲区,而不是仅仅在 repl 中。
我可以在 vim 中使用 pudb(一个 ncurses Python 调试器),因为,例如,:!python %在实际的终端窗口中运行。我更喜欢使用 gvim,但 gvim 运行 :!python
我正在尝试编写一个 FFMPEG 命令: 取为 输入 一个视频 input.mp4 和一个图像 pic.jpg 作为 输出 将 input.mp4 拆分为 20 秒的视频,按顺序重命名;对于每个分割视
我想转储视频每帧的比特率。我正在尝试使用 -vstats 获取此信息命令。当我运行此命令时 - ffmpeg -i input.mp4 -vstats 它显示至少应该定义一个文件。 如果有人能建议我任
我是一名优秀的程序员,十分优秀!