- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
有人在Nvidia Tegra X1上使用了tensorflow吗?
我发现一些资料表明TK1上可能存在这种情况,或者TX1上存在严重的黑客入侵/错误,但尚无确定的配方。
最佳答案
TensorFlow R0.9在带有Bazel 0.2.1,CUDA 8.0,CUDNN5.1,L4T24.2和全新JetPack 2.3的TX1上运行。我已经使用BN,Sigmoid,ReLU等使用基本的MLP,Conv和LSTM网络对其进行了测试,并且没有错误。我删除了sparse_matmul_op,但否则认为编译应该可以完全正常运行。其中许多步骤直接来自MaxCuda's excellent blog,非常感谢他们的提供。
计划继续对R0.10/R0.11进行锤击(gRPC二进制文件现在阻止了Bazel 0.3.0),但直到那时我才确定要发布R0.9公式。如下:
先得到java
sudo add-apt-repository ppa:webupd8team/java
sudo apt-get update
sudo apt-get install oracle-java8-installer
sudo apt-get install git zip unzip autoconf automake libtool curl zlib1g-dev maven swig
git clone https://github.com/google/protobuf.git
cd protobuf
# autogen.sh downloads broken gmock.zip in d5fb408d
git checkout master
./autogen.sh
git checkout d5fb408d
./configure --prefix=/usr
make -j 4
sudo make install
cd java
mvn package
git clone https://github.com/bazelbuild/bazel.git
cd bazel
git checkout 0.2.1
cp /usr/bin/protoc third_party/protobuf/protoc-linux-arm32.exe
cp ../protobuf/java/target/protobuf-java-3.0.0-beta-2.jar third_party/protobuf/protobuf-java-3.0.0-beta-1.jar
--- a/src/main/java/com/google/devtools/build/lib/util/CPU.java
+++ b/src/main/java/com/google/devtools/build/lib/util/CPU.java
@@ -25,7 +25,7 @@ import java.util.Set;
public enum CPU {
X86_32("x86_32", ImmutableSet.of("i386", "i486", "i586", "i686", "i786", "x86")),
X86_64("x86_64", ImmutableSet.of("amd64", "x86_64", "x64")),
- ARM("arm", ImmutableSet.of("arm", "armv7l")),
+ ARM("arm", ImmutableSet.of("arm", "armv7l", "aarch64")),
UNKNOWN("unknown", ImmutableSet.<String>of());
./compile.sh
sudo cp output/bazel /usr/local/bin
git clone -b r0.9 https://github.com/tensorflow/tensorflow.git
./configure
bazel build -c opt --config=cuda //tensorflow/tools/pip_package:build_pip_package
cd ~
wget -O config.guess 'http://git.savannah.gnu.org/gitweb/?p=config.git;a=blob_plain;f=config.guess;hb=HEAD'
wget -O config.sub 'http://git.savannah.gnu.org/gitweb/?p=config.git;a=blob_plain;f=config.sub;hb=HEAD'
# below are commands I ran, yours will vary depending on .cache details. `find` is your friend
cp config.guess ./.cache/bazel/_bazel_socialh/742c01ff0765b098544431b60b1eed9f/external/farmhash_archive/farmhash-34c13ddfab0e35422f4c3979f360635a8c050260/config.guess
cp config.sub ./.cache/bazel/_bazel_socialh/742c01ff0765b098544431b60b1eed9f/external/farmhash_archive/farmhash-34c13ddfab0e35422f4c3979f360635a8c050260/config.sub
--- a/tensorflow/core/kernels/BUILD
+++ b/tensorflow/core/kernels/BUILD
@@ -985,7 +985,7 @@ tf_kernel_libraries(
"reduction_ops",
"segment_reduction_ops",
"sequence_ops",
- "sparse_matmul_op",
+ #DC "sparse_matmul_op",
],
deps = [
":bounds_check",
--- a/tensorflow/python/BUILD
+++ b/tensorflow/python/BUILD
@@ -1110,7 +1110,7 @@ medium_kernel_test_list = glob([
"kernel_tests/seq2seq_test.py",
"kernel_tests/slice_op_test.py",
"kernel_tests/sparse_ops_test.py",
- "kernel_tests/sparse_matmul_op_test.py",
+ #DC "kernel_tests/sparse_matmul_op_test.py",
"kernel_tests/sparse_tensor_dense_matmul_op_test.py",
])
--- a/tensorflow/core/kernels/cwise_op_gpu_select.cu.cc
+++ b/tensorflow/core/kernels/cwise_op_gpu_select.cu.cc
@@ -43,8 +43,14 @@ struct BatchSelectFunctor<GPUDevice, T> {
const int all_but_batch = then_flat_outer_dims.dimension(1);
#if !defined(EIGEN_HAS_INDEX_LIST)
- Eigen::array<int, 2> broadcast_dims{{ 1, all_but_batch }};
- Eigen::Tensor<int, 2>::Dimensions reshape_dims{{ batch, 1 }};
+ //DC Eigen::array<int, 2> broadcast_dims{{ 1, all_but_batch }};
+ Eigen::array<int, 2> broadcast_dims;
+ broadcast_dims[0] = 1;
+ broadcast_dims[1] = all_but_batch;
+ //DC Eigen::Tensor<int, 2>::Dimensions reshape_dims{{ batch, 1 }};
+ Eigen::Tensor<int, 2>::Dimensions reshape_dims;
+ reshape_dims[0] = batch;
+ reshape_dims[1] = 1;
#else
Eigen::IndexList<Eigen::type2index<1>, int> broadcast_dims;
broadcast_dims.set(1, all_but_batch);
--- a/tensorflow/core/kernels/sparse_tensor_dense_matmul_op_gpu.cu.cc
+++ b/tensorflow/core/kernels/sparse_tensor_dense_matmul_op_gpu.cu.cc
@@ -104,9 +104,17 @@ struct SparseTensorDenseMatMulFunctor<GPUDevice, T, ADJ_A, ADJ_B> {
int n = (ADJ_B) ? b.dimension(0) : b.dimension(1);
#if !defined(EIGEN_HAS_INDEX_LIST)
- Eigen::Tensor<int, 2>::Dimensions matrix_1_by_nnz{{ 1, nnz }};
- Eigen::array<int, 2> n_by_1{{ n, 1 }};
- Eigen::array<int, 1> reduce_on_rows{{ 0 }};
+ //DC Eigen::Tensor<int, 2>::Dimensions matrix_1_by_nnz{{ 1, nnz }};
+ Eigen::Tensor<int, 2>::Dimensions matrix_1_by_nnz;
+ matrix_1_by_nnz[0] = 1;
+ matrix_1_by_nnz[1] = nnz;
+ //DC Eigen::array<int, 2> n_by_1{{ n, 1 }};
+ Eigen::array<int, 2> n_by_1;
+ n_by_1[0] = n;
+ n_by_1[1] = 1;
+ //DC Eigen::array<int, 1> reduce_on_rows{{ 0 }};
+ Eigen::array<int, 1> reduce_on_rows;
+ reduce_on_rows[0] = 0;
#else
Eigen::IndexList<Eigen::type2index<1>, int> matrix_1_by_nnz;
matrix_1_by_nnz.set(1, nnz);
--- a/tensorflow/stream_executor/cuda/cuda_blas.cc
+++ b/tensorflow/stream_executor/cuda/cuda_blas.cc
@@ -25,6 +25,12 @@ limitations under the License.
#define EIGEN_HAS_CUDA_FP16
#endif
+#if CUDA_VERSION >= 8000
+#define SE_CUDA_DATA_HALF CUDA_R_16F
+#else
+#define SE_CUDA_DATA_HALF CUBLAS_DATA_HALF
+#endif
+
#include "tensorflow/stream_executor/cuda/cuda_blas.h"
#include <dlfcn.h>
@@ -1680,10 +1686,10 @@ bool CUDABlas::DoBlasGemm(
return DoBlasInternal(
dynload::cublasSgemmEx, stream, true /* = pointer_mode_host */,
CUDABlasTranspose(transa), CUDABlasTranspose(transb), m, n, k, &alpha,
- CUDAMemory(a), CUBLAS_DATA_HALF, lda,
- CUDAMemory(b), CUBLAS_DATA_HALF, ldb,
+ CUDAMemory(a), SE_CUDA_DATA_HALF, lda,
+ CUDAMemory(b), SE_CUDA_DATA_HALF, ldb,
&beta,
- CUDAMemoryMutable(c), CUBLAS_DATA_HALF, ldc);
+ CUDAMemoryMutable(c), SE_CUDA_DATA_HALF, ldc);
#else
LOG(ERROR) << "fp16 sgemm is not implemented in this cuBLAS version "
<< "(need at least CUDA 7.5)";
--- a/tensorflow/stream_executor/cuda/cuda_gpu_executor.cc
+++ b/tensorflow/stream_executor/cuda/cuda_gpu_executor.cc
@@ -888,6 +888,9 @@ CudaContext* CUDAExecutor::cuda_context() { return context_; }
// For anything more complicated/prod-focused than this, you'll likely want to
// turn to gsys' topology modeling.
static int TryToReadNumaNode(const string &pci_bus_id, int device_ordinal) {
+ // DC - make this clever later. ARM has no NUMA node, just return 0
+ LOG(INFO) << "ARM has no NUMA node, hardcoding to return zero";
+ return 0;
#if defined(__APPLE__)
LOG(INFO) << "OS X does not support NUMA - returning NUMA node zero";
return 0;
关于tensorflow - Nvidia TX1上的TensorFlow,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/39783919/
我遇到了这个 Solidity 代码: tx.destination.call.value(tx.value)(tx.data) 但不明白它是如何工作的...尤其是最后的 tx.data。 最佳答案
我在“tx:annotation-driven”行中收到上述错误,但我已在 beans 文件的顶部声明了命名空间,为什么以下 XML 会导致此错误?
当应用程序处于后台且用户尚未登录商店时,用户在应用程序购买(沙盒环境)中取消时我有一些奇怪的行为: 过程如下: 用户未登录/App Id 未在“设置”>“商店”中设置 用户点击购买按钮。这会调用 [[
为什么我仍然收到此消息? Exception in thread "main" org.springframework.beans.factory.parsing.BeanDefinitionPars
使用直接从github下载的浏览器版本是否需要安装npm ethereumjs-tx。如果是,那么我们如何在脚本文件中导入ethereumjs-tx模块。因为据我所知,两者是不同的东西。 最佳答案 e
我希望对两个 tx 进行双重哈希处理,以便构建 merkle tree 这个 const bsv = require("bsv"); var tx1 = '3a459eab5f0cf8394a21e0
我知道Spring必须实现一个专门用于事务的“建议”,那么实现tx:advice的代码在哪里?标签? 我也会感谢 标签的实现,如果你能指出在 spring jar 中的位置。 最佳答案 Spring
我想要设备传输功率的值。有什么方法可以得到吗? 最佳答案 对于任何给定的现有蓝牙 ACL 连接,都有一个 HCI 命令来读取传输功率级别。 蓝牙核心规范,4.0,[第 2 卷],E 部分,7.3.35
我试图在同一个全局数组上发送 2 个不同的字符串,并通过 UART 传输 DMA,作为我的终端日志。然而,发生的情况是它发送了第一个字符串,无论我尝试什么(重新初始化整个 DMA 和 UART),它都
我有这个演示代码,我想对其进行分类: var Tx = require('ethereumjs-tx') var privateKey = new Buffer('e331b6d69882b4cb4e
我正在尝试从扭曲的应用程序中从 Internet 下载文件。由于它直接提供的其他功能或具有维护良好的库来提供(重试、代理、缓存控制等),我想使用请求来执行此操作。我对没有这些功能的扭曲的唯一解决方案持
java.lang.IllegalStateException: Existing transaction detected in JobRepository. Please fix this and
我是这个领域的新手 我正在使用 Arduino Mega2560 并将其与自动售货机的投币机连接。投币机运行在称为 MDB(多点总线)的协议(protocol)上,该协议(protocol)是 9 位
我已经在 Ubuntu 12.04 中下载并构建了 Teigha SDK。当我构建 Teigha SDK 时,会生成很多 .tx 文件。我不确定它们到底是什么。从命令提示符的消息来看,它似乎是共享库的
我知道每个 NIC 在 RAM 中都有其 RX/TX 环,用于操作系统接收/传输数据包。环中的一项(数据包描述符)包括数据包的物理地址,数据包的长度等。我想知道这个描述符是否指向一个sk_buff?如
据我所知,在信标发送的包中,它包含有关校准 Tx 功率(或测量功率 - 1 米处的功率值)的信息。我只是想知道为什么信标发送校准的 Tx 功率,而不是广播功率(信标从源发送的信号功率)。因为计算逻辑可
我想用 ethtool 禁用 tx-checksum-ipv4 这是输出 ethtool -k eth0 Features for eth0: rx-checksumming: off [fixed]
我正在尝试使用RegEx验证通配符,并且在\ somefile.tx之间进行区分时遇到麻烦了?和\ somefile.txt。 我已经走了这么远 \\[^\\]*\.[a-zA-Z0-9 ?]{3}$
使用 Asterisk 我可以设置 TX 和 RX 的音量。但这些选择是什么?我已经用谷歌搜索过这个但找不到任何东西。 TX和RX有什么区别? 最佳答案 RX 正在接收、传入。TX 正在发送,正在传出
我正在使用 petermetz/cordova-plugin-ibeacon 检测我的移动设备周围的信标。我可以看到插件提供了有关信标的以下信息,例如 uuid, major, minor, rssi
我是一名优秀的程序员,十分优秀!