- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
注意:
我是 MXNet 的新手。
似乎 Gluon
模块旨在替换(?)Symbol
模块作为高级神经网络 (nn
) 接口(interface)。所以这个问题专门寻求使用 Gluon
的答案。模块。
语境
Residual neural networks (res-NNs)是相当流行的架构(链接提供了对 res-NNs 的评论)。简而言之,res-NNs 是一种架构,其中输入经过(一系列)转换(例如,通过标准 nn 层),最后在激活函数之前与其纯粹的自身相结合:
所以主要 这里的问题是“如何使用自定义 gluon.Block
实现 res-NN 结构?”接下来是:
gluon.Block
实现 res-NN 结构?”
import mxnet as mx
import numpy as np
import math
import random
gpu_device=mx.gpu()
ctx = gpu_device
class CNN1D(mx.gluon.Block):
def __init__(self, channels, kernel, stride=1, padding=0, **kwargs):
super(CNN1D, self).__init__(**kwargs)
with self.name_scope():
self.conv = mx.gluon.nn.Conv1D(channels=channels, kernel_size=kernel, strides=1, padding=padding)
self.bn = mx.gluon.nn.BatchNorm()
self.ramp = mx.gluon.nn.Activation(activation='relu')
def forward(self, x):
x = self.conv(x)
x = self.bn(x)
x = self.ramp(x)
return x
Subquestion: mx.gluon.nn.Activation vs
NDArray
module's nd.relu? When to use which and why. In all MXNet tutorials / demos I saw in their documentation, customgluon.Block
s usend.relu(x)
in theforward
function.Subquestion:
self.ramp(self.conv(x))
vsmx.gluon.nn.Conv1D(activation='relu')(x)
? i.e. what is the consequence of adding the activation argument to a layer? Does that mean the activation is automatically applied in theforward
function when that layer is called?
chain_length
cnn 卡盘数量 class RES_CNN1D(mx.gluon.Block):
def __init__(self, channels, kernel, initial_stride, chain_length=1, stride=1, padding=0, **kwargs):
super(RES_CNN1D, self).__init__(**kwargs)
with self.name_scope():
num_rest = chain_length - 1
self.ramp = mx.gluon.nn.Activation(activation='relu')
self.init_cnn = CNN1D(channels, kernel, initial_stride, padding)
# I am guessing this is how to correctly add an arbitrary number of chucks
self.rest_cnn = mx.gluon.nn.Sequential()
for i in range(num_rest):
self.rest_cnn.add(CNN1D(channels, kernel, stride, padding))
def forward(self, x):
# make a copy of untouched input to send through chuncks
y = x.copy()
y = self.init_cnn(y)
# I am guess that if I call a mx.gluon.nn.Sequential object that all nets inside are called / the input gets passed along all of them?
y = self.rest_cnn(y)
y += x
y = self.ramp(y)
return y
Subquestion: adding a variable number of layers, should one use the hacky
eval("self.layer" + str(i) + " = mx.gluon.nn.Conv1D()")
or is this whatmx.gluon.nn.Sequential
is meant for?Subquestion: when defining the
forward
function in a customgluon.Block
which has an instance ofmx.gluon.nn.Sequential
(let us refer to it asself.seq
), doesself.seq(x)
just pass the argumentx
down the line? e.g. if this isself.seq
self.seq = mx.gluon.nn.Sequential()
self.conv1 = mx.gluon.nn.Conv1D()
self.conv2 = mx.gluon.nn.Conv1D()
self.seq.add(self.conv1)
self.seq.add(self.conv2)
is
self.seq(x)
equivalent toself.conv2(self.conv1(x))
?
RES_CNN1D(10, 3, 2, chain_length=3)
Conv1D(10, 3, stride=2) -----
BatchNorm |
Ramp |
Conv1D(10, 3) |
BatchNorm |
Ramp |
Conv1D(10, 3) |
BatchNorm |
Ramp |
| |
(+)<-------------------------
v
Ramp
最佳答案
关于python-3.x - MXNet (python3) 将残差卷积结构定义为来自 Gluon 模块的 Block,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/46306782/
我正在尝试构建不同(但每个同质)类型的可遍历项的多个交叉产品。所需的返回类型是元组的可遍历对象,其类型与输入可遍历对象中的类型相匹配。例如: List(1, 2, 3) cross Seq("a",
import java.util.Scanner; public class BooleanProduct { public static void main(String[] args) {
任务 - 数字的最大 K 积 时间限制:1 内存限制:64 M 给定一个整数序列 N(1 ≤ N ≤ 10 月,| A i | ≤ 2.10 9)和数量 K(1 ≤ K ≤ N)。找出乘积最大的 K
考虑一个大小为 48x16 的 float 矩阵 A 和一个大小为 1x48 的 float vector b。 请建议一种在常见桌面处理器 (i5/i7) 上尽可能快地计算 b×A 的方法。 背景。
假设我有一个 class Rectangle(object): def __init__(self, len
设 A 为 3x3 阶矩阵。判断矩阵A的 boolean 积可以组成多少个不同的矩阵。 这是我想出的: #include int main() { int matri
背景 生成随机权重列表后: sizes = [784,30,10] weights = [np.random.randn(y, x) for x, y in zip(sizes[:-1],sizes[
我正在开发一个 python 项目并使用 numpy。我经常需要通过单位矩阵计算矩阵的克罗内克积。这些是我代码中的一个相当大的瓶颈,所以我想优化它们。我必须服用两种产品。第一个是: np.kron(n
有人可以提供一个例子说明如何使用 uBLAS 产品来乘法吗?或者,如果有更好的 C++ 矩阵库,您可以推荐我也欢迎。这正在变成一个令人头疼的问题。 这是我的代码: vector myVec(scala
我正在尝试开发一个Javascript程序,它会提示用户输入两个整数,然后显示这两个整数的和、乘积、差和商。现在它只显示总和。我实际上不知道乘法、减法和除法命令是否正在执行。这是 jsfiddle 的
如何使用 la4j 计算 vector (叉)积? vector 乘积为 接受两个 vector 并返回 vector 。 但是他们有scalar product , product of all e
在 C++ 中使用 Lapack 让我有点头疼。我发现为 fortran 定义的函数有点古怪,所以我尝试在 C++ 上创建一些函数,以便我更容易阅读正在发生的事情。 无论如何,我没有让矩阵 vecto
是否可以使用 Apple 的 Metal Performance Shaders 执行 Hadamard 产品?我看到可以使用 this 执行普通矩阵乘法,但我特别在寻找逐元素乘法,或者一种构造乘法的
我正在尝试使用 open mp 加速稀疏矩阵 vector 乘积,代码如下: void zAx(double * z, double * data, long * colind, long * row
有没有一种方法可以使用 cv::Mat OpenCV 中的数据结构? 我检查过 the documentation并且没有内置功能。但是我在尝试将标准矩阵乘法表达式 (*) 与 cv::Mat 类型的
我是一名优秀的程序员,十分优秀!