- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我有一些 keras 代码需要转换为 Pytorch。我是 pytorch 的新手,我很难理解如何像在 keras 中那样接受输入。我在这方面花了很多时间,非常感谢任何提示或帮助。
这是我正在处理的 keras 代码。输入形状为(5000,1)
def build(input_shape, classes):
model = Sequential()
filter_num = ['None',32,64,128,256]
kernel_size = ['None',8,8,8,8]
conv_stride_size = ['None',1,1,1,1]
pool_stride_size = ['None',4,4,4,4]
pool_size = ['None',8,8,8,8]
# Block1
model.add(Conv1D(filters=filter_num[1], kernel_size=kernel_size[1], input_shape=input_shape,
strides=conv_stride_size[1], padding='same',
name='block1_conv1'))
model.add(BatchNormalization(axis=-1))
model.add(ELU(alpha=1.0, name='block1_adv_act1'))
model.add(Conv1D(filters=filter_num[1], kernel_size=kernel_size[1],
strides=conv_stride_size[1], padding='same',
name='block1_conv2'))
model.add(BatchNormalization(axis=-1))
model.add(ELU(alpha=1.0, name='block1_adv_act2'))
model.add(MaxPooling1D(pool_size=pool_size[1], strides=pool_stride_size[1],
padding='same', name='block1_pool'))
model.add(Dropout(0.1, name='block1_dropout'))
# Block 2
model.add(Conv1D(filters=filter_num[2], kernel_size=kernel_size[2],
strides=conv_stride_size[2], padding='same',
name='block2_conv1'))
model.add(BatchNormalization())
model.add(Activation('relu', name='block2_act1'))
model.add(Conv1D(filters=filter_num[2], kernel_size=kernel_size[2],
strides=conv_stride_size[2], padding='same',
name='block2_conv2'))
model.add(BatchNormalization())
model.add(Activation('relu', name='block2_act2'))
model.add(MaxPooling1D(pool_size=pool_size[2], strides=pool_stride_size[3],
padding='same', name='block2_pool'))
model.add(Dropout(0.1, name='block2_dropout'))
# Block 3
model.add(Conv1D(filters=filter_num[3], kernel_size=kernel_size[3],
strides=conv_stride_size[3], padding='same',
name='block3_conv1'))
model.add(BatchNormalization())
model.add(Activation('relu', name='block3_act1'))
model.add(Conv1D(filters=filter_num[3], kernel_size=kernel_size[3],
strides=conv_stride_size[3], padding='same',
name='block3_conv2'))
model.add(BatchNormalization())
model.add(Activation('relu', name='block3_act2'))
model.add(MaxPooling1D(pool_size=pool_size[3], strides=pool_stride_size[3],
padding='same', name='block3_pool'))
model.add(Dropout(0.1, name='block3_dropout'))
# Block 4
model.add(Conv1D(filters=filter_num[4], kernel_size=kernel_size[4],
strides=conv_stride_size[4], padding='same',
name='block4_conv1'))
model.add(BatchNormalization())
model.add(Activation('relu', name='block4_act1'))
model.add(Conv1D(filters=filter_num[4], kernel_size=kernel_size[4],
strides=conv_stride_size[4], padding='same',
name='block4_conv2'))
model.add(BatchNormalization())
model.add(Activation('relu', name='block4_act2'))
model.add(MaxPooling1D(pool_size=pool_size[4], strides=pool_stride_size[4],
padding='same', name='block4_pool'))
model.add(Dropout(0.1, name='block4_dropout'))
# FC #1
model.add(Flatten(name='flatten'))
model.add(Dense(512, kernel_initializer=glorot_uniform(seed=0), name='fc1'))
model.add(BatchNormalization())
model.add(Activation('relu', name='fc1_act'))
model.add(Dropout(0.7, name='fc1_dropout'))
#FC #2
model.add(Dense(512, kernel_initializer=glorot_uniform(seed=0), name='fc2'))
model.add(BatchNormalization())
model.add(Activation('relu', name='fc2_act'))
model.add(Dropout(0.5, name='fc2_dropout'))
# Classification
model.add(Dense(classes, kernel_initializer=glorot_uniform(seed=0), name='fc3'))
model.add(Activation('softmax', name="softmax"))
return model
这是 keras 代码中 model.summary() 的结果
Layer (type) Output Shape Param #
=================================================================
block1_conv1 (Conv1D) (None, 5000, 32) 288
_________________________________________________________________
batch_normalization_1 (Batch (None, 5000, 32) 128
_________________________________________________________________
block1_adv_act1 (ELU) (None, 5000, 32) 0
_________________________________________________________________
block1_conv2 (Conv1D) (None, 5000, 32) 8224
_________________________________________________________________
batch_normalization_2 (Batch (None, 5000, 32) 128
_________________________________________________________________
block1_adv_act2 (ELU) (None, 5000, 32) 0
_________________________________________________________________
block1_pool (MaxPooling1D) (None, 1250, 32) 0
_________________________________________________________________
block1_dropout (Dropout) (None, 1250, 32) 0
_________________________________________________________________
block2_conv1 (Conv1D) (None, 1250, 64) 16448
_________________________________________________________________
batch_normalization_3 (Batch (None, 1250, 64) 256
_________________________________________________________________
block2_act1 (Activation) (None, 1250, 64) 0
_________________________________________________________________
block2_conv2 (Conv1D) (None, 1250, 64) 32832
_________________________________________________________________
batch_normalization_4 (Batch (None, 1250, 64) 256
_________________________________________________________________
block2_act2 (Activation) (None, 1250, 64) 0
_________________________________________________________________
block2_pool (MaxPooling1D) (None, 313, 64) 0
_________________________________________________________________
block2_dropout (Dropout) (None, 313, 64) 0
_________________________________________________________________
block3_conv1 (Conv1D) (None, 313, 128) 65664
_________________________________________________________________
batch_normalization_5 (Batch (None, 313, 128) 512
_________________________________________________________________
block3_act1 (Activation) (None, 313, 128) 0
_________________________________________________________________
block3_conv2 (Conv1D) (None, 313, 128) 131200
_________________________________________________________________
batch_normalization_6 (Batch (None, 313, 128) 512
_________________________________________________________________
block3_act2 (Activation) (None, 313, 128) 0
_________________________________________________________________
block3_pool (MaxPooling1D) (None, 79, 128) 0
_________________________________________________________________
block3_dropout (Dropout) (None, 79, 128) 0
_________________________________________________________________
block4_conv1 (Conv1D) (None, 79, 256) 262400
_________________________________________________________________
batch_normalization_7 (Batch (None, 79, 256) 1024
_________________________________________________________________
block4_act1 (Activation) (None, 79, 256) 0
_________________________________________________________________
block4_conv2 (Conv1D) (None, 79, 256) 524544
_________________________________________________________________
batch_normalization_8 (Batch (None, 79, 256) 1024
_________________________________________________________________
block4_act2 (Activation) (None, 79, 256) 0
_________________________________________________________________
block4_pool (MaxPooling1D) (None, 20, 256) 0
_________________________________________________________________
block4_dropout (Dropout) (None, 20, 256) 0
_________________________________________________________________
flatten (Flatten) (None, 5120) 0
_________________________________________________________________
fc1 (Dense) (None, 512) 2621952
_________________________________________________________________
batch_normalization_9 (Batch (None, 512) 2048
_________________________________________________________________
fc1_act (Activation) (None, 512) 0
_________________________________________________________________
fc1_dropout (Dropout) (None, 512) 0
_________________________________________________________________
fc2 (Dense) (None, 512) 262656
_________________________________________________________________
batch_normalization_10 (Batc (None, 512) 2048
_________________________________________________________________
fc2_act (Activation) (None, 512) 0
_________________________________________________________________
fc2_dropout (Dropout) (None, 512) 0
_________________________________________________________________
fc3 (Dense) (None, 101) 51813
_________________________________________________________________
softmax (Activation) (None, 101) 0
=================================================================
Total params: 3,985,957
Trainable params: 3,981,989
Non-trainable params: 3,968
这是我在 pytorch 中所做的
class model(torch.nn.Module):
def __init__(self, input_channels, kernel_size, stride, pool_kernel, pool_stride, dropout_p, dropout_inplace=False):
super(model, self).__init__()
self.encoder = nn.Sequential(
BasicBlock1(input_channels, kernel_size, stride, pool_kernel, pool_stride, dropout_p),
BasicBlock(input_channels//4, kernel_size, stride, pool_kernel, pool_stride, dropout_p),
BasicBlock(input_channels//16, kernel_size, stride, pool_kernel, pool_stride, dropout_p),
BasicBlock(input_channels//16//4, kernel_size, stride, pool_kernel, pool_stride, dropout_p)
)
self.decoder = nn.Sequential(
nn.Linear(5120, 512),
nn.BatchNorm1d(512),
nn.ReLU(),
nn.Dropout(p=dropout_p, inplace=dropout_inplace),
nn.Linear(512, 512),
nn.BatchNorm1d(512),
nn.ReLU(),
nn.Dropout(p=dropout_p, inplace=dropout_inplace),
nn.Linear(512, 101),
nn.Softmax(dim=101)
)
def forward(self, x):
x = self.encoder(x)
x = x.view(x.size(0), -1) # flatten
x = self.decoder(x)
return x
def BasicBlock(input_channels, kernel_size, stride, pool_kernel, pool_stride, dropout_p, dropout_inplace=False):
return nn.Sequential(
nn.Conv1d(in_channels=input_channels, out_channels=input_channels, kernel_size=kernel_size, stride=stride,
padding=get_pad_size(input_channels, input_channels, kernel_size)),
nn.BatchNorm1d(32),
nn.ReLU(),
nn.Conv1d(in_channels=input_channels, out_channels=input_channels, kernel_size=kernel_size, stride=stride,
padding=get_pad_size(input_channels, input_channels, kernel_size)),
nn.BatchNorm1d(32),
nn.ReLU(),
nn.MaxPool1d(kernel_size=pool_kernel, stride=pool_stride,
padding=get_pad_size(input_channels, input_channels/4, kernel_size)),
nn.Dropout(p=dropout_p, inplace=dropout_inplace)
)
def BasicBlock1(input_channels, kernel_size, stride, pool_kernel, pool_stride, dropout_p, dropout_inplace=False):
return nn.Sequential(
nn.Conv1d(in_channels=1, out_channels=input_channels, kernel_size=kernel_size, stride=stride,
padding=get_pad_size(input_channels, input_channels, kernel_size)),
nn.BatchNorm1d(32),
nn.ReLU(),
nn.Conv1d(in_channels=input_channels, out_channels=input_channels, kernel_size=kernel_size, stride=stride,
padding=get_pad_size(input_channels, input_channels, kernel_size)),
nn.BatchNorm1d(32),
nn.ReLU(),
nn.MaxPool1d(kernel_size=pool_kernel, stride=pool_stride,
padding=get_pad_size(input_channels, input_channels/4, kernel_size)),
nn.Dropout(p=dropout_p, inplace=dropout_inplace)
)
def get_pad_size(input_shape, output_shape, kernel_size, stride=1, dilation=1):
"""
Gets the right padded needed to maintain same shape in the conv layers
BEWARE: works only on odd size kernel size
:param input_shape: the input shape to the conv layer
:param output_shape: the desired output shape of the conv layer
:param kernel_size: the size of the kernel window, has to be odd
:param stride: Stride of the convolution
:param dilation: Spacing between kernel elements
:return: the appropriate pad size for the needed configuration
:Author: Aneesh
"""
if kernel_size % 2 == 0:
raise ValueError(
"Kernel size has to be odd for this function to work properly. Current Value is %d." % kernel_size)
return (int((output_shape * stride - stride + kernel_size - input_shape + (kernel_size - 1) * (dilation - 1)) / 2))
最后这是我的 pytorch 模型创建的模型摘要
model(
(encoder): Sequential(
(0): Sequential(
(0): Conv1d(1, 5000, kernel_size=(7,), stride=(1,), padding=(3,))
(1): BatchNorm1d(32, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True)
(2): ReLU()
(3): Conv1d(5000, 5000, kernel_size=(7,), stride=(1,), padding=(3,))
(4): BatchNorm1d(32, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True)
(5): ReLU()
(6): MaxPool1d(kernel_size=8, stride=4, padding=-1872, dilation=1, ceil_mode=False)
(7): Dropout(p=0.1)
)
(1): Sequential(
(0): Conv1d(1250, 1250, kernel_size=(7,), stride=(1,), padding=(3,))
(1): BatchNorm1d(32, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True)
(2): ReLU()
(3): Conv1d(1250, 1250, kernel_size=(7,), stride=(1,), padding=(3,))
(4): BatchNorm1d(32, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True)
(5): ReLU()
(6): MaxPool1d(kernel_size=8, stride=4, padding=-465, dilation=1, ceil_mode=False)
(7): Dropout(p=0.1)
)
(2): Sequential(
(0): Conv1d(312, 312, kernel_size=(7,), stride=(1,), padding=(3,))
(1): BatchNorm1d(32, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True)
(2): ReLU()
(3): Conv1d(312, 312, kernel_size=(7,), stride=(1,), padding=(3,))
(4): BatchNorm1d(32, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True)
(5): ReLU()
(6): MaxPool1d(kernel_size=8, stride=4, padding=-114, dilation=1, ceil_mode=False)
(7): Dropout(p=0.1)
)
(3): Sequential(
(0): Conv1d(78, 78, kernel_size=(7,), stride=(1,), padding=(3,))
(1): BatchNorm1d(32, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True)
(2): ReLU()
(3): Conv1d(78, 78, kernel_size=(7,), stride=(1,), padding=(3,))
(4): BatchNorm1d(32, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True)
(5): ReLU()
(6): MaxPool1d(kernel_size=8, stride=4, padding=-26, dilation=1, ceil_mode=False)
(7): Dropout(p=0.1)
)
)
(decoder): Sequential(
(0): Linear(in_features=5120, out_features=512, bias=True)
(1): BatchNorm1d(512, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True)
(2): ReLU()
(3): Dropout(p=0.1)
(4): Linear(in_features=512, out_features=512, bias=True)
(5): BatchNorm1d(512, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True)
(6): ReLU()
(7): Dropout(p=0.1)
(8): Linear(in_features=512, out_features=101, bias=True)
(9): Softmax()
)
)
最佳答案
我认为您的根本问题是您将 in_channels
和 out_channels
与 Keras 形状混淆了。我们以第一个卷积层为例。在 Keras 中你有:
Conv1D(filters=32, kernel_size=8, input_shape=(5000,1), strides=1, padding='same')
PyTorch 的等效项应该是(像您一样将内核大小更改为 7,我们稍后会再讨论):
nn.Conv1d(in_channels=1, out_channels=32, kernel_size=7, stride=1, padding=3) # different kernel size
请注意,您不需要为 pytorch 提供输入序列的形状。现在让我们看看它与您所做的相比如何:
nn.Conv1d(in_channels=1, out_channels=5000, kernel_size=7, stride=1, padding=0) # note padding
您刚刚创建了一个巨大的网络。虽然正确的实现会产生 [b, 32, 5000]
的输出,其中 b 是批量大小,但您的输出是 [b, 5000, 5000]
。
希望这个示例可以帮助您纠正其余的实现。
最后,关于在 pytorch 中复制相同
填充的一些说明。对于均匀的内核大小,为了保留输入的大小,您需要不对称填充。我认为当您创建图层时这可能不可用。我看到您将内核大小更改为 7,但实际上可以使用原始内核大小 8 来完成。您可以在 forward()
函数中使用填充来创建所需的非对称填充。
layer = nn.Conv1d(in_channels=1, out_channels=32, kernel_size=8, stride=1, padding=0) # layer without padding
x = torch.empty(1, 1, 5000).normal_() # random input
# forward run
x_padded = torch.nn.functional.pad(x, (3,4))
y = layer(x_padded).shape
print(y.shape) # torch.Size([1, 32, 5000])
关于machine-learning - 将 Keras 代码转换为 PyTorch 代码(整形)时出现问题,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/55636138/
关闭。这个问题是off-topic .它目前不接受答案。 想要改进这个问题? Update the question所以它是on-topic用于堆栈溢出。 关闭 12 年前。 Improve thi
我有一个动态网格,其中的数据功能需要正常工作,这样我才能逐步复制网格中的数据。假设在第 5 行中,我输入 10,则从第 6 行开始的后续行应从 11 开始读取,依此类推。 如果我转到空白的第一行并输入
我有一个关于我的按钮消失的问题 我已经把一个图像作为我的按钮 用这个函数动画 function example_animate(px) { $('#cont
我有一个具有 Facebook 连接和经典用户名/密码登录的网站。目前,如果用户单击 facebook_connect 按钮,系统即可运行。但是,我想将现有帐户链接到 facebook,因为用户可以选
我有一个正在为 iOS 开发的应用程序,该应用程序执行以下操作 加载和设置注释并启动核心定位和缩放到位置。 map 上有很多注释,从数据加载不会花很长时间,但将它们实际渲染到 map 上需要一段时间。
我被推荐使用 Heroku for Ruby on Rails 托管,到目前为止,我认为我真的会喜欢它。只是想知道是否有人可以帮助我找出问题所在。 我按照那里的说明在该网站上创建应用程序,创建并提交
我看过很多关于 SSL 错误的帖子和信息,我自己也偶然发现了一个。 我正在尝试使用 GlobalSign CA BE 证书通过 Android WebView 访问网页,但出现了不可信错误。 对于大多
我想开始使用 OpenGL 3+ 和 4,但我在使用 Glew 时遇到了问题。我试图将 glew32.lib 包含在附加依赖项中,并且我已将库和 .dll 移动到主文件夹中,因此不应该有任何路径问题。
我已经盯着这两个下载页面的源代码看了一段时间,但我似乎找不到问题。 我有两个下载页面,一个 javascript 可以工作,一个没有。 工作:http://justupload.it/v/lfd7不是
我一直在使用 jQuery,只是尝试在单击链接时替换文本字段以及隐藏/显示内容项。它似乎在 IE 中工作得很好,但我似乎无法让它在 FF 中工作。 我的 jQuery: $(function() {
我正在尝试为 NDK 编译套接字库,但出现以下两个错误: error: 'close' was not declared in this scope 和 error: 'min' is not a m
我正在使用 Selenium 浏览器自动化框架测试网站。在测试过程中,我切换到特定的框架,我们将其称为“frame_1”。后来,我在 Select 类中使用了 deselectAll() 方法。不久之
我正在尝试通过 Python 创建到 Heroku PostgreSQL 数据库的连接。我将 Windows10 与 Python 3.6.8 和 PostgreSQL 9.6 一起使用。 我从“ht
我有一个包含 2 列的数据框,我想根据两列之间的比较创建第三列。 所以逻辑是:第 1 列 val = 3,第 2 列 val = 4,因此新列值什么都没有 第 1 列 val = 3,第 2 列 va
我想知道如何调试 iphone 5 中的 css 问题。 我尝试使用 firelite 插件。但是从纵向旋转到横向时,火石占据了整个屏幕。 有没有其他方法可以调试 iphone 5 中的 css 问题
所以我有点难以理解为什么这不起作用。我正在尝试替换我正在处理的示例站点上的类别复选框。我试图让它做以下事情:未选中时以一种方式出现,悬停时以另一种方式出现(选中或未选中)选中时以第三种方式出现(而不是
Javascript CSS 问题: 我正在使用一个文本框来写入一个 div。我使用以下 javascript 获取文本框来执行此操作: function process_input(){
你好,我很难理解 P、NP 和多项式时间缩减的主题。我试过在网上搜索它并问过我的一些 friend ,但我没有得到任何好的答案。 我想问一个关于这个话题的一般性问题: 设 A,B 为 P 中的语言(或
你好,我一直在研究 https://leetcode.com/problems/2-keys-keyboard/并想到了这个动态规划问题。 您从空白页上的“A”开始,完成后得到一个数字 n,页面上应该
我正在使用 Cocoapods 和 KIF 在 Xcode 服务器上运行持续集成。我已经成功地为一个项目设置了它来报告每次提交。我现在正在使用第二个项目并收到错误: Bot Issue: warnin
我是一名优秀的程序员,十分优秀!