gpt4 book ai didi

lua - 使用 torch7 模型测试单个图像

转载 作者:行者123 更新时间:2023-11-30 08:31:06 26 4
gpt4 key购买 nike

我根据链接 here 训练了我的模型。当我训练它时,它的准确率几乎达到了 90%。我正在使用 vgg_bn_drop.lua 模型,您可以在链接上找到它。但问题是,我不知道如何测试单个图像。

我知道如何测试模型。通过网络向前传递图像。

因此,测试模型将需要modelname:forward(image)。其中 modelname 是我训练的模型的名称,forward 用于转发模型,'image' 是我要转发的图像位置。现在,我无法计算出该网络中单个图像的尺寸是多少。

所以,我想做的是拍一张照片。假设图像的尺寸为 [3x32x32]。通过网络传递它并得到结果。这个网络可以吗?

那里没有文档如何测试单个图像。

到目前为止我尝试的是,

1)声明大小为 (3x32x32) 的张量。我们称之为图像。 `图像 = torch.Tensor(3x32x32).向前传递这个。

模型:前向(图像)

它会产生错误...h/install/share/lua/5.1/nn/SpatialBatchNormalization.lua:68:仅支持小批量(4D 张量),而是获取 3D 张量

2)我将图像 reshape 为(1,3,32,32)

图像 = image:reshape(1,3,32,32)向前传递这个

模型:前向(图像)

它会产生错误...ch/torch/install/share/lua/5.1/nn/BatchNormalization.lua:67:仅支持小批量(2D 张量),改为 1D 张量

所以我尝试了一些方法。但无法弄清楚如何将单个图像传递到该网络。你能帮我一下吗?

模型定义为

require 'nn'

local vgg = nn.Sequential()
-- building block
local function ConvBNReLU(nInputPlane, nOutputPlane)
vgg:add(nn.SpatialConvolution(nInputPlane, nOutputPlane, 3,3, 1,1, 1,1))
vgg:add(nn.SpatialBatchNormalization(nOutputPlane,1e-3))
vgg:add(nn.ReLU(true))
return vgg
end
-- Will use "ceil" MaxPooling because we want to save as much feature space as we can
local MaxPooling = nn.SpatialMaxPooling

ConvBNReLU(3,64):add(nn.Dropout(0.3))
ConvBNReLU(64,64)
vgg:add(MaxPooling(2,2,2,2):ceil())
ConvBNReLU(64,128):add(nn.Dropout(0.4))
ConvBNReLU(128,128)
vgg:add(MaxPooling(2,2,2,2):ceil())
ConvBNReLU(128,256):add(nn.Dropout(0.4))
ConvBNReLU(256,256):add(nn.Dropout(0.4))
ConvBNReLU(256,256)
vgg:add(MaxPooling(2,2,2,2):ceil())
ConvBNReLU(256,512):add(nn.Dropout(0.4))
ConvBNReLU(512,512):add(nn.Dropout(0.4))
ConvBNReLU(512,512)
vgg:add(MaxPooling(2,2,2,2):ceil())
ConvBNReLU(512,512):add(nn.Dropout(0.4))
ConvBNReLU(512,512):add(nn.Dropout(0.4))
ConvBNReLU(512,512)
vgg:add(MaxPooling(2,2,2,2):ceil())
vgg:add(nn.View(512))
vgg:add(nn.Dropout(0.5))
vgg:add(nn.Linear(512,512))
vgg:add(nn.BatchNormalization(512))
vgg:add(nn.ReLU(true))
vgg:add(nn.Dropout(0.5))
vgg:add(nn.Linear(512,10))

-- initialization from MSR
local function MSRinit(net)
local function init(name)
for k,v in pairs(net:findModules(name)) do
local n = v.kW*v.kH*v.nOutputPlane
v.weight:normal(0,math.sqrt(2/n))
v.bias:zero()
end
end
init'nn.SpatialConvolution'
end

MSRinit(vgg)
return vgg

最佳答案

嗯,错误很明显:nn.BatchNormalization 期望 2D 张量作为输入(批处理),但收到 1D 张量。您向输入添加了批量尺寸 (image:reshape(1,3,32,32)),但通过网络时,尺寸丢失了。 nn.View模块对此有罪。

假设模块是使用以下参数实例化的:

output_size = channels*height*width    -- (512 in your case)
view = nn.View(output_size)

它被赋予形状为batch_size xchannels x height x width(1x512x1x1)的输入张量。该模块现在必须决定是返回批量输出还是单个非批量输出。

  1. 如果 batch_size > 1,答案很明显:batch_size*channels*height*widthoutput_size => 输入的倍数是一个批处理 => 输出必须是一个批处理。
  2. 如果batch_size == 1,那么怎么办? 1*channels*height*width == output_size,输入是否是批处理? nn.View 假设它不是,并生成单个输出(没有批量维度)。

为了解决这个误解,可以指定非批处理维度的数量 NB(如果输入有 NB+1 维度,则为批处理):

view:setNumInputDims(NB)

根据上述内容,这将解决您的问题:

vgg:add(nn.View(512):setNumInputDims(3))

关于lua - 使用 torch7 模型测试单个图像,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/36315851/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com