- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我正在尝试进行非常简单的学习,以便更好地理解 PyTorch 和 LSTM 的工作原理。为此,我试图学习从输入张量到两倍值的输出张量(相同形状)的映射。所以[1 2 3]
作为输入应该学习[2 4 6]
作为输出。为此,我有一个 dataloader
:
class AudioDataset(Dataset):
def __init__(self, corrupted_path, train_set=False, test_set=False):
torch.manual_seed(0)
numpy.random.seed(0)
def __len__(self):
return len(self.file_paths)
def __getitem__(self, index):
random_tensor = torch.rand(1, 5) * 2
random_tensor = random_tensor - 1
return random_tensor, random_tensor * 2
我的 LSTM 本身非常简单:
class MyLSTM(nn.Module):
def __init__(self, input_size=4000):
super(MyLSTM, self).__init__()
self.lstm = nn.LSTM(input_size=input_size, hidden_size=input_size,
num_layers=2)
def forward(self, x):
y = self.lstm(x)
return y
我的训练如下:
train_loader = torch.utils.data.DataLoader(
train_set, batch_size=1, shuffle=True, **kwargs)
model = MyLSTM(input_size=5)
optimizer = optim.Adam(model.parameters(), lr=0.01, weight_decay=0.0001)
loss_fn = torch.nn.MSELoss(reduction='sum')
for epoch in range(300):
for i, data in enumerate(train_loader):
inputs = data[0]
outputs = data[1]
print('inputs', inputs, inputs.size())
print('outputs', outputs, outputs.size())
optimizer.zero_grad()
pred = model(inputs)
print('pred', pred[0], pred[0].size())
loss = loss_fn(pred[0], outputs)
model.zero_grad()
loss.backward()
optimizer.step()
300 个纪元后,我的 loss
看起来像 tensor(1.4892, grad_fn=<MseLossBackward>)
。这看起来不太好。
随机查看一些输入/输出和预测:
inputs tensor([[[0.5050, 0.4669, 0.8310, ..., 0.0659, 0.5043, 0.8885]]]) torch.Size([1, 1, 4000])
outputs tensor([[[1.0100, 0.9338, 1.6620, ..., 0.1319, 1.0085, 1.7770]]]) torch.Size([1, 1, 4000])
pred tensor([[[ 0.6930, 0.0231, -0.6874, ..., -0.5225, 0.1096, 0.5796]]],
grad_fn=<StackBackward>) torch.Size([1, 1, 4000])
我们发现它根本没有学到太多东西。我不明白我做错了什么;如果有人可以指导我,我将不胜感激。
最佳答案
LSTM 由神经元组成,这些神经元根据先前训练数据的反馈循环生成内部状态。每个神经元都有四个内门,它们接受多个输入并生成多个输出。它是更复杂的神经元之一,需要使用和理解,但我的技术还不够熟练,无法给出深入的答案。
我在您的示例代码中看到的是缺乏对它们如何工作的理解,而且您似乎假设它们像线性层一样工作。我这么说是因为您的前向方法不处理内部状态,并且您没有 reshape 输出。
您可以这样定义 LSTM:
self.lstm = nn.LSTM(input_size=input_size, hidden_size=input_size, num_layers=2)
hidden_size
与内存和功能如何与门配合使用有关。
PyTorch 文档说明如下:
hidden_size – The number of features in the hidden state h
它指的是用于训练长期和短期内存内门的隐藏状态的大小。门是一个跨隐藏特征的函数,存储先前的门输出。每次训练神经元时,隐藏状态都会更新,并再次用于下一个训练数据。
那么为什么这如此重要?
您在训练期间丢弃了隐藏状态数据,并且我不知道如果您不定义隐藏状态会发生什么。我认为 LSTM 的工作方式就好像从来没有任何历史一样。
转发函数应如下所示:
def forward(self, x, hidden):
lstm_output, hidden = self.lstm(x, hidden)
return lstm_output, hidden
在训练期间,您必须自己跟踪隐藏状态。
for i in range(epochs):
hidden = (torch.zeros(num_layers, batch_size, num_hidden),
torch.zeros(num_layers, batch_size, num_hidden))
for x, y in generate_batches(...):
# missing code....
lstm_output, hidden = model.forward(x, hidden)
记下隐藏状态的形状。它与您通常使用线性图层所做的不同。
上面缺少一些与重置隐藏状态相关的步骤,但我不记得该部分是如何工作的。
LSTM 本身仅描述特征,就像卷积层一样。 LSTM 的输出不太可能是您感兴趣的。
大多数使用 LSTM 或卷积的模型都具有完全连接层的底部部分(例如:nn.Linear()
)。这些层将根据特征进行训练,以预测您感兴趣的输出。
这里的问题是 LSTM 的输出形状错误,您必须重新调整张量的形状,以便线性层可以使用它们。
这是我使用过的 LSTM 前向函数示例:
def forward(self, x, hidden):
lstm_output, hidden = self.lstm(x, hidden)
drop_output = self.dropout(lstm_output)
drop_output = drop_output.contiguous().view(-1, self.num_hidden)
final_out = self.fc_linear(drop_output)
return final_out, hidden
LSTM 绝对是机器学习中的一个高级主题,而 PyTorch 并不是一个容易学习的库。我建议使用 TensorFlow 文档和在线博客阅读 LSTM,以更好地掌握它们的工作原理。
关于python - 为什么非常简单的 PyTorch LSTM 模型无法学习?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/60196755/
关闭。这个问题是opinion-based .它目前不接受答案。 想要改进这个问题? 更新问题,以便 editing this post 可以用事实和引用来回答它. 关闭 9 年前。 Improve
介绍篇 什么是MiniApis? MiniApis的特点和优势 MiniApis的应用场景 环境搭建 系统要求 安装MiniApis 配置开发环境 基础概念 MiniApis架构概述
我正在从“JavaScript 圣经”一书中学习 javascript,但我遇到了一些困难。我试图理解这段代码: function checkIt(evt) { evt = (evt) ? e
package com.fastone.www.javademo.stringintern; /** * * String.intern()是一个Native方法, * 它的作用是:如果字
您会推荐哪些资源来学习 AppleScript。我使用具有 Objective-C 背景的传统 C/C++。 我也在寻找有关如何更好地开发和从脚本编辑器获取更快文档的技巧。示例提示是“查找要编写脚本的
关闭。这个问题不满足Stack Overflow guidelines .它目前不接受答案。 想改善这个问题吗?更新问题,使其成为 on-topic对于堆栈溢出。 4年前关闭。 Improve thi
关闭。这个问题不满足Stack Overflow guidelines .它目前不接受答案。 想改善这个问题吗?更新问题,使其成为 on-topic对于堆栈溢出。 7年前关闭。 Improve thi
关闭。这个问题不符合 Stack Overflow guidelines 。它目前不接受答案。 想改善这个问题吗?更新问题,以便堆栈溢出为 on-topic。 6年前关闭。 Improve this
我是塞内加尔的阿里。我今年60岁(也许这是我真正的问题-笑脸!!!)。 我正在学习Flutter和Dart。今天,我想使用给定数据模型的列表(它的名称是Mortalite,请参见下面的代码)。 我尝试
关闭。这个问题是off-topic .它目前不接受答案。 想改进这个问题? Update the question所以它是on-topic对于堆栈溢出。 9年前关闭。 Improve this que
学习 Cappuccino 的最佳来源是什么?我从事“传统”网络开发,但我对这个新框架非常感兴趣。请注意,我对 Objective-C 毫无了解。 最佳答案 如上所述,该网站是一个好地方,但还有一些其
我正在学习如何使用 hashMap,有人可以检查我编写的这段代码并告诉我它是否正确吗?这个想法是有一个在公司工作的员工列表,我想从 hashMap 添加和删除员工。 public class Staf
我正在尝试将 jQuery 与 CoffeScript 一起使用。我按照博客中的说明操作,指示使用 $ -> 或 jQuery -> 而不是 .ready() 。我玩了一下代码,但我似乎无法理解我出错
还在学习,还有很多问题,所以这里有一些。我正在进行 javascript -> PHP 转换,并希望确保这些做法是正确的。是$dailyparams->$calories = $calories;一条
我目前正在学习 SQL,以便从我们的 Magento 数据库制作一个简单的 RFM 报告,我目前可以通过导出两个查询并将它们粘贴到 Excel 模板中来完成此操作,我想摆脱 Excel 模板。 我认为
我知道我很可能会因为这个问题而受到抨击,但没有人问,我求助于你。这是否是一个正确的 javascript > php 转换 - 在我开始不良做法之前,我想知道这是否是解决此问题的正确方法。 JavaS
除了 Ruby-Doc 之外,哪些来源最适合获取一些示例和教程,尤其是关于 Ruby 中的 Tk/Tile?我发现自己更正常了 http://www.tutorialspoint.com/ruby/r
我只在第一次收到警告。这正常吗? >>> cv=LassoCV(cv=10).fit(x,y) C:\Python27\lib\site-packages\scikit_learn-0.14.1-py
按照目前的情况,这个问题不适合我们的问答形式。我们希望答案得到事实、引用或专业知识的支持,但这个问题可能会引发辩论、争论、投票或扩展讨论。如果您觉得这个问题可以改进并可能重新打开,visit the
As it currently stands, this question is not a good fit for our Q&A format. We expect answers to be
我是一名优秀的程序员,十分优秀!