- c - 在位数组中找到第一个零
- linux - Unix 显示有关匹配两种模式之一的文件的信息
- 正则表达式替换多个文件
- linux - 隐藏来自 xtrace 的命令
我正在 Theano 中实现 RNN,但我很难对其进行训练。它甚至无法记住训练语料库。我的错误很可能是由于我不完全理解 Theano 如何处理时间反向传播造成的。现在,我的代码非常简单:
grad_params = theano.tensor.grad(cost, params)
我的问题是:考虑到我的网络是循环的,这是否会自动将架构展开为前馈架构?一方面,this示例完全符合我的要求。另一方面,this线程让我觉得我错了。
如果它确实为我展开,我该如何截断它?我可以看到有一种方法,来自 documentation的 scan
,但我想不出执行此操作的代码。
最佳答案
我不会说它会自动“展开”——相反,Theano 知道哪些变量是相关联的,并且可以沿着该链传递更新。如果这就是您所说的展开的意思,那么也许我们在谈论同一件事。
我也在逐步解决这个问题,但是使用 Rasvan Pascanu's rnn.py代码(来自 this thread )以供引用。对于学习示例来说,这似乎更直接。
您可能会从 tutorial 中可视化/绘制图表中获得一些值(value).还有一组在线幻灯片 simple drawing它显示了 RNN 的 1 层“展开”的图表,您在帖子中对此进行了讨论。
具体看step
函数:
def step(u_t, h_tm1, W, W_in, W_out):
h_t = TT.tanh(TT.dot(u_t, W_in) + TT.dot(h_tm1, W))
y_t = TT.dot(h_t, W_out)
return h_t, y_t
此函数表示 these slides, pg 10 中所示的“简单循环网络” .当你进行更新时,你只需传递 w.r.t. 的梯度。分别为 W、W_in 和 W_out(请记住,y 通过 step
函数连接到这三个!这就是梯度魔术的工作原理)。
如果您有多个 W 层(或索引到一个大 W,我相信 gwtaylor 正在做),那么这将创建多个“展开”层。据我了解,这个网络看起来只在时间上倒退了一步。如果有帮助,theanonets在 Theano 中也有一个 RNN 实现。
另外请注意,使用 BPTT 训练 RNNs 很难。 Ilya Sutskever's dissertation对此进行了详尽的讨论——如果可以的话,请尝试加入 Hessian Free optimizer, there is also a reference RNN implementation here . Theanets 也这样做,可能是一个很好的引用。
关于python - Theano是否为BPTT做自动展开?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/24431621/
如何通过索引向量在 Theano 中索引矩阵? 更准确地说: v 的类型为 theano.tensor.vector(例如 [0,2]) A 具有 theano.tensor.matrix 类型(例如
我是theano的新手。我正在尝试实现简单的线性回归,但我的程序抛出以下错误: TypeError: ('Bad input argument to theano function with name
我有一个被多次调用的 Theano 函数,每次都使用不同的共享变量。按照现在的实现方式,Theano 函数在每次运行时都会重新定义。我假设,这会使整个程序变慢,因为每次定义 Theano 函数时,都会
我正在阅读http://deeplearning.net/tutorial/logreg.html给出的逻辑函数代码。我对函数的inputs和givens变量之间的区别感到困惑。计算微型批次中的模型所
我是 Theano 的新手。 尝试设置配置文件。 首先,我注意到我没有 .theanorc 文件: locate .theanorc - 不返回任何内容 echo $THEANORC - 不返回任何内
我不明白为什么我们在 Theano 中需要 tensor.reshape() 函数。文档中说: Returns a view of this tensor that has been reshaped
给定一个张量 v = t.vector(),我该如何翻转它?例如,[1, 2, 3, 4, 5, 6] 翻转后是 [6, 5, 4, 3, 2, 1]。 最佳答案 您可以简单地执行 v[::-1].e
我是 Theano 的新手,正在尝试一些示例。 import numpy import theano.tensor as T from theano import function import da
出于诊断目的,我定期获取网络的梯度。一种方法是将梯度作为 theano 函数的输出返回。然而,每次都将梯度从 GPU 复制到 CPU 内存可能代价高昂,所以我宁愿只定期进行。目前,我通过创建两个函数对
我阅读了网络上所有关于人们忘记将目标向量更改为矩阵的问题的帖子,由于更改后问题仍然存在,我决定在这里提出我的问题。下面提到了解决方法,但出现了新问题,我感谢您的建议! 使用卷积网络设置和带有 sigm
我需要通过扫描多次执行 theano 函数,以便总结成本函数并将其用于梯度计算。我熟悉执行此操作的深度学习教程,但我的数据切片和其他一些复杂情况意味着我需要做一些不同的事情。 下面是我正在尝试做的一个
我正在尝试学习(和比较)不同的深度学习框架,到时候它们是 Caffe 和 Theano。 http://caffe.berkeleyvision.org/gathered/examples/mnist
下面的代码: import theano import numpy as np from theano import tensor as T h1=T.as_tensor_variable(np.ze
我发现 Theano/Lasagne 的所有示例都处理像 mnist 和 cifar10 这样的小数据集,它们可以完全加载到内存中。 我的问题是如何编写高效的代码来训练大规模数据集?具体来说,为了让
我正在做图像分类,我必须检测图像是否包含飞机。 我完成了以下步骤: 1. 从图像数据集中提取特征作为描述符 2. 用 K 完成 - 表示聚类并生成描述符语料库 3.将语料数据在0-1范围内归一化并保存
一些简单的 theano 代码完美运行,当我导入 pymc3 时停止运行 为了重现错误,这里有一些片段: #Initial Theano Code (this works) import the
我在做this对于 NumPy 。 seq 是一个带有索引的列表。 IE。这实现了 1-of-k 编码(也称为 one-hot)。 def 1_of_k(seq, num_classes): nu
Keras 将数据批量加载到 GPU 上(作者注明here)。 对于小型数据集,这是非常低效的。有没有办法修改 Keras 或直接调用 Theano 函数(在 Keras 中定义模型之后)以允许将所有
Theano导入失败,theano配置cnmem = 1 知道如何确保 GPU 完全分配给 theano python 脚本吗? Note: Display is not used to avoid
例如,我可以定义一个递归 Python lambda 函数来计算斐波那契数列,如下所示: fn = lambda z: fn(z-1)+fn(z-2) if z > 1 else z 但是,如果我尝试
我是一名优秀的程序员,十分优秀!