- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我用 JavaScript 实现了一个非常简单的带有梯度下降算法的线性回归,但是在咨询了多个来源并尝试了一些方法之后,我无法让它收敛。
数据绝对是线性的,只是将数字 0 到 30 作为输入,以 x*3 作为要学习的正确输出。
这是梯度下降背后的逻辑:
train(input, output) {
const predictedOutput = this.predict(input);
const delta = output - predictedOutput;
this.m += this.learningRate * delta * input;
this.b += this.learningRate * delta;
}
predict(x) {
return x * this.m + this.b;
}
我从不同的地方获取了公式,包括:
我已经尝试过:
y = x * 3
)y = x * 3 + 2
)尽管如此,权重(this.b
和 this.m
)并未接近任何数据值,并且它们发散至无穷大。
我显然做错了什么,但我不知道它是什么。
<小时/>更新:这里有一些更多的背景信息,可能有助于找出我的问题到底是什么:
我正在尝试通过线性回归伪神经元进行在线学习,对线性函数的简单近似进行建模。这样,我的参数是:
this.m
, this.b
]x
, 1
]z(x) = x
因此,我的网络将由 y = this.m * x + this.b * 1 表示,模拟我想要近似的数据驱动函数 (y = 3 * x
)。
我想要的是我的网络“学习”参数 this.m = 3
和 this.b = 0
,但似乎我陷入了困境局部最小值。
我的误差函数是均方误差:
error(allInputs, allOutputs) {
let error = 0;
for (let i = 0; i < allInputs.length; i++) {
const x = allInputs[i];
const y = allOutputs[i];
const predictedOutput = this.predict(x);
const delta = y - predictedOutput;
error += delta * delta;
}
return error / allInputs.length;
}
我更新权重的逻辑将是(根据我迄今为止检查的来源)wi -= alpha * dError/dwi
为了简单起见,我将我的权重称为 this.m
和 this.b
,这样我们就可以将其与我的 JavaScript 代码关联起来。我还将 y^
称为预测值。
从这里开始:
error = y - y^
= y - this.m * x + this.b
dError/dm = -x
dError/db = 1
因此,将其应用于权重校正逻辑:
this.m += alpha * x
this.b -= alpha * 1
但这似乎根本不正确。
最佳答案
我终于发现了问题所在,我正在回答我自己的问题,希望它也能帮助这方面的初学者。
首先,正如 Sascha 所说,我有一些理论上的误解。您的调整逐字包含输入值可能是正确的,但正如他所说,它应该已经是渐变的一部分。这一切都取决于您对误差函数的选择。
您的误差函数将用于衡量您与真实值的偏差程度,并且该测量需要保持一致。我使用均方误差作为测量工具(正如您在我的error
方法中看到的那样),但我使用的是纯绝对误差(y^ - y
) 在训练方法内部测量误差。 您的梯度将取决于此误差函数的选择。因此,仅选择一个并坚持使用它。
其次,简化您的假设以测试问题所在。在这种情况下,我非常清楚要近似的函数是什么 (y = x * 3
),因此我手动设置权重 (this.b
和 >this.m
) 到正确的值,我仍然看到错误分歧。这意味着权重初始化不是本例中的问题。
经过更多搜索后,我的错误出现在其他地方:将数据输入网络的函数错误地将 3
硬编码值传递到预测输出中(它在数组),所以我看到的振荡是因为网络试图逼近y = 0 * x + 3
(this.b = 3
和this.array)。 m = 0
),但由于学习率较小以及误差函数导数中的误差,this.b
无法接近正确的值,使得 this.m
不断跳跃以适应它。
最后,在网络训练时跟踪错误测量,以便您可以深入了解正在发生的情况。这有助于识别简单的过度拟合、大的学习率和简单的错误之间的区别。
关于machine-learning - 线性回归的梯度下降不收敛,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/42869949/
我正在尝试调整 tf DeepDream 教程代码以使用另一个模型。现在当我调用 tf.gradients() 时: t_grad = tf.gradients(t_score, t_input)[0
考虑到 tensorflow 中 mnist 上的一个简单的小批量梯度下降问题(就像在这个 tutorial 中),我如何单独检索批次中每个示例的梯度。 tf.gradients()似乎返回批次中所有
当我在 numpy 中计算屏蔽数组的梯度时 import numpy as np import numpy.ma as ma x = np.array([100, 2, 3, 5, 5, 5, 10,
除了数值计算之外,是否有一种快速方法来获取协方差矩阵(我的网络激活)的导数? 我试图将其用作深度神经网络中成本函数中的惩罚项,但为了通过我的层反向传播误差,我需要获得导数。 在Matlab中,如果“a
我有一个计算 3D 空间标量场值的函数,所以我为它提供 x、y 和 z 坐标(由 numpy.meshgrid 获得)的 3D 张量,并在各处使用元素运算。这按预期工作。 现在我需要计算标量场的梯度。
我正在使用内核密度估计 (KDE) ( http://docs.scipy.org/doc/scipy/reference/generated/scipy.stats.gaussian_kde.htm
我对 tensorflow gradient documentation 中的示例感到困惑用于计算梯度。 a = tf.constant(0.) b = 2 * a g = tf.gradients(
我有一个 softmax 层(只有激活本身,没有将输入乘以权重的线性部分),我想对其进行向后传递。 我找到了很多关于 SO 的教程/答案来处理它,但它们似乎都使用 X 作为 (1, n_inputs)
仅供引用,我正在尝试使用 Tensorflow 实现梯度下降算法。 我有一个矩阵X [ x1 x2 x3 x4 ] [ x5 x6 x7 x8 ] 我乘以一些特征向量 Y 得到 Z [ y
我目前有一个由几百万个不均匀分布的粒子组成的体积,每个粒子都有一个属性(对于那些好奇的人来说是潜在的),我想为其计算局部力(加速度)。 np.gradient 仅适用于均匀间隔的数据,我在这里查看:S
我正在寻找有关如何实现 Gradient (steepest) Descent 的建议在 C 中。我正在寻找 f(x)=||Ax-y||^2 的最小值,其中给出了 A(n,n) 和 y(n)。 这在
我正在查看 SVM 损失和导数的代码,我确实理解了损失,但我无法理解如何以矢量化方式计算梯度 def svm_loss_vectorized(W, X, y, reg): loss = 0.0 dW
我正在寻找一种有效的方法来计算 Julia 中多维数组的导数。准确地说,我想要一个等效的 numpy.gradient在 Julia 。但是,Julia 函数 diff : 仅适用于二维数组 沿微分维
我在cathesian 2D 系统中有两个点,它们都给了我向量的起点和终点。现在我需要新向量和 x 轴之间的角度。 我知道梯度 = (y2-y1)/(x2-x1) 并且我知道角度 = arctan(g
我有一个 2D 数组正弦模式,想要绘制该函数的 x 和 y 梯度。我有一个二维数组 image_data : def get_image(params): # do some maths on
假设我有一个针对 MNIST 数据的简单 TensorFlow 模型,如下所示 import tensorflow as tf from tensorflow.examples.tutorials.m
我想查看我的 Tensorflow LSTM 随时间变化的梯度,例如,绘制从 t=N 到 t=0 的梯度范数。问题是,如何从 Tensorflow 中获取每个时间步长的梯度? 最佳答案 在图中定义:
我有一个简单的神经网络,我试图通过使用如下回调使用张量板绘制梯度: class GradientCallback(tf.keras.callbacks.Callback): console =
在CIFAR-10教程中,我注意到变量被放置在CPU内存中,但它在cifar10-train.py中有说明。它是使用单个 GPU 进行训练的。 我很困惑..图层/激活是否存储在 GPU 中?或者,梯度
我有一个 tensorflow 模型,其中层的输出是二维张量,例如 t = [[1,2], [3,4]] . 下一层需要一个由该张量的每一行组合组成的输入。也就是说,我需要把它变成t_new = [[
我是一名优秀的程序员,十分优秀!