- c - 在位数组中找到第一个零
- linux - Unix 显示有关匹配两种模式之一的文件的信息
- 正则表达式替换多个文件
- linux - 隐藏来自 xtrace 的命令
我想知道 numpy.gradient
是如何工作的。我使用梯度来尝试计算群速度(波包的群速度是频率相对于波数的导数,而不是一组速度)。我给它提供了一个 3 列数组,前两列是 x 和 y 坐标,第三列是该点 (x,y) 的频率。我需要计算梯度,我确实期望一个 2d 向量,梯度定义
df/dx*i+df/dy*j+df/dz*k
我的函数只是 x 和 y 的函数,我确实期待类似的东西
df/dx*i+df/dy*j
但是我得到了 2 个数组,每个数组有 3 个列,即 2 个 3d 向量;起初我以为两者的总和会给我我正在搜索的向量,但 z 分量不会消失。我希望我的解释已经足够清楚了。我想知道 numpy.gradient
是如何工作的,以及它是否适合我的问题。否则我想知道是否有任何其他 python 函数我可以使用。
我的意思是:我想计算值数组的梯度:
data=[[x1,x2,x3]...[x1,x2,x3]]
其中 x1、x2 是均匀网格上的点坐标(我在布里渊区上的点),x3 是该点的频率值。我还输入了 2 个方向的推导步骤:
stepx=abs(max(unique(data[:,0])-min(unique(data[:,0]))/(len(unique(data[:,0]))-1)
y 方向相同。我没有在网格上构建我的数据,我已经有了一个网格,这就是为什么这里给出的答案示例对我没有帮助。一个更合适的例子应该有一个点和值的网格,就像我有的那样:
data=[]
for i in range(10):
for j in range(10):
data.append([i,j,i**2+j**2])
data=array(data,dtype=float)
gx,gy=gradient(data)
我可以补充的另一件事是,我的网格不是正方形,而是多边形形状,是二维晶体的布里渊区。
我知道 numpy.gradient
只能在值的方形网格上正常工作,而不是我要搜索的内容。即使我将我的数据制作成一个网格,在我的原始数据的多边形之外会有很多零,这也会给我的梯度添加非常高的向量,从而影响(负面)计算的精度。这个模块在我看来更像是玩具而不是工具,恕我直言,它有严重的局限性。
使用字典解决问题。
最佳答案
您需要为 gradient
提供一个矩阵,该矩阵描述您的 (x,y)
点的角频率值。例如
def f(x,y):
return np.sin((x + y))
x = y = np.arange(-5, 5, 0.05)
X, Y = np.meshgrid(x, y)
zs = np.array([f(x,y) for x,y in zip(np.ravel(X), np.ravel(Y))])
Z = zs.reshape(X.shape)
gx,gy = np.gradient(Z,0.05,0.05)
您可以看到将 Z 绘制为曲面会给出:
这里是解释渐变的方法:
gx
是一个矩阵,它给出了所有点的变化 dz/dx
。例如gx[0][0] 是 dz/dx
在 (x0,y0
)。可视化 gx
有助于理解:
因为我的数据是从 f(x,y) = sin(x+y)
生成的,所以 gy 看起来是一样的。
这是一个更明显的例子,使用 f(x,y) = sin(x)
...
f(x,y)
和渐变
更新让我们看一下 xy 对。
这是我使用的代码:
def f(x,y):
return np.sin(x)
x = y = np.arange(-3,3,.05)
X, Y = np.meshgrid(x, y)
zs = np.array([f(x,y) for x,y in zip(np.ravel(X), np.ravel(Y))])
xy_pairs = np.array([str(x)+','+str(y) for x,y in zip(np.ravel(X), np.ravel(Y))])
Z = zs.reshape(X.shape)
xy_pairs = xy_pairs.reshape(X.shape)
gy,gx = np.gradient(Z,.05,.05)
现在我们可以看看到底发生了什么。假设我们想知道什么点与 Z[20][30]
处的值相关联?然后……
>>> Z[20][30]
-0.99749498660405478
重点是
>>> xy_pairs[20][30]
'-1.5,-2.0'
是吗?让我们检查一下。
>>> np.sin(-1.5)
-0.99749498660405445
是的。
那时候我们的梯度分量是什么?
>>> gy[20][30]
0.0
>>> gx[20][30]
0.070707731517679617
那些检查了吗?
dz/dy 始终为 0
检查。dz/dx = cos(x)
和...
>>> np.cos(-1.5)
0.070737201667702906
看起来不错。
你会注意到它们并不完全正确,那是因为我的 Z 数据不是连续的,步长为 0.05
并且 gradient
只能近似变化率。
关于python - 用python计算梯度,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/17901363/
我正在尝试调整 tf DeepDream 教程代码以使用另一个模型。现在当我调用 tf.gradients() 时: t_grad = tf.gradients(t_score, t_input)[0
考虑到 tensorflow 中 mnist 上的一个简单的小批量梯度下降问题(就像在这个 tutorial 中),我如何单独检索批次中每个示例的梯度。 tf.gradients()似乎返回批次中所有
当我在 numpy 中计算屏蔽数组的梯度时 import numpy as np import numpy.ma as ma x = np.array([100, 2, 3, 5, 5, 5, 10,
除了数值计算之外,是否有一种快速方法来获取协方差矩阵(我的网络激活)的导数? 我试图将其用作深度神经网络中成本函数中的惩罚项,但为了通过我的层反向传播误差,我需要获得导数。 在Matlab中,如果“a
我有一个计算 3D 空间标量场值的函数,所以我为它提供 x、y 和 z 坐标(由 numpy.meshgrid 获得)的 3D 张量,并在各处使用元素运算。这按预期工作。 现在我需要计算标量场的梯度。
我正在使用内核密度估计 (KDE) ( http://docs.scipy.org/doc/scipy/reference/generated/scipy.stats.gaussian_kde.htm
我对 tensorflow gradient documentation 中的示例感到困惑用于计算梯度。 a = tf.constant(0.) b = 2 * a g = tf.gradients(
我有一个 softmax 层(只有激活本身,没有将输入乘以权重的线性部分),我想对其进行向后传递。 我找到了很多关于 SO 的教程/答案来处理它,但它们似乎都使用 X 作为 (1, n_inputs)
仅供引用,我正在尝试使用 Tensorflow 实现梯度下降算法。 我有一个矩阵X [ x1 x2 x3 x4 ] [ x5 x6 x7 x8 ] 我乘以一些特征向量 Y 得到 Z [ y
我目前有一个由几百万个不均匀分布的粒子组成的体积,每个粒子都有一个属性(对于那些好奇的人来说是潜在的),我想为其计算局部力(加速度)。 np.gradient 仅适用于均匀间隔的数据,我在这里查看:S
我正在寻找有关如何实现 Gradient (steepest) Descent 的建议在 C 中。我正在寻找 f(x)=||Ax-y||^2 的最小值,其中给出了 A(n,n) 和 y(n)。 这在
我正在查看 SVM 损失和导数的代码,我确实理解了损失,但我无法理解如何以矢量化方式计算梯度 def svm_loss_vectorized(W, X, y, reg): loss = 0.0 dW
我正在寻找一种有效的方法来计算 Julia 中多维数组的导数。准确地说,我想要一个等效的 numpy.gradient在 Julia 。但是,Julia 函数 diff : 仅适用于二维数组 沿微分维
我在cathesian 2D 系统中有两个点,它们都给了我向量的起点和终点。现在我需要新向量和 x 轴之间的角度。 我知道梯度 = (y2-y1)/(x2-x1) 并且我知道角度 = arctan(g
我有一个 2D 数组正弦模式,想要绘制该函数的 x 和 y 梯度。我有一个二维数组 image_data : def get_image(params): # do some maths on
假设我有一个针对 MNIST 数据的简单 TensorFlow 模型,如下所示 import tensorflow as tf from tensorflow.examples.tutorials.m
我想查看我的 Tensorflow LSTM 随时间变化的梯度,例如,绘制从 t=N 到 t=0 的梯度范数。问题是,如何从 Tensorflow 中获取每个时间步长的梯度? 最佳答案 在图中定义:
我有一个简单的神经网络,我试图通过使用如下回调使用张量板绘制梯度: class GradientCallback(tf.keras.callbacks.Callback): console =
在CIFAR-10教程中,我注意到变量被放置在CPU内存中,但它在cifar10-train.py中有说明。它是使用单个 GPU 进行训练的。 我很困惑..图层/激活是否存储在 GPU 中?或者,梯度
我有一个 tensorflow 模型,其中层的输出是二维张量,例如 t = [[1,2], [3,4]] . 下一层需要一个由该张量的每一行组合组成的输入。也就是说,我需要把它变成t_new = [[
我是一名优秀的程序员,十分优秀!