gpt4 book ai didi

python - Numpy:具有积分限制的数值积分

转载 作者:行者123 更新时间:2023-12-04 08:36:54 31 4
gpt4 key购买 nike

我测量了我想要在特定范围内积分的峰值。

我要整合的数据是具有波数和强度的 numpy 数组形式:

peakQ1_2500_smoothened =
array([[ 1.95594400e+04, -3.70074342e-17, 3.26000000e+00],
[ 1.95594500e+04, 1.66666667e-03, 4.81500000e+00],
[ 1.95594600e+04, 2.83333333e-02, 4.80833333e+00],
[ 1.95594700e+04, 1.33333333e-02, 4.82166667e+00],
[ 1.95594800e+04, 5.00000000e-03, 4.92416667e+00],
[ 1.95594900e+04, 5.55555556e-04, 4.99305556e+00],
[ 1.95595100e+04, -7.77777778e-03, 5.03972222e+00],
[ 1.95595200e+04, -5.55555556e-03, 4.96888889e+00],
[ 1.95595300e+04, -1.77777778e-02, 4.91333333e+00],
[ 1.95595400e+04, 1.38888889e-02, 4.82500000e+00],
[ 1.95595500e+04, 7.05555556e-02, 4.85722222e+00],
[ 1.95595600e+04, 1.43888889e-01, 4.86638889e+00],
[ 1.95595700e+04, 1.98888889e-01, 4.85138889e+00],
[ 1.95595800e+04, 2.84444444e-01, 4.90694444e+00],
[ 1.95595900e+04, 4.64444444e-01, 4.93611111e+00],
[ 1.95596000e+04, 6.61111111e-01, 4.98166667e+00],
[ 1.95596100e+04, 9.61666667e-01, 4.96722222e+00],
[ 1.95596200e+04, 1.23222222e+00, 4.94388889e+00],
[ 1.95596400e+04, 1.43555556e+00, 5.02166667e+00],
[ 1.95596500e+04, 1.53222222e+00, 5.00500000e+00],
[ 1.95596600e+04, 1.59833333e+00, 5.03666667e+00],
[ 1.95596700e+04, 1.66388889e+00, 4.94555556e+00],
[ 1.95596800e+04, 1.60111111e+00, 4.92777778e+00],
[ 1.95596900e+04, 1.42333333e+00, 4.94666667e+00],
[ 1.95597000e+04, 1.14111111e+00, 5.00777778e+00],
[ 1.95597100e+04, 9.52222222e-01, 5.08555556e+00],
[ 1.95597200e+04, 7.25555556e-01, 5.09222222e+00],
[ 1.95597300e+04, 5.80555556e-01, 5.08055556e+00],
[ 1.95597400e+04, 3.92777778e-01, 5.09611111e+00],
[ 1.95597500e+04, 2.43222222e-01, 5.01655556e+00],
[ 1.95597600e+04, 1.36555556e-01, 4.99822222e+00],
[ 1.95597700e+04, 6.32222222e-02, 4.87044444e+00],
[ 1.95597800e+04, 3.88888889e-02, 4.91944444e+00],
[ 1.95597900e+04, 3.22222222e-02, 4.93611111e+00],
[ 1.95598000e+04, 2.44444444e-02, 5.10277778e+00],
[ 1.95598100e+04, 5.11111111e-02, 5.11277778e+00],
[ 1.95598200e+04, 4.44444444e-02, 5.21944444e+00],
[ 1.95598300e+04, 4.33333333e-02, 5.05333333e+00],
[ 1.95598400e+04, 3.58333333e-02, 5.08750000e+00],
[ 1.95598500e+04, 7.50000000e-03, 5.12750000e+00],
[ 1.95598600e+04, 4.16666667e-03, 5.22916667e+00],
[ 1.95598800e+04, -1.33333333e-02, 3.51000000e+00]])

我发现我可以对整个阵列进行整合:

def integratePeak(yvals, xvals):
I = np.trapz(yvals, x = xvals)
return I

但是我如何与 x-limits 集成,例如从 19559.52 到 19559.78?

def integratePeak(yvals, xvals, xlower, xupper):
'''integrate y over x from xlower to xupper'''
return I

我当然可以通过将数组元素显式引用为 peakQ1_2500_smoothened[7:33,0]peakQ1_2500_smoothened[7:33,1]< 来给出 x 和 y 值 但显然我不想引用数组元素,而是将积分限制定义为波数,因为不同的测量峰具有不同的数组长度。


每个波数减少到一个数据点然后取移动平均值的函数:

def averagePerWavenumber(data):
wavenum, intensity, power = data[:,0], data[:,1], data[:,2]
wavenum_unique, intensity_mean = npi.group_by(wavenum).mean(intensity)
wavenum_unique, power_mean = npi.group_by(wavenum).mean(power)
output = np.zeros(shape=(len(wavenum_unique), 3))
output[:,0] = wavenum_unique
output[:,1] = intensity_mean
output[:,2] = power_mean
return output

def smoothening(data, bins):
output = np.zeros(shape=(len(data[:,0]), 3))
output[:,0] = data[:,0]
output[:,1] = np.convolve(data[:,1], np.ones(bins), mode='same') / bins
output[:,2] = np.convolve(data[:,2], np.ones(bins), mode='same') / bins
return output

最佳答案

让我们先看看 np.trapz 是什么确实如此。 i的面积第一个梯形是平均高度乘以宽度:0.5 * (y[i + 1] + y[i]) * (x[i + 1] - x[i]) .如果你有固定的 dx而不是 x数组,最后一项只是一个标量。因此,让我们重写您的第一个函数:

def integrate_peak0(y, x):
""" x can be array of same size as y or a scalar """
dx = x if x.size <= 1 else np.diff(x)
return np.sum(0.5 * (y[1:] + y[:-1]) * dx)

现在最难的部分是插入积分的限制。自 x已排序,您可以使用 np.searchsorted 将限制转换为索引到数据:

limits = np.array([xlower, xupper])
indices = np.searchsorted(x, limits)

如果限制始终落在 x 的精确值上, 你可以使用 indices直接:

def integrate_peak1(y, x, xlower, xupper):
indices = np.searchsorted(x, [xlower, xupper])
s = slice(indices[0], indices[1] + 1)
return np.trapz(y[s], x[s])

由于几乎永远不会出现这种情况,您可以尝试下一个最简单的方法:四舍五入到最接近的值。您可以使用花式索引为您可以应用的每个潜在边界获取二维数组 np.argmin 到:

candidates = x[np.stack((indices - 1, indices), axis=0)]
offset = np.abs(candidates - limits).argmin(axis=0) - 1
indices += offset

candidates是一个 2x2 数组,列代表每个边界的候选者,行代表较小和较大的候选者。 offset将是您需要修改索引以获得最近邻居的数量。下面是根据积分限制选择最近的 bin 的积分器版本:

def integrate_peak2(y, x, xlower, xupper):
limits = np.array([xlower, xupper])
indices = np.searchsorted(x, limits)
candidates = x[np.stack((indices - 1, indices), axis=0)]
indices += np.abs(candidates - limits).argmin(axis=0) - 1

s = slice(indices[0], indices[1] + 1)
return np.trapz(y[s], x[s])

最终版本是对 y 的值进行插值基于 x .该版本可以通过两种方式之一实现。您可以计算目标 y 值并将它们传递给 np.trapz与适当的 x ,或者您可以使用 integrate_peak0 中定义的函数自己做手术。

给定一个元素 x[i] < xn <= x[i + 1] , 你可以估计 yn = y[i] + (y[i + 1] - y[i]) * (x[n] - x[i]) / (x[i + 1] - x[i]) .在这里,x[i]x[i + 1]candidates 的值如上所示。 y[i]y[i + 1]y的对应元素. xnlimits .因此,您可以通过几种不同的方式计算插值。

一种方法是将输入调整为 trapz :

def integrate_peak3a(y, x, xlower, xupper):
limits = np.array([xlower, xupper])
indices = np.searchsorted(x, limits)
indices = np.stack((indices - 1, indices), axis=0)
xi = x[indices]
yi = y[indices]
yn = yi[0] + np.diff(yi, axis=0) * (limits - xi[0]) / np.diff(xi, axis=0)

indices = indices[[1, 0], [0, 1]]
s = slice(indices[0], indices[1] + 1)
return np.trapz(np.r_[yn[0, 0], y[s], yn[0, 1]], np.r_[xlower, x[s], xupper])

另一种方法是手动计算边片段的总和:

def integrate_peak3b(y, x, xlower, xupper):
limits = np.array([xlower, xupper])
indices = np.searchsorted(x, limits)
indices = np.stack((indices - 1, indices), axis=0)
xi = x[indices]
yi = y[indices]
yn = yi[0] + np.diff(yi, axis=0) * (limits - xi[0]) / np.diff(xi, axis=0)

indices = indices[[1, 0], [0, 1]]
s = slice(indices[0], indices[1] + 1)
return np.trapz(y[s], x[s]) - 0.5 * np.diff((yn + y[indices]) * (x[indices] - limits))

当然,您可以将输入运行到 np.trapzintegrate_peak3a通过 integrate_peak0 中的“手动”计算.

在所有这些情况下,检查集成的限制是否在可接受的范围内并且以正确的顺序留给读者作为练习。

关于python - Numpy:具有积分限制的数值积分,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/64760180/

31 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com