gpt4 book ai didi

math - 最小化两个数据集之间的插值误差

转载 作者:行者123 更新时间:2023-11-30 23:55:23 25 4
gpt4 key购买 nike

在下图的顶部,我们可以看到一些值(y 轴)随时间(x 轴)而变化。

发生这种情况时,我们在不同且不可预测的时间对值进行采样,我们也在两个数据集之间交替采样,用红色和蓝色表示。

在任何时候计算值时,我们期望红色和蓝色数据集都会返回相似的值。然而,如三个较小的方框所示,情况并非如此。随着时间的推移,每个数据集(红色和蓝色)中的值看起来会发散,然后在原始值附近收敛。

diagrams showing the error in interpolation

最初我使用线性插值来获得一个值,接下来我尝试使用 Catmull-Rom 插值。前者导致一个值靠近在一起,然后在每个数据点之间漂移;后者导致值更接近,但平均误差更大。

任何人都可以提出另一种策略或插值方法来提供更大的平滑度(也许通过使用每个数据集中更多的样本点)?

最佳答案

我相信你问的是一个没有直接答案的问题,如果没有对基础采样过程的进一步了解。就其性质而言,样本之间的函数值可以仅为 任何事情 ,所以我认为没有办法保证两个样本数组的插值收敛。

也就是说,如果您对底层过程有先验知识,那么您可以在多种插值方法中进行选择以最大程度地减少错误。例如,如果您测量阻力与机翼速度的函数关系,您就会知道该关系是平方关系 (a*V^2)。然后你可以选择二阶多项式拟合,并且在两个系列的插值之间有很好的匹配。

关于math - 最小化两个数据集之间的插值误差,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/4307051/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com