gpt4 book ai didi

machine-learning - 使用机器学习来预测复杂系统的崩溃和稳定?

转载 作者:行者123 更新时间:2023-11-30 08:29:19 25 4
gpt4 key购买 nike

在过去的 3 个月里,我一直在研究模糊逻辑 SDK,现在我需要开始大量优化引擎。

与大多数基于“实用程序”或“需求”的 AI 系统一样,我的代码通过在世界各地转换各种广告,将所述广告与各种代理的属性进行比较,并相应地 [基于每个代理] 对广告进行“评分”。

反过来,这会为大多数单一代理模拟生成高度重复的图形。
但是,如果考虑到各种代理,系统会变得非常复杂,而且我的计算机很难模拟(因为代理可以在彼此之间广播广告,从而创建 NP 算法)。

底部:针对单个代理的 3 个属性计算的系统重复性示例:

顶部:针对 3 个属性和 8 个代理计算的系统示例:

exp-system

(一开始折叠,之后很快恢复。这是我可以制作的适合图像的最佳示例,因为恢复通常非常慢)

从这两个示例中可以看出,即使代理数量增加,系统仍然高度重复,因此浪费了宝贵的计算时间。

我一直在尝试重新构建程序,以便在高重复性期间,更新功能只会不断重复折线图。

虽然我的模糊逻辑代码肯定有可能提前预测以计算系统的崩溃和/或稳定,但它对我的 CPU 来说非常繁重。我正在考虑机器学习将是为此采取的最佳途径,因为似乎一旦系统创建了初始设置,不稳定时期似乎总是大致相同(但是它们发生在“半”随机时间。我说半,因为它通常很容易被图表上显示的不同模式所注意到;但是,就像不稳定的长度一样,这些模式因设置而异)。

显然,如果不稳定时期的时间长度都相同,一旦我知道系统何时崩溃,就很容易弄清楚它何时会达到平衡。

关于该系统的一个旁注是,并非所有配置在重复期间都是 100% 稳定的。

图中非常清楚地显示:

exception

因此,机器学习解决方案需要一种方法来区分“伪”崩溃和完全崩溃。

使用 ML 解决方案的可行性如何?任何人都可以推荐任何最有效的算法或实现方法吗?

至于可用资源,评分代码根本不能很好地映射到并行体系结构(由于代理之间的纯粹互连),所以如果我需要专用于一两个 CPU 线程来进行这些计算,就这样吧。 (我不想为此使用 GPU,因为 GPU 被我的程序中不相关的非 AI 部分征税)。

虽然这很可能不会有什么不同,但运行代码的系统在执行过程中还剩下 18GB 的​​ RAM。因此,使用潜在的高度依赖数据的解决方案肯定是可行的。 (虽然我宁愿避免它,除非有必要)

最佳答案

是的,我也不确定 StackExchange 上是否有关于这个主题的更好的地方,但我会试一试,因为我在这方面有一些经验。

这是控制系统工程中经常遇到的问题。它通常被称为黑盒时间序列建模问题。从某种意义上说,这是一个“黑匣子”,您不知道里面到底是什么。你给它一些输入,你可以测量一些输出。给定足够数量的数据、足够简单的系统和适当的建模技术,通常可以近似系统的行为。

为此,许多建模技术都围绕着采用特定离散数量的过去输入和/或测量值,并试图及时预测下一次测量值。这通常被称为 autoregressive model .

根据您尝试建模的系统的复杂性,nonlinear autoregressive exogenous model可能是更好的选择。这可以采用神经网络或 radial basis function 的形式它再次将过去的 n 次测量作为输入,并给出对下一次测量的预测作为输出。

查看您的数据,应用类似的技术,可以轻松构建简单的振荡行为模型。关于您的折叠或伪折叠建模,我认为这可能可以通过使用足够复杂的模型来捕获,但可能会更加困难。

因此,让我们举一个简单的例子来尝试说明如何构建某种振荡行为的自回归模型。

对于一个系统,我们将采用一个简单的正弦波,它具有一个频率,并添加了一些高斯噪声。这可以用测量值 x 表示如下。 ,某频率\omega和高斯噪声 \phi在某个离散的时间点 k。

x_k = sin(\omega t_k) + \phi_k

使用它,我们可以为几秒钟的数据生成测量值。有了这个,我们然后构建了一个由 2 个数组组成的数据集。第一个包含历史测量集 G任何时间步长和第二个包含任何给定时间步长的测量值 H .

如果我们使用来自 wikipedia article 的线性模型,参数b然后可以使用 linear least squares method 通过线性回归找到自回归模型。 .

H = Gb

b = (G^T G)^{-1} G^T H

将这个模型的结果直接与数据集进行比较,很容易获得这个玩具问题的准确结果。如果只需要预测 future 的一步,并且在进行下一次预测之前再次收集实际测量值,则预测中的误差不会累积。这有时被称为进行开环预测。

open loop predictions from AR model

闭环预测是您只给模型一个初始测量值的地方。之后,您将自己的预测用作后续预测的输入。预测中的噪声可能会累积,使长期预测不准确。虽然这些长期预测可能不准确,但这并不意味着结果不会相似或不够好。我在上面的玩具系统上玩了一会儿,我的闭环预测往往低估了振幅,经常导致正确频率的衰减振荡。

closed loop predictions from AR model

如果发生此类问题,您可以添加更多历史样本作为模型的输入,为其提供更多训练数据或使用更非线性的模型。

在上面的玩具问题中,只有一个值被建模。在您的图表中,似乎有多个来自代理的数据“ channel ”,并且它们以某种方式相互交互。要对这种行为进行建模,您可以将每个 channel 的 n 个历史值作为模型的输入,并将输出作为每个 channel 的预测。

如果我能以某种方式澄清这一点以更好地解决您的问题,请告诉我。如果有兴趣,我也可以分享我在玩具问题上使用的 matlab 代码。

关于machine-learning - 使用机器学习来预测复杂系统的崩溃和稳定?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/26149416/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com