- c - 在位数组中找到第一个零
- linux - Unix 显示有关匹配两种模式之一的文件的信息
- 正则表达式替换多个文件
- linux - 隐藏来自 xtrace 的命令
我有两个相同的神经网络运行在两台独立的计算机上(以减少训练网络所需的时间),每个都有一个完整数据集(mnist)的子集。
我的问题是:我可以把两个网络的两个权重矩阵合并成一个矩阵,同时保持适当的精度吗?我看过几篇关于“批处理”或“随机梯度下降”的文章,但我不认为这适用于我的情况。
如果可能的话,你能给我提供一些伪代码吗?
任何投入都是有价值的!
谢谢您,
最佳答案
一般来说,如果你在训练后把体重/偏倚完全结合起来,这不太可能产生好的效果。不过,有办法让它发挥作用。
关于组合权重的直觉考虑以下简单的例子:有一个带有一个隐藏层的mlp。如果隐藏层中的节点被排列,输入的权重->隐藏的权重以相同的方式排列,并且隐藏的权重->输出使用逆排列,mlp的任何两个实例都可以为相同的输入生成相同的输出。换句话说,即使最终的网络没有随机性,哪个隐藏节点对应一个特定的特征也是随机的(由初始化的噪声决定)。
如果你在不同的数据(或相同数据的随机子集)上训练两个这样的mlp,它们很可能会以隐藏节点的不同排列结束,即使初始化都是相同的,因为在训练期间梯度的噪声。
现在,如果输入的某个属性最强烈地激活网络a的第i个节点和网络b的第j个节点(通常是i!=j),平均a的第i个节点和b的第i个节点(对应于不同的特征)之间的权重可能会降低性能,甚至产生产生产生无意义输出的网络。
这里有两种可能的修复方法-您可以使用其中一种,也可以同时使用这两种方法。其思想是要么找出两个网络之间匹配的节点,要么强制节点匹配。
解决方案A:在不同的数据上对两个网络进行几次迭代训练。平均两个网络的权重,并用平均权重替换这两个网络。重复。这使得每个网络的i-th节点学习到与另一个网络的匹配节点相同的特征,因为它们永远不会偏离太远。它们经常从平均权值重新初始化,因此一旦确定了排列,就很可能保持稳定。
平均频率的合理值介于每个历元一次和每几个小批量一次之间。学习仍然比按顺序在所有数据上训练一个网络快,尽管使用两个网络的速度不是两倍。在每一个小批量之后,通信开销比平均权重(或梯度)要低得多。这可以在集群中的不同机器上运行:传输权重并不禁止,因为它相对较少。而且,任何数量的同时训练的网络(和数据分割)都可以超过两个:实际上,最多10-20个网络可以正常工作。
(提示:为了获得更好的结果,在每个纪元之后,在您正在训练的网络之间对数据进行新的随机分割)
这在效果上类似于这里提到的“梯度聚集”,但聚集的次数要少得多。你可以把它看作是“懒惰的聚合”。
解决方案B:在平均之前,尝试找出哪些隐藏层节点匹配。在权重上计算一些相似度量(可以是l2或任何沿着这些线的度量),并平均两个网络中最相似节点对的权重。您还可以对不止一对节点进行加权平均;例如,您可以对所有节点或k个最相似的节点进行加权平均,其中使用的权重是相似度的函数。
对于深度网络,在计算下一级的相似度之前,必须从输入一直跟踪配对,并根据下一级的最高相似度配对排列权重(或者如果进行加权平均,则传播权重)。
这可能适用于具有几个层的网络,但我认为对于非常深的网络,这不太可能完美地工作。对于前几层,它仍然可以正常工作,但是在到达网络顶部时,跟踪排列可能无法找到好的匹配节点。
另一种处理深层网络(另一种是从底部向上跟踪排列)的方法是在测试数据集上运行两个网络并记录每个输入的所有节点的激活,然后平均具有相似激活模式(即倾向于由相同输入强激活)的节点的权重。同样,这可以基于对a和b中最相似的一对求平均值,或者对两个以上的节点求适当的加权平均值。
您可以将此技术与上面的“解决方案A”一起使用,以减少平均权重的次数。还可以使用按节点相似度加权平均来加快“解决方案A”的收敛速度。在这种情况下,如果“解决方案B”中的方法不能很好地工作是可以的,因为网络偶尔会被组合的网络替换掉——但是如果组合的网络是通过某种匹配方法而不是简单的平均来产生的,那么它可能会更好。额外的计算是否值得与集群中减少的通信开销和更快的收敛速度相比,取决于您的网络架构等。
关于python - 如何将两个训练有素的神经网络权重矩阵合并为一个?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/49988009/
假设我有两个矩阵,每个矩阵有两列和不同的行数。我想检查并查看一个矩阵的哪些对在另一个矩阵中。如果这些是一维的,我通常只会做 a %in% x得到我的结果。 match似乎只适用于向量。 > a
关闭。这个问题是opinion-based .它目前不接受答案。 想要改进这个问题? 更新问题,以便 editing this post 可以用事实和引用来回答它. 关闭 9 个月前。 Improv
我只处理过 DirectX 矩阵 我读过一些文章,说不能将 DirectX 矩阵数学库用于 openGL 矩阵。 但我也读过,如果你的数学是一致的,你可以获得类似的结果。那只会让我更加困惑。 任何人都
我编写了一个C++代码来解决线性系统A.x = b,其中A是一个对称矩阵,方法是首先使用LAPACK(E)对角矩阵A = V.D.V^T(因为以后需要特征值),然后求解x = A^-1.b = V^T
我遇到了问题。我想创建二维数组 rows=3 cols=2我的代码如下 int **ptr; int row=3; int col=2; ptr=new int *[col]; for (int i=
我有一个 3d mxnxt 矩阵,我希望能够提取 t 2d nxm 矩阵。在我的例子中,我有一个 1024x1024x10 矩阵,我想要 10 张图像显示给我。 这不是 reshape ,我每次只需要
我在 MATLAB 中有一个 3d 矩阵 (n-by-m-by-t) 表示一段时间内网格中的 n-by-m 测量值.我想要一个二维矩阵,其中空间信息消失了,只剩下 n*m 随着时间 t 的测量值(即:
作为一个简化的示例,我有一个 3D numpy 矩阵,如下所示: a = np.array([[[1,2], [4,np.nan], [7,
作为一个简化的示例,我有一个 3D numpy 矩阵,如下所示: a = np.array([[[1,2], [4,np.nan], [7,
使用 eigen2 , 并给定一个矩阵 A a_0_0, a_0_1, a_0_2, ... a_1_0, a_1_0, a_1_2, ... ... 和一个矩阵B: b_0_0, b_0_1, b_
我想知道如何获得下面的布局。 在中型和大型设备上,我希望有 2 行和 2 列的布局(2 x 2 矩阵)。 在小型(和超小型)设备上或调整为小型设备时,我想要一个 4 行和 1 列的矩阵。 我将通过 a
有什么方法可以向量化以下内容: for i = 1:6 te = k(:,:,:,i).*(c(i)); end 我正在尝试将 4D 矩阵 k 乘以向量 c,方法是将其
如何从填充有 1 和 0 的矩阵中抽取 n 个随机点的样本? a=rep(0:1,5) b=rep(0,10) c=rep(1,10) dataset=matrix(cbind(a,b,c),nrow
我正在尝试创建一个包含 X 个 X 的矩阵。以下代码生成从左上角到右下角的 X 对 Angular 线,而不是从右上角到左下角的 X 对 Angular 线。我不确定从哪里开始。是否应该使用新变量创建
我想在 python 中创建一个每行三列的矩阵,并能够通过任何一行对它们进行索引。矩阵中的每个值都是唯一的。 据我所知,我可以设置如下矩阵: matrix = [["username", "name"
我有点迷茫 我创建了一个名为 person 的类,它具有 age 和 name 属性(以及 get set 方法)。然后在另一个类中,我想创建一个 persons 数组,其中每个人都有不同的年龄和姓名
我有 n 个类,它们要么堆叠,要么不堆叠。所有这些类都扩展了同一个类 (CellObject)。我知道更多类将添加到此列表中,我想创建一种易于在一个地方操纵“可堆叠性”的方法。 我正在考虑创建一个矩阵
我有一个包含 x 个字符串名称及其关联 ID 的文件。本质上是两列数据。 我想要的是一个格式为 x x x 的相关样式表(将相关数据同时作为 x 轴和 y 轴),但我想要 fuzzywuzzy 库的函
机器学习与传统编程的一个重要区别在于机器学习比传统编程涉及了更多的数学知识。不过,随着机器学习的飞速发展,各种框架应运而生,在数据分析等应用中使用机器学习时,使用现成的库和框架成为常态,似乎越来越不需
当我在 julia 中输入这个错误跳转但我不知道为什么,它应该工作。/ julia> A = [1 2 3 4; 5 6 7 8; 1 2 3 4; 5 6 7 8] 4×4 Array{Int64,
我是一名优秀的程序员,十分优秀!