- mongodb - 在 MongoDB mapreduce 中,如何展平值对象?
- javascript - 对象传播与 Object.assign
- html - 输入类型 ="submit"Vs 按钮标签它们可以互换吗?
- sql - 使用 MongoDB 而不是 MS SQL Server 的优缺点
最近我开始玩弄神经网络。我试图用 Tensorflow 实现一个 AND
门。我无法理解何时使用不同的成本和激活函数。这是一个基本的神经网络,只有输入层和输出层,没有隐藏层。
首先我尝试以这种方式实现它。正如你所看到的,这是一个糟糕的实现,但我认为它可以完成工作,至少在某种程度上是这样。所以,我只尝试了真正的输出,没有一个热门的真正输出。对于激活函数,我使用了 sigmoid 函数,而对于成本函数,我使用了平方误差成本函数(我认为它就是这样,如果我错了,请纠正我)。
我尝试使用 ReLU 和 Softmax 作为激活函数(具有相同的成本函数),但它不起作用。我弄清楚了为什么它们不起作用。我还尝试了带有交叉熵成本函数的 sigmoid 函数,它也不起作用。
import tensorflow as tf
import numpy
train_X = numpy.asarray([[0,0],[0,1],[1,0],[1,1]])
train_Y = numpy.asarray([[0],[0],[0],[1]])
x = tf.placeholder("float",[None, 2])
y = tf.placeholder("float",[None, 1])
W = tf.Variable(tf.zeros([2, 1]))
b = tf.Variable(tf.zeros([1, 1]))
activation = tf.nn.sigmoid(tf.matmul(x, W)+b)
cost = tf.reduce_sum(tf.square(activation - y))/4
optimizer = tf.train.GradientDescentOptimizer(.1).minimize(cost)
init = tf.initialize_all_variables()
with tf.Session() as sess:
sess.run(init)
for i in range(5000):
train_data = sess.run(optimizer, feed_dict={x: train_X, y: train_Y})
result = sess.run(activation, feed_dict={x:train_X})
print(result)
5000 次迭代后:
[[ 0.0031316 ]
[ 0.12012422]
[ 0.12012422]
[ 0.85576665]]
问题 1 - 是否有任何其他激活函数和成本函数可以为上述网络工作(学习),而不改变参数(意思是不改变 W、x、b)。
问题 2 - 我从 StackOverflow 的一篇文章中读到 here :
[Activation Function] selection depends on the problem.
所以没有可以在任何地方使用的成本函数?我的意思是没有可用于任何神经网络的标准成本函数。正确的?请纠正我。
我还使用不同的方法实现了 AND
门,输出为 one-hot true。如您所见,train_Y
[1,0]
表示第 0 个索引为 1,因此答案为 0。希望您能明白。
这里我使用了一个 softmax 激活函数,以交叉熵作为代价函数。作为激活函数的 Sigmoid 函数惨遭失败。
import tensorflow as tf
import numpy
train_X = numpy.asarray([[0,0],[0,1],[1,0],[1,1]])
train_Y = numpy.asarray([[1,0],[1,0],[1,0],[0,1]])
x = tf.placeholder("float",[None, 2])
y = tf.placeholder("float",[None, 2])
W = tf.Variable(tf.zeros([2, 2]))
b = tf.Variable(tf.zeros([2]))
activation = tf.nn.softmax(tf.matmul(x, W)+b)
cost = -tf.reduce_sum(y*tf.log(activation))
optimizer = tf.train.GradientDescentOptimizer(0.5).minimize(cost)
init = tf.initialize_all_variables()
with tf.Session() as sess:
sess.run(init)
for i in range(5000):
train_data = sess.run(optimizer, feed_dict={x: train_X, y: train_Y})
result = sess.run(activation, feed_dict={x:train_X})
print(result)
5000 次迭代后
[[ 1.00000000e+00 1.41971401e-09]
[ 9.98996437e-01 1.00352429e-03]
[ 9.98996437e-01 1.00352429e-03]
[ 1.40495342e-03 9.98595059e-01]]
问题 3 那么在这种情况下我可以使用什么代价函数和激活函数呢?我如何理解我应该使用哪种类型的成本和激活函数?有没有标准的方式或规则,或者只是经验?我是否必须以蛮力的方式尝试每个成本和激活功能?我找到了答案here .但我希望得到更详细的解释。
问题 4 我注意到需要多次迭代才能收敛到接近准确的预测。我认为收敛率取决于学习率(使用太大会错过解决方案)和成本函数(如果我错了,请纠正我)。那么,是否有任何最优方式(即最快)或成本函数来收敛到正确的解决方案?
最佳答案
我会稍微乱七八糟地回答你的问题,从更一般的答案开始,最后是针对你的特定实验的答案。
激活函数 不同的激活函数,其实有不同的属性。让我们首先考虑一个神经网络两层之间的激活函数。激活函数的唯一目的是用作非线性。如果你不在两层之间放置一个激活函数,那么两层放在一起不会比一层更好,因为它们的效果仍然只是一个线性变换。很长一段时间以来,人们都在使用 sigmoid 函数和 tanh,几乎可以任意选择,其中 sigmoid 更受欢迎,直到最近,当 ReLU 成为主要的 nonleniarity 时。人们在层之间使用 ReLU 的原因是因为它是非饱和的(并且计算速度也更快)。想想 sigmoid 函数的图形。如果x
的绝对值很大,那么 sigmoid 函数的导数很小,这意味着当我们向后传播误差时,误差的梯度会在我们返回层时很快消失。使用 ReLU 的导数是 1
对于所有正输入,因此激活单元根本不会改变那些激发的神经元的梯度,也不会减慢梯度下降。
对于网络的最后一层,激活单元也取决于任务。对于回归,您将需要使用 sigmoid 或 tanh 激活,因为您希望结果介于 0 和 1 之间。对于分类,您将只希望您的一个输出为 1,所有其他输出为零,但没有可区分的方法来实现正是如此,所以您将需要使用 softmax 来近似它。
你的例子。现在让我们看看你的例子。您的第一个示例尝试计算 AND
的输出采用以下形式:
sigmoid(W1 * x1 + W2 * x2 + B)
请注意 W1
和 W2
将始终收敛到相同的值,因为 ( x1
, x2
) 的输出应该等于 ( x2
, x1
) 的输出。因此,您要拟合的模型是:
sigmoid(W * (x1 + x2) + B)
x1 + x2
只能取三个值之一(0、1 或 2)并且您想返回 0
对于 x1 + x2 < 2
的情况1 表示 x1 + x2 = 2
时的情况.由于 sigmoid 函数相当平滑,它将采用非常大的值 W
和 B
使输出接近期望值,但由于学习率小,它们无法快速达到那些大值。在您的第一个示例中提高学习率将提高收敛速度。
您的第二个示例收敛得更好,因为 softmax
函数擅长使一个输出恰好等于 1
和所有其他人到0
.由于这正是您的情况,因此它确实很快收敛。请注意 sigmoid
最终也会收敛到好的值,但需要更多的迭代(或更高的学习率)。
使用什么。现在到最后一个问题,如何选择要使用的激活函数和成本函数。这些建议适用于大多数情况:
如果你做分类,使用softmax
对于最后一层的非线性和cross entropy
作为成本函数。
如果你做回归,使用 sigmoid
或 tanh
对于最后一层的非线性和squared error
作为成本函数。
使用 ReLU 作为层之间的非线性。
使用更好的优化器(AdamOptimizer
、AdagradOptimizer
)而不是 GradientDescentOptimizer
,或者使用动量来加快收敛速度,
关于python - 从神经网络的不同成本函数和激活函数中进行选择,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/34229140/
关闭。这个问题需要多问focused 。目前不接受答案。 想要改进此问题吗?更新问题,使其仅关注一个问题 editing this post . 已关闭 4 年前。 Improve this ques
声明引用会导致运行时成本吗? Typename a; auto& b=a; func(b); 在循环内声明引用会导致多倍的运行时成本吗? Typename a=Typename();//defa
给定一组代表(成本, yield )的样本数据 items = [ (1000, 300), (500, 150), (400, 120), (300, 100), (200, 50), (55, 2
我从 link 得到这个其中谈到了外部归并排序。 来自幻灯片 6 示例:使用 5 个缓冲页,对 108 页文件进行排序 第 0 次:[108/5] = 22 次排序运行,每次运行 5 页(最后一次运行
使用 Javascript 在 localStorage 中查找值的速度有多快? 有没有人有指向任何性能测试的链接,这些测试表明是否值得在 JavaScript 对象中缓存数据?或者浏览器是否已经缓存
我正在尝试创建一个电子表格,以跟踪具有已知保质期的元素的当前和 future 成本。这包括产品是什么、产品成本、产品生命周期(以月为单位)和最后购买日期。 我已经尝试了几种方法来摆弄 Excel 公式
我正在使用最佳匹配算法在 TraMineR 中进行序列分析。不幸的是,我的 由于右删失数据,序列长度不等 .我的序列的最小长度是 5,最大长度是 11。长度的变化对于我感兴趣的序列之间的差异没有意义。
我读过一些文章说你应该将成本设置为至少 16 (216),但其他人说 8 左右就可以了。 是否有任何官方标准应该将成本设置为多高? 最佳答案 您应该使用的成本取决于您的硬件(和实现)的速度。 一般来说
我记得在我的架构类中假设L1缓存命中为1个周期(即与寄存器访问时间相同),但是在现代x86处理器上实际上是真的吗? L1缓存命中需要几个周期?与注册访问权限相比如何? 最佳答案 这是一篇很棒的文章:
我正在尝试确定来自托管我的 azure 函数的 azure 存储帐户的成本。我主要在本地进行开发,并使用 azure 存储模拟器并运行 func start cmd。我的问题是,此设置是否仍然会增加我
我有一个为工作编写的大型复杂 VBA 脚本。我正在清理它,并注意到我可以用比我所做的更动态的方式定义我的数组。 最初我将数组定义为字符串,如下所示: Dim header_arr(6) As Stri
任何人都可以为我指定以下情况下的费用: 当使用快照监听器的查询监听集合并且集合中的一个文档将被添加或更新时,我是否需要为已更新的文档或查询中的所有文档付费? 示例:我在用户集合上有一个快照监听器,其中
摘要 我正在使用 Octave 和 Ling-Spam 语料库构建垃圾邮件与普通邮件的分类器;我的分类方法是逻辑回归。 较高的学习率会导致计算成本为 NaN 值,但它不会破坏/降低分类器本身的性能。
我正在从事一个项目,其中我的代码的吞吐量非常重要,经过一番考虑后我选择让我的程序线程化。 主线程和子线程都在两个共享字典中添加和删除。考虑到在 python 中锁定的性能,我一直在通过互联网查看一些输
所以我在 TCP 套接字上发送数据,以数据大小为前缀,如下所示: write(socket, &length, sizeof(length)); write(socket, data, length)
我正在评估 Azure 媒体服务作为我们正在构建的解决方案的托管平台。我已成功使用 DRM 设置动态加密并使用 Azure AD 设置内容保护。我还检查了定价,我知道您必须为编码作业(一次性)、流媒体
AWS S3 Java SDK 提供了一种方法 doesObjectExist()检查 S3 中是否存在对象。它内部使用什么操作?是吗GET , LIST , 或 HEAD ? 我的担忧主要与它的成本
我一直在使用 three.js 来试验和学习 GLSL 和 WebGL。我来自 3d 艺术世界,所以我了解网格、3d 数学、照明等的概念。虽然我确实查阅了 OpenGL 和 WebGL 文献(以及 g
我正在 Azure 中设计一个 Web 服务。是否可以计量每个最终用户的实际 Azure 平台使用成本? Azure 是否向最终用户提供计费服务? 最佳答案 如今的 Windows Azure 计费模
我目前在 MySql 中有一个表,如果我运行此查询,则有 730 万行,大小为 1.5GB: How to get the sizes of the tables of a mysql databas
我是一名优秀的程序员,十分优秀!