gpt4 book ai didi

tensorflow - 在这个 tensorflow 示例中纪元如何工作

转载 作者:行者123 更新时间:2023-11-30 09:32:56 24 4
gpt4 key购买 nike

以下是用于训练简单神经网络的代码片段。

for epoch in range(hm_epochs):
epoch_loss = 0
for _ in range(int(mnist.train.num_examples/batch_size)):
epoch_x, epoch_y = mnist.train.next_batch(batch_size)
_, c = sess.run([optimizer, cost], feed_dict={x: epoch_x, y: epoch_y})
epoch_loss += c

print('Epoch', epoch, 'completed out of',hm_epochs,'loss:',epoch_loss)

这不是完整的代码,但据我所知,内部循环使用所有测试数据(分成批处理)进行训练,并使用优化算法进行优化。当内循环运行一次时,算法的准确度为 90%,但当运行 10 次(hm_epochs=10)时,其正确率为 95%。这对我来说没有任何意义,如何使用相同的数据多次训练它(这就是外循环运行时发生的情况),使其更加准确。

我是 tensorflow 新手。

这不是我的代码,它来自这个系列: https://pythonprogramming.net/tensorflow-neural-network-session-machine-learning-tutorial/

最佳答案

所以你问为什么训练更多轮次会产生更好的结果?这应该是显而易见的:训练的时期越多,优化器就越能更好地适应训练集的网络权重。模型训练得越多,它就越适合训练数据。但如果过度,它就无法泛化,因此在新数据上表现不佳。这称为过度拟合。

关于tensorflow - 在这个 tensorflow 示例中纪元如何工作,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/51393211/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com