gpt4 book ai didi

python - Caffe 迭代损失与训练净损失

转载 作者:太空狗 更新时间:2023-10-29 21:07:04 27 4
gpt4 key购买 nike

我正在使用 caffe 来训练底部带有欧几里得损失层的 CNN,并且我的 solver.prototxt 文件配置为每 100 次迭代显示一次。我看到这样的东西,

Iteration 4400, loss = 0
I0805 11:10:16.976716 1936085760 solver.cpp:229] Train net output #0: loss = 2.92436 (* 1 = 2.92436 loss)

我对迭代损失和训练净损失之间的区别感到困惑。通常迭代损失很小(大约为 0),而 Train 净输出损失更大一些。有人可以澄清一下吗?

最佳答案

Evan Shelhamer 已经在 https://groups.google.com/forum/#!topic/caffe-users/WEhQ92s9Vus 上给出了他的答案.

正如他指出的那样,net output #k 结果是该特定迭代/批处理的网络输出,而 Iteration T, loss = X 输出是根据 average_loss 字段平滑迭代。

关于python - Caffe 迭代损失与训练净损失,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/31840488/

27 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com