gpt4 book ai didi

neural-network - lr_mult = 0 有什么影响?

转载 作者:行者123 更新时间:2023-12-02 01:01:23 25 4
gpt4 key购买 nike

我正在查看一些 Caffe 网络构建代码(在 BerkeleyVision pascalcontext-fcn8s net.py 文件中),我找到了这一行:

L.Deconvolution(n.score_fr,
convolution_param=dict(num_output=60, kernel_size=4, stride=2,
bias_term=False),
param=[dict(lr_mult=0)])

我想知道 lr_mult = 0 项的作用。在查看文档后我的第一个猜测是它应该阻止对内核权重的任何更新,但这看起来很奇怪,因为我假设默认初始化是随机的。这是做什么的?是否有其他代码或参数文件在某处初始化内核?

最佳答案

  1. 你是对的。设置 lr_mult=0 卡住层的权重。权重将保持固定,并且在整个训练过程中不会改变其初始值。
  2. 如果您按照代码进行操作,您会看到对 surgery.interp 的调用, 此函数在训练开始 之前设置放大层的初始权重。由于 lr_mult=0,权重保持固定为这些值。

关于neural-network - lr_mult = 0 有什么影响?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/50355013/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com