weight_decay等参数的作用

这是ssd_pascal.py中的一段代码,因为在读ssd的代码,所以贴的这一段,一般别的solver param也差不多......

solver_param = {

# Train parameters

//base_lr:网络的基础学习速率,一般设一个很小的值,然后根据迭代到不同次数,对学习速率做相应的变化.lr过大不会收敛,过小收敛过慢

base_lr: base_lr,

//weight_decay:权衰量,用于防止过拟合

weight_decay: 0.0005,

//lr_policy:学习速率的衰减策略,详细见后面

lr_policy: "step",

//stepsize:每40000次迭代减少学习率(这一项和lr_policy有关)

stepsize: 40000,

//学习率变化的比率(这一项和lr_policy有关)

gamma: 0.1,

//momentum:网络的冲量;学习的参数,不用变;上一次梯度更新的权重(找到的三个不一样的说法...)

momentum: 0.9,

//iter_size:iter_size*batch size=实际使用的batch size。 相当于读取batchsize*itersize个图像才做一下gradient decent。 这个参数可以规避由于gpu不足而导致的batchsize的限制 因为你可以用多个iteration做到很大的batch 即使单次batch有限

iter_size: iter_size,

//max_iter:最大迭代次数,告诉网络何时停止训练.太小达不到收敛,太大会导致震荡

max_iter: 60000,

//snapshot:每40000次迭代打印一次快照(就是把当前数据保存下来,方便下次重用,如果电源不稳定容易意外关机建议这个值设小一点...对,就是我...)

snapshot: 40000,

//display:每经过10次迭代,在屏幕上打印一次运行log(告诉你当前的loss之类的...)

display: 10,

//取多次foward的loss作平均,进行显示输出

average_loss: 10,

//type:选择一种优化算法,具体有哪些见后面

type: "SGD",

//选择CPU or GPU

solver_mode: solver_mode,

//device_id:选择几块GPU

device_id: device_id,

//用于调试的?暂时不确定...以后补上

debug_info: False,

//snapshot_after_train:true表示在训练完后把最后一次的训练结果保存下来

snapshot_after_train: True,

# Test parameters

//test_iter:每次预测的迭代次数.一般test_iter*batch_size=所有test样本数,这样一次预测就可以覆盖所有test样本

test_iter: [test_iter],

//test_interval:训练时每迭代10000次进行一次预测

test_interval: 10000,

//

eval_type: "detection",

//

ap_version: "11point",

//test_initialization:false表示可以用上次保存的snapshot来继续训练

test_initialization: False,

}

lr_policy

这个参数代表的是learning rate应该遵守什么样的变化规则,这个参数对应的是字符串,选项及说明如下:

    “step” - 需要设置一个stepsize参数,返回base_lr * gamma ^ ( floor ( iter / stepsize ) ),iter为当前迭代次数 “multistep” - 和step相近,但是需要stepvalue参数,step是均匀等间隔变化,而multistep是根据stepvalue的值进行变化 “fixed” - 保持base_lr不变 “exp” - 返回base_lr * gamma ^ iter, iter为当前迭代次数 “poly” - 学习率进行多项式误差衰减,返回 base_lr ( 1 - iter / max_iter ) ^ ( power ) “sigmoid” - 学习率进行sigmod函数衰减,返回 base_lr ( 1/ 1+exp ( -gamma * ( iter - stepsize ) ) )

type

到目前的版本,caffe提供了六种优化算法来求解最优参数,在solver配置文件中,通过设置type类型来选择。

    Stochastic Gradient Descent (type: "SGD"), AdaDelta (type: "AdaDelta"), Adaptive Gradient (type: "AdaGrad"), Adam (type: "Adam"), Nesterov’s Accelerated Gradient (type: "Nesterov") and RMSprop (type: "RMSProp")
经验分享 程序员 微信小程序 职场和发展